主题
字号
CHAPTER 02 ≈ 40 MIN READ

第一章:存储的秘密——文件都去哪了?

【上章回顾】 在开篇,我们提出了一系列让人困惑的问题:为什么同样16GB,手机内存和电脑内存价格差那么多?买电脑时的参数表为什么那么难懂?为什么AI时代内存价格飞起?这些问题的答案,都藏在"存储"这件事里。

【本章目标】 读完这一章,你会理解:

  • 硬盘和内存到底是两种完全不同的东西,不能混淆
  • 你的文件保存后,到底以什么形式 "住"在硬盘里
  • 为什么打开软件时电脑会卡顿,内存满了会怎样
  • 缓存是什么,为什么说它是计算机世界里最重要的设计思想之一
  • 为什么文件"删了"其实没有真的消失

预计阅读时间:40分钟


1.1 硬盘:你的数字仓库

场景:一个奇怪的误会

你有没有遇到过这样的情况?

帮家里人买电脑,销售员推荐一台"16GB内存+512GB固态"的笔记本,旁边的亲戚却突然发话:"才512GB?存东西不够用啊,我手机都256GB了,感觉也没大太多。"

你感觉哪里不对,但又说不清楚。

更常见的场景是:学长告诉你"买电脑一定要16GB内存",你理解成了"内存越大,存的东西越多"——于是去买电脑,看到一台"8GB内存+1TB硬盘"的机器,心想:这内存好小啊,还不如我512GB手机大。

这个小小的误解,背后是一个关于"存储"的根本性混淆——很多人把内存硬盘当成同一种东西,只是大小不同。

但实际上,它们是两种工作原理完全不同的部件,就像你把"餐厅的桌子"和"餐厅的仓库"当成一回事一样——都是"装东西的地方",但一个是临时工作台,一个是长期储藏室,完全不同。

这一节,我们先来搞清楚硬盘——你的数字仓库


核心概念:硬盘是什么?

硬盘,英文叫 Hard Disk Drive,缩写 HDD,或者更广义地叫存储设备(Storage)。它是你电脑里负责长期保存数据的部件。

"长期"是什么意思?就是断电之后,数据还在

你写了一篇论文,按下 Ctrl+S 保存,关电脑,第二天开机,论文还在——这是硬盘的功劳。你下载了一个游戏,安装完关机,下次开机游戏还在——也是硬盘。你的毕业照片、收藏的音乐、保存的代码——只要你点了"保存",背后都是数据被写入了硬盘。

用餐厅来类比:硬盘就是餐厅后面的储藏室。食材(数据)平时放在那里,需要用的时候才拿出来。储藏室的特点是:

这三个特点,也正是硬盘的核心特征。


机械硬盘(HDD):转盘和磁头的物理魔法

传统机械硬盘的工作原理非常直观——它字面上就是"机械"的。

打开一块机械硬盘(别在家里轻易动手——空气中的灰尘会毁掉它),你会看到一叠圆形的金属盘片(Platter),表面涂了一层磁性材料(原理和磁带、磁条银行卡相似)。盘片以每分钟 5400 转或 7200 转的速度高速旋转,一个像留声机唱针一样的**磁头(Read/Write Head)**悬浮在盘片表面极近处——这个距离大约是人类头发丝直径的千分之一,大约 10纳米(0.00001毫米)。

磁头负责读取和写入数据。

【建议配图】机械硬盘内部结构横截面示意图:

┌─────────────────────────────────────────────────┐
│                  机械硬盘内部                     │
│                                                 │
│         ┌──── 盘片(Platter)                    │
│         │   圆形磁性存储介质,可有多叠              │
│         ▼                                       │
│    ╔══════════╗                                 │
│    ║  盘片 1  ║ ←── 磁头臂(Actuator Arm)        │
│    ╠══════════╣                                 │
│    ║  盘片 2  ║ ←── 磁头(Read/Write Head)       │
│    ╠══════════╣                                 │
│    ║  盘片 3  ║    悬浮高度约10nm                 │
│    ╚══════════╝                                 │
│         │                                       │
│    主轴电机(Spindle Motor)                      │
│    5400 / 7200 RPM                              │
└─────────────────────────────────────────────────┘

数据以磁性方向的形式编码:某个位置的磁性朝一个方向代表 1,另一个方向代表 0。整块盘片上密密麻麻地记录着无数个 1 和 0,合起来就是你的文件。每英寸的磁道上可以存储几百到上千个比特,现代机械硬盘的磁道密度高得令人难以置信。

这个设计的速度瓶颈也很明显:磁头要读取某个位置的数据,需要等盘片转到那个位置(叫旋转等待时间,Rotational Latency),还需要磁头移动过去(叫寻道时间,Seek Time)。

对于 7200 转/分钟的硬盘来说:

听起来 10ms(0.01秒)很短,但对电脑来说,这是相当漫长的等待——CPU 一秒钟能执行几十亿次操作,而机械硬盘找一次数据要等上 10ms,这个速度差异大约是 1000万倍

机械硬盘的顺序读写速度大约在 100~200 MB/s(每秒读写100到200兆字节)。顺序读写(比如读一整个大文件)比随机读写(比如打开操作系统,读取分散在各处的小文件)快得多,因为后者需要频繁的磁头移动和盘片等待。

机械硬盘的优点是便宜容量大

所以机械硬盘并没有"死",只是从系统盘的主力退化到了大容量存储的角色。


固态硬盘(SSD):用芯片替代转盘

固态硬盘,英文 Solid State Drive,缩写 SSD,里面没有任何机械运动的部件——"Solid State"(固态)的意思就是没有活动部件。

它用的是闪存(Flash Memory),一种特殊的芯片,可以在断电后保存数据。你的U盘、手机存储卡、相机存储卡,里面用的也是同样原理的闪存。

没有了机械转盘和磁头,SSD 的速度直接飞跃:

硬盘类型 接口 典型顺序读速度
机械硬盘 SATA 100-200 MB/s
普通 SSD SATA 400-550 MB/s
高速 NVMe SSD M.2 PCIe 3000-7000 MB/s
顶级 NVMe SSD M.2 PCIe 5.0 10000+ MB/s

(2024年主流消费级产品数据)

NVMe(Non-Volatile Memory Express)是一种专门为SSD设计的协议,相比老旧的SATA协议,它利用了PCIe总线的高带宽,延迟更低,速度更快。如果你的笔记本有M.2插槽(主板上的一个小接口),插入的NVMe SSD就是通过这个接口和CPU直接通信的。

SSD 比机械硬盘快多少?用一个直观的类比来说:

如果机械硬盘是一个骑自行车的快递员(在城市里送货,平均速度约20km/h),那NVMe SSD就是高铁(最高速度350km/h)。速度差了约17倍,而最快的SSD和机械硬盘相差可以超过50倍。

SSD 和 HDD 还有哪些不同?

特性 机械硬盘(HDD) 固态硬盘(SSD)
随机读取延迟 5-10ms 0.05-0.1ms
抗震性 差(运转时怕震动) 强(无活动部件)
噪音 有(转盘声)
发热 中等 低(NVMe高负载时较热)
功耗 较高 较低
单位容量价格 较高
寿命机制 磁头碰撞盘片即物理损坏 闪存有写入次数限制(TBW)

关于寿命有一点要特别说:SSD 的每个存储单元有写入次数限制。这叫做 P/E 循环(Program/Erase Cycle),廉价的 QLC 闪存大约 300-1000 次,TLC 大约 1000-3000 次,MLC 大约 3000-10000 次。超过这个次数后,该存储单元可能无法可靠保存数据。

但是——对于普通用户来说,这个限制几乎不是问题。一块 500GB 的 TLC SSD,额定写入寿命(TBW,Total Bytes Written)通常是 300 TBW(3000亿字节),如果你每天写入 100GB 的数据(这对普通用户来说已经极其夸张),也要 8 年才能写完。实际上大多数普通用户每天写入量不超过 10-20GB,所以 SSD 的实际寿命远超厂商给的保修期。


闪存的工作原理:浮栅晶体管的魔法

这部分是选读内容,但作为科大微电子&AI专业学生,了解底层原理对你的技术直觉很有帮助。

闪存的存储单元叫做浮栅晶体管(Floating Gate Transistor)。它是一种特殊的 MOSFET 晶体管,在普通控制栅(Control Gate)和源漏之间,额外加了一个浮栅(Floating Gate)——之所以叫"浮",是因为它被二氧化硅绝缘层完全包围,不与任何电路直接相连。

【建议配图】浮栅晶体管结构示意图:

    ┌────────────────────────────────────┐
    │           控制栅(Control Gate)    │
    ├────────────────────────────────────┤
    │        氧化层(Oxide Layer)        │
    ├────────────────────────────────────┤
    │           浮栅(Floating Gate)     │  ← 电子被"困"在这里
    ├────────────────────────────────────┤
    │        氧化层(Oxide Layer)        │
    ├────────────────────────────────────┤
    │    源极(S)  │   沟道   │  漏极(D)  │
    └────────────────────────────────────┘
                  硅衬底(Substrate)

写入(存"1"或"0"): 通过在控制栅施加高电压,利用量子隧穿效应(Quantum Tunneling)将电子"推"过绝缘层,注入浮栅。注入了电子的浮栅会影响晶体管的导通特性——通过检测晶体管在正常工作电压下是否导通,就能读出存储的值是 0 还是 1。

擦除: 对浮栅施加反向高电压,把电子再"抽"出来。

每次擦写都会对绝缘氧化层造成轻微损伤,这就是为什么有写入次数限制——就像一张纸反复橡皮擦,总有擦烂的时候。

更现代的闪存技术,如 MLC(Multi-Level Cell,每个单元存2位)、TLC(3位)、QLC(4位),通过在浮栅中存储不同数量的电子来表示不同的中间状态,从而提高存储密度——但代价是可靠性下降和寿命缩短。


C盘和D盘:分区的秘密

这是个很多人有疑惑的问题。

C盘、D盘,在Windows里叫分区(Partition)。一块物理硬盘可以被划分成多个分区,每个分区在操作系统里显示为一个"盘符"。分区是逻辑上的划分,物理上还是同一块硬盘。

为什么要分区?几个实用原因:

  1. 隔离系统和数据:C盘放操作系统和软件,D盘放个人文件(文档、下载、游戏)。如果系统崩了需要重装,只需要格式化C盘,D盘的数据可以保留

  2. 不同文件系统:不同分区可以用不同的文件系统格式(这个下面会讲)

  3. 历史遗留:早期DOS系统有很多限制,分区是解决这些限制的方式。现在很多限制已经不存在了,但分区的习惯保留了下来

注意:C盘和D盘通常还是同一块物理硬盘,不会因为分区而获得更快的速度。如果你以为"把文件放D盘会更快",那是误解——除非你的D盘对应的是另一块物理上独立的更快的硬盘。

Mac 和 Linux 通常不用盘符这个概念,而是用挂载点(Mount Point)——比如 /(根目录)、/home(用户目录)等。Mac 的 Finder 里只展示一个"Macintosh HD",但底层也是有分区的(包括专门的 EFI 系统分区、恢复分区等)。


文件系统:硬盘上的"图书馆管理系统"

现在来思考一个问题:硬盘上密密麻麻都是 0 和 1,电脑是怎么知道哪些 1 和 0 是你的毕业论文,哪些是你的游戏存档?

这就是**文件系统(File System)**的职责。

文件系统是操作系统在硬盘上建立的一套"索引系统",它规定了:

把硬盘想象成一座巨大的图书馆,文件系统就是这个图书馆的分类编目系统——没有它,这座图书馆就是一堆乱放的书。

常见文件系统

文件系统的实现细节(如何管理空闲块、如何构建目录树、如何处理碎片)在操作系统课上会详细讲,现在你只需要知道它的功能和常见格式就够了。


数据碎片:为什么机械硬盘要"碎片整理"?

这是一个很多人用过但没理解的功能。

当你向硬盘写入一个文件,文件系统会找到空闲的存储块来存放它。问题来了——如果硬盘已经用了一段时间,空闲块可能散落在各处,一个文件可能被拆分成许多碎片,存在物理上不连续的位置。

对于机械硬盘来说,这是个严重的问题:磁头需要在不同的物理位置之间来回移动,每次移动都需要等待——这叫碎片化(Fragmentation),会导致读写速度大幅下降。

"碎片整理(Defragmentation)"就是把散落的碎片重新排列,让文件在物理上连续存放,磁头可以顺序读取,速度恢复正常。Windows XP/7时代,系统会定期提醒你做碎片整理。

但是——千万不要对SSD做碎片整理。SSD没有磁头,随机访问和顺序访问速度差别很小,碎片不是问题。相反,碎片整理会对SSD写入大量数据,白白消耗有限的写入寿命。Windows 10 和 11 会自动识别出SSD,改成执行"TRIM"操作(告诉SSD哪些块可以被清理),而不是碎片整理。


"删除"文件,真的删除了吗?

很多大一新生删完文件后都会想:它到底彻底没了,还是只是藏起来了?答案要分情况说,尤其是现在大部分电脑都用固态硬盘(SSD),情况和老式的机械硬盘(HDD)差别很大。

我们还是用图书馆比喻:文件是书,文件系统是借书卡片目录。删除操作大多只动目录,不动书本身——但SSD有自己的“清洁工”机制,会让书消失得更快。

1. 最简单的删除:扔进回收站 系统只是把书挪到回收站这个角落,并在目录里标记“已删除”。书的内容完全没动,你随时能还原。

2. 比较彻底的删除:清空回收站 或 Shift + Delete 系统会:

这时空间显示释放了。

但实际数据是否还在,要看你的硬盘类型

小建议:误删重要文件后,越快停止使用这个磁盘越好(别保存新东西,最好关机)。但在SSD上,抢救成功的概率已经比以前低很多了。

3. 更深层次的删除:用专用工具覆盖擦除 用SDelete、Cipher等工具,对删除的位置反复写0或随机数据,把残留内容真正破坏掉。即使是SSD,恢复也几乎不可能。

4. 最彻底的删除:物理销毁 砸碎、焚烧、消磁(HDD适用)。这是最高安全级别。

为什么现在SSD让删除变得“更彻底”?

SSD不能像HDD那样简单“原地覆盖”。它需要先擦除整个块才能写新东西。TRIM机制就是为了让SSD跑得更快、寿命更长而设计的——代价就是,删掉的文件往往“消失”得比我们想象中快。

生活中大家常说的“格式化”又是怎么回事?

很多人想快速删东西时会想:“要不我把整个盘格式化一下试试?”或者卖电脑前直接格式化。但格式化到底做了什么?

生活中点击的“格式化”,通常是快速格式化。它相当于把整个图书馆的借书卡片目录全部扔掉,重新印了一套空白的目录卡,然后告诉系统:“现在所有书架位置都空出来了,可以随便放新书。”

听起来是不是和“清空回收站”很像?没错,它属于我们前面说的第2层操作:只改标记,不覆写内容。

但在现代 SSD 上,情况没那么乐观:格式化时系统会给 SSD 下达一个大范围的 TRIM 命令,告诉它“整个盘的块都可以擦除了”。SSD 的清洁工(垃圾回收)很快就会行动,把旧数据物理清掉。这时再想恢复,就比单个文件删除难多了。

所以,“格式化还能完全恢复”这种说法,在老机械硬盘上比较靠谱,但在现在主流的固态硬盘上,已经不太准了——尤其是你格式化后还继续用了电脑,下载东西、安装软件,新数据就会进一步覆盖残留部分。

小提醒


常见误区澄清

误区:内存越大,存的东西越多,所以买电脑主要看内存大小。

正确理解:内存(RAM)和硬盘是完全不同的两回事。内存决定你同时能运行多少程序(临时工作台),硬盘决定你能保存多少文件(长期仓库)。"手机256GB存储"说的是闪存容量,是类似于硬盘的存储;"电脑16GB内存"说的是RAM,是程序运行的工作台。两者根本不是同一个维度,不能比较大小。(内存的故事,留到下一节细说。)

误区:固态硬盘既然好这么多,机械硬盘就完全没用了,买电脑一定要拒绝机械硬盘。

正确理解:机械硬盘在大容量、低成本存储场景下仍然有不可替代的优势。视频剪辑工作室存放原始素材(动辄几十TB)、家庭NAS(网络附加存储)、数据中心的冷备份,大量用的都是机械硬盘。相同价格买机械硬盘能得到 5-10 倍的容量。两种技术各有适合的场景,不是简单的优劣关系。

误区:把文件删进回收站再清空,数据就彻底消失了。

正确理解:不准确,在现代SSD上确实基本清除,但TRIM的覆盖需要时间,尤其是对于文件较大时,及时关机还是有可能找回没被覆盖的文件信息的。


动手环节:看看你电脑的硬盘

Windows 用户——方法一:磁盘管理

  1. 右键点击开始菜单,选择"磁盘管理"(或按 Win + R 输入 diskmgmt.msc 回车)
  2. 你可以看到所有物理磁盘("磁盘0"、"磁盘1"等)和每个磁盘的分区
  3. 注意观察:你的C盘所在的物理磁盘,和其他盘是否是同一个?

Windows 用户——方法二:查看硬盘详细信息

按 Win + R,输入 msinfo32,回车
打开"系统信息" → 展开"组件" → "存储" → "磁盘"

可以看到硬盘型号,比如"Samsung SSD 970 EVO Plus 1TB"或者"TOSHIBA MQ04ABF100",搜索型号可以查到这是SSD还是HDD、接口类型、读写速度等详细信息。

Windows 用户——方法三:用命令行查看

# 打开命令提示符(Win+R 输入 cmd),然后运行:
wmic diskdrive get model,size,mediatype

输出中,MediaType 显示 Fixed hard disk media 一般是机械硬盘,SSD有时显示为 SSD,但并不是所有SSD都会明确标注。

Mac 用户:

  1. 点击左上角苹果图标 → "关于本机" → "系统报告"
  2. 左侧找到"存储",可以看到硬盘型号、容量、接口类型(如"Apple Fabric"或"NVMe")
  3. Mac 2018 年之后的机器几乎全部使用苹果自研的NVMe SSD,直接集成在主板上(Type: NVMe),速度极快

Linux 用户:

# 查看所有磁盘和分区
lsblk -d -o name,rota,size,model,tran

# rota=1 是机械硬盘,rota=0 是固态
# tran 显示接口类型(sata/nvme等)

# 查看磁盘详细信息(可能需要sudo)
sudo hdparm -I /dev/sda | grep -i "solid\|ssd\|rpm"

做完之后,搜索一下你硬盘的型号,看看它的额定读写速度是多少,和上面的表格对比一下。


本节要点

✓ 硬盘是长期存储数据的地方,断电后数据不消失

✓ 机械硬盘(HDD)用旋转盘片+磁头工作,容量大、价格低、速度约100-200 MB/s,随机访问慢

✓ 固态硬盘(SSD)用闪存芯片,NVMe SSD速度可达7000 MB/s以上,无活动部件、抗震、静音

✓ C盘/D盘是同一块硬盘的不同分区,是逻辑划分,不是物理隔离

✓ 文件系统(NTFS/APFS/ext4等)负责在硬盘上建立目录结构和索引,让电脑"认识"文件

✓ 普通删除文件并不真正清除数据,数据仍在硬盘上,可以用软件恢复

硬盘 ≠ 内存,这是本章最重要的区别,下一节解释内存


1.2 内存:电脑的工作台

场景:打开太多标签页之后

期末周,你开着10个Chrome标签页在搜资料,同时开着Zoom上讨论课,开着VSCode写作业,后台还跑着一个Python脚本。

电脑开始变慢——不是变了一点点慢,是明显地、痛苦地慢。风扇转得很响,点击任何东西都要等几秒,某个程序突然崩溃,弹出"内存不足,该程序将被关闭"的提示。

你关掉几个没用的Chrome标签页,神奇的事情发生了:电脑立刻顺畅了,风扇转速降下来,程序响应变快了。

你的文件一个都没少,硬盘没有任何变化。问题出在内存(RAM)用完了


核心概念:内存是什么?

内存,全称随机存取存储器(RAM,Random Access Memory),是电脑里用来临时存放正在运行的程序和数据的地方。

理解内存,关键是两个词:临时正在运行

临时意味着:关机断电,内存里的所有数据全部消失。所以你写了一篇文章忘了保存就关机,就真的没了——因为文章当时存在内存里,还没被写回硬盘。Ctrl+S 这个动作,本质上就是把当前内存里的文件内容,写入硬盘永久保存。

正在运行意味着:只有程序在运行,才需要内存。你打开Chrome,Chrome的可执行代码、它管理的网页数据,从硬盘加载进内存;你关掉Chrome,这块内存就释放出来,可以给别的程序用。内存是一个动态的、按需分配的资源。

还是用餐厅类比,把整个系统类比成餐厅的运作:

操作台的大小决定了大厨能同时处理多少食材。操作台太小,大厨就得不停地把食材搬来搬去,效率极低。操作台够大,所有需要的食材都摆着,处理飞快。

这解释了为什么内存大可以多开程序不卡——更大的工作台,能同时摆更多正在用的东西。


内存的速度:为什么它比硬盘快这么多?

内存的读写速度,现代主流的 DDR4 内存大约是 25-50 GB/s,DDR5 可以到 50-100 GB/s。而机械硬盘只有 100-200 MB/s,即使是最快的 NVMe SSD 也只有约 7 GB/s。

$\text{内存速度(50 GB/s)} \approx 7 \times \text{NVMe SSD速度(7 GB/s)}$

$\text{内存速度(50 GB/s)} \approx 250 \times \text{机械硬盘速度(200 MB/s)}$

内存比NVMe SSD还快近10倍,比机械硬盘快250倍以上。

为什么这么快?内存用的是 DRAM(Dynamic Random Access Memory,动态随机存取存储器) 技术。每个存储单元是一个电容加一个晶体管:电容里充了电表示 1,放了电表示 0。这种结构极其简单,可以做到非常高的密度和极低的访问延迟。

内存模块(内存条)直接连接在主板的内存总线上,CPU访问内存只需要通过内存控制器(现代CPU把内存控制器集成到了CPU芯片内部),延迟大约在 60-100 纳秒,远低于要经过复杂协议的SSD。

内存的代价是:

  1. 断电即失:DRAM 的电容会自然放电,需要持续供电并定期"刷新"(重新充电),断电后数据消失
  2. 成本较高:DRAM 制造工艺复杂,相比同容量的闪存贵得多(这也是为什么手机"内存"8GB,存储却可以256GB)尤其是近两年由于AI训练的需求,内存条的成本更加飞涨。

内存的物理形态:认识内存条

台式电脑和部分笔记本的内存通常是可以更换和升级的,但轻薄本不行。

台式电脑用的是 DIMM(Dual Inline Memory Module) 内存条,大约和你的手掌一样长,直接插在主板的内存插槽里。

笔记本用的是更小的 SO-DIMM 内存条,大约是 DIMM 的一半长。

轻薄本为了追求极致轻薄 + 续航 + 性能效率,大部分采用LPDDR5X等低功耗内存,这种内存几乎只能焊死。目前Intel Lunar Lake、AMD Ryzen AI 300系列的部分机型、Apple M系列、高通骁龙X系列等,都倾向于焊死或直接集成在芯片封装里。

内存条旁边常见的参数:

如果你的笔记本内存不够用想升级,需要查清楚:是否是轻薄本?能不能扩展内存?主板支持几根内存、最大容量、支持的频率规格?


虚拟内存:用硬盘"冒充"内存

当物理内存(真实的RAM芯片)不够用时,操作系统会施展一个"把戏":把一部分硬盘空间当成内存来用,这就叫虚拟内存(Virtual Memory)

Windows 里叫页面文件(Pagefile.sys),Mac 和 Linux 里叫交换空间(Swap Space),通常是硬盘上的一个特殊文件或专用分区。

具体机制是这样的:

当内存快满了,操作系统会挑选一些最近没被使用的内存页(每页通常是4KB),把它们的内容写到硬盘上的页面文件里,然后腾出这块物理内存给新的需求使用。这个过程叫换出(Page Out / Swap Out)

当某个程序需要访问那块被换出的数据时,操作系统发现它不在物理内存里(发生缺页错误,Page Fault),就暂停程序,从硬盘上把那块数据读回内存,再继续运行。这个过程叫换入(Page In / Swap In)

听起来聪明,但问题很严重:

$\text{内存延迟} \approx 80\text{ns}$ $\text{SSD延迟} \approx 0.1\text{ms} = 100{,}000\text{ns}$ $\text{机械硬盘延迟} \approx 8\text{ms} = 8{,}000{,}000\text{ns}$

从内存换到SSD上,延迟增加了约 1000倍;换到机械硬盘上,延迟增加了约 100,000倍

一旦系统开始大量使用虚拟内存(叫做Thrashing,抖动),你会明显感到电脑"卡住了"——硬盘灯疯狂闪烁,程序响应极慢,整个系统像陷入泥潭。

虚拟内存是一个保命措施,不是性能方案。它防止程序因为内存不足直接崩溃,但一旦大量使用,体验会很差。如果你的电脑经常出现大量换页,说明物理内存真的不够用了,应该考虑升级内存条。

一个更深层的"虚拟内存"含义:虚拟内存还有另一层意思——即使物理内存够用,现代操作系统也会给每个程序一个"虚拟的"地址空间,让它以为自己独占全部内存。程序看到的地址(虚拟地址)和实际物理内存地址(物理地址)之间,有一个叫做**页表(Page Table)**的映射结构,由操作系统维护。这样不同程序之间互相隔离,一个程序崩溃不会影响其他程序。这个话题在第三章操作系统里会深入讲。


内存的容量:2026年,多少才够?

内存容量就像电脑的“工作台”大小——台子太小,你同时摆的东西一多,就得来回挪,效率直线下降。这个答案每年都在变:

具体推荐(以2026年主流笔记本/台式机为准):

内存容量 适合的使用场景(给中科大同学的建议)
8GB 只做简单文档、网页浏览、看视频,同时不开太多程序。偶尔会卡顿,不推荐作为主力机配置。
16GB 入门配置。普通学生上课、写代码、做常规实验、刷论文、开几个浏览器标签,完全够用。轻度跑Python、Jupyter Notebook也没问题。很多AI PC(Copilot+ PC)的最低要求是16GB。
32GB 中等规模机器学习实验、同时开多个浏览器+后台很多程序、同时跑多个开发环境。强烈推荐给想做AI相关课程或代码项目的同学——更舒适,不容易卡。
64GB+ 大型数据处理、专业视频渲染、运行本地大模型、科研级实验。普通本科生通常用不到,服务器或专业工作站才需要。

作为USTC(中科大)的学生

AI时代为什么内存价格还这么“坚挺”?

你可能在2023-2025年就听过“内存价格飞起”。进入2026年,这个现象依然有明显痕迹,甚至在某些时段继续上涨。

主要原因是大模型对内存的海量需求

结果就是:DRAM产能虽然在增加,但跟不上AI爆炸式增长。2025年底到2026年初,服务器级DDR5和LPDDR5X价格曾出现大幅上涨(部分季度翻倍或接近翻倍),消费级内存也水涨船高。虽然2026年部分月份有小幅回落,但整体仍处于高位,买高容量内存时明显能感觉到“贵”。

这也是为什么我们在选购时(第五章会细讲),不要一味追求最低价配置——多花一点钱上16GB或32GB,往往能用得更久、更顺畅。


常见误区澄清

误区:把内存加大,电脑速度就会快很多。

正确理解:内存影响的是多任务能力,而不是单个程序的运行速度。如果你只是玩一个游戏,8GB和32GB内存的差距可能不大(只要内存够用就好);但如果你同时开着游戏、直播软件、Discord和浏览器,32GB的优势就很明显了。真正影响单个程序速度的,是CPU的主频、核心数,以及GPU性能——这些在第二章讲。

误区:虚拟内存开大一点,就相当于内存变多了,电脑会更快。

正确理解:虚拟内存是用硬盘空间换来的,而硬盘(即使是SSD)的速度和内存相比慢了一两个数量级。开大虚拟内存可以防止程序因内存不足而崩溃(保命措施),但一旦真的开始大量使用虚拟内存,电脑会非常卡。治本之道是加实体内存,不是调大虚拟内存设置。

误区:内存和硬盘都是存数据的,区别只是大小和速度。

正确理解:内存和硬盘有根本性的差别——断电是否保留数据。内存是易失性存储(Volatile),断电清空;硬盘是非易失性存储(Non-volatile),断电保留。这不是速度的问题,是物理机制的本质差别。内存用电容存储电荷,硬盘用磁性或电荷隧穿效应持久存储。


动手环节:实时观察内存使用情况

Windows 用户:

按下 Ctrl + Shift + Esc 打开任务管理器,点击"性能"选项卡,选左边的"内存"。

你可以看到:

实验:

  1. 记录当前"使用中"的内存量
  2. 打开 Chrome,新建 5 个标签页,分别加载视频网站
  3. 再看"使用中"的数字,增加了多少?
  4. 关掉 Chrome,数字降回去了多少?

点击"进程"标签,按内存排序,看看哪些程序最耗内存——Chrome 出了名的吃内存,每个标签页都是一个独立进程。

Mac 用户:

打开"活动监视器"(Spotlight 搜索 "Activity Monitor"),点击"内存"选项卡。

Mac 有一个独特的指标叫**"内存压力"(Memory Pressure)**:

观察"交换空间已使用"这个数字,如果它一直在增长,说明 Mac 在用硬盘补充内存。

Mac 还有一个叫"内存压缩"的技术:当内存紧张时,它会先尝试压缩不常用的数据(类似于 zip 压缩),节省空间,而不是立刻换到硬盘——这比立刻使用虚拟内存更快,是苹果的一个优化。

# Linux 用户查看内存使用:
free -h

# 实时监控:
watch -n 1 free -h

# 或者用更友好的工具:
htop  # 需要安装:sudo apt install htop

本节要点

✓ 内存(RAM)是临时存储正在运行的程序的地方,断电后全部清空

✓ 内存速度远超硬盘:比 NVMe SSD 快近10倍,比机械硬盘快250倍以上

✓ 内存不足时,操作系统会用硬盘充当内存(虚拟内存),但会导致严重卡顿

✓ 2026年参考:普通大学生用 16GB 入门,多开应用建议 32GB

✓ 内存 = 临时工作台;硬盘 = 长期仓库。这是两者的本质区别


1.3 看不见的存储层:缓存的魔法

缓存:世界上最聪明的图书馆员

想象一个图书馆员,他负责把书从书架取来给你。书库很大,找一本书要走五分钟,再走回来又五分钟,总共十分钟。

他观察了一段时间,发现这个图书馆的规律:

  1. 你今天看第1章,明天八成会来看第2章(时间规律
  2. 你借了《算法导论》,大概率也需要《数据结构》这类书(主题规律
  3. 同一行书架上的书,借了一本之后旁边的经常也被借(空间规律

于是他在自己桌子旁边放了一个小书架,把最近最常借出的书都放在那里。你来了,三秒钟就能拿到——不用再等十分钟。

这个小书架就是缓存(Cache)

缓存的核心思想只有一句话:把常用的东西放在更容易拿到的地方,以快补慢,以小掩慢。

这个想法朴素到几乎是常识,但它是计算机体系结构里最重要的设计原则之一,也是让现代电脑速度远超你想象的秘密武器。


核心概念:为什么需要缓存?

我们已经建立了一个认知框架:

存储类型 延迟
机械硬盘 ~8ms
NVMe SSD ~0.1ms
内存 (DRAM) ~80ns
CPU 内部 L1 缓存 ~1ns

现在来看 CPU 这一端。

现代 CPU 的运行频率大约是 3-5 GHz,意味着每秒 30-50 亿个时钟周期。每个时钟周期约为:

$T = \frac{1}{4\text{GHz}} = 0.25\text{ns}$

而访问一次内存(DRAM)需要约 80ns,相当于:

$\text{CPU等待内存的时钟周期} = \frac{80\text{ns}}{0.25\text{ns}/\text{周期}} = 320\text{个时钟周期}$

CPU 每次去内存取一个数据,要空等 320 个时钟周期

这是什么概念?如果 CPU 是一位反应快到极致的厨师,每 0.25 秒就能完成一道工序,那么他每次去仓库(内存)取食材,要等 320 × 0.25 = 80 秒。整个烹饪流程 99% 的时间都在等待,不在工作。

这个问题叫做**"内存墙"(Memory Wall)**——CPU 速度提升远快于内存速度提升,导致两者之间的速度鸿沟越来越大。这是计算机体系结构面临的核心挑战之一,从 1990 年代开始就被反复讨论。

解决方案就是:在 CPU 和内存之间,再加几层更快的小容量存储——CPU 缓存


存储金字塔:从极速到海量

现代电脑的存储系统,可以用一个金字塔来描绘:

【建议配图】存储层次金字塔示意图(带延迟和容量标注):

                    ╔═══════════╗
                    ║  寄存器    ║  < 1 KB       < 0.5 ns
                    ╚═══════════╝
                 ╔═════════════════╗
                 ║    L1 缓存      ║  32-256 KB   ~1-4 ns
                 ╚═════════════════╝
              ╔═══════════════════════╗
              ║      L2 缓存           ║ 256KB-4MB  ~5-15 ns
              ╚═══════════════════════╝
           ╔═════════════════════════════╗
           ║         L3 缓存              ║  
           ║    4-64 MB   ~30-60 ns      ║
           ╚═════════════════════════════╝
        ╔═══════════════════════════════════╗
        ║            内存 (DRAM)             ║
        ║      8-128 GB   ~60-100 ns        ║
        ╚═══════════════════════════════════╝
     ╔═══════════════════════════════════════════╗
     ║              NVMe SSD                     ║  
     ║          256GB-8TB  ~100 μs               ║
     ╚═══════════════════════════════════════════╝
  ╔═══════════════════════════════════════════════════╗
  ║                  机械硬盘 (HDD)                    ║  
  ║             500GB-20TB  ~8 ms                     ║
  ╚═══════════════════════════════════════════════════╝
  
  ▲ 速度更快 | 价格更贵 | 容量更小
  ▼ 速度更慢 | 价格更便宜 | 容量更大

从寄存器(最顶层,速度最快)到机械硬盘(最底层,速度最慢),延迟差了约 2000万倍。这是一个令人震惊的数字。


CPU 缓存的详细解析:L1、L2、L3 是什么?

CPU 缓存是直接集成在 CPU 芯片上的存储器。打开一颗 CPU 的显微照片,你能看到芯片上有相当大比例的面积专门用来做缓存——对于某些高端 CPU,缓存占了芯片面积的 50% 以上。

想象你正在写一份很长的课程报告(比如中科大的实验报告):

为了更快,你聪明地做了分层准备:

  1. L1 缓存 —— 你手边最顺手的“小纸条”(超级快,但很小)
    • 你把马上就要用的几行公式当前正在写的这段文字抄在手边的小便签上(32KB~256KB)。
    • 分为两类:指令小纸条(L1-I:告诉你下一步该写什么)和数据小纸条(L1-D:放具体数字和内容)。
    • 每个“人”(每个CPU核心)都有自己专属的一叠小纸条,别人不能用。
    • 速度极快:几乎一伸手就能拿到(1~4纳秒)。
  2. L2 缓存 —— 你抽屉里的中等笔记本(比L1大一点,稍慢一点)
    • 放最近几页的资料(256KB~几MB)。
    • 还是每个核心自己用。
    • 如果小纸条上没找到,就赶紧翻抽屉(L2),不用跑到大书架(内存)。
  3. L3 缓存 —— 办公室里大家共用的大书架或公告板**(最大,但相对最慢)
    • 放整个小组(所有CPU核心)最近常用的一些重要资料(几MB到几十MB,甚至上百MB)。
    • 关键好处:如果你(一个核心)刚才查过某个公式,另一个同学(另一个核心)要用的时候,可能直接从这个公共大书架上找到,不用跑去内存。
    • 这就是“共享”的意思——让多个核心之间能快速“借”数据,减少大家一起挤去内存的拥堵。

整个流程像这样: CPU 需要数据时 → 先看自己手边小纸条(L1)→ 没找到就翻抽屉(L2)→ 再看公共书架(L3)→ 实在没有才去大书架(内存)。

这个例子以比喻为主,第二章讲CPU的时候会进一步以专业术语(如“核”)来讲解。

为什么CPU芯片上要花这么多面积做缓存? 因为速度差距巨大:从内存拿一次数据,可能比从L1拿慢100倍以上! 现代CPU(尤其是2025-2026年的Intel、AMD、Apple M系列)把芯片面积的很大一部分(有时接近或超过50%)用来做缓存,就是为了让CPU大部分时间都在“本地”飞快地工作,而不是傻等内存。

打开 Windows 任务管理器,切换到“性能”标签,你就能看到自己CPU的缓存大小。我这台电脑的 Intel Core Ultra 9 185H 显示的是:

这些数字是整个CPU所有核心加起来的总容量。其中 L3 的 24MB 是所有核心共享的,这让多个核心协作时效率更高。

有了这些缓存,CPU大部分时候都能在自己的“小口袋”里快速找到需要的东西,只有很少的情况才需要去内存里取。这就是为什么你的电脑打开软件、浏览网页、写代码时感觉很流畅的重要原因之一。

缓存虽然容量不大,却占用了CPU芯片上很大一块面积——因为速度比容量更重要。而在实际运行的程序中,L1 缓存的命中率通常在 95% 以上,L2 缓存可以补救大部分 L1 未命中,L3 再进一步补救,最终真正要去内存的请求已经非常少了。这就是为什么实际程序的性能远比"每次都从内存取数据"要好得多。


局部性原理:缓存为什么有效?

缓存的有效性依赖一个在实际程序中被反复验证的规律,叫做局部性原理(Principle of Locality),分为两类:

时间局部性(Temporal Locality)

最近用过的数据,很可能马上还会再用到。

最典型的例子是循环变量

s = 0
for i in range(1000000):
    s += i  # 变量 s 被反复访问

变量 s 每次循环都要被读取和写入,具有极高的时间局部性。CPU 会把 s 放在 L1 缓存(甚至寄存器)里,不需要每次都去内存取。

空间局部性(Spatial Locality)

如果你用了某个内存地址,你很快就会用到它附近的地址。

最典型的例子是数组的顺序遍历

arr = [1, 2, 3, ..., 1000000]
for i in range(len(arr)):
    process(arr[i])  # 访问 arr[0], arr[1], arr[2]...

arr[0], arr[1], arr[2]... 在内存里是连续的。CPU 访问 arr[0] 时,缓存不只把 arr[0] 取进来,而是把从 arr[0] 开始的一大块(叫缓存行,Cache Line,通常64字节,可以存 8 个 int64 整数)都取进来。下次访问 arr[1], arr[2]... 时,它们已经在缓存里了,直接命中。

利用空间局部性的代码是缓存友好(Cache Friendly)的,违背空间局部性的代码是缓存不友好的,两者性能差异可以达到几倍甚至几十倍。


缓存友好 vs 缓存不友好:一个小例子

来看一个经典的对比:对二维数组的两种遍历方式。

在内存里,二维数组是按连续存储的(这叫行优先/Row-Major存储,C/C++/Python/NumPy默认如此)。比如一个 3×3 的数组:

逻辑结构:         内存中的实际存储顺序:
[a00, a01, a02]    a00 | a01 | a02 | a10 | a11 | a12 | a20 | a21 | a22
[a10, a11, a12]   (连续的内存地址,从左到右)
[a20, a21, a22]

按行遍历(缓存友好):

import numpy as np
import time

N = 4096
A = np.random.rand(N, N)

# 按行遍历:a[0][0], a[0][1], a[0][2]...
# 每次访问的地址比上次大 8 字节(一个float64的大小)
# 在内存里是连续的,每个缓存行(64字节)取来后,
# 接下来 7 次访问都直接命中缓存
t1 = time.perf_counter()
total = 0.0
for i in range(N):
    for j in range(N):
        total += A[i, j]  # 按行顺序
t2 = time.perf_counter()
print(f"按行遍历:{t2-t1:.3f} 秒")

# 按列遍历:a[0][0], a[1][0], a[2][0]...
# 每次访问的地址比上次大 N*8 字节(跨越一整行)
# 每次都是新的缓存行,缓存几乎没有帮助
t3 = time.perf_counter()
total = 0.0
for i in range(N):
    for j in range(N):
        total += A[j, i]  # 按列顺序
t4 = time.perf_counter()
print(f"按列遍历:{t4-t3:.3f} 秒")

你可以在自己电脑上运行这段代码。预期近似结果: 按行遍历:2.238 秒,按列遍历:6.253 秒 (Python 的开销会掩盖一部分差异,在 C 语言里差异可能超过 10 倍)。

这个差异完全来自缓存的命中率,代码逻辑完全一样,只是访问顺序不同。

这就是为什么机器学习框架(PyTorch、TensorFlow)对内存布局格外讲究——矩阵乘法、卷积运算,都需要精心设计内存访问模式,才能让缓存发挥最大效用,实现极速运算。当你用 PyTorch 做实验时,框架已经在底层帮你做了大量缓存优化,你才能用几行 Python 跑出接近硬件极限的速度。


缓存替换策略:缓存满了怎么办?

缓存空间有限,当新的数据需要进入缓存,而缓存已满时,需要淘汰某条已有的数据,腾出位置。用什么策略决定淘汰哪条?

LRU(Least Recently Used,最近最少使用):淘汰最长时间没有被访问的那条数据。这是最常见的策略,利用了时间局部性——如果一条数据很久没被用了,以后也不太可能会用到。

LFU(Least Frequently Used,最少使用频率):淘汰历史上使用次数最少的数据。对于有固定访问模式的数据更精准,但实现更复杂。

随机替换(Random Replacement):随机淘汰一条。实现最简单,性能出乎意料地不差,某些低功耗系统(如 ARM 的某些实现)用这个。

FIFO(First In First Out,先进先出):淘汰最早进入缓存的那条。简单,但不考虑使用频率。

实际的 CPU 缓存用的是 LRU 或其近似变种(因为严格 LRU 实现复杂,通常用 PLRU,Pseudo-LRU)。

这些策略不只用在 CPU 缓存,浏览器缓存、CDN 缓存、数据库缓存,都用类似的思路管理有限的缓存空间。你在数据结构课上学到的"LRU 缓存"设计题,就是这个概念的代码实现。


无处不在的缓存:系统级视角

现在来从大局看,缓存这个思想在计算机系统的各个层次上的体现:

操作系统的页缓存(Page Cache):

操作系统用空闲内存来缓存最近读过的硬盘数据。你刚打开过一个 1GB 的大型日志文件,关掉再打开,第二次比第一次快很多——因为文件数据已经被缓存在内存里,不需要重新从硬盘读。

你可以在 Linux 的 free -h 输出里看到"buff/cache",这就是操作系统页缓存占用的内存量。它并不是"浪费",而是有益的——如果有程序需要更多内存,操作系统会把缓存让出来。

硬盘的缓存缓冲区:

机械硬盘和 SSD 自带一小块 DRAM(通常 64MB 到 2GB),作为读写缓冲区。当你连续写入数据,硬盘先缓冲在 DRAM 里,再批量写入物理存储介质,提高效率。所谓"无缓存(No DRAM)"的廉价 SSD,就是省掉了这块 DRAM,性能略差。

浏览器缓存:

打开 Chrome 开发者工具(F12)→ 网络选项卡,刷新一个网页。你会看到某些资源显示 (from disk cache)(from memory cache)——这些资源之前被下载过,浏览器把它们存在本地,下次不需要重新下载,节省时间和流量。

如果网页加载出了问题(样式乱、功能失效),通常可以用强制刷新Ctrl + Shift + RCmd + Shift + R)跳过缓存,重新从服务器获取全部资源来解决。

CDN(内容分发网络):

当你在中国访问一个美国服务器上的网站,如果每次都跨太平洋传输数据,延迟会很高(光速也需要约 70ms 穿越太平洋)。CDN 的解决方案是:在全球各地部署缓存服务器,把热门内容缓存在离用户近的地方。你访问的是北京的 CDN 节点,不是美国原始服务器,延迟降到 10ms 以内。

这也是缓存——用空间换时间,用分布式节点换传输延迟。

DNS 缓存:

你输入 www.ustc.edu.cn,电脑需要把这个域名查询成 IP 地址(DNS 解析)。这个查询结果会在本地缓存一段时间(由 TTL,Time To Live 决定)。下次访问同一域名,直接用缓存的 IP,不需要再查询,加快了连接速度。


缓存一致性:多核时代的复杂挑战

现代 CPU 有多个核心(典型的笔记本 CPU 有 6-14 个核心,服务器 CPU 有几十上百个核心),每个核心有自己的 L1 和 L2 缓存,但共享一个 L3 缓存。

问题来了:如果核心 A 在自己的 L1 缓存里修改了变量 x,核心 B 的 L1 缓存里还有 x 的旧值,这时核心 B 读取 x,得到的是错误的值——这就是**缓存一致性(Cache Coherence)**问题。

解决这个问题的方案叫做缓存一致性协议。最经典的是 MESI 协议,它给每条缓存行打上四种状态标签:

当核心 A 要修改 x,它会广播一条消息让其他核心把 x 的缓存行标记为 Invalid;当核心 B 再访问 x 时,发现本地是 Invalid,就去找最新的值(在核心 A 的缓存里或者内存里)。

这确保了从程序员的视角看,多个核心看到的内存是一致的——虽然底层的缓存状态很复杂,但硬件透明地维护了正确性。

多核编程中的 False Sharing(伪共享) 问题就和这个有关:如果两个核心修改的是不同的变量,但它们恰好在同一条缓存行(64字节)里,每次修改都会触发缓存失效广播,性能急剧下降——尽管逻辑上它们完全没有冲突。这是并行程序性能调优中的一个常见坑。

这些细节在科大大二、大三的计算机体系结构课上会有详细讲解,现在你只需要知道:多核一致性是个硬题,硬件帮你大部分解决了,但写并行程序时还是要注意


常见误区澄清

误区:缓存越大越好,应该把 L3 缓存做到 GB 级别甚至和内存一样大。

正确理解:CPU 缓存集成在芯片上,使用的是 SRAM(Static RAM),比内存使用的 DRAM 贵很多——每 MB 的成本是 DRAM 的几十倍。L3 缓存从 4MB 做到 64MB 已经占用了芯片相当大的面积。此外,更大的缓存查找时间也更长(因为需要查找的条目更多),所以不是简单地越大越好,而是在成本、延迟、命中率之间找平衡。Intel 的某些服务器 CPU(Xeon)把 L3 做到了几百 MB,但那是为特定服务器负载设计的,价格也是消费级 CPU 的几十倍。

误区:清除缓存(比如清除浏览器缓存)会让电脑速度变快。

正确理解:清除缓存会暂时让某些操作变慢,因为缓存里的数据被清空,需要重新缓存。清除浏览器缓存的正确使用场景是:网页出现奇怪的错误(新版本和旧缓存冲突),或者需要确保看到最新内容。清除缓存不等于优化性能,反而短期内会让浏览器加载变慢。电脑"越用越慢"的真实原因通常是软件越装越多、系统垃圾文件积累、硬盘空间不足,而不是"缓存太多"。

误区:CPU 缓存和浏览器缓存是一回事,都可以手动清除。

正确理解:两者只是都叫"缓存",实现完全不同。CPU 缓存是硬件自动管理的芯片内存,你无法也不需要手动清除;浏览器缓存是软件层面的磁盘文件,可以手动清除。用户能操作的"缓存"主要是软件层面的(浏览器、应用缓存),CPU 缓存完全由硬件自动管理。


动手环节:感受缓存的存在

实验一:看 CPU 缓存的大小(Windows)

按下 Ctrl + Shift + Esc 打开任务管理器,点击"性能" → "CPU",在右下角找到 L1 Cache、L2 Cache、L3 Cache 的大小。

然后在网上搜索你的 CPU 型号(系统信息里可以看到),在 ark.intel.com(Intel 用户)或 amd.com/en/products(AMD 用户)上查询详细规格,确认缓存大小和层次结构。

实验二:运行缓存效应测试(Python)

把下面这段代码保存为 cache_test.py,在你的电脑上运行:

import time
import random

print("缓存局部性测试")
print("=" * 40)

# 测试1:顺序访问 vs 随机访问
N = 10_000_000  # 1000万个整数,约 80MB,超过大多数 L3 缓存大小

data = list(range(N))

# 顺序访问
t1 = time.perf_counter()
total = sum(data[i] for i in range(N))
t2 = time.perf_counter()
seq_time = t2 - t1

# 随机访问(打乱顺序)
indices = list(range(N))
random.shuffle(indices)
t3 = time.perf_counter()
total = sum(data[i] for i in indices)
t4 = time.perf_counter()
rnd_time = t4 - t3

print(f"顺序访问 1000万次:{seq_time:.3f} 秒")
print(f"随机访问 1000万次:{rnd_time:.3f} 秒")
print(f"随机/顺序 速度比:{rnd_time/seq_time:.1f}x")
print()
print("(随机访问更慢,因为每次跳跃都导致缓存未命中)")

你会看到随机访问比顺序访问慢若干倍——这就是缓存效应的直接体现。N 越大(超过 L3 缓存大小),差异越明显。

实验三:观察浏览器缓存

  1. 打开 Chrome,按 F12 打开开发者工具
  2. 点击"网络(Network)"选项卡
  3. 刷新你常去的网站(比如 Bilibili、GitHub)
  4. 在请求列表里,查看 "Size" 列:显示 (disk cache)(memory cache) 的是从缓存加载的

试试区别:


本节要点

✓ 缓存解决的是"内存墙"问题——CPU 速度远快于内存,每次等内存要浪费数百个时钟周期

✓ 存储金字塔从快到慢:寄存器 → L1缓存 → L2缓存 → L3缓存 → 内存 → SSD → 机械硬盘,延迟差 2000万倍

✓ 缓存有效的两大原理:时间局部性(最近用的很快还会用)和 空间局部性(用了这个地址,很快会用旁边的地址)

✓ 缓存友好的代码(顺序访问内存)比缓存不友好的代码(随机跳跃)快几倍到几十倍

✓ 缓存无处不在:CPU 缓存、操作系统页缓存、浏览器缓存、DNS 缓存、CDN……都是同一个思想

✓ 缓存一致性是多核 CPU 的核心挑战,MESI 协议等硬件方案透明地维护了正确性


第一章总结

你现在理解了什么

这一章,我们把"存储"这件事从上到下拆开看了个清楚。

最底层,是硬盘——你的数字仓库。它负责长期保存数据,断电不丢。机械硬盘用旋转盘片和磁头工作,容量大、价格低、但随机访问慢;固态硬盘用闪存芯片,速度快、抗震、静音,正在全面替代机械硬盘。文件系统(NTFS/APFS/ext4)在硬盘上建立了一套索引系统,让电脑能认识文件。"删除"文件其实只删了索引,真正的数据还在,可以被恢复。

再往上,是内存(RAM)——电脑的工作台。它临时存放正在运行的程序和数据,断电即失。内存决定你能同时运行多少程序,不够用时操作系统会用硬盘充当内存(虚拟内存),但会导致严重卡顿。手机的"运行内存"和电脑内存原理相同,但形态不同,不能仅凭容量数字比较价格。

最上层(离 CPU 最近的),是缓存——最被忽视但最关键的层。CPU 内部有 L1/L2/L3 三层缓存,解决 CPU 速度和内存速度之间的鸿沟("内存墙")。缓存的有效性依赖时间局部性和空间局部性两大规律。缓存的思想从 CPU 芯片延伸到整个计算机系统,无处不在。

三层存储共同构成了数据流动的框架:

$\text{程序文件(硬盘)} \xrightarrow{\text{加载}} \text{内存} \xrightarrow{\text{取指取数}} \text{L3缓存} \xrightarrow{} \text{L2缓存} \xrightarrow{} \text{L1缓存} \xrightarrow{} \text{CPU运算}$

你每次双击一个图标,上面这条流水线就开始工作。


这些数字,值得记住

存储层次 典型容量 典型延迟 断电数据 典型价格(2024)
L1 缓存 32-256 KB ~1 ns 消失 集成在CPU,无单独定价
L2 缓存 256KB-4MB ~5-10 ns 消失 同上
L3 缓存 4-64 MB ~30-50 ns 消失 同上
内存(DDR4) 8-128 GB ~80 ns 消失 约 ¥25-30/GB
NVMe SSD 256GB-8TB ~0.1ms 保留 约 ¥0.5-1/GB
机械硬盘 500GB-20TB ~8ms 保留 约 ¥0.1/GB

(价格为2024年中国大陆市场大致参考,会随市场波动)


你还剩下的疑问

读完这章,你可能有几个悬而未决的问题:

  1. CPU 到底是怎么"处理"数据的? 主频、核心数是什么意思?什么叫"执行一条指令"?
  2. GPU 为什么对游戏和 AI 这么重要? GPU 和 CPU 有什么根本性的区别?
  3. 存储金字塔最顶层的"寄存器"到底是什么? 它和 L1 缓存有什么不同?
  4. 为什么不同 CPU 即使主频相同,运行速度也不一样?

这些问题,正是第二章要回答的。我们会走进 CPU 和 GPU 的内部,看看"计算"这件事是怎么发生的,为什么 NVIDIA 的显卡会影响整个 AI 行业的走向。


【下章预告】 现在你知道数据是怎么存的,但存下来之后,谁来"处理"这些数据?CPU 里面有什么?它是怎么做加法的?为什么同样的主频,Intel 的 CPU 和 ARM 的芯片跑的程序不能互换?GPU 本来是给游戏渲染设计的,为什么突然成了 AI 时代最抢手的芯片?下一章,我们打开"计算的大脑",从晶体管开始,一路走到你桌面上的游戏和 ChatGPT。


延伸阅读与资源

如果这章激起了你的兴趣,可以继续探索:

视频推荐

🎬 Crash Course Computer Science - Registers and RAM(第6集) YouTube,CrashCourse 出品,约10分钟,英文。用动画清晰展示寄存器和内存的工作原理,适合入门。⭐

🎬 Crash Course Computer Science - Memory & Storage(第19集) YouTube,CrashCourse 系列。讲存储系统的演进,从打孔卡到现代SSD,视角有趣。⭐

🎬 How SSDs Work - Techquickie YouTube,Linus Tech Tips 旗下 Techquickie 频道,约5分钟,节奏快,讲 SSD 的工作原理。⭐

🎬 Why is RAM so Hard to Get Right? - Branch Education YouTube,Branch Education 频道,有精美3D动画,深度讲解 DRAM 的物理结构和工作原理。⭐⭐

🎬 What Every Programmer Should Know About Memory(讲座视频) 关于内存层次的深度讲座,适合已有编程基础的同学。⭐⭐⭐

文章和文档推荐

📄 What Every Programmer Should Know About Memory Ulrich Drepper 著,Linux 内存系统的经典教程,约100页。很长,但每一节都有独立价值,可以按需阅读感兴趣的章节。⭐⭐⭐

📄 Latency Numbers Every Programmer Should Know 一张经典的延迟数字对照表,列出了L1缓存、内存、SSD、网络等各种操作的延迟量级,感受一下数量级的差异。⭐

📄 How Flash Memory Works - HowStuffWorks 英文科普网站,通俗讲解闪存工作原理,图文并茂,适合入门。⭐

📄 文件系统概述 - OSDev Wiki 如果你对文件系统的实现细节感兴趣,这是一个技术深度适中的入口。⭐⭐

亲自动手

如果你对存储底层有强烈好奇心,可以试试:

# Linux/Mac:用 dd 命令测试你的硬盘读写速度
# 测试写入速度(512MB 测试文件)
dd if=/dev/zero of=/tmp/testfile bs=1M count=512 oflag=dsync

# 测试读取速度(先确保测试文件不在内存缓存里)
sudo sh -c "echo 3 > /proc/sys/vm/drop_caches"  # 清除页缓存(Linux)
dd if=/tmp/testfile of=/dev/null bs=1M

# 清理测试文件
rm /tmp/testfile
# Windows:用 WinSAT 测试磁盘性能
winsat disk -drive c

对比你得到的速度数字和本章列出的典型值,看看你的硬盘属于哪个档次。


第一章完


关于数据的说明:本章提到的所有速度、延迟、价格数据均为 2024 年主流消费级产品的典型值,仅供数量级参考。技术不断进步,这些数字会随时间变化;价格受市场波动影响较大。如果你发现与实际情况有出入,请以最新的产品规格和市场数据为准。如果变化很大,说明技术又进步了——这正是计算机科学令人着迷的地方。