100根内存条换一套房!AI疯狂吞噬全球内存,普)通人电脑快买不起了

  更新时间:2026-01-20 13:17   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

咨询公司Greyhound Research的CEO Sanchit Vir Gogia打了个比方这意味着s=20 https://arxiv.

<p class="f_center"><br></p> <p id="48MCB2GH"><strong>新?智元]报道</strong></p> <p id="48MCB2GK">编辑:元宇</p> <p id="48MCB2GM"><strong>【新智元导读】当巨头疯狂扫货、分析师开始囤iPhone17,你的钱包、电脑和AGI的未来,正在被同一堵看不见的墙悄悄卡住。</strong></p> <p id="48MCB2GO">100根高容量服务器内存,总价已飙升至400万元!</p> <p id="48MCB2GP"><strong>一盒芯片相当于一套一线城市近郊的房产!</strong></p> <p id="48MCB2GQ">这疯狂一幕背后,是整个科技行业正在面临的一场史诗级危机。</p> <p id="48MCB2GR">2025年下半年以来,狂奔的AI行业并未如人们预期的那样因算力爆发而起飞,反而一头撞上了一堵看不见的墙——「内存墙」。</p> <p class="f_center"><br></p> <p id="48MCB2GT">正如上面这位网友所言,<strong>2026年,可能不再是AI的「爆发之年」,而是「内存受限」之年:</strong></p> <p id="48MCB2GU">2026年卡住AI脖子的,不再是我们熟知的算力或电力,而是内存容量与带宽。</p> <p id="48MCB2H0">这一判断并非危言耸听。</p> <p id="48MCB2H1">花旗银行的最新研报发出预警:2026年DRAM(动态随机存取存储器)平均售价同比或将上涨88%!</p> <p class="f_center"><br></p> <p id="48MCB2H3">TechRadar近日的报道也佐证了这一趋势:受AI数据中心无底洞般的需求驱动,DRAM价格预计在2026年3月将接近翻倍。</p> <p class="f_center"><br></p> <p id="48MCB2H5">为什么内存这么重要?</p> <p id="48MCB2H6">DRAM好比是CPU/GPU临时操作台,是临时「放数据、随取随用」的地方,模型越大,越需要更大容量、更高带宽的DRAM。</p> <p id="48MCB2H7">如今,AI正在疯狂吸干全球的内存产能。</p> <p id="48MCB2H8">数据显示,<strong>单台AI服务器的内存需求显著高于普通服务器,叠加</strong><strong>HBM/高容量 DDR5的产能倾斜</strong><strong>,</strong>将原本分配给PC、手机的产能大量「吸走」,直接导致消费级市场的供给枯竭。</p> <p id="48MCB2H9">当OpenAI、谷歌等巨头为了争夺通往AGI的门票,以「价格不设上限」的方式疯狂扫货,甚至提前锁死2026年产能时,代价最终转嫁到了普通消费者身上。</p> <p id="48MCB2HA">你会发现:</p> <p></p> <ul> <p id="48MCB2HB">你想买的那台新电脑,价格不仅没降,反而越来越坚挺;</p> <p></p> <p id="48MCB2HC">手机处理器虽然年年换代,但体验提升却越来越不明显;</p> <p></p> <p id="48MCB2HD">爱折腾硬件的小伙伴突然发现,那两根不起眼的内存条,竟然快要买不起了……</p> <p></p> </ul> <p id="48MCB2HE">「内存受限」四个字,不仅是悬在科技巨头头顶的达摩克利斯之剑,还在悄悄掏空普通消费者的钱包!</p> <p id="48MCB2HF"><strong>分析师囤货背后</strong></p> <p id="48MCB2HG"><strong>一场全球性的「内存危机」</strong></p> <p id="48MCB2HH">2025年下半年以来,存储芯片价格如同坐上火箭,内存、闪存价格全面翻倍。</p> <p id="48MCB2HI">据TrendForce数据显示,2025年9月以来,DDR5颗粒现货价累计上涨约307%,部分媒体走访称,顶配高容量服务器内存单条价格更是突破4万元。</p> <p class="f_center"><br></p> <p id="48MCB2HK">这是什么概念?</p> <p id="48MCB2HL">手里捧着一盒100根的内存条(总价400万),你就相当于捧着一套北上广深近郊的房产!</p> <p id="48MCB2HM">与此对应的,是花旗银行Citi的研究部门已经大幅向上修正了他们预测:</p> <p id="48MCB2HN">2026年DRAM的价格将暴涨88%,而此前的预期仅为上涨53%。</p> <p id="48MCB2HP">如此恐怖的涨幅背后,是一场由AI巨头主导的、对全球存储资源的疯狂「抢夺」。</p> <p id="48MCB2HQ">TechRadar报道称,服务器模组正在像黑洞一样,吞掉绝大部分晶圆产出。</p> <p id="48MCB2HR">原本留给PC、留给笔记本电脑的产能,被快速挤压得所剩无几。</p> <p class="f_center"><br></p> <p id="48MCB2HT">TrendForce资深研究副总裁Avril Wu直接用钱包投票。</p> <p id="48MCB2HU">她告诉所有人:我一直跟大家说,如果你想买设备,现在就买。</p> <p id="48MCB2HV">甚至为了避险,她自己已经先买了一台iPhone17。</p> <p id="48MCB2I0">提前囤货一台iPhone17,这看起来有点微不足道,背后却是全球「内存告急」的信号。</p> <p id="48MCB2I1">全球存储巨头Micron传出的消息也不容乐观。</p> <p id="48MCB2I2">即便新的晶圆厂陆续投产,其CEO Sanjay Mehrotra也发出警告:目前只能满足客户需求的二分之一到三分之二。</p> <p id="48MCB2I3">这意味着,有接近一半的需求,拿着钱也买不到货。</p> <p id="48MCB2I4">PC端的供应商也开始挑客户,他们正在进行选择性配货,优先保障那些大型整机厂OEM,而压缩给第三方模组厂商的供货量。</p> <p id="48MCB2I5">这也就是为什么TechRadar预测,PC DRAM的合约价在2026年初可能会明显上调。</p> <p id="48MCB2I6">这不是简单的通胀,这是<strong>我们在为AI的发展,被迫缴纳的一笔昂贵的「资源税」。</strong></p> <p id="48MCB2I7"><strong>致命剪刀差</strong></p> <p id="48MCB2I8"><strong>被AI「吃掉」的内存</strong></p> <p id="48MCB2I9">AI军备竞赛,让我们正在目睹科技史上最夸张的「剪刀差」。</p> <p class="f_center"><br></p> <p id="48MCB2IB">https://arxiv.org/pdf/2403.14123</p> <p id="48MCB2IC">根据加州大学伯克利分校一项有关「人工智能与内存墙」的论文研究提到:</p> <p id="48MCB2ID">由于前所未有的无监督训练数据规模,再加上Scaling laws(神经网络缩放定律),使得用于训练和在线服务大语言模型(LLM)的模型规模和算力需求出现了爆炸式增长。</p> <p id="48MCB2IF">研究人员指出,<strong>训练大模型所需的计算量最近以每两年750倍的速度增长,远超DRAM和互连带宽的增长速度——后者每两年仅分别增长1.6倍和1.4倍</strong>。</p> <p id="48MCB2IG">这种差距使得内存而非计算能力,成为AI应用(尤其是在推理场景中)的主要瓶颈。</p> <p id="48MCB2IH">过去20年里,人类芯片的算力峰值提升了整整60000倍。</p> <p id="48MCB2II">但DRAM的带宽仅仅提升了约100倍,互连带宽增长约30倍。</p> <p id="48MCB2IJ">这种极度的不匹配,将整个AI行业推入了一个「受限于内存」的死胡同。</p> <p class="f_center"><br></p> <p id="48MCB2IL">科技咨询公司Greyhound Research的CEO Sanchit Vir Gogia打了个比方:AI的工作负载,本质上就是围绕内存来构建的。</p> <p id="48MCB2IM">这就好比你想用一根喝酸奶的细吸管,去吸干整个太平洋的水。</p> <p id="48MCB2IN">就算嘴巴(算力)再用力,水流(数据)也只有那么快,这种不匹配直接导致了一个极其昂贵的后果:空转。</p> <p id="48MCB2IO">那些数万美元一块的H100或者B200 GPU的算力巨兽,大部分时间只能「发呆」和「吃灰」。</p> <p id="48MCB2IP">因为数据传输跟不上,处理器经常处于闲置状态等待数据。</p> <p id="48MCB2IQ">这就是典型的「内存墙」,而对于那些大模型公司来说,这无异于白白烧钱。</p> <p id="48MCB2IR">训练一个大模型,往往需要3到4倍于参数量的内存,数据搬运的速度远慢于计算速度,这直接主导了现代LLM的运行时间延迟。</p> <p id="48MCB2IS">所以,<strong>我们引以为傲的AI,其实一直戴着「内存受限」的镣铐在跳舞</strong>。</p> <p id="48MCB2IT"><strong>撞上「内存墙」</strong></p> <p id="48MCB2IU"><strong>除了贵,还带来了什么瓶颈?</strong></p> <p id="48MCB2IV">「内存墙」带给个体的感知,可能仅仅是显卡和电脑变贵,顶多是捂紧钱包,或者加紧囤货就好了。</p> <p class="f_center"><br></p> <p id="48MCB2J1">但它带来的连锁反应,却成了困扰AI发展的瓶颈。</p> <p id="48MCB2J2">首先是<strong>能耗</strong>。</p> <p id="48MCB2J3">AI数据中心巨额的电费,其实也不是都花在了计算上。</p> <p id="48MCB2J4">在冯·诺依曼架构下,计算和存储是分离的,数据需要在内存和处理器之间来回奔波。</p> <p id="48MCB2J5">有研究表明,从内存读取数据消耗的能量,在某些负载/工艺假设下,数据搬运的能耗可能远高于计算本身(甚至到百倍量级)。</p> <p id="48MCB2J6">也就是说,数据中心大部分的电,不是用来思考,而是用来把数据「搬来搬去」。</p> <p id="48MCB2J7">这不仅不环保,而且也造成了极度的浪费。</p> <p id="48MCB2J8">其次,是每个用户都能感知的<strong>延迟与体验下降</strong>。</p> <p id="48MCB2J9">为什么有时候ChatGPT处理长文本时会变慢、变卡?它不是算力不够,它是被卡在了内存带宽上。</p> <p id="48MCB2JA">AI模型要把海量的上下文塞进有限的显存里,每一次推理势必受限。</p> <p id="48MCB2JB">如果「内存墙」无法突破,更大参数量的AI模型,将因为无法在合理的时间和成本内完成训练。</p> <p id="48MCB2JC">这意味着,即使我们可能拥有设计出超级智能的能力,但我们没有足够大的「容器」来承载它。</p> <p id="48MCB2JD">这势必也会减缓AI创新的速度。</p> <p id="48MCB2JE"><strong>如何破壁「内存墙」</strong></p> <p id="48MCB2JF">通往AGI,势必要打破「内存墙」。</p> <p id="48MCB2JG">为了破壁「内存墙」,科技界也掀起了一场硬件和架构上的革命。</p> <p id="48MCB2JH">第一招,是硬件上的「暴力美学」,即HBM(High Bandwidth Memory,高带宽内存)。</p> <p id="48MCB2JI">如果说传统内存是在平地上盖平房,那么HBM就是在芯片上盖「摩天大楼」。</p> <p id="48MCB2JJ">它利用先进的硅通孔(TSV)技术,将DRAM芯片像叠汉堡一样垂直堆叠,盖成一栋几十层高的塔楼,并修通了成千上万部「垂直电梯」直达处理器。</p> <p id="48MCB2JK">这是目前最直接、但也最昂贵的解决方案。</p> <p id="48MCB2JL">也正是因为要生产这些工艺极难的HBM「摩天大楼」,服务器模组像黑洞一样吞噬了绝大部分晶圆产出,导致留给PC和手机的产能捉襟见肘。</p> <p id="48MCB2JM">以英伟达的H100、H200乃至Blackwell平台为例,它们的设计哲学就是要把「堆HBM」做到极致。</p> <p id="48MCB2JN">第二招,是架构上的全新革命,比如CXL和PIM。</p> <p id="48MCB2JO">CXL(Compute Express Link,计算高速互连协议),它的思路很像共享单车。</p> <p id="48MCB2JP">以前,CPU和GPU的内存是各管各的,现在有了CXL,我们可以建立一个巨大的「内存池」。</p> <p id="48MCB2JQ">CPU用不完的内存,GPU可以拿去用,打破了单机的容量限制,让资源利用率最大化。</p> <p id="48MCB2JR">还有更彻底的PIM(Processing-in-Memory,存内计算)。</p> <p id="48MCB2JS">既然数据搬运那么费电,那么慢,我们干脆就不搬了,直接让内存自己具备计算能力,<strong>数据在哪里,就在哪里计算</strong>。</p> <p id="48MCB2JT">这彻底颠覆了计算机几十年来的工作方式,从根本上消灭了数据搬运这个能源、算力消耗大户。</p> <p id="48MCB2JU">再回到「内存墙」。</p> <p id="48MCB2JV">TrendForce的预测显示,2026年DRAM的价格走势里,看不到任何「涨完回调」的迹象。</p> <p id="48MCB2K0">相反,PC和服务器DRAM似乎会在更高的价格区间稳定下来。</p> <p id="48MCB2K1">这意味着,无论是消费者还是企业,至少在中期内<strong>廉价、充裕内存和存储时代已经终结</strong>。</p> <p id="48MCB2K2">对于AI巨头的AGI竞赛来说,谁能率先推倒「内存墙」,谁就有望率先拿到通往AGI的门票。</p> <p id="48MCB2K3">对于普通人来说,在未来很长一段时间里,购买电子产品都可能将承受更高的溢价。</p> <p id="48MCB2K4">所以我们还是像文中那位囤货的分析师一样:想买什么,趁现在吧。</p> <p id="48MCB2K5">参考资料:<br></p> <p id="48MCB2K6">https://x.com/rohanpaul_ai/status/2012964940714496069?s=20<br></p> <p id="48MCB2K7">https://arxiv.org/pdf/2403.14123%20</p> <p class="f_center"><br></p>

编辑:黄美玉