编辑 | 云昭
数字计算统治计算机世界半个多世纪后,一场“后摩尔时代”的技术地震正在中国发生。
北京大学人工智能研究院孙仲团队,联合集成电路学院研究团队,成功研制出全球首个基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这枚芯片首次将模拟计算的精度提升至24位定点级别,让曾被视为“老旧技术”的模拟计算重新焕发生命。
图片
实测结果显示,在求解大规模MIMO信号检测等关键科学问题时,这枚芯片的计算吞吐量与能效较顶级GPU提升百倍至千倍。相关成果于10月13日发表在国际顶刊《Nature Electronics》(《自然·电子学》)上。
图片
一项“教科书技术”的重生
论文通讯作者、北大人工智能研究院孙仲教授介绍,
“模拟计算是早期计算机的核心技术,通过物理定律直接运算,具有高并行、低延时、低功耗的先天优势。”
但随着数字计算精度和可编程性的崛起,传统模拟计算因精度低、难扩展而逐渐退出历史舞台。
“如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的‘世纪难题’。”“数字计算虽精度高,但速度慢,并存在冯·诺依曼架构的‘内存墙’问题,已成为人工智能、科学计算和6G通信发展的瓶颈。”
模拟计算有何不同?
那么,什么是“模拟计算”?孙仲打了个形象的比方:
“现在的所有芯片都是数字计算,数据都需要先转换成0和1的符号串。比如数字‘十’,需要转译成‘1’和‘0’,计为‘1010’。”
如果我们用二进制写“1+1=2”,那它其实是“1+1=10”。
而模拟计算则完全不同。
“模拟计算则无需这层‘转译’,它是一种‘类比计算’(analogue computing),可以直接用连续的物理量(如电压、电流)来类比数学上的数字。比如,数学上的‘十’,可以直接用十伏或十毫伏的电压来表示。”
简单来说,数字计算靠符号表达世界,而模拟计算直接“让世界自己算”。
这种技术在计算机发展的早期——上世纪30到60年代——曾被广泛应用。那时的科学家用电压、电流、齿轮和旋钮求解复杂方程。但随着计算任务变得庞大而精密,模拟计算的“精度短板”暴露出来,逐渐被数字计算取代,成为教科书里的旧章节。
孙仲指出,此次研究的核心正是要解决模拟计算“算不准”这一痛点。
提升五个数量级,破解“精度困境”
面对这一瓶颈,团队没有沿用旧路,而是选择“融合创新”。
他们在新型信息器件、原创电路和经典算法之间建立协同设计体系,首次实现了可与数字计算媲美的高精度模拟计算系统——将传统模拟计算的精度提升了五个数量级。
“我们研发的新方案在保持模拟计算低复杂度优势的同时,实现了与数字FP32处理器相媲美的计算精度。”
在实验室中,团队成功实现了16×16矩阵的24比特定点数精度求逆,经过10次迭代后,相对误差可低至10⁻⁷量级。
图片
“团队还提出了块矩阵模拟计算方法,像拼图一样将大问题分解到多个芯片上协同解决,成功突破了模拟计算的规模限制,实验实现了16×16矩阵方程的求解。”
算力超越GPU,能效高出百倍
更令人震撼的是性能测试结果。
算力方面更为惊人:
当求解32×32矩阵求逆问题时,该芯片算力已超越高端GPU的单核;当问题规模扩大至128×128时,计算吞吐量更达到顶级数字处理器的1000倍以上。
换句话说——传统GPU干一天的活,这款芯片一分钟就能搞定。
孙仲补充道:
“在相同精度下,该技术的能效比高出传统数字处理器100倍以上,为算力中心能耗问题提供关键技术支撑。”
通向“算力新范式”的钥匙
我们熟悉的计算机,无论是CPU还是GPU,本质上都是“数字芯片”。它们遵循冯·诺依曼架构——把计算和存储分开,通过“0”和“1”的数字流来完成编译、运算与传输。
这种模式已经延续了半个多世纪。但随着人工智能和6G通信的计算需求急剧膨胀,这种架构的瓶颈日益明显——数据在计算单元和存储单元之间来回搬运,能耗与延迟不断攀升。
而北大孙仲团队的突破,正是要从根本上“改造”这一算力逻辑。
“这项工作的最大价值在于,它用事实证明,模拟计算能以极高效率和精度解决现代科学和工程中的核心计算问题。”
他们研发的基于阻变存储器的模拟计算芯片,取消了“把数据转成二进制再运算”的繁琐过程,也不再依赖“过程性存储”。
计算与存储在这里融为一体——电流流过的那一刻,就是运算本身。这意味着算力被彻底解放:
- 在6G通信中,它能让基站以低功耗实时处理海量天线信号,提升网络容量与能效;
- 在人工智能领域,它有望加速大模型训练中的二阶优化算法,显著提高训练效率;
- 而在边缘计算设备中,它的低功耗特性意味着AI训推一体化将更易落地。
“更重要的是,低功耗特性也将强力支持复杂信号处理和AI训推一体在终端设备上的直接运行,大大降低对云端的依赖,进而推动边缘计算迈向新阶段。”
从实验室到产业化:算力革命的起点
据悉,孙仲团队已启动产业化进程,计划将这一突破性技术从实验室推向市场。
“这项突破的意义远不止于一篇顶刊论文,它的应用前景广阔,可赋能多元计算场景,有望重塑算力格局。”
“可以说,我们为算力提升探索出一条极具潜力的路径,有望打破数字计算的长期垄断,开启一个算力无处不在且绿色高效的新时代。”
谈及与现有计算架构的关系,孙仲强调未来将是互补共存,而非替代:
“CPU作为通用‘总指挥’因其成熟与经济性而难以被淘汰。GPU则专注于加速矩阵乘法计算。我们的模拟计算芯片,旨在更高效地处理AI等领域最耗能的矩阵逆运算,是对现有算力体系的有力补充。”
参考链接:



























