TL;DR:
香港大学等团队在Nature子刊发表突破性研究,通过利用忆阻器构建硬件原生自适应模数转换器(ADC),显著降低了存算一体AI芯片的能耗与面积,解决了AI算力增长面临的核心硬件瓶颈,预示着高效边缘AI和可持续计算的新时代。
在人工智能浪潮席卷全球的今天,算力正以前所未有的速度扩张,其对能源的需求也日益成为科技发展与环境保护之间的尖锐矛盾。传统冯·诺依曼架构下,计算与存储分离导致的数据频繁搬运(即“冯·诺依曼瓶颈”),已成为AI时代能效低下的症结所在。为此,“存算一体”(Compute-in-Memory, CIM)架构被寄予厚望,有望从根本上变革AI计算的物理基础。然而,在模拟域存算一体的潜力被彻底释放前,一个关键的“能耗黑洞”——模数转换器(ADC)——长期阻碍着其商业化落地。
近日,来自香港大学、香港科技大学与西安电子科技大学的联合研究团队在国际顶尖学术期刊《自然·通讯》上发表了一项开创性成果,首次提出了一种基于忆阻器的硬件原生自适应ADC架构。这项创新不仅成功攻克了存算一体芯片中ADC高达87.8%的能耗和75.2%的面积占比问题,使其功耗锐减57.2%,面积缩小30.7%,更以哲学性的思辨,将模拟计算固有的“缺陷”转化为“优势”,为下一代高效AI硬件系统铺平了道路,预示着计算范式可能发生的深远变革。12
技术原理与创新点解析
这项突破的深层价值,在于它精准瞄准了AI计算的阿喀琉斯之踵。传统的冯·诺依曼架构,如同一个数据中心与图书馆之间隔着一条高速公路,每次计算都需要将“书本”(数据)从图书馆搬运到中心,再将结果搬回去,耗时耗能。存算一体架构则将“计算”直接植入“图书馆”内部,尤其在模拟域中,通过忆阻器等新型器件阵列利用物理定律(如基尔霍夫电流定律)“瞬间”完成矩阵乘加运算,能效理论上极高。
然而,模拟计算的连续性与后续数字处理单元的离散性之间,需要一个“翻译官”——模数转换器(ADC)。这个“翻译官”的低效率,几乎吞噬了模拟存算一体本应具备的绝大部分能效优势。根据研究数据,在一些先进的存算一体芯片中,ADC模块竟占据了高达87.8%的能耗和75.2%的面积,形同巨大的“黑洞”,严重压制了芯片的整体性能。1
团队的解决方案巧妙而颠覆:他们不再使用传统笨重且僵化的电容/电阻阵列作为ADC的“标尺”,而是直接利用忆阻器(Memristor)的可编程非易失特性来构建“量化单元”(Q-cell)。忆阻器能够在断电后“记住”其电阻值,并可通过施加电压连续调控,使其成为理想的“智能标尺”。
这项研究的核心创新体现在以下几个方面:
-
硬件原生自适应量化:传统ADC的“标尺”刻度是固定且均匀的,但AI模型中不同网络层的计算结果(模拟电压)分布往往是非均匀的。用一把僵化的尺子去测量高度不均的数据,必然导致精度损失和效率低下。该团队通过Lloyd-Max算法分析AI模型数据分布,反向定制并编程忆阻器,在硬件层面打造出一把能完美贴合数据分布的“自适应标尺”。这意味着ADC能根据实际数据动态调整量化区间,极大降低了量化误差,显著提高了存算一体芯片的推理精度。1
-
极致的硬件效率飞跃:忆阻器作为纳米级的存储器件,其构建的ADC在能效和面积上均实现了数量级的优化。在5-bit精度下,忆阻器ADC的能效比现有最先进的ADC提升了15.1倍,面积缩小了12.9倍。集成到VGG8网络中时,系统总能耗净降低57.2%,总面积净降低30.7%。这直接“填平”了ADC这个最大的能耗黑洞,使存算一体芯片能够真正释放其超高能效潜力。1
-
“超分辨率”策略:变缺陷为优势的哲学反思:模拟器件固有的“器件差异性”(Variation)通常被视为硬件缺陷,会影响精度。然而,该团队独创性地提出了**“超分辨率”(Super-resolution)策略**。通过同时使用两个忆阻器ADC量化同一信号,并利用它们刻度上的细微错位,可以推断出介于传统刻度之间的更精细值。这一策略不仅完全恢复了因器件差异导致的精度下降,甚至在某些配置下反超了没有器件差异的理想软件基准。这种将“Bug”转化为“Feature”的设计哲学,不仅解决了模拟计算的痛点,更提供了一种全新的、拥抱不完美的硬件设计思路,具有深远的启示意义。1
-
全面的硬件实验验证:为确保研究的可靠性,团队实际制造了8×8的忆阻器阵列,并进行了严格的实验表征。结果显示,器件具有高度一致的可编程性和稳定性,并能承受超过3000万次的编程-擦除循环,充分验证了忆阻器ADC的可靠性和可行性。1
产业生态与商业版图重塑
这项技术突破的意义远不止于实验室的数字,它将对整个AI产业生态和商业版图产生深远影响。
- 加速存算一体芯片的产业化进程:ADC瓶颈的解决,是存算一体芯片从理论走向大规模应用的关键一步。随着能效和面积的显著优化,存算一体芯片将更具竞争力,有望加速替代部分传统冯·诺依曼架构的AI加速器市场。3
- 重塑边缘AI(Edge AI)市场格局:功耗和体积是边缘设备部署AI的最大障碍。这项技术使得AI模型能够以极低的能耗在智能手机、物联网设备、可穿戴设备乃至更小的传感器中运行,无需依赖云端算力。这将催生海量的本地化、低延迟、高隐私保护的AI应用场景,例如智能家居的实时语音识别、工业生产线的边缘故障预测、自动驾驶的即时决策等。
- 推动AI芯片设计与制造的范式变革:传统的AI芯片设计高度依赖硅基CMOS工艺。忆阻器等新型材料的引入,将促使芯片厂商重新思考材料科学、器件物理与系统架构的结合,鼓励跨学科创新。那些能快速整合新型材料与架构的芯片设计公司,将在未来的竞争中占据优势。
- 对可持续AI发展的积极贡献:随着大型AI模型训练和推理所需的能源消耗与日俱增,AI的可持续性已成为全球性议题。通过从硬件底层大幅提升能效,这项技术为构建更加绿色、环保的AI基础设施提供了可能,有助于缓解AI发展带来的碳排放压力。4
算力瓶颈下的哲学反思与未来路径
这项研究不仅是工程上的胜利,更蕴含着深刻的哲学思辨。它挑战了我们对“完美”硬件的执念,展示了如何通过巧妙设计,将看似不可避免的物理缺陷转化为性能优势。这种“缺陷即特征”的设计理念,或许将成为未来复杂系统设计的一个重要方向,启示我们重新审视自然界中那些“不完美”的自适应与韧性。
展望未来3-5年,这项技术将带来多维度、深层次的变革:
- 混合信号计算的黄金时代:纯数字与纯模拟计算的界限将进一步模糊。基于忆阻器ADC的模拟存算一体芯片将成为主流,并与传统数字计算单元深度融合,形成更高效、更灵活的混合信号计算系统。
- AI for Materials与AI for Chip Design的协同:利用AI来设计和优化忆阻器等新型材料的性能,以及用AI来自动生成和优化芯片架构、编程ADC自适应策略,将形成一个自我强化的创新飞轮。
- “普惠算力”的加速实现:当高效、低成本的AI算力可以部署在几乎任何物理设备上时,AI将不再是少数科技巨头的专属,而是真正实现算力无处不在,加速各行各业的智能化转型,并让普通民众能够更便捷地享受到AI带来的便利。
- 新型人机交互与智能体验:更强大的边缘AI能力将使设备能够进行更复杂的本地数据处理和个性化学习,从而实现更自然、更智能、更能理解用户意图的人机交互体验。例如,设备可以实时理解用户的情绪、上下文,提供更加精准和贴心的服务。
这项基于忆阻器的自适应ADC技术,不仅仅是AI芯片领域的一个技术突破,更是人类在追求高效、智能计算道路上的一次深刻探索。它不仅将加速存算一体芯片的产业化进程,更以其独特的哲学思辨,启示我们如何在面对物理极限时,以创新和智慧超越藩篱,为构建一个更智能、更可持续的未来奠定基础。
引用
-
Nature子刊:港大等首提下一代AI硬件系统,能耗锐减57.2%·36氪·(2025/11/17)·检索日期2025/11/17 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Hong, H., Liu, S., Li, Y. et al. Memristor-based hardware-native adaptive analog-to-digital converter for in-memory computing. Nat Commun 16, 65233 (2025).·Nature Communications·Hong Haiqiao, Liu Shuoyi, Li Yang, et al.(2025/11/17)·检索日期2025/11/17 ↩︎
-
忆阻器——存算一体芯片,芯片架构迎来奇点时刻 - 韭研公社·韭研公社·(2025/11/17)·检索日期2025/11/17 ↩︎
-
忆阻器存算一体AI芯片登Nature,能耗仅有CMOS方法的十万分之一·智东西·(2025/11/17)·检索日期2025/11/17 ↩︎