重大突破:清华大学研发全球首颗类脑AI芯片,有望颠覆人工智能的算力基础



本文为1745字,建议阅读5分钟‍

最近,清华大学研究团队在《科学》杂志上发表论文,公布一项重大技术突破:利用新型记忆电子器件—记忆体实现的神经形态计算芯片。这种全新架构的芯片,不仅极大降低了人工智能系统的功耗,更令人振奋的是,它展示出在芯片内部进行自主学习的强大能力。这项成果被认为将推动基于记忆体的神经形态计算的蓬勃发展,或将颠覆过去十年主导的手段,开启人工智能的新篇章。
论文题目:“面向边缘学习的全集成类脑忆阻器芯片”(Edge Learning Using a Fully Integrated Neuro-Inspired Memristor Chip)
论文地址:https://www.science.org/doi/full/10.1126/science.ade3483
过去十年,深度学习的巨大成功主要得益于GPU强大的并行计算能力。但这类算力极其耗电,严重制约了将人工智能应用到各类智能终端和物联网设备上。与之形成鲜明对比的是脑计算的高效率,人类大脑虽然体积小,但其并行处理能力和智能却远超任何超级计算机。近年来,许多研究开始尝试仿生设计,以期打破冯·诺依曼架构的瓶颈。

记忆体(忆阻器)作为一种新型电子器件,具有类似生物突触可变电阻特性,可用于模拟神经元间连接,成为实现神经形态芯片的理想元件。早在2010年,DARPA(美国国防部高级研究计划局)的一项计划就提出要基于记忆体构建类脑芯片。时至今日,随着器件制造技术的快速进步,这一构想也越来越接近现实化。
面向传统存算分离架构制约算力提升的重大挑战,清华大学集成电路学院吴华强教授、高滨副教授聚焦忆阻器存算一体技术研究,探索实现计算机系统新范式。忆阻器存算一体技术从底层器件、电路架构和计算理论全面颠覆了冯·诺依曼传统计算架构,可实现算力和能效的跨越式提升同时,该技术还可利用底层器件的学习特性,支持实时片上学习,赋能基于本地学习的边缘训练新场景。
当前国际上的相关研究主要集中在忆阻器阵列层面的学习功能演示,然而实现全系统集成的、支持高效片上学习的忆阻器芯片仍面临较大挑战,至今还未实现,主要在于传统的反向传播训练算法所要求的高精度权重更新方式与忆阻器实际特性的适配性较差。
为解决上述难题,清华大学课题组基于存算一体计算范式,创造性提出适配忆阻器存算一体实现高效片上学习的新型通用算法和架构(STELLAR),有效实现大规模模拟型忆阻器阵列与CMOS的单片三维集成,通过算法、架构、集成方式的全流程协同创新,研制出全球首颗全系统集成的、支持高效片上学习的忆阻器存算一体芯片
这种架构只根据输入、输出和误差的正负号来更新记忆体中的权重,避免了数字电路中大量数据的读写操作。他们设计并制造出集成两个记忆体数组、控制器和模拟数字转换器等全套电路的神经形态计算芯片。与采用最先进工艺的数字加速器相比,这片仅采用0.35微米制程的芯片,其能耗降低了惊人的35倍!

该芯片已经过测试,展示了其在图像分类、语音识别和控制任务等各种学习任务中的能力。它表现出了高度的适应性、能源效率、多功能性和准确性。事实上,在执行相同任务时,与使用先进工艺的专用集成电路 (ASIC) 系统相比,它的能耗仅为 3%。这凸显了其卓越的能源效率优势
除了耗电量低之外,该芯片展示出更令人振奋的能力——它可以自主地在芯片内部进行改进学习,以适应新的环境。研究团队通过光追逐、图像识别等多个实验验证了这一能力。例如在光追逐任务中,该芯片可以仅通过极少的新样本,就在保持对旧环境的识别能力不变的情况下,适应新的光照条件,追逐光点的表现大为改善。
与需要大量标记数据进行训练的常规深度网络不同,这种自主在线学习方式更适合于各类智能边缘设备。它可帮助终端设备快速适应个性化使用环境和用户习惯的变化。同时,由于计算高度本地化在芯片内部,也不存在隐私泄露的风险。
专家认为,这项成果第一次证明,基于记忆体的神经形态芯片可以在不损耗性能的情况下大幅降低功耗,并实现灵活的自主学习。这为部署到各类对功率与成本敏感的智能系统提供了可能,包括自驾汽车、智能手机、穿戴设备等,将推动更多创新应用的产生。同时,这种自适应学习也更契合人类大脑的工作方式,可以望创造出更具灵活智能的机器。
虽然仍面临工艺提升等诸多挑战,但记忆体神经形态芯片以其巨大的潜力,正蓄势待发,掀起芯片界的新一轮革命浪潮。它也将成为人工智能发展历史上里程碑式的突破,开启仿脑智能的新纪元。让我们拭目以待!
结语‍‍‍‍‍‍‍
清华的这篇文章发于2023年9月14日,截止到现在文章下载接近7000次,需要这篇论文pdf的请私信我
⭐星标AI寒武纪,好内容不错过⭐
用你的赞和在看告诉我~

清华重大突破👇👇
到顶部