要点:
美国2022年开始祭出全面管制,并说服盟友日、荷加入,2023年5月日本宣布祭出口管制,荷兰也于6月30日公布最新设备管制措施,三国封杀网俨然成立。所有这些政策都迫使了中国推动自己的芯片技术发展取得更大进步。
致力于传播优质的中国知识内容、构建全球新共识。我们将通过一系列时事资讯、精品课程、论坛、节目、咨询报告等内容产品,提供关于当代中国的最新的舆论思潮、深入的社会观察、亮眼的科技成就等优质信息。我们已与五大洲十多个国家、百余个研究机构、媒体机构、政治团体、民间组织建立合作关系。希望通过我们的工作在海外分享中国经验,讲述中国故事,客观分析我们共同面对的挑战和机遇,携手全球青年寻找全球化发展的新共识。
联系我们// Substack // Twitter // YouTube // 相关文章
日前,"Chip"期刊在江苏无锡举办的2023芯片大会·前沿科学论坛首次发布了“中国芯片科学十大进展”。这十大进展不但代表了中国相关领域的最高水平,也几乎涵盖了目前国际上芯片技术研究的前沿。在摩尔定律即将到达极限的当下,研究人员正试图以不同方式取得新的突破,为后摩尔时代探路。比如釆用石墨烯薄膜等新材料,让晶体管尺寸突破1纳米以下,或者借助光子芯片迈向“量子优越性”,构建可控、实用、经济的量子系统;又或者是在范式上寻求突破,模拟人脑中神经元网络的工作方式,开发适合神经拟态计算的芯片。在用途上,这10大进展中既有用于通用计算的芯片技术,也有用于训练AI的智能计算芯片,以及特种用途的储能芯片。总体上来看,中国芯片技术在前沿领域的科研处于百花齐放、多点突破的状态,这些都为早日突破科技封锁,实现高端芯片的完全自主打下坚实基础。 而在芯片产业上,中国企业正逐步掌握成熟制程芯片的完整产业链,并向先进制程发起冲击。在存储芯片领域,中国相关企业也迎来了千载难逢的战略机遇,以及425亿元的潜在大市场。
活跃的科研创新、不断提高的芯片制造工艺和全球最大的芯片市场相结合,将在不远的将来重塑世界芯片市场的格局。下面,让我们先看看来自2022年的中国芯片科学10大进展。
首次实现亚纳米栅极长度晶体管<br>借助石墨烯薄膜,清华大学集成电路学院教授任天令团队实现世界栅极长度最小的晶体管,仅约三分之一纳米,大约相当于单层碳原子厚度。这项研究助推摩尔定律发展到亚1纳米级别,并极有可能成为该定律的最后一个节点,同时为二维薄膜在未来集成电路的应用提供了参考依据。
近年来,随着晶体管的物理尺寸进入纳米尺度,电子迁移率降低、漏电流增大、静态功耗增大等短沟道效应越来越严重,新结构和新材料的开发迫在眉睫。 2016年,美国劳伦斯·伯克利国家实验室和斯坦福大学研制了基于金属性碳纳米管材料实现了物理栅长为1纳米的平面硫化钼晶体管。
为进一步突破1纳米以下栅长晶体管的瓶颈,任天令研究团队利用石墨烯薄膜超薄的单原子层厚度和优异的导电性能作为栅极,通过石墨烯侧向电场控制垂直的二硫化钼沟道的开关,使等效的物理栅长度降为0.34纳米,然后通过在石墨烯表面沉积金属铝并使其自然氧化,完成了对石墨烯垂直方向电场的屏蔽。此后,科研人员使用原子层沉积的二氧化铪作为栅极介质、化学气相沉积的单层二维二硫化钼作为沟道,最终完成了具有亚1纳米栅极长度的晶体管。相较于体硅材料,单层二维二硫化钼具有更大的有效电子质量和更低的介电常数。在亚1纳米物理栅长的控制下,晶体管能有效开启、关闭,其关态电流在pA量级。
基于三维阻变存储器存内计算宏芯片
中科院微电子研究所刘明院士、张锋研究员和北京理工大学王兴华副教授团队合作研发了一款基于三维阻变存储器的存内计算宏芯片。通过将多值自选通三维垂直阻变存储器和抗漂移多位模拟输入权值乘法方案相结合,实现了高密度计算。
随着芯片制造工艺的不断进步,工艺制程已经接近物理极限。而深度神经网络的发展使得计算量和参数量呈指数级增长,因此,阻变存储器在大规模神经网络中的应用面临多个挑战。例如,卷积神经网络权值数量的不断增加导致阻变存储器的面积开销越来越大;在多值大规模阻变存储器阵列中,当参与乘累加计算的阻变单元数量很大时,由于阻变单元电导漂移而引起的误差累积更加严重;另外,三维阻变存储器阵列由于制造工艺难度更大,使得阻变单元与电路协同设计实现困难。
为了解决上述问题,微电子研究所重点实验室刘明院士团队研发了一款基于三维阻变存储器的存内计算宏芯片。科研人员将多值自选通/Multi-level self-selective,MLSS三维垂直阻变存储器与抗漂移多位模拟输入权值乘/ADINWM方案相结合,实现了高密度计算。在抗漂移多位模拟输入权值乘方案基础上,提出了电流幅值离散整形/CADS电路,用于增加读出电流的感知容限/SM,以实现后续精确的模拟乘法计算。这样解决了由于三维阻变存储器阵列单元电导波动引起的在传统并行字线输入原位乘累加方案下不可恢复的读出电流失真问题。此外,釆用nA级操作电流的三维垂直阻变存储器阵列,降低了系统功耗。同时引入具有栅预充电开关跟随器/GPSF的模拟乘法器与直接小电流模数转换器降低延时。在输入、权重和输出数据分别为8位、9位和22位的情况下,位密度为58.2 bit/μm²,能效为8.32TOPS/W。与传统方法相比,该芯片提供了更准确的大脑MRI边缘检测和更高的CIFAR–10数据集推理精度。该成果于2022年7月26日发表在“自然∙电子”/Nature Electronics杂志上。
忆阻器玻色釆样的量子优越性
玻色釆样/Boson sampling一直被认为是实现“量子优越性”的重要途径。由于光学平台具有光子相干时间长、鲁棒性好等特点,因此对于实现玻色釆样实验非常友好。九章光学量子计算机已经通过高斯玻色釆样实现了“量子优越性”。然而,如何构建可控、实用、经济的量子系统,并且在该系统本身能演示计算难题的同时,又能映射到实际应用,仍然是一个难题。
上海交通大学金贤敏团队提出了一种新型玻色釆样方案“忆阻器玻色釆样”。通过循环结构,使得相同时间块内以及不同时间块间的量子干涉效应可以分别独立地记录和分析。每个时间块都包含n个光子和m个模式,通过多次时间复用,实验的光子数和模式数随重复次数N线性增长。该方案成功将随机散射玻色釆样/scatter shot boson sampling与时间自由度融合,增加了总体的计算复杂度。此外,从原理上来说,该方案可以将问题的规模拓展到无限大。
研究团队通过多组SPDC光源在循环结构的光子芯片中的干涉验证了该方案。多光子SPDC光源经光纤耦合器收集后注入到集成光子芯片,通过扩大时间循环次数,光子数和模式数可以扩大N倍。光子芯片的自循环结构保证了不同时间块之间也能发生量子干涉效应。时间飞行模块记录下了巨大希尔伯特空间中所有光子事件的时间信息,并用于提取出射光子概率分布。时间上随机散射输出的光子概率分布结果成功和经典可分辨釆样器区分。通过增加时间块,问题被扩展至200000光子在750000模式中散射,并且成功还原出了片上56光子事件,达到了“量子优越性”的范畴。
这个突破展示了一种光子系统中集成且成本效益高的迈向“量子优越性”的新途径,并提供了一种可控可拓展的新平台,可用于极大希尔伯特空间中的量子模拟。该研究成果发表在“芯片”杂志2022年4月4日。
支持多粒度稀疏的AI训练芯片
清华大学可重构计算团队尹首一教授团队与北京清微智能科技公司在AI训练芯片方面取得突破。
近年来,人工智能作为一项影响深远的颠覆性技术,在机器翻译、人机交互、医疗诊断、自动驾驶等多个领域取得了突破性进展。人工智能技术的成功高度依赖于“算法、计算能力、数据”三个关键要素。人工智能算法的参数量和训练数据量爆炸式增长,给人工智能芯片带来极大的能耗,严重制约人工智能技术的持续发展和广泛应用。例如,自然语言处理模型GPT-3具有17.5亿参数,需要1万块GPU训练30天,消耗大量的电力。因此,提升人工智能模型训练的能效成为实现人工智能持续发展必须克服的严峻挑战。然而,基于传统训练机制的人工智能芯片难以解决这一问题。
为了避免对冗余参数训练导致的时间和能量浪费,Trainer釆用边更新边剪枝的训练机制。面对不同复杂度的应用场景,Trainer在训练迭代过程中,基于当前训练精度自适应生长或修剪网络连接。在每次迭代过程中,Trainer只使用和更新保留的参数,避免冗余参数的相关计算,从而大幅减少计算和访存开销,高效适应多样化应用场景。
动态剪枝可以有效减少训练计算量,它依靠全新的训练芯片架构从而充分利用其动态权重稀疏特性。 Trainer包含三个关键技术,实现对动态权重稀疏的高效利用。首先,Trainer包含系统级冗余计算预测单元,通过分析训练过程中结构化权重稀疏在前馈计算、反向传播和权重更新三个阶段的全局作用,预测并移除训练阶段中的隐式冗余计算。与显式冗余计算不同,隐式冗余计算的输入值、权重值以及输出值均不为0,但对训练无效。其次,Trainer针对不规则的非结构化稀疏权重,釆用实时复用检测、乱序稀疏压缩的计算数据流,动态适配权重复用情况,解决不规则权重稀疏导致的数据复用不均衡问题,提高训练过程中的硬件资源利用率。最后Trainer通过提取BN计算公因子,并基于公因子重组BN公式的方式,解耦BN计算的串行数据依赖,实现并行正向传播和反向传播BN计算,减少训练过程中访存开销。解决卷积层和全连接层运算量随动态剪枝显著减小后,串行BN计算时重复数据访存导致的训练瓶颈。
此研究成果从训练机制和硬件架构角度为现有AI训练芯片带来了突破,显著增强了芯片面向不同任务时的学习效率,大幅减少芯片训练的时间和能量开销,为AI训练芯片的演进开拓了新方向。该成果于2022年5月20日发表在集成电路领域顶级期刊IEEE Journal of Solid-State Circuits/JSSC上。
新型硅基光电子片上集成系统的问世
北京大学王兴军教授团队和美国加州大学科研人员合作,开发了由集成微腔光梳驱动的新型硅基光电子片上集成系统。通过直接由半导体激光器泵浦集成微腔光频梳,为硅基光电子集成芯片提供光源,结合硅基光电子集成技术,完成大规模集成系统高效并行化。
研究团队通过集成微腔光梳驱动的新型硅芯片系统有所突破。利用半导体激光泵浦集成微腔光梳为硅芯片提供光源,加上硅光集成技术,实现了大规模集成系统的高效并行。光梳,特别是集成成芯片规模的微腔光梳,一直是国际光学界的研究重点。尽管微腔光梳本身可以集成,但其他组件大多仍未集成,从成本、尺寸和功耗方面损害了其优势。因此,系统整合对光梳技术的推广非常重要。
与此同时,硅光集成芯片已经发展20多年。借助成熟的CMOS工艺,它可以大规模集成传统光学系统所需的组件,显著提高信息处理速度和容量。随着硅光系统扩展和增加,它的架构演进为多通道和高并行,需要低成本高稳定性的并行光源。然而,由于硅材料本身不发光,硅激光器的实现一直是难题,在硅光芯片上研发多路并行硅激光源仍是最大挑战。研究人员通过半导体激光泵浦集成微腔光梳为硅芯片提供所需的光源,加上可靠的硅光集成方案,实现了大规模集成系统的高效并行。
利用这种高集成度的系统,实现T比特速率微通信和亚GHz微波光子信号处理,提出高密度多维复用的微通信和微处理芯片级集成系统的全新架构,开创了下一代多维硅光集成微系统子学科的发展。相关研究成果有望直接应用于数据中心、5/6G通信、自动驾驶、光计算等领域,为下一代片上光电子信息系统提供了全新的研究范式和发展方向。该研究成果发表在“自然”杂志2022年5月18日。
光致VO2非易失相变的神经形态光电传感器
中科院物理研究所杨国桢院士团队和金奎娟研究员、葛琛研究员合作,最近提出了一种基于紫外光辐照/电解质调控VO2非易失相变的新型神经形态光电传感器。该器件展示出良好的线性度、保持特性和硅基兼容性。通过构建人工神经网络并演示图像识别功能,该研究将VO2应用扩展到紫外智能光电传感领域,为近传感器计算/传感器内计算设计提供了新选择。
传统的人工智能视觉系统由于各功能组件在物理上的分离导致了数据访问的延迟以及相对较高的功耗。人类从外界获取信息的途径80%依赖于视觉,视网膜不仅可以探测到光刺激,并且可以进行初步的光信号处理,这种高效的视觉感知和认知学习过程启发了未来人工视觉系统的发展。在此背景下,集感知、存储、计算功能于一体的神经形态智能光电传感器件已经成为近年来的前沿研究热点。
研究团队提出了一种基于紫外光辐照/电解质调控VO2非易失相变的新型神经形态光电传感器。该器件展示出良好的线性度、保持特性、硅基兼容性,并构建了人工神经网络并演示了图像识别等功能。 VO2是一种典型的强关联氧化物,存在多种同分异构相以及由于氧含量的细微差异导致的丰富VO2相,研究显示通过电场、光场、压力场等外场调控可以实现相与相之间转换。
研究团队通过激光分子束外延方法生长了高质量的VO2/AlO薄膜,将其制备成光电晶体管结构并进行了光电测试。团队发现VO2薄膜在紫外光辐照下发生了非易失变化,而在可见光照射下只有瞬态的光电响应。加大紫外光辐照剂量甚至可以诱导VO2非易失相变,由绝缘相向金属相转变。系列表征结果表明这主要由于紫外光辐照在VO2薄膜中产生了氧空位,而光子能量低于其氧空位激活能的可见光只产生瞬态的光电响应。
在复位过程中,团队提出了利用电解质门控的方法将氧离子插入到氧缺失薄膜的方案。因此,通紫外光辐照和电解质调控VO2中氧的脱出/嵌入,可以实现对其电导的可逆非易失性调控,进而设计了智能紫外光电传感器件。此外,研究团队在硅晶圆上通过磁控溅射技术生长了大面积VO2薄膜,并将其制备成神经形态传感器件阵列。通过随机抽取其中100个器件进行测试,结果证明薄膜展现出了良好的均匀性。在人工神经网络方面,该研究团队使用了三层前馈神经网络,包括输入层、隐藏层和输出层,通过监督学习训练该网络实现了图像识别功能。具体来说,团队选取了手写数字MNIST数据集进行训练,将训练后的网络应用于神经形态光电传感器件阵列上,成功实现了数字图像的识别。
总体来说,该研究展示了VO2相变材料在智能光电传感领域的应用潜力,提供了一种新的思路和方法,可以将传感器和计算器件集成在一起,具有非常广泛的应用前景。该成果于2022年5月18日发表在“自然”/Nature杂志上。
性能倍增的场效应储能芯片
武汉理工大学麦立强教授、晏梦雨研究员团队,提出了调制材料费米能级结构实现储能芯片性能倍增的新思路,通过设计构筑场效应储能芯片,实现了电化学工况下材料费米面梯度的原位调控和性能提升。研究表明,通过在储能材料中原位构筑梯度费米面结构,拓宽了材料的嵌入能级。施加场效应后,离子迁移速率提高10倍,材料容量提高3倍以上。此项研究解决了费米面梯度对电化学反应影响机制不明确的科学难题,实现了纳米线容量与反应电势的协同提升,填补了场效应储能芯片领域的空白,为储能芯片在物联网等领域的应用奠定了科学基础。
电化学储能芯片是一种利用电化学反应来储存和释放能量的核心电子元件,它可以为工业物联网、智慧农业、医疗无线监测等领域提供可靠的能源供应。然而,电化学储能芯片的工作机理和性能调控一直是一个科学难题,因为在储能芯片中存在着复杂的电化学反应和材料结构变化,这些过程很难被实时监测和控制。
为了解决这个问题,研究团队通过设计制造单纳米基元电化学器件,实现了储能芯片电子输运及其电子结构的实时检测。他们发现了场效应在储能器件中的新应用,即通过施加栅极电压来调节材料的费米能级结构,从而改善离子扩散和提高电荷存储能力。他们证明了通过拓宽材料的嵌入能级,可以使储能芯片的容量翻两番。
具体来说,研究团队利用场效应晶体管作为纳米级储能器件的放大器,将二氧化锰纳米线作为阴极和场效应沟道,在电化学器件结构与栅电极结构之间构建了一个场效应储能装置。通过这种结构,他们能够更好地理解栅极电压如何影响电极/电解质界面和由此产生的储能行为。他们发现,在施加背栅电场后,结果显示电极材料离子迁移速率提升了10倍,而材料容量的提升幅度为3倍以上。他们还揭示了材料费米能级结构对其电化学性能的影响规律,并表明这一理论也可以扩展到其他多种电化学反应中。
这一研究填补了场效应储能芯片领域的空白,为储能芯片在物联网等领域的应用奠定了科学基础。他们期望下一步能将其制备的原型器件推广,实现规模化的工业生产,以满足物联网等新兴市场对储能芯片的需求。他们将围绕关键电极材料优化、电解液、隔膜改性、器件组装等多个方向进行攻关,并与电子工程、生物工程等相关领域的科学家讨论,推动“产能-储能-供能”一体化微型器件的产业化发展。该成果于2022年6月2日发表在“Chem”杂志上。
高性能滤波电容器
中科院合肥研究院固体物理所孟国文教授和韩方明研究员团队,成功研发了一种新型三维碳管网格膜,将其作为双电荷层电容器/EDLC电极,大幅提升了电容器的频率响应性能以及在相应频率下的面积比电容和体积比电容,有望作为电子器件中的高性能交流滤波电容器,为电子产品的小型化提供了新的技术路线与核心关键材料。
电化学储能芯片是一种利用电化学反应来储存和释放能量的核心电子元件,它可以为交流电信号滤波提供高效的解决方案。目前常用的铝电解电容器由于其体积比电容较小,制约了电子产品的小型化和便携化。而电化学双电荷层电容器虽然比电容较大,但响应频率很低,无法实现对交流信号滤波。
为了解决这个问题,孟国文团队釆用三维多孔模板诱导的化学气相沉积方法,成功研发了由“管中管”结构的碳管相互连接组成的三维碳管网格膜。这种结构不仅取向性高、结构稳定、导电性好,而且是一种开放式多孔结构,因此有望满足小型化高性能双电荷层滤波电容器对电极材料的要求。以上述三维碳管网格膜做电极,研究团队构建了一系列尺寸大小不同的对称型双电荷层电容器,并将6个相同的电容器串联,发现串联后的器件仍然保持理想的电容特性和频率响应性能,并具有很好的滤波性能。
研究团队利用场效应晶体管作为纳米级储能器件的放大器,将二氧化锰纳米线作为阴极和场效应沟道,在电化学器件结构与栅电极结构之间构建了一个场效应储能装置。通过这种结构,他们能够更好地理解栅极电压如何影响电极/电解质界面和由此产生的储能行为。他们发现,在施加背栅电场后,结果显示电极材料离子迁移速率提升了10倍,而材料容量的提升幅度为3倍以上。他们还揭示了材料费米能级结构对其电化学性能的影响规律,并表明这一理论也可以扩展到其他多种电化学反应中。这一研究填补了场效应储能芯片领域的空白,为储能芯片在交流线路滤波等领域的应用奠定了科学基础。该成果于2022年8月25日发表在“科学”/Science杂志上。
可穿戴超低功耗可重构神经形态计算电子设备
复旦大学陈琳教授团队及其合作者最近提出了一种可重构神经形态网络忆阻柔性器件,该器件同时具有人工突触和神经元功能,能够在同一单元实现神经突触可塑性和神经元发放功能,从而降低神经元电路的复杂性。人工突触、神经元和功能电阻被集成到一个加热纺织系统中,用于智能温度调节。这种超低功耗的纺织神经形态网络可以为智能物联网中大脑启发的可重构和可穿戴的神经形态计算电子设备的发展提供新的方向。
在传统的互补金属氧化物半导体集成电路尺寸接近物理极限的情况下,新型的神经形态计算芯片逐渐成为低功耗和高效率的解决方案。同时,电子纺织品作为新一代可穿戴电子产品,具有显示、传感、能量釆集和能量存储功能,并展现出巨大的应用前景。将神经形态计算忆阻器无缝集成到电子纺织品中,对于有效存储和处理来自功能电子元件的信号至关重要。因此,在神经形态织物电子领域开展突破性研究,将神经形态计算忆阻器件无缝集成到纺织品中,对于降低神经形态硬件系统的能耗具有极大的应用前景。
该研究团队通过整合可重构的突触、神经元和加热织物电阻,成功构建了神经形态织物系统,用于智能织物应用,为实现下一代神经形态可穿戴电子提供了独特的功能重构途径。该系统由可重构忆阻器组成的功能性纺织网络构成,基于Ag/MoS₂/HfAlOx/CNT的结构,具有非易失性存储器和易失性阈值开关特性。通过纺织网络中顶层的人工突触实现了多级电导状态的调制。纺织网络中底层的可重构神经元模拟了整合发放功能,显示了1.9 fJ的超低能耗,比生物神经元和现有报道的人工神经元的能耗降低三个数量级。人工突触、神经元和功能电阻被集成到一个加热纺织系统中,用于智能温度调节。超低功耗的纺织神经形态网络可以为智能物联网中大脑启发的可重构和可穿戴的神经形态计算电子设备的发展提供新的方向。该成果于2022年12月2日发表在“自然∙通讯”/Nature Communications杂志上。
类脑计算芯片:天机X
清华大学施路平团队推出了面向智能机器人的类脑计算芯片“天机X”,是全球首款面向智能机器人的类脑计算芯片,并发展了完善的软件工具链。团队在执行模型、芯片架构和软件工具链和机器人系统等多个层次进行了系统性创新。研制的天机X具有高算力、低功耗、低延时和跨范式多网络异步并行等优势,为边缘智能和类脑计算提供了一个高效硬件平台和崭新路径。
类脑计算芯片是一种借鉴脑科学基本原理发展的新型计算技术,是后摩尔时代的重要发展方向,也是中国脑计划的核心研究内容之一。研究团队首先提出了类脑多任务智程执行模型,实现了硬件的时空资源一体,使得机器人可在复杂多变环境中并行处理多个智能任务,同时弹性调配资源,实现“任务性能-环境变化”的动态调节。团队在智程模型的基础上,研发了多源异步触发的众核类脑计算芯片天机X。
首次提出并实现了基于类脑通用完备指令集的类脑计算芯片设计,其中,研发的核内微小控制器单元,仅占据核内1%的面积,充分提高了类脑芯片的可编程性,实现了控制流架构的灵活性与数据流架构的高性能的有效平衡;可交互路由单元实现了网络间的异步数据传输和自触发调度。统一寻址管理的存储单元设计以及基于循环步进的计算流程,解决了基于交叉阵列的传统神经形态芯片在执行时具有无效计算和冗余存储的关键瓶颈,从而提高了芯片资源有效利用率。针对智能机器人由于不同模态传感器的帧率以及模态不同,计算硬件统一时序匹配运行所带来的低利用率、高功耗、低能效困境,设计了事件触发的异步数据流架构。多智能任务可以在众核空间上并行流水以及时间上复用执行来使得模型部署可以更好的实现负载均衡并紧凑执行。芯片釆用28 nm制程,支持通用的神经网络范式,能效3.2 Tops/W,相较于2019年Tianjic有了显著提升,单位面积算力提升10%,峰值能效提高3倍。
团队还研发了层次化完备的软件工具链,可灵活地将不同范式的神经网络部署到芯片,使软硬件可以协同优化。天机X芯片相较于世界领先的边缘芯片Nvidia TX2可降低50%的动态功耗和90%的延时,支持多达32个神经网络任务的并行处理。基于天机X,设计了智能机器人原型,实现唤醒、听声辩位、目标识别、避障、多模态跟踪等多任务、多神经网络的异步并行执行。该成果于2022年6月15日发表在“科学机器人”/Science Robotics杂志上。
决胜后摩尔时代
随着摩尔定律逐渐失效,基于冯·诺依曼架构的计算机在性能和效率方面遇到瓶颈,无法满足智能时代发展需求。类脑计算是借鉴脑科学基本原理发展的新型计算技术,是后摩尔时代的重要发展方向,是中国脑计划的核心研究内容之一。类脑计算芯片是解决智能时代各种计算挑战的关键。类脑计算是一种受人脑结构和功能启发的新型计算技术,它具有高效、可塑性强、可编程等特点。类脑计算芯片釆用异步、事件驱动的神经元模型,可以实现高速、低功耗、低延迟的计算。同时类脑计算芯片可以根据外界输入和反馈动态调整神经元和突触的连接和强度,实现自适应和持续学习。类脑计算芯片可以支持多种神经网络范式,通过软件工具链可以灵活地将不同范式的神经网络部署到芯片上,使软硬件可以协同优化。
而量子计算是另一种有望突破传统的冯·诺依曼架构的限制,为智能时代提供更高效和更强大的计算能力的技术。量子计算和类脑计算有着不同的优势和应用领域。类脑计算具有高效、可塑、可编程等特点,适合处理大规模、复杂、非结构化、噪声干扰等问题,例如图像识别、语音识别、自然语言处理、机器人控制等。量子计算具有高速、高精度、高安全性等特点,适合处理小规模、精细、结构化、确定性等问题,例如数值模拟、优化求解、加密解密等。
类脑计算和量子计算之间也存在着一定的联系和互动。一方面,类脑计算可以为量子计算提供一些启发和借鉴。例如,类脑计算中的神经元模型可以用来构建量子神经网络,类脑计算中的学习规则可以用来优化量子控制,类脑计算中的记忆机制可以用来增强量子存储。另一方面,量子计算也可以为类脑计算提供一些支持和增强。例如,量子计算可以实现对类脑系统的高效模拟,量子计算可以实现对类脑数据的高效压缩,量子计算可以实现对类脑网络的高效训练。
此次发布的10大芯片科学进展的多项成果表明中国科学界以及在类脑计算/神经拟态计算芯片和量子计算芯片方面取得了长足的进步。类脑计算芯片有望为智能时代各种计算挑战提供新的解决方案和核心关键技术,不仅在智能机器人领域,而且在其他边缘应用、人工智能、脑仿真、脑机接口和无人驾驶等方面都拥有巨大的应用前景。