光子芯片研究进展及展望:面向未来的计算系统 ,光计算具有天然优势

2020
12/29

+
分享
评论
学术头条
A-
A+

大数据时代人们对电子计算机处理系统的算力和速度等要求越来越高


 



 

 

 
 1971年,美国英特尔公司推出了第一枚应用于电子计算机的微处理器4004芯片,这一举措对整个电子工业界产生了深远的影响,微处理器芯片所带来的计算机和互联网革命改变了整个世界。

芯片是人类最伟大的发明之一,也是现代电子信息产业的基础和核心。小到手机、电脑、数码相机,大到5G、物联网、云计算,全部都是基于芯片技术的不断突破。

半导体光刻工艺水平的发展是以芯片为核心的电子计算机的基石,目前半导体光刻的制造工艺几乎是摩尔定律的物理极限,随着制造工艺的越来越小,芯片内晶体管单元已经接近分子尺度,半导体制作工艺的“瓶颈效应”越来越明显。

随着全球化以及科技的高速发展,需要处理的数据量在急剧增加,相应的数据处理模型和算法也在不断增加,带来的结果就是对算力和功耗的要求不断提高。

而目前冯•诺依曼架构和哈佛架构的电子计算机存在传输瓶颈、功耗增加以及算力瓶颈等问题,已越来越难以满足大数据时代对算力与功耗的需求,因此提高运算速度同时降低运算功耗是目前面临的紧要问题。

 

 

 


面向未来的计算系统 ,光计算具有天然优势  
2016年,《自然》杂志社论“超越摩尔”中明确指出电子芯片难以为继。2019年,美国普林斯顿大学普鲁尼   (Prucnal)   等人撰文指出人工智能大数据时代对算力的需求每三个半月翻一番,远超摩尔定律所预测的算力供给量,即每18~24个月翻一番。同年,美国国防部高级研究计划局   (DARPA)   启动“未来计算系统”项目,目的是研究基于知识/推理的引擎,具备深度学习能力、高算力和低功耗的集成光子芯片。  

 
利用光子计算方法替代传统电子计算方法将是解决摩尔定律困境以及冯•诺依曼架构的问题,即解决当前算力、功耗问题的极具潜力的途径之一。  

 
光子具有光速传播、抗电磁干扰、任意叠加等特性,光学计算具有天然的并行计算特性,因而运算速度极快,且十分适合做并行运算。  

 
工业界对光学技术充满信心,英特尔光子技术实验室主任马里奥•帕尼西亚   (Mario Paniccia)   曾预测说:“光学将能让计算机芯片设计师克服电子学的根本局限。”  

 
IBM首席研究员戈弗里•伯尔   (Goeffrey Burr)   在“光学在人工智能硬件中的作用”一文中也曾指出:光学神经网络有望比传统的方法提供更好的能效。  

 
在学术界,斯坦福大学米勒   (D. A. B. Miller)   教授、乔治华盛顿大学佐尔格   (V. J. Sorger)   教授等一大批科学家均对超低功耗光子器件、全光信息处理等有自己独到的见解。  

 
光计算相比于电计算具有很多优势,例如:  

 

光信号以光速传输,使速度得到巨大提升;

光具有天然的并行处理能力以及成熟的波分复用技术,从而使数据处理能力和容量及带宽大幅度提升;

光计算功耗有望低至10~18 J/bit,相同功耗下,光子器件比电子器件快数百倍。 


 
从空间光计算到光子芯片
 
1946年,杜费   (Duffieux)   将傅立叶变换引入光学中进而发展出的傅立叶光学是光学计算技术的起源。  

 
1950—1980年,科学家把光学和通信信息理论结合起来,把经典的成像光学理论赋予信息处理的角色,发展出基于模拟光计算的光学信息处理技术。  

 
1980—2004年之间是光计算的黄金年代,人们已经提出大量光计算技术,包括以模拟光计算代表的光学模式识别、逻辑光计算、光学神经网络、光互连、光学全息存储等。  

 
1987年,中科院上海光学精密机械研究所王之江院士在《中国科学院院刊》上撰文,提出了极具前瞻性的发展光计算技术的建议。此后,王之江院士等人在光学神经网络计算及光学逻辑计算方面开展了大量的工作。  

 
1989年构建了第一个阴影投影法光学神经网络,提出两种光学神经网络Hopfield模型原始结构。  

 
然而,由于人们对光计算的应用需求和应用场景不是很清晰,并且缺乏与光计算技术相匹配的光学硬件体系,光计算技术的发展比较缓慢  

 
 
人工智能计算需求增长曲线与电子芯片算力增长曲线的高度不匹配  

 
近年来,人们对光计算技术的需求迅速增加,其原因在于:  

 

一是随着摩尔定律的逐步失效,以及大数据时代对计算系统功耗和速度要求的不断提高,光计算技术高速和低功耗的特点越来越受到人们的重视;                                                                                                                  

二是光计算技术的并行性运算特点,以及光学神经网络等算法和硬件架构的发展,为图像识别、语音识别、虚拟现实等人工智能技术对算力的需求提供了最有潜力的解决方案。


光计算可以分为模拟光计算和数字光计算。模拟光计算最典型的一个例子就是傅立叶运算,在图像处理等领域需要运用傅立叶变换相关的计算,如卷积计算。用传统计算机来计算傅立叶变换是非常消耗计算量的,而光通过透镜的过程,本身就是一次傅立叶变换的过程,这个过程几乎完全不需要时间。数字光计算是利用光和光学器件组合形成经典的逻辑门,构建类似传统数字电子计算原理的计算系统,通过复杂的逻辑门组合操作实现计算。


空间光计算


空间光计算的基础是范德•拉格特 (Vander Lugt) 于1964年提出的基于光学相关器的方法,计算是在空间滤波的基础上实现的,在系统焦平面上放置一个匹配滤波器,对输入光信号进行相位补偿,从而在输出平面上产生代表计算结果的光信号。

1978年,古德曼 (J. W. Goodman) 提出光学矢量-矩阵乘法器的光计算模型,其光路系统如下图所示,主要由光源陈列、球面透镜和柱面透镜组、空间光调制器和光探测器阵列构成。通过滑动来实现柱面镜复制,然后根据光场复振幅调制来实现乘积,最后通过透镜聚焦来实现求和。从矢量-矩阵乘法运算的过程可以看出其乘法运算和加法运算都是并行进行的,没有次序先后的问题,从而大大提高了系统算力和运算效率。


基于多层感知器的衍射光学光子芯片


1943年,神经生理学家沃伦•麦卡洛克   (Warren S. McCulloch)   和数学家沃尔特•皮茨   (Walter Pitts)   根据神经信号传输方式提出了感知器的概念,即“M-P神经元模型”。感知器是具有单一人造神经元的神经网络,它有一个输入层和将输入单元和输出单元相连的一组连接,描述了神经元的时间总和、域值等特征,首次实现用一个简单电路   (即感知器)   来模拟大脑神经元的行为。  

 
2018年9月,加州大学洛杉矶分校奥茨坎   (Ozcan)   等人采用空间光调制器和三维打印的介质材料构建多层感知器,实现了衍射光学深度神经网络光子芯片,他们设计出3D打印的固态衍射光学元件,通过控制不同层之间传播的衍射光来实现特定权重互连。不得不说,这种方案存在一些后续还需重点考虑的问题,例如:像元太大,导致扇入扇出角度太小,连接性不强;用空间光调制器加载矩阵元,功耗高、刷新慢;固定的介质材料不可调制;计算功能简单等。  

 

光学向量-矩阵乘法器原理  

 

基于马赫-曾德干涉仪光开关阵列的可编程光子芯片


2017年6月,美国麻省理工学院的沈   (Shen)   等人构建了一种基于硅基马赫-曾德干涉仪光开关阵列   (MZI)   的全光卷积架构,通过在这种纳米光子芯片上的深度学习编程实现语音识别功能。  

 
芯片由56个可编程MZI和213个相移单元级联而成,设计的1×4神经网络结构被集成到一个毫米级的硅基芯片上。  

 
MZI光开关在平面内实现光学全互联,通过调节电压值实现MZI光开关的分光比,从而在芯片上加载可编程的权重矩阵。该方案中某一层的一个神经元能连接到的邻层神经元的数量有限;MZI布线特点导致可扩展性差;相移器是热光控制的,能量损耗较大。这些都是后续发展需要着重考虑的技术问题。  


 

光子芯片


基于微环的全光学脉冲光子芯片


2019年5月,一种基于相变材料加级联微环结构的全光学神经网络芯片由德国明斯特大学费尔德曼   (Feldmann)   等人提出,该芯片可实现简单的英文字母识别。  

 
该芯片构建了一个包含140个相变微环光开关的神经网络结构,通过波分复用技术,使多种不同波长的激光在光波导芯片中互相无串扰传输。每个微环节点上都附着高灵敏的相变材料以构成微环谐振器结构神经元。相变材料存在晶态和非晶态两种不同特性,当材料为非晶态时表现出高透过率,在其中传播的光波可通过;当材料为晶态时表现为低透射率,在其中传播的光波大多被材料吸收,无法通过。该方案需要进一步解决的问题包括:已有相变材料体系无法实现负折射率,权重因子只能取正数,因此拟合效果较差;相变材料的寿命、响应速度等。    

 
 
应用前景
 
大数据时代人们对电子计算机处理系统的算力和速度等要求越来越高,摩尔定律的失效使电子芯片在计算速度和功耗方面遇到了极大的挑战,光子计算芯片以光子为信息的载体具有高速并行、低功耗的优势,因此被认为是未来高速、大数据量、人工智能计算处理的最具有前景的方案

例如,人工智能光子芯片是一种光计算架构与人工智能算法高度匹配的芯片设计,有潜力广泛应用于自动驾驶、安防监控、语音识别、图像识别、医疗诊断、游戏、虚拟现实、工业物联网、企业级服务器和数据中心等关键人工智能领域。

人脑由数百亿神经元高度互联构成,具有强大的处理能力,实验显示,生物大脑1秒钟处理的计算量,超级计算机需要处理40分钟才能完成。类脑光子芯片模拟人脑的计算,通过光子携带信息在模拟大脑的神经网络构架下处理数据,使芯片达到像人脑一样高速并行且低功耗的计算。以微纳光子集成为基础的光子芯片结合基于光学计算的神经网络数据处理系统是应对未来低功耗、高速度、宽带宽、大数据量信息处理能力的关键。

从国家战略安全和战略需求的角度,光子芯片可以解决很多在数据处理时间长、无法实时处理、功耗高等应用领域的关键问题

例如,在远距离、高速运动目标的测距、测速和高分辨成像激光雷达中,在生物医药、纳米器件等的内部结构实现高分辨无损检测的新型计算显微关联成像装备中,光子芯片均可以发挥其高速并行、低功耗、微型化的优势。

空间激光通信是解决目前空间传输速率瓶颈的主要技术手段,是构建天地一体化信息网络的重要手段;水下激光通信是解决目前水下信号传输受环境影响的主要技术手段,是构建水下通信一体化的重要手段。另外还有星间互联网、6G通信、智能遥感测绘等国家战略安全和战略需求领域,而这些都是需要对大数据进行高速、低功耗、实时处理的。 光子芯片在这些国家战略领域将起到非常重要的支撑作用。

当前新一轮科技革命和产业变革正在迅速深入发展,科技创新已成为推动社会经济发展的核心动力,面向“十四五”我国科技自立自强的伟大目标,我们应当紧紧抓住光子芯片蓬勃发展的历史机遇期,力争实现关键核心技术的重大突破,助力将我国早日建设成为先进的创新型国家。

-本文选自《世界科学》杂志2020年第12期“大家·科技前沿”栏目-

本文由作者自行上传,并且作者对本文图文涉及知识产权负全部责任。如有侵权请及时联系(邮箱:nanxingjun@hmkx.cn
关键词:
摩尔定律,神经元,感知器,芯片

人点赞

收藏

人收藏

打赏

打赏

我有话说

0条评论

0/500

评论字数超出限制

表情
评论

为你推荐

推荐课程


社群

精彩视频

您的申请提交成功

确定 取消
剩余5
×

打赏金额

认可我就打赏我~

1元 5元 10元 20元 50元 其它

打赏

打赏作者

认可我就打赏我~

×

扫描二维码

立即打赏给Ta吧!

温馨提示:仅支持微信支付!