光学打算利用光场仿真人工智能的实现过程,相较于电子打算,具有高速、高宽带、低功耗的优点,为办理这一瓶颈问题供应了一种独特的办法。
比如通过光频梳对不同波长的数据或权重进行编码,单个韶光步长的操作可以自然而然地同时运用于数千乃至数百万个不同信道。
得益于当代图形处理器(GPU)强大的运算和并行打算能力以及广泛开源的数据集,仿照人工智能的光学打算成为可能。

模拟人工智能的光学计算_神经收集_水池 AI简讯

在即将到来的第五代移动通信技能(5G)时期,大量的传感器和互联网连接设备每秒都会产生大量的数据,这些数据须要由人工智能以尽可能快的速率处理。
神经网络是由成千上万个乃至数百万个相互连接的多层神经元组成的范例的人工智能模型,可以学习具有多层次抽象特色的数据,构造也在变得越来越繁芜。

为理解决这一公认的困难,近年来研究者在电子架构创新方面进行了各种努力,以加速低功耗下的人工智能推理和演习。
近期,来自清华大学、喷鼻香港科技大学和鹏城实验室的科研事情者回顾并总结了实现人工智能仿照的光学打算在不同人工智能模型中的最新打破,紧张涵盖了仿照前馈神经网络、蓄池塘神经网络和脉冲神经网络干系的光打算,谈论了当前技能的可行性,并指出了不同领域的各种寻衅。

其综述以「Analog optical computing for artificial intelligence」为题揭橥于中国工程院的院刊 Engineering,该论文的共同第一作者是清华大学的吴嘉敏博士,林星博士和郭雨晨博士,共同通讯作者是清华大学戴琼海院士和方璐教授以及鹏城实验室焦述铭博士,此外喷鼻香港科技大学的刘军伟老师也参与了论文的撰写。

光仿照人工智能模型进展

01 前馈光神经网络(ONN)

前馈神经网络采取一种单向多层构造,个中每一层包含多少个神经元,在这种人工神经网络中,相邻层的所有神经元都通过不同的突触权值相互连接,各神经元可以吸收前一层神经元的旗子暗记,并传送到下一层。
其特点在于全体网络中没有反馈,旗子暗记从输入层向输出层单向传播,可以用一个有向无环图表示。

前馈神经网络构造图

目前,基于前馈神经网络进行的光打算研究紧张集中在以下四个方面进行的:光学线性加权总和、光学线性卷积、光学非线性激活函数和光学系统上的在线网络演习。

对付全连接神经网络的光学实现,须要在光学上实行加权求和运算或向量矩阵乘法运算。
到目前为止,已经有几种不同的光学加权求和的实现办法,详细来说有以下几种。

第一种,级联马赫·曾德尔干涉仪类光网络。
网络中多个马赫·曾德尔干涉仪相互级联,构成一个矢量矩阵乘法的光学打算装置。
马赫·曾德尔干涉仪的基本观点可以追溯到1994年的早期事情,最初紧张被用来作为光纤中的波分复用器。
在最近的研究中,研究职员提出了一个包含56个硅光子集成电路的可编程纳米光子处理器,每个子处理器相称于一个马赫·曾德尔干涉仪,每个干涉仪又包含两个分束器和两个可调的移相器,这样的光学网络可以等效数学中的奇异值分解的矩阵运算。
须要把稳的是,一个马赫·曾德尔干涉仪并不等同于人工神经网络中的一个神经元,但一个级联马赫·曾德尔干涉仪网络可以在同一网络中的两层神经元之间实行等效的线性向量-矩阵乘法运算,如下图所示。

级联马赫·曾德尔干涉仪网络图

打算某一组向量矩阵相乘时,所布局的级联马赫·曾德尔干涉仪网格架构并不是唯一的,这样就许可我们为相同的向量矩阵打算设计两个不同的级联马赫·曾德尔干涉仪网格,各自分别的特色可以是可调性更强或容错性更强。
通过3D打印加工光波导,级联马赫·曾德尔干涉仪系统可以从二维扩展到三维,以实现更高的打算能力。
除此之外,复数打算操作也可以通过级联马赫·曾德尔干涉仪有效地实现。
级联马赫·曾德尔已被考试测验用于多种人工智能任务,如语音识别、花卉数据分类和葡萄酒数据分类等。

第二种,深度光衍射神经网络(D2NN)。
在D2NN网络构造中,多层级联光衍射调制板垂直于光的传播方向并以一定的空间间隔平行放置,输入平面和输出平面上的空间光强分布分别对应于输入向量和输出向量,如下图所示。

深度衍射神经网络图

入射光场在自由空间中向前传播,并由每个调制板依次调制。
所有衍射光学元件的像素值(相位、振幅或复振幅)通过类似于深度学习中对应的偏差反向传播算法进行优化。
优化后的全体系统从输入光场到输出光场进行线性变换,实现向量矩阵乘法。
常日,一个多层级联衍射调制板系统的信息处理能力与总的层数正向关联。
该系统可以作为光学线性分类器,并已被证明能够对MNIST数据集中的数字图像进行光学分类,并在Fashion- MNIST数据集中对服装图像具有中等较高的分类精度。
在后续的事情中,D2NN神经网络系统从不同的方面得到了改进和提升。
最初D2NN由太赫兹光源驱动,后来尺寸更小的红外和可见光光源系统也被利用。
D2NN的实现也不局限于单色相关光照明,宽带D2NN还可以实现用于光谱滤波和波长解复用运用。
有的研究职员将D2NN与数字处理器或数字神经网络相结合以提高预测性能。
仿照残差深度学习网络的残差D2NN也被提出来,并用多个反射镜大略地实现了输入和输出之间的直接快捷连接。
有研究职员针对演习集图片进行几何变换后演习D2NN系统,结果表明D2NN可对付图像的平移、旋转和缩放有一定鲁棒性。
大量的研究结果表明,一个D2NN系统可以处理多样化的打算机视觉任务,除目标分类之外,还有图像分割、图像显著性检测以及图像超分辨。

除了传统的机器学习任务外,还有研究职员将D2NN运用于其他光打算和光旗子暗记处理任务,比如激光雷达的智能光束转向、图像加密、光逻辑门、脉冲整形和模分复用光纤通信中的模式识别/复用/解复用等等。

第三种,基于空间光调制器和透镜的光学打算。
与之前两种基于相关光设计的架构不同,这种基于空间光调制器和透镜的架构可以利用相关或非相关光照明。
入射光在空间光调制器平面的强度分布相称于输入向量值,根据加权系数对空间光调制器的不同像素进行编码,光束依次通过空间光调制器和透镜聚焦到焦点。
将探测器放置于透镜焦点上,然后网络空间光调制器平面上的总光强,其结果相称于输入向量和加权系数向量之间的内积。
该架构如下图(a)所示,类似于光学成像中的单像素成像的观点。

实现复数矩阵乘法的方法图

通过利用不同类型的透镜,可以有多种方法来实现复数矩阵乘法,如利用一个傅立叶透镜得到输出光的总和,或利用柱面透镜。
柱面透镜只在水平方向或垂直方向上对平行光和会聚光之间进行转换。
输入向量由沿水平方向像素化阵列的光强分布表示。
两个柱面透镜在空间光调制器平面上实行一维输入阵列的复制和一维加权求和,如上图 (b)所示,输出结果末了通过焦平面上沿垂直阵列的光强分布来表示,这实现了多个线性加权求和操作的并行处理。
此外,向量矩阵乘法可以通过大略地用单个傅里叶透镜多次重复加权求和运算来实现。

基于空间光调制器和透镜的架构,可以很随意马虎与冷原子系统相结合以实现一个同时具有线性和非线性变换的全光学深度神经网络。
基于该架构,有研究职员构建出一个具有174个光学神经元的大规模可编程全光深度神经网络。
与其他体系构造比较,这种实现办法对付不同的任务完备可重复编程,而无需改动物理器件。

第四种,波分多路复用(WDM)实现线性加权总和。
输入向量中的每个元素都由一个具有特定频率(或波长)的光波强度表示,然后通过常日由微环谐振器(MRRs)布局的光子权重阵列对其进行不同的光谱滤波,从而对输入旗子暗记进行加权。
终极如下图所示,平衡光电二极管(BPD)通过采集不同波段中所有旗子暗记的总光功率实现加权线性求和。
这种体系构造被认为可能与主流的硅光子器件平台兼容。
在最近的事情中,WDM架构与基于光子芯片的微频梳相结合,可以显著提高数据处理速率和容量。
非易失落性相变材料也被集成到波导上以实现在芯片上局部存储加权值。
最近揭橥在Nature上论文展示基于这一框架的光向量卷积加速器每秒可以实行超过10万亿次的操作。

波分复用实现线性加权总和图

其余,光的向量矩阵乘法运算,也可以通过光在纳米光子介质的传播实现,进入介质的输入光强空间分布表示输入图像模式。
光场通过介质后的输出强度空间分布表示打算结果(如图像分类结果)。
介质由主体材料和不同折射系数的掺杂物组成,掺杂物对光的散射更强。
通过适当优化掺杂物的位置和形状,可以将介质内的光场散射,实现矢量与权重矩阵的乘法。

与全连接的神经网络比较,卷积神经网络(CNN)中的神经元的连接更稀疏。
此外,多个连接可以共享相同的权重值。
CNN中相邻两层神经元之间的向量矩阵乘法运算实质上是一种卷积运算。
在数学上,输入图像和核之间的卷积等价于输入图像的傅里叶滤波。
在光学中,包含图像信息的输入光场的傅里叶变换和傅里叶反变换可以很随意马虎地通过4f双透镜系统来实现。
根据卷积核而设计的滤波掩膜可以放置在4f设置的傅里叶平面上。
一些研究中也中进一步实现了在傅里叶域内进行卷积的广义光子张量操作处理器。
卷积操作也可以通过其它办法实现,如级联声光调制器阵列、波分复用加光延迟线或色散勾引延迟等。

如果一个神经网络是完备线性的,没有任何非线性激活函数,那么纵然物理上存在多层线性变换,其有效的打算也只等价于单层,由于多个矩阵的乘法结果仍旧是一个单一的矩阵。
为了实现全光深度神经网络,实现非线性激活函数是必不可少的。
但光学中的非线性过程不随意马虎通过实验实现,这使得以可行办法实现非线性激活功能成为光学神经网络研究中最具寻衅性的问题之一。

在许多光学神经网络研究中,只有线性操作是光学实现,非线性操作常日是仿照实现的。
一样平常来说,非线性激活函数可以由电子元件和光学元件组成的稠浊系统实现,但由于光学旗子暗记和电子旗子暗记之间的相互转换,这种方法不可避免地降落光学打算的性能。
空想的方案是利用纯光学元件实现非线性激活函数,最近研究中,电磁勾引透明(EIT)的利用证明了光学实现非线性层的实际可行性。
如下图所示,EIT是指一束光在介质中的穿透能力由另一束光所掌握的非线性光学征象。
理论上,EIT可以发生在任何具有三重态的真实材料系统中,个中不同状态之间的跃迁概率振幅取决于它们的粒子分布。

电磁勾引透明事理示意图

一个深度学习网络常日首先须要大量的样本进行演习,以优化所有的权重系数。
经由演习后,网络可以对样本有效地实行一定的预测任务。
在许多光学神经网络的干系研究中,演习在打算机上完备数字化离线进行,只有光学神经网络的预测操作是通过光学实验进行的。
事实上,对光学神经网络在线演习在一定程度上也可以实现。

目前很多关于级联马赫·曾德尔干涉仪网格的在线演习研究已经在进行之中。
偏差反向传播是数字深度神经网络中运用最广泛的演习算法,在设打算法时,伴随变量法常常用于推导级联马赫·曾德尔干涉仪网格的反向传播算法。
在演习中,梯度可以通过级联马赫·曾德尔干涉仪网格不同节点上的光强度来丈量。
其余,可以利用前向传播和没有反向传播的有限差分法对级联马赫·曾德尔干涉仪系统进行片上在线演习。

很多研究者利用遗传算法和粒子群优化两种进化算法,对在线演习的级联马赫·曾德尔干涉仪网格参数进行优化。
这些全局优化算法是无梯度的,可以避免陷入局部最优解的问题。

而对付D2NN构造,在线演习方法目前也被广泛研究。
深度神经网络的标准演习算法是基于偏差反向传播,而通过光路可逆和相位共轭事理,通过丈量前向和后向传播的光场强度,也可以在线得到梯度值。
每一层静态光衍射器件可以被更换为一个空间光调制器,用于动态演习和参数更新。
实际输出光场与目标光场之间的残差可以由一个复振幅光场天生器产生,用于光场反向传播。
仿真结果表明,与离线打算机演习比较,在线演习方案可以明显降落打算本钱。

对付其他的光学神经网络架构,如果有适当的优化算法、准确的实验丈量和动态编码的光学元件,也可以实现光学系统上的在线演习。

02 光蓄池塘打算(RC)

与前馈神经网络比较,递归神经网络由于内部反馈回路的存在,具有影象和遐想的能力,可用于时序信息处理。
蓄池塘神经网络便是递归神经网络的一种,它由反应状态网络和液体状态机发展而来。
由于其在处理韶光序列数据方面的分外上风,该架构在实行时序旗子暗记预测和语音识别等任务时显示出了较好适应性。
蓄池塘神经网络构造常日由一个固定的非线性系统组成,如蓄池塘节点,它许可输入旗子暗记在高维空间中转换为时空状态。
通过演习一个储存态的读取器来确定蓄池塘动态,从而得到蓄池塘的韶光输出数据。
蓄池塘神经网络的内部构造如下图所示。

蓄池塘神经网络构造图

蓄池塘神经网络由三层神经元构成,分别为输入层、中间层和输出层,中间层也被称为蓄池塘。
蓄池塘层是全体神经网络中最繁芜也是最主要的部分,其内部神经元的互连有着「稀疏、随机且固定」的特点:稀疏是指蓄池塘层内的一个神经元不须要与其他神经元逐一完备连接;随机是指不须要特意为蓄池塘内部神经元设计互连架构,实际上,蓄池塘内部的连接状态可以是未知的;固定是指在蓄池塘演习过程中,不须要改变其内部神经元的互连权值。
蓄池塘的这些特点充分仿照了人类大脑中生物神经元的互连办法和动态特性。
目前,关于蓄池塘神经网络的光打算的研究紧张集中在两个方向,一种是全光学类的蓄池塘打算,另一种是光电类蓄池塘的打算。
所谓全光类蓄池塘,便是在蓄池塘神经网络中的蓄池塘的实现是完备仿照光的传播过程,光电类蓄池塘的打算即表示结合光电的方法实现蓄池塘模型。
RC的全光和光电实现之间的差异取决于不同类型的蓄池塘和输入层。

超高速打算和低功耗是全光RC系统的紧张优点。
常见的基于全光构造RC可以分为两种:空间分布的RC和基于延迟线的RC。

利用衍射光学元件是实现空间分布的光子RC的一种方法。
2015年,Bruner和Fischer提出的垂直腔表面发射激光器(VCSELs)网络便是范例的空间分布的RC,如下图所示。
该RC构造中,VCSEL阵列晶格间距与成像透镜焦距的组合可以在相邻激光器的主射线之间形成一个角度,通过透镜的焦距来调节,从而调节衍射光学元件实现激光的耦合和衍射复用。

衍射光学元件实现蓄水神经网络图

为了简化光子系统的繁芜硬件,科研事情者们引入了一种新型的基于延迟线RC的光学系统,这种全光学神经网络常日须要结合半导体激光器、半导体光学放大器或者无源光腔来实现。
他们将一个反馈构造分成一系列虚拟节点和一个非线性节点形成一个循环。
与具有高网络自由度的空间分布式RC比较,这类蓄池塘是固定的,因此一样平常在更传统的光通信硬件中利用较多。
半导体光放大用具有丰富的内部动态,且其增益随意马虎饱和的特点可以为神经网络供应非线性层。

在研究全光类蓄池塘神经网络的同时,科研事情者也在关注将光和电相结合,以设计可运用于不同场合的光电蓄池塘神经网络,综述中将光电类蓄池塘神经网络分为两类:片上蓄池塘神经网络和自由空间蓄池塘空间网络。
目前,基于光电系统的蓄池塘模型在语音识别、混沌韶光预测和雷达旗子暗记预测等领域得到了广泛的运用。
目前的光电蓄池塘神经网络处理速率已经实现了兆赫兹的速率,并在可预见的未来,具有达到千兆赫兹速率的潜力。

片上蓄池塘,顾名思义,便是结合硬件芯片仿照蓄池塘神经网络。
基于硅基底的片上蓄池塘神经网络在2008年就被比利时根特大学的Vandoorne等人提出,全体网络模型由波导、光学组合器和光分波器三部分组成。
研究职员创造,通过标准的快速光电二极管可以在片上蓄池塘神经网络中可以进行检测,并办理非线性问题。
然而,由于这类系统依赖于探测器中的光电转换,因此它不能进行全光学操作。

在设计片上蓄池塘神网络时,常常会考虑利用无源组件,其优点在于带宽较宽,乃至可以同步地将多个波长发送到系统中,从而实现频率复用。
但其缺陷是随着芯片扩展到更多的节点,光损耗可能相称大,很难实现所有节点的并行丈量。
在无源组件网络中,输入旗子暗记时钟的频率和内存韶光尺度依赖于分离节点之间的传播延迟,这将哀求高达数百个Gbit/s的高注入频率。

基于硬件的蓄池塘神经网络的输入和输出层常日是通过打算机离线仿真的,为了在未来可以开拓更为繁芜的蓄池塘打算机,目前科研职员已经开始考试测验通过硬件仿照实现三层蓄池塘神经网络包括蓄池塘部分。
如下图便是一个利用硬件仿照蓄池塘打算机的案例,其输入层可以通过具有两种不同正弦频率的掩模来实现。
输出层分别通过马赫-泽德调制器(MZM)得到光蓄池塘中的旗子暗记和 RLC滤波器对平衡光电二极管的输出旗子暗记进行滤波,全体仿照系统的输出通过蓄池塘打算机的终端输出。

硬件仿照三层蓄池塘神经网络图

实现光电类蓄池塘神经网络也可以通过光的自由空间传播实现,比如通过空间可扩展的数字微镜器件和空间光调制器实现蓄池塘神经网络。
2018年,Bueno等人证明了包含空间光调制器、衍射光学元件和相机的光学系统可以存储多达2500个衍射耦合光子节点的网络。
Dong等人通过数字微镜器二元编码输入光强信息并调控蓄池塘。
后来,他们运用相同的方法,利用纯相位空间光调制器得到了一个大规模的光蓄池塘网络。
利用空间相位分布,蓄池塘网络可以引入输入和蓄池塘信息。
2020年,Rafayelyan等人的科研成果表明,强散射介质在光网络中起着关键浸染,以担保浩瀚光子节点之间的随机耦合权重以及网络中的并行处理。
多维大型混沌系统的预测任务已经在其大型系统中得到了验证,其具有较高的预测精度和相对较高的速率以及较低的功耗。
该网络已经证明了处理更大数据集的潜在可扩展性能力。

随着纳米光子学和蓄池塘神经网络的复合构造的涌现,一种新的光学信息处理框架正在引领这一领域,其相对付传统方法具有低功耗和超快打算速率的优点。
超高速光学非线性和超低功耗光学器件也可能为光子蓄池塘带来光明的未来,提升蓄池塘在速率和功率效率方面的性能。
此外,具有多节点蓄池塘的光子芯片的可扩展性还须要在未来进一步研究。

03 脉冲神经网络

脉冲神经网络(SNNs)被认为是生物学和神经科学的交叉学科,其构造包括前馈神经网络构造和递归神经网络构造。
与前馈神经网络和递归神经网络比较,SNNs在神经形态打算中得到了更广泛的运用。
除了meta模型外,SNNs中的神经元只有在其膜电位达到阈值时才会被激活。
当一个神经元被激活时,一个旗子暗记被产生并通报来改变级联神经元的膜电位。
在SNNs中,神经元当前的激活水平常日被建模为一个微分方程。
激活水平在刺激峰值到达后上升,并持续一段韶光,然后逐渐低落。

SNNs增强了处理时空数据的能力。
一方面,SNNs中的神经元只与附近的神经元连接,并进行单独处理,以增强处理空间信息的能力。
另一方面,由于演习依赖于脉冲间隔,因此可以从脉冲的韶光信息中检索到二进制代码中丢失的信息,从而提高了处理韶光信息的能力。
事实表明,脉冲神经元是传统人工神经元更好的打算单元。
然而,由于SNNs的演习和物理履行方面的困难,它们尚未得到广泛运用。

大多数关于SNNs的研究事情仍旧集中在理论剖析和大略构造的验证上,包括SNNs的演习算法和光学硬件实现。

2016年,普林斯顿大学的Prucnal研究小组提出了一种基于可激活的石墨烯光纤激光器的脉冲处理系统。
该系统包含一个掺铒光纤(增益部分),一个石墨烯饱和接管器(损耗部分),一个980nm接管器作为泵浦源,以及一个1480nm激光器,携带脉冲勉励旗子暗记来刺激系统产生触发脉冲神经元反应。
2018年,该研究团队提出了一种基于分布式反馈(DFB)激光构造的神经形态光子集成电路。
此外,研究小组还谈论了构建可编程和可级联光子神经网络的可行方案,包括传播-加权(B&W)网络原型和相关光学架构。
个中,B&W网络原型是一种能够支持大规模光子脉冲神经元并行互连的网络架构。
SNNs的演习方法紧张遵照监督学习算法,包括:

①SpikeProp算法,它利用梯度低落,常日用于多层前馈人工神经网络;

②Tempotron 算法,利用脉冲序列输出与预期序列之间的差值来改变网络的权重;

③基于突触等质体的算法,如赫边学习算法;

④远程监督学习算法,如Resume算法;

⑤基于脉冲序列卷积的监督学习算法,如SPAN算法和PSD算法。

2019年,Feldmann等人提出了另一种基于相变材料的脉冲神经网络方案,并采取该方案对光子神经元进行非线性变换。
光控相变是一种事情状态,晶体和非晶材料之间的事情状态由输入光功率掌握。
当输入的光功率低于阈值时,相变材料处于晶体状态,并接管大量的光强。
当输入光功率高于阈值时,相变材料处于非晶态,大部分光功强可以通过阈值。
因此,将材料集成到光传输介质中可以根据输入的光强来改变材料的光透导率。
这样,它就能够作为光学神经元的激活函数。

与TrueNorth、神经网格和SpiNNaker等电子实现的SNN比较,光子实现的SNN利用光处理信息,有更高的带宽和数据吞吐量以及更低的延迟。
很多研究成果表明,利用硅/III-V稠浊平台的光电SNN可达到20GHz的处理速率,比纯电子SNN赶过6个数量级以上。
由于能量紧张由激光源花费,无源滤波器损耗的电流很低,硅/III-V稠浊平台的能量效率为0.26pJ,大约比电子神经网络高3个数量级,比SpiNNaker高6个数量级以上。
通过利用优化的亚波长构造(如光子晶体)和波长多路复用,可以进一步提高神经形态光子平台的打算性能。

展望

虽然光打算在不同的AI模型中得到了广泛的运用,但也面临着各种寻衅,实际运用中尚未得到明显优于传统电子处理器的性能证明。
例如:如何在相应韶光短、对探测光功耗哀求低、数据并行的情形下得到比较强的光学非线性特性?如何在不同架构中优化非线性表征?如何在低功耗的芯片上实现高速大规模可重构打算?如何将不同的光学器件集成到单个芯片上,特殊是与外部器件连接?如何为不同的任务设计具有自动化设计软件的光学神经网络?只管未来仍有许多问题有待办理,但目前的光学仿照打算技能在速率、数据并行和功耗方面已经表现出了光技能的独特潜力。

下一步,作者认为须要进一步努力战胜光打算的关键毛病,并在不同的实际运用中展示光学打算相对付电子学打算的优胜性。
如上所述,不同的架构可能适宜于专门的特界说务。
光学打算中对自由空间中部分相关光场的传播和调制模型的建立有助于打算机视觉中对数据的高速处理。
由于自动驾驶等自然场景中的大部分光芒是非相关的,目前相关的衍射神经网络模型难以发挥浸染。
由于非线性特性在深度神经网络中起着至关主要的浸染,因此,采取低功耗、低延迟的光学办法实现非线性激活函数可以显著提升当前神经网络的精度。
存储和访问是扩展神经形态处理器所需的根本技能,构建具有极快读写速率的光学随机存储器一贯是一个寻衅,这为光打算和存储的分外材料的发展供应了巨大机遇。
只管利用了弘大的系统,但自由空间的光学打算可能会加速不须要便携式系统的各种数据中央的云打算。
我们期待更前辈的具有更高的迭代速率(高达MHz和千兆像素数)的空间光调制器涌现。
高速和低功耗光电转换在目前的过渡阶段变得越来越主要,其在实际运用中须要光子学和电子学的发展。
现状表明,在不久的将来,光学打算会有越来越多的打破。

此综述回顾了近些年光学打算在用于实现人工智能专用硬件方面的发展。
紧张先容了几个在不同架构下具有代表性和独特上风的光学仿照人工智能模型。
只管大多数模型仍处于观点验证的低级阶段,但我们预期这些架构在未来实际运用中将在打算速率或功耗方面取得数量级的改进。
我们相信,随着光子学、电子学、材料学、制造学、打算机科学和生物学平分歧领域研究者的不断努力,作为通向全光打算机的过渡阶段,利用光电稠浊打算机来加速人工智能演习和推理将很快成为现实。

文 黄威、张佳琦(鹏城实验室访问学生)

论文信息:

Please cite this article as: J. Wu, X. Lin, Y. Guo, J. Liu, L. Fang, S. Jiao, Q. Dai, Analog Optical Computing forArtificial Intelligence, Engineering (2021)

https://doi.org/10.1016/j.eng.2021.06.021

--中国光学