1、手动打算器

计算器的成长历史_集成电路_公司 AI快讯

大约公元前 2500 年,算盘发明于"美索不达米亚",用来帮助加减数字。
1617年,英国数学家约翰·纳皮尔(John Napier)发明了Napier乘除器。
1621年,英国数学家威廉·奥特雷德(William Oughtred)根据对数事理发明了圆形打算尺,也称对数打算尺。
18世纪末,发明蒸汽机的瓦特独具匠心,在尺座上添置了一个滑标,用来存储打算的中间结果。

2、机器打算器

1642年,法国数学家帕斯卡(Blaise Pascal)发明了帕斯卡加法器,这是人类历史上第一台机器式打算工具。
帕斯卡加法器是由齿轮组成、以发条为动力、通过迁徙改变齿轮来实现加减运算、用连杆实现进位的打算装置。
帕斯卡从加法器的成功中得出结论:人的某些思维过程与机器过程没有差别,因此可以设想用机器来仿照人的思维活动。
1673年,莱布尼茨研制了一台能进行四则运算的机器式打算器,称为莱布尼兹四则运算器,也便是步进式打算器。

1804年,法国机器师约瑟夫·雅各(Joseph Jacquard)发明了可编程织布机,通过读取穿孔卡片上的编码信息来自动掌握织布机的编织图案,引起法国纺织工业革命。
雅各织布机虽然不是打算工具,但是它第一次利用了穿孔卡片这种输入办法。
如果找不到输入信息和掌握操作的机器方法,那么真正意义上的机器式打算工具是不可能涌现的。
直到20世纪70年代,穿孔卡片这种输入办法还在普遍利用。

1822年,巴贝奇开始研制差分机,专门用于航海和天文打算,在英国政府的支持下,差分机历时10年研制成功,这是最早采取寄存器来存储数据的打算工具,表示了早期程序设计思想的抽芽,使打算工具从手动机械跃入自动机器的新时期。

1832年,巴贝奇开始进行剖析机的研究。
在剖析机的设计中,巴贝奇采取了三个具有当代意义的装置: ⑴ 存储装置:采取齿轮式装置的寄存器保存数据,既能存储运算数据,又能存储运算结果; ⑵ 运算装置:从寄存器取出数据进行加、减、乘、除运算,并且乘法因此累次加法来实现,还能根据运算结果的状态改变打算的进程,用当代术语来说,便是条件转移; ⑶ 掌握装置:利用指令自动掌握操作顺序、选择所需处理的数据以及输出结果。
由于当时的机器加工技能还达不到所哀求的精度,使得这部以齿轮为元件、以蒸汽为动力的剖析机一贯到巴贝奇去世也没有完成。

3、机电打算器

1822年,法国的盖吕萨克和阿拉戈利用电流的磁效应,把通电导线绕在软铁上,使一块普通的软铁变成了磁铁。
1831年旁边,美国的亨利发明了继电器。
电磁继电器利用电磁铁在通电和断电下磁力产生和消逝的征象,来掌握高电压高电流的另一电路的开合,使得电路的远程掌握和保护等事情得以顺利进行。
继电器不仅是电气工程的根本,也是电子技能、微电子技能的主要根本。

1886年,美国统计学家赫尔曼·霍勒瑞斯借鉴了雅各织布机的穿孔卡事理,用穿孔卡片存储数据,加上继电器采取机电技能取代了纯机器装置,制造了第一台可以自动进行加减四则运算、累计存档、制作报表的打孔卡片制表机。
霍勒瑞斯于1896年创建了制表机公司TMC公司,1911年,TMC与其余两家公司合并,成立了CTR公司。
1924年,CTR公司改名为国际商业机器公司,这便是赫赫有名的IBM公司。
1935年,IBM推出穿孔卡片打算机。

1938年,德国工程师朱斯(K.Zuse)研制出Z-1打算机,这是第一台采取二进制的打算机。
在接下来的四年中,朱斯先后研制出采取继电器的打算机Z-2、Z-3、Z-4。
Z-3是天下上第一台真正的通用程序掌握打算机,不仅全部采取继电器,同时采取了浮点记数法、二进制运算、带存储地址的指令形式等。

1936年,美国哈佛大学运用数学教授霍华德·艾肯(Howard Aiken)在提出用机电的方法,而不是纯机器的方法来实现巴贝奇的剖析机。
在IBM公司的帮助下,1944年研制成功了机电式打算机Mark-I。
Mark-I只是部分利用了继电器,1947年研制成功的打算机Mark-Ⅱ全部利用继电器。
继电器的开关速率是1/100秒,使得机电式打算机的运算速率受到限定。

4、电子打算器

(1)仿照电子打算器

1904年,天下上第一只电子管在英国物理学家弗莱明的部下出身。
人类第一只电子管的出身,标志着天下从此进入了电子时期。

1910年,美国科学家邓伍迪和皮卡尔德用矿石来做检波器,1913年法国人吕西安、莱维利用超外差电路制作成了电子管收音机,并申请了专利。
矿石收音机是指用天线、地线以及基本调谐回路和矿石做检波器而组成的没有放大电路的无源收音机,他是最大略的无线电吸收装置,紧张用于中波"大众年夜众无线电广播的吸收。
1930年前后,利用互换电源的收音机研制成功,电子管收音机才较大范围地走进人们的家庭。
但电子管体历年夜、功耗大、发热厉害、寿命短、电源利用效率低、构造薄弱而且须要高压电源。

1936年,奥地利的艾斯勒用印刷电路的方法成功地装置了一台收音机。
仿照印刷业中的制版方法先画出电子线路图,再把线路图蚀刻在一层铜箔的绝缘板上,不须要的铜箔部分被蚀刻掉,只留下导通的线路,这样,电子元件就通过铜箔形成的电路连接起来。

美国RCA1939年推出世界上第一台电子管黑白电视机。

1939年,美国依阿华州大学数学物理学教授约翰·阿塔纳索夫(John Atanasoff)和他的研究生贝利(Clifford Berry)一起研制了一台称为ABC(Atanasoff Berry Computer)的电子管打算机,第一次提出采取电子技能来提高打算机的运算速率。

1946年2月15日,美国宾夕法尼亚大学物理学教授约翰"莫克利(John Mauchly)和他的研究生普雷斯帕"埃克特(Presper Eckert)受军器部的委托,为打算弹道和射击表研制成功第一台正式的电子管打算机ENIAC。
共利用了18000多个电子管、1500多个继电器、10000多个电容和7000多个电阻,通过采取电子器件代替机器齿轮或电动机械来实行算术运算、逻辑运算和存储信息,比当时最快的打算工具快1000多倍。

1945年6月,普林斯顿大学数学教授冯"诺依曼(Von Neumann)揭橥了EDVAC(Electronic Discrete Variable Computer,离散变量自动电子打算机)方案,确立了当代打算机的基本构造,提出打算机应具有五个基本组成身分:运算器、掌握器、存储器、输入设备和输出设备,描述了这五大部分的功能和相互关系,并提出“采取二进制”和“存储程序”这两个主要的基本思想。
电子管打算机体历年夜、能耗高、故障多、价格贵。
1948年,IBM开拓制造了基于电子管的打算机SSEC。

1949年5月,英国剑桥大学莫里斯·威尔克斯(Maurice Wilkes)教授研制了天下上第一台存储程序式打算机EDSAC(Electronic Delay Storage Automatic Computer),它利用机器措辞编程,利用了水银延迟线作存储器,利用穿孔纸带输入和电传打字机输出,可以存储程序和数据并自动处理数据,存储和处理信息的方法开始发生革命性变革。
1953年,IBM公司生产了第一台商业化的打算机IBM701,使打算机向商业化迈进。

(2)数字电子打算器

1947年12月23日,第一块晶体管在美国贝尔实验室出身,这是20世纪的一项重大发明,是微电子革命的先声,从此人类步入了飞速发展的电子时期。
1952年,德州仪器从西部电子公司(Western Electric Co.,AT&T的制造部门)以25,000美元的代价购买了生产晶体管的专利证书。

1954年10月18日,天下上第一台晶体管收音机投入市场,仅包含4只锗晶体管。
美国得克萨期仪器公司第一个制造出了商用硅晶体三极管,研制出第一台全晶体管电视机。

1959 年菲尔克公司研制的第一台大型通用晶体管打算机问世,标志打算机已进入第二代,晶体管和其他元件都手工集成在印刷电路板上。
晶体管具有体积小、重量轻、发热少、耗电省、速率快、价格低、寿命长等一系列优点,使打算机的构造与性能都发生了很大改变。
 

1959年,第一台小型科学打算器IBM620研制成功。
1960年,数据处理系统IBM1401研制成功。
1961年,程序设计措辞COBOL问世。
1961年,第一台分系统打算机由麻省理工学院设计完成。
1963年,BASIC措辞问世。

(3)集成电路电子打算器

1958年5月,基尔比加盟了当时刚从海上石油钻探设备转行到电子设备上的德州仪器。
当时的微型电路工艺有三种工艺,基尔比认为在一种材料上做出所有电路须要的器件才是电路微型化的出路。
德州仪器的竞争力在于硅,但硅工艺的缺陷是造价高,公司最好的电子产品将是在硅片上制作出各种不同的电子器件,再把它们连接起来。
1958年9月12日,基尔比研制出世界上第一块集成电路。
所谓集成电路是将大量的晶体管和电子线路组合在一块硅片上,故又称其为芯片。

1959年1月尾,仙童半导体的诺伊斯也有了集成电路的想法,将各种器件制作在同一硅晶片上,再用平面工艺这一晶体牵制造工艺将其连接起来,就能制造出多功能的电子线路。
这一技能可以使电路的体积减小、重量减轻、并使本钱低落。
平面摄影技能是在硅片上加上一层氧化硅作为绝缘层,然后,在这层绝缘氧化硅上打洞,用铝薄膜将已用硅扩散技能做好的器件连接起来。
这样的话各器件之间就会有良好的电绝缘,而且绝缘氧化硅可以保护硅片上的器件。
但是这一工艺只适用于硅晶体。
这一技能也使得仙童能够制造出小于千分之一英寸的高性能高可靠的硅晶体三极管,使得仙童在硅晶体三极管技能领先。
只管,基尔比先于诺伊斯申请了集成电路的专利,但由于有了平面工艺来连接各个器件,诺伊斯的工艺领先于基尔比的工艺。

小规模集成电路于1960年涌现,在一块 硅片上包含10-100个元件或1-10个逻辑门。
如 逻辑门和触发器等。

1962年1月,IBM公司采取双极型集成电路,生产了IBM360系列打算机,第三代打算机出身。
第三代打算机的特色是集成电路。
硅是地壳里含量第二的常见元素,是海滩沙石的紧张身分,因此采取硅材料的打算机芯片可以廉价地批量生产。

1966年中规模集成电路涌现,在一块 硅片上包含100-1000个元件或10-100个 逻辑门。
如 :集成计时器, 寄存器, 译码器等。

1966年,美国无线电公司研制出集成电路电视机,日本索尼公司制成天下第一台集成电路收音机。

(4)大规模集成电路电子打算器

1970年大规模集成电路涌现,在一块硅片上包含103-105个元件或100-10000个逻辑门。
如 半导体存储器,某些打算机外设。
美国IBM公司将采取大规模集成电路的大型打算机370系列投放市场;日本提出数字集成电路的发展方向:高速化、低功率、大规模集成。

1971年Intel工程师霍夫发明4004处理器,每秒实行五万条指令,Intel公司推出1024位 DRAM,第四代打算机微型打算机MCS4出身。
微型打算机的“微”紧张表示在它的体积小、重量轻、功耗低、价格便宜。
Intel 4004微处理器最初是Intel专门为日本一家名为Busicom的公司设计制造,用于该公司的打算器产品。
但由于技能缘故原由,Intel的延期交货让Busicom公司颇为恼怒。
与此同时,打算器领域的竞争日益激烈,当Intel彻底完成4004芯片的设计和样品的生产时,Busicom公司哀求Intel打折扣,Intel赞许了,但是它附加了一个条件:许可Intel在除打算器芯片市场之外的其它市场上自由***4004芯片。
这也使得Intel公司完成了从单一的存储器制造商向微处理器制造商的转型。

CPU 由掌握器和运算器这两个紧张部件组成。
传统的 CPU 仅单独的ALU模块(逻辑运算单元)是用来完成数据打算的,其他各个模块的存在都是为了担保指令能够一条接一条的有序实行。
这种通用性构造对付传统的编程打算模式非常适宜,同时可以通过提升CPU主频(提升单位韶光内实行指令的条数)来提升打算速率。
但对付深度学习中的并不须要太多的程序指令、却须要海量数据运算的打算需求, 这种构培养显得有些力不从心。
尤其是在功耗限定下, 无法通过无限制提升 CPU 和内存的事情频率来加快指令实行速率, 这种情形导致 CPU 系统的发展碰着不可超出的瓶颈。

1977年苹果打算机公司成立,先后成功开拓了APPLE-I型和APPLE-II型微型打算机。
1980年IBM公司与微软公司互助,为微型打算机IBM PC配置了专门的操作系统。
从1981年开始,IBM连续推出IBM PC、PC/XT、PC/AT等机型。

(5)超大规模集成电路电子打算器

在一块芯片上集成的元件数超过10万个,或门电路数超过万门的集成电路,称为超大规模集成电路。

1978年英特尔公司生产的8086是第一个16位的微处理器。
很快Zilog公司和摩托罗拉公司也宣告操持生产Z8000和68000。
这便是第三代微处理器的出发点。
64k位随机存取存储器是第一代超大规模集成电路。

1981年,IBM公司将8088芯片用于其研制的PC机中,从而首创了全新的微机时期。
也正是从8088开始,个人电脑的观点开始在全天下范围内发展起来。

1992年10月,Intel公司发布第五代微处理器奔驰处理器系列,1993年3月正式推向市场,集成了1000万个晶体管的16M FLASH和256M DRAM的研制成功,进入特大规模集成电路时期。

1994年由于集成1亿个元件的1G DRAM的研制成功,进入巨大规模集成电路时期(Intel Pentium 4E)。

(6)存储器的发展

1949年5月,天下上第一台存储程序式打算机EDSAC利用水银延迟线作存储器。

1949年,美籍华人王安博士研制“脉冲传输掌握装置(Pulse transfer controlling device)”得到了美国专利,首创了磁芯存储器时期。

1951年3月,由ENIAC的紧张设计者莫克利和埃克特设计的第一台通用自动打算机UNIVAC-I交付利用,第一次采取磁带机作外存储器。
磁带是所有存储器设备发展中单位存储信息本钱最低、容量最大、标准化程度最高的常用存储介质之一。
1963年,荷兰飞利浦公司研制成了环球首盘盒式磁带,

1953年,随着存储器设备发展,第一台磁鼓作为内存储器运用于IBM 701。
磁鼓利用铝鼓筒表面涂覆的磁性材料来存储数据的。

20世纪50年代末,麻省理工学院的杰·弗里斯特领导的旋风工程,制造出了天下上第一台能够实时处理资料的“旋风电脑”,并发明了磁芯存储器。
这是一种眇小的环形设备,每个磁芯可以存储一位信息,多少个磁芯排成一列,构成存储单元。
不同的数据可以存储在电线网的不同位置,并且阅读所在位置的一束比特就能立即存取,称为随机存取存储器(RAM),在存储器设备发展进程中它是交互式打算的改造观点。
最先得到这些专利容许证的是IBM,IBM终极得到了在北美防卫军事基地安装“旋风”的商业条约。

在1950年,磁盘由东京帝国大学的Yoshiro Nakamats发明。
其发卖权由IBM公司得到。
1956年,IBM向客户交付第一台磁盘驱动器RAMAC 305,可存储5MB数据,每MB本钱为10000美元。
1968年,IBM公司提出“温彻斯特/Winchester”技能,其要点是将高速旋转的磁盘、磁头及其寻道机构等全部密封在一个无尘的封闭体中,形成一个头盘组合件(HDA),与外界环境隔绝,避免了灰尘的污染,并采取小型化轻浮力的磁头浮动块,盘片表面涂润滑剂,实施打仗起停,这是当代绝大多数硬盘的原型。

1998年,美国明尼苏达大学和普林斯顿大学制备成功量子磁盘,这种磁盘是由磁性纳米棒组成的纳米阵列体系。

(7)人工智能芯片的发展

1956年达特茅斯会议上,科学家约翰·麦卡锡,克劳德·喷鼻香农和马文·明斯基提出了"人工智能"一词。
50年代末,阿瑟·萨缪尔(ArthurSamuel)提出了"机器学习"这个术语,他开拓了一个泰西跳棋程序,可以从缺点中吸取教训,经由学习后,乃至比编写程序的人棋力更强。

可编程逻辑阵列(PLA)在1970年旁边就涌现了,但是一贯被认为速率慢,难以利用。
1980年之后,可配置可编程逻辑阵列(PAL)开始涌现,可以利用原始的软件工具供应有限的触发器和查找表实现能力。
PAL被视为小规模/中等规模集成胶合逻辑的替代选择被逐步接管,但是当时可编程能力对付大多数人来说仍旧是陌生和具有风险的。

20 世纪70 年代末和80 年代初,GPU 观点提出,利用单片集成电路(monolithic)作为图形芯片,可以对几张图片进行合成。
1984年,SGI公司推出了面向专业领域的高端图形事情站,才有了专门的图形处理硬件,俗称图形加速器。
1985年,ilinx公司推出的环球第一款FPGA产品XC2064,采取2μm工艺,包含64个逻辑模块和85000个晶体管,门数量不超过1000个。

1986年,杰弗里·希尔顿(GeoffreyHinton)和他的同事揭橥了一篇里程碑式的论文,描述了一种称为"反向传播(back-propagation)"的算法,该算法可以显著提高多层或"深度"神经网络的性能。
1989年,严恩·乐库(YannLeCun)和贝尔实验室的其他研究职员创建了一个可以演习识别手写的邮政编码的神经网络,展示了这项新技能在现实天下中的主要运用。
他们演习深度学习卷积神经网络(CNN)只花了3天韶光。

1991年Xilinx公司推出其第三代FPGA产品——XC4000系列,XC4003包含44万个晶体管,采取0.7μm工艺,FPGA开始被制造商认为是可以用于制造工艺开拓测试过程的良好工具。

1995年,3dfx公司发布了消费级领域史上第一款3D图形加速卡voodoo,这也是第一款真正意义上的消费级3D显卡。
随后的几年,AMD公司和ATI(2006年被AMD公司收购)公司分别发布了自己的TNT系列与Rage系列显卡。

1999年8月,NVIDIA公司发布了一款代号为NV10的图形芯片Geforce 256。
Geforce 256将更多的晶体管用作实行单元, 而不是像 CPU 那样用作繁芜的掌握单元和缓存,将(TRANSFORM AND LIGHTING) 等功能从 CPU 分离出来,实现了快速变换,这成为 GPU 真正涌现的标志。

2001年微软公司发布DirectX 8,在这一版本中包含了Shader Model(优化渲染引擎模式)1.0标准。
遵照Shader Model的GPU可以具备顶点和像素的可编程性,从此微软开始引领图形硬件标准。
同年,NVIDIA发布了Geforce3,ATI发布了Radeon 8500,这两种GPU都支持顶点编程,可以通过运用程序指定指令序列来处理顶点。

2006年英伟达与ATI分别推出了CUDA (Compute United Device Architecture,打算统一设备架构)编程环境和CTM(CLOSE TO THE METAL)编程环境, 使得 GPU 冲破图形措辞的局限成为真正的并行数据处理超级加速器。

2008年,苹果公司提出一个通用的并行打算编程平台 OPENCL(开放运算措辞),与CUDA绑定在英伟达的显卡上不同,OPENCL 和详细的打算设备无关。

2009年,斯坦福大学的RajatRaina、AnandMadhavan和AndrewNg揭橥了一篇论文,阐述了当代GPU在深度学习领域拥有远远超过多核CPU的打算能力。

GPU在运用于深度学习算法时,有三个方面的局限性:第一:运用过程中无法充分发挥并行打算上风。
深度学习包含演习和推断两个打算环节, GPU 在深度学习算法演习上非常高效, 但对付单一输入进行推断的场合, 并行度的上风不能完备发挥。
第二:无法灵巧配置硬件构造。
GPU 采取 SIMT 打算模式, 硬件构造相对固定。
目前深度学习算法还未完备稳定,若深度学习算法发生大的变革, GPU 无法像 FPGA 一样可以灵巧的配制硬件构造。
第三:运行深度学习算法能效低于FPGA。

FPGA 是支持电路编程的芯片,实现对该电路的“仿真”。
FPGA 是在 PAL、 GAL、 CPLD 等可编程器件根本上进一步发展的产物。
FPGA可同时进行数据并行和任务并行打算,在处理特定运用时有更加明显的效率提升。
对付某个特定运算,通用 CPU可能须要多个时钟周期,而 FPGA 可以通过编程重组电路,直接天生专用电路,仅花费少量乃至一次时钟周期就可完成运算。
它既办理了定制电路灵巧性的不敷,又战胜了原有可编程器件门电路数有限的缺陷。
由于 FPGA的灵巧性,很多利用通用途理器或 ASIC难以实现的底层硬件掌握操作技能, 利用 FPGA 可以很方便的实现。
这个特性为算法的功能实现和优化留出了更大空间。
同时FPGA 一次性本钱(光刻掩模制作本钱)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定, 须要不断迭代改进的情形下,利用 FPGA 芯片具备可重构的特性来实现半定制的人工智能芯片是最佳选择之一。

功耗方面,从体系构造而言, FPGA 也具有天生的上风。
传统的冯氏构造中,实行单元(如 CPU 核)实行任意指令,都须要有指令存储器、译码器、各种指令的运算器及分支跳转处理逻辑参与运行, 而FPGA每个逻辑单元的功能在重编程(即烧入)时就已经确定,不须要指令,无需共享内存,从而可以极大的降落单位实行的功耗,提高整体的能耗比。

由于 FPGA 具备灵巧快速的特点, 因此在浩瀚领域都有替代ASIC 的趋势。
但FPGA也有不敷:第一:基本单元的打算能力有限。
为了实现可重构特性, FPGA 内部有大量极细粒度的基本单元,但是每个单元的打算能力(紧张依赖 LUT 查找表)都远远低于 CPU 和 GPU 中的 ALU 模块。
第二:打算资源占比相对较低。
为实现可重构特性, FPGA 内部大量资源被用于可配置的片上路由与连线。
第三:速率和功耗相对专用定制芯片(ASIC)仍旧存在不小差距。
第四,:FPGA 价格较为昂贵。
在规模放量的情形下单块 FPGA 的本钱要远高于专用定制芯片。

ASIC即专用集成电路,是指应特定用户哀求和特定电子系统的须要而设计、制造的集成电路。
ASIC分为全定制和半定制。
全定制ASIC是利用集成电路的最基本设计方法(不该用现有库单元),对集成电路中所有的元器件进行精工细作的设计方法。
全定制设计可以实现最小面积,最佳布线布局、最优功耗速率积,得到最好的电特性。
该方法尤其适宜于仿照电路,数模稠浊电路以及对速率、功耗、管芯面积、其它器件特性(如线性度、对称性、电流容量、耐压等)有分外哀求的场合;或者在没有现成元件库的场合。
特点:精工细作,设计哀求高、周期长,设计本钱昂贵。

ASIC 芯片非常适宜人工智能的运用处景。
首先,ASIC的性能提升非常明显。
例如英伟达首款专门为深度学习从零开始设计的芯片 Tesla P100 数据处理速率是其 2014 年推出GPU 系列的 12 倍。
谷歌为机器学习定制的芯片 TPU 将硬件性能提升至相称于当前芯片推拿尔定律发展 7 年后的水平。
正如 CPU 改变了当年弘大的打算机一样,人工智能 ASIC 芯片也将大幅改变如今 AI 硬件设备的面貌。
如大名鼎鼎的 AlphaGo 利用了约 170 个图形处理器(GPU)和 1200 个中心处理器(CPU),这些设备须要占用一个机房,还要配备大功率的空调,以及多名专家进行系统掩护。
而如果全部利用专用芯片,极大可能只须要一个普通收纳盒大小的空间,,且功耗也会大幅降落。
第二,下贱需求促进人工智能芯片专用化。
从做事器,打算机到无人驾驶汽车、无人机再到智能家居的各种家电,至少数十倍于智好手机体量的设备须要引入感深交互能力和人工智能打算能力。
而出于对实时性的哀求以及演习数据隐私等考虑,这些运用不可能完备依赖云端,必须要有本地的软硬件根本平台支撑,这将带来海量的人工智能芯片须要。
深度学习算法稳定后,AI 芯片可采取 ASIC 设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。

类脑芯片不采取经典的冯·诺依曼架构, 而是基于神经形态架构设计,以IBM Truenorth为代表。
IBM 研究职员将存储单元作为突触、打算单元作为神经元、传输单元作为轴突搭建了神经芯片的原型。
目前, Truenorth用三星 28nm功耗工艺技能,由 54亿个晶体管组成的芯片构成的片上网络有4096个神经突触核心,实时作业功耗仅为70mW。
由于神经突触哀求权重可变且要有影象功能, IBM采取与CMOS工艺兼容的相变非易失落存储器(PCM)的技能实验性的实现了新型突触,加快了商业化进程。