【收藏】全网最具体的AI大年夜事记!_人工智能_模子
1942年,美国科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在自己的短篇小说《Runaround(环舞)》中提出了影响深远的“机器人三定律”:机器人不得侵害人类,或坐视人类受到侵害;除非违背第一定律,否则机器人必须服从人类命令;除非违背第一或第二定律,否则机器人必须保护自己。后来,这篇小说被合入1950年出版的短篇科幻小说集《I,Robot(我,机器人)》中。
1943年,美国神全心理学家沃伦·麦卡洛克(Warren McCulloch)和数学家沃尔特·皮茨(Walter Pitts),基于人类大脑的神经网络,揭橥了《A logical calculus of ideas immanent in nervous activity(神经活动中内在思想的逻辑演算)》论文,提出了一个形式神经元的打算机模型,并将其取名为M-P(McCulloch&Pitts)模型。
1949年,唐纳德·赫布(Donald O. Hebb)在自己的著作《The Organization of Behavior; a Neuropsychological Theory(行为的组织:一种神经心理学理论)》中,描述了突触可塑性的基本事理,对学习和影象供应了生理学层面的新理解。赫布也凭此被誉为“神经心理学与神经网络之父”。
1950年,阿兰·图灵在《Mind(心灵)》杂志上揭橥了主要论文《Computing Machinery and Intelligence(打算机器与智能)》,并提出了著名的图灵测试。
阿兰·图灵
1950年,马文·明斯基(Marvin Minsky)和邓恩·埃德蒙(Dunn Edmund)构建了第一台神经网络打算机SNARC。
1950年,克劳德·喷鼻香农(Claude Shannon)揭橥论文《Programming a computer for playing chess(为下棋编程打算机)》”。喷鼻香农认为,总有一天,打算机会击败天下冠军。这一年,他还发明了一种由机电继电器电路掌握的可以走迷宫的机器老鼠——忒修斯(Theseus)。
克劳德·喷鼻香农
1954年,Georgetown(乔治敦)大学和IBM互助,进行了一次名为“Georgetown Experiment”的实验,成功地利用机器将60多个俄语句子翻译成英文。这是机器翻译和NLP(自然措辞处理)的一次主要考试测验。
1955年9月,约翰·麦卡锡(John McCarthy)、马文·明斯基、克劳德·喷鼻香农、纳撒尼尔·罗切斯特(N. Rochester)四人,共同提出了一个关于机器智能的研究项目。在项目中,首次引入了“Artificial Intelligence”这个词,也便是人工智能。
1955年,赫伯特·西蒙(Herbert A. Simon,也译为司马贺)和艾伦·纽维尔(Allen Newell)开拓的一个名为“逻辑理论家(Logic Theorist)”的程序。“逻辑理论家”被认为是人类历史上第一个人工智能程序。
1956年6月,在约翰·麦卡锡等人的调集下,著名的达特茅斯会议(Dartmouth workshop)在美国新罕布什尔州汉诺威镇的达特茅斯学院召开。这场会议标志着人工智能作为一个研究领域正式出身。
1957年,美国康奈尔大学的生理学家和打算机科学家弗兰克·罗森布拉特(Frank Rosenblatt),在一台IBM-704打算机上,仿照实现了一种他发明的叫“感知机 (Perceptron) ”的神经网络模型。
弗兰克·罗森布拉特
1957年,赫伯特·西蒙等人在“逻辑理论家”的根本上,又推出了通用问题办理器(General Problem Solver,GPS)。这是一个旨在模拟人类办理问题的程序。
1957年,卡内基梅隆大学建立了天下上第一个人工智能研究实验室。
1958年,约翰·麦卡锡正式发布了自己开拓的人工智能编程措辞——LISP(LIST PROCESSING,意思是"表处理")。后来的很多有名AI程序,都是基于LISP开拓的。
约翰·麦卡锡(1927-2011)
1959年,美国发明家乔治·德沃尔(George Devol)与约瑟夫·英格伯格(Joseph Engelberger)发明了人类首台工业机器人——Unimate。Unimate重达两吨,安装运行于通用汽车生产线,可以掌握一个机器臂,搬运和堆叠热压铸金属件。
左图为Unimate 右图是约瑟夫·英格伯格(左)、乔治·德沃尔(右)
1959年,赫伯特·格兰特(Herbert Gelernter)开拓了几何定理证明程序。
1959年,IBM科学家亚瑟·塞缪尔(Arthur Samuel)在自家首台商用打算机IBM701上,成功编写了一套泰西跳棋程序。这个程序具有“学习能力”,可以通过对大量棋局的剖析,逐渐辨识出“好棋”和“坏棋”,从而提高自己的下棋水平。由于首次提出了“机器学习(Machine Learning)”的观点,亚瑟·塞缪尔被后人誉为“机器学习之父”。
亚瑟·塞缪尔(1901-1990)
1959年,约翰·麦卡锡和马文·明斯基创立了麻省理工学院人工智能项目。
1961年,莱昂纳德·莫里克(Leonard Merrick Uhr)和查尔斯·沃斯勒(Charles M Vossler)揭橥了题目为《A Pattern Recognition Program That Generates, Evaluates and Adjusts its Own Operators(天生、评估和调度其自身算子的模式识别程序)》的模式识别论文,描述了一种利用机器学习或自组织过程设计的模式识别程序的考试测验。
1963年,约翰·麦卡锡在斯坦福大学创立了人工智能实验室。
1965年,英国数学家厄文·古德(Irving John Good)揭橥了一篇对人工智能未来可能对人类构成威胁的文章,可以算“AI威胁论”的先驱。
1966年,美国麻省理工学院的约瑟夫·魏泽鲍姆(Joseph Weizenbaum),发明了天下上第一个谈天机器人——ELIZA。ELIZA 通过关键词匹配规则对输入进行分解,而后根据分解规则所对应的重组规则来天生回答,是现在Siri、小爱同学等问答交互工具的鼻祖。
魏泽鲍姆(坐者)正在与ELIZA对话
1966年,查理·罗森(Charlie Rosen)领导的美国斯坦福研究所(SRI),研发成功了首台人工智能机器人——Shakey。它具备一定程度的人工智能,能够自主进行感知、环境建模、行为方案并实行任务。
研究职员正在调测Shakey
1966年,美国打算机协会(ACM)设立图灵奖(Turing Award),被称为“打算机界的诺贝尔奖”。
1967年,托马斯·卡沃(Thomas Cover)基于艾沃林·菲克斯(Evelyn Fix)和约瑟夫·霍德吉斯(Joseph Hodges)的研究,扩展提出了K最近邻算法(k-nearest neighbors algorithm)。
1968年,美国科学家爱德华·费根鲍姆(Edward Feigenbaum)提出了第一个专家系统——DENDRAL,并对知识库给出了初步的定义。这标志着专家系统的出身。DENDRAL面向的是化学行业,可以帮助化学家判断物质的分子构造。
爱德华·费根鲍姆(坐着的那位)
1969年,马文·明斯基和西蒙·派珀特(Seymour Papert)揭橥著作《感知机: 打算几何学导论》的书,对罗森布莱特的感知器提出了质疑。这导致了神经网络研究十余年的中断。
马文·明斯基
1969年,马文·明斯基为导演斯坦利·库布里克(Stanley Kubrick)的电影《2001漫游太空》担当顾问,塑造了片中超级智能打算机HAL9000的银幕形象。
电影海报
1970年,麻省理工学院博士研究生特里·维诺格拉德(Terry Winograd)开拓了早期自然措辞理解程序SHRDLU。该程序可以部分理解措辞,是"微型天下"项目的一部分。
1972年,柯尔麦伦纳(Colmeraner)及其研究小组在法国马赛大学提出逻辑编程措辞PROLOG。
1972年,美国年夜夫兼科学家爱德华·H·肖特利夫(Edward H. Shortliffe)创建了可以帮助进行医学诊断的专家系统——MYCIN。
爱德华·H·肖特利夫
1973年,政府部门对AI的帮助开始大幅滑坡,AI研究进入了“AI寒冬(AI Winter)”。
1973年,数学家莱特希尔(Lighthill)向英国政府提交了一份关于人工智能的研究报告(著名的《莱特希尔报告》),对当时的AI研究进行了严厉且剧烈的批评,认为其宏伟的目标根本无法实现,研究已经彻底失落败。
1975年,马文·明斯基在论文《A Framework for Representing Knowledge(知识表示的框架)》中,提出用于人工智能中的知识表示学习框架理论。
1977年,爱德华·费根鲍姆在第五届国际人工智能联合会议上,提出了“知识工程(Knowledge Engineering)”的观点,进一步推动了专家系统的遍及。
1977年,中国著名数学家吴文俊院士在《中国科学》期刊揭橥了具有划时期意义的科学论文——《初等几何剖断问题与机器化证明》,在国际上引起了巨大轰动。吴文俊院士所独创的新方法在国际上被誉为“吴方法”。它能够使人工智能自动并有效地证明几何定理,也被运用到其他数学领域。
吴文俊院士
1979年,美国国家标准技能研究所开始制订基于知识的推理系统规范措辞(知识表示措辞KRL)。
1979年,日本学者福岛邦彦博士模拟生物的视觉皮层(visual cortex),开拓了一种用于模式识别的神经网络模型Neocognitron(神经认知机)。Neocognitron是第一个利用卷积和下采样的神经网络,也是当代卷积神经网络的雏形。
福岛邦彦
1979年,斯坦福大学的汉斯·莫拉韦克(Hans Moravec)设计了斯坦福卡车(Stanford Cart)。这是一台可以自主导航和避障的机器人。这是机器人领域的一个主要里程碑。
1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研究的兴起。
1980年,卡耐基梅隆大学研发的专家系统XCON(eXpertCONfigurer)正式商用,为当时的打算机巨子公司DEC每年省下数千万美金。
1981年,理查德·保罗(Richard.P.Paul)出版了第一本机器人学教材《Robot Manipulator:Mathematics,Programmings and Control(机器人机器手:数学、编程与掌握)》。
1981年,日本通商家当省(MITI)拨款8.5亿美元,用以研发第五代打算机项目(FGCS)。FGCS的目标是造出一台人工智能打算机,能够与人对话、翻译措辞、阐明图像、完成推理。不久后,英国、美国纷纭相应,开始向信息技能领域的研究供应大量资金。
1981年,“窄AI(Narrow AI)”的观点出身。干系研究不再寻求通用智能,而转向了面向更小范围的专业任务领域。
1982年,约翰·霍普菲尔德(John Hopfield)在自己的论文中重点先容了Hopfield网络模型(模型原型早期由其他科学家提出)。这是一种具有影象和优化功能的循环(递归)神经网络。
约翰·霍普菲尔德
1982年,戴维·马尔(David Marr)揭橥代表作《视觉打算理论》,提出打算机视觉(Computer Vision)的观点,并构建系统的视觉理论,对认知科学(CognitiveScience)产生了很深远的影响。
1983年,通用电气公司搞出了柴油电力机车维修专家系统(DELTA)。这个别系封装了浩瀚GE资深现场做事工程师的知识和履历,能够辅导员工进行故障检修和掩护。
1983年,特伦斯·谢诺夫斯基(Terrence Sejnowski)和杰弗里·辛顿(Geoffrey Hinton)提出了“隐单元”的观点。1986年,他们提出了一种天生式随机神经网络(generative stochastic neural network)——Boltzmann Machine(玻尔兹曼机)。
1983年,美国国防部高等研究操持局(DARPA)通过“计策打算促进会(Strategic Computing Initiative)”,重启对高等打算和人工智能研究的帮助。
1984年,美国数十家大公司联合成立了微电子与打算机技能公司(MCC)。该公司发起了人工智能历史上最大也是最具争议性的项目Cyc(大百科全书)。
1986年,戴维·鲁梅尔哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯(Ronald Williams)等人共同揭橥了一篇名为《Learning representations by back-propagation errors(通过反向传播算法的学习表征)》的论文。在论文中,他们提出了一种适用于多层感知器(MLP)的算法,叫做反向传播算法(Backpropagation,简称BP算法)。BP算法不仅为多层神经网络的发展奠定了根本,也冲破了马文·明斯基当年提出的“神经网络具有局限性”魔咒,意义非常重大。
1986年,澳大利亚打算机科学家罗斯·昆兰(Ross Quinlan)提出ID3决策树算法。
1987年,LISP机器市场在崩溃,AI领域进入了“第二个AI冬天”。
LISP系列主机
1988年:打算机科学家和哲学家犹大·伯尔(Judea Pearl)出版了著作《Probabilistic Reasoning in Intelligent Systems(智能系统中的概率推理)》。伯尔还发明了贝叶斯网络。
1988年,贝尔实验室的法国科学家杨立昆(Yann LeCun)等人,提出了卷积神经网络。这是一种专门用于处理图像数据的神经网络模型。
Yann LeCun
1990年,澳大利亚科学家罗德尼·布鲁克斯(Rodney Brooks)提出了“由下自上”的研究思路,开拓能够仿照人脑细胞运作办法的神经网络,并学习新的行为。
1990年,美国认知科学家、生理措辞学家杰弗里·艾尔曼(Jeffrey Elman)提出了首个递归神经网络——艾尔曼网络模型。递归神经网络能够在演习时坚持数据本身的先后顺序性子,非常适宜于自然措辞处理领域的运用。
1992年,由于未能实现十年条件出的目标,日本终止了FGCS项目。
1993年,在花费近10亿美元且远未达到预期的情形下,DARPA结束了计策打算操持。
1995年,克里娜·柯尔特斯(Corinna Cortes)和弗拉基米尔·万普尼克(Vladimir Vapnik)开拓了支持向量机(Support Vector Machine,SVM)。支持向量机是一种映射和识别类似数据的系统,可以视为在感知机根本上的改进。
1995年,约阿夫·佛罗因德(Yoav Freund)和罗伯特·沙皮尔(Robert Schapire)提出了AdaBoost (Adaptive Boosting)算法。
1997年5月,IBM的打算机“深蓝(DEEP BLUE)”以2胜1负3平的成绩击败国际象棋天下冠军加里·卡斯帕罗夫,震荡了全天下。
1997年,德国打算机科学家瑟普·霍克赖特(Sepp Hochreiter)及其导师于尔根·施密德胡伯(Jürgen Schmidhuber)开拓了用于递归神经网络的LSTM(是非期影象网络)。
1998年,Yann LeCun等人提出了一个用于手写数字识别的卷积神经网络——LeNet,初步展示了神经网络在图像识别领域的潜力。
2000年:本田发布了ASIMO,一种人工智能的人形机器人。
2001年,布雷曼(Leo Breiman)和阿黛尔·卡特勒(Adele Cutler)提出随机森林(Random Forest)。
2003年,约书亚·班吉欧(Yoshua Bengio)揭橥一篇基于人工神经网络打造自然措辞模型的论文《A Neural Probabilistic Language Model(一种神经概率措辞模型)》,提出了具有奠基意义的NNLM“神经网络措辞模型”。他还提出了"词向量"的观点。
2006年,多伦多大学的杰弗里·辛顿在Science期刊上,揭橥了主要的论文《Reducing the dimensionality of data with neural networks(用神经网络降落数据维数)》,提出深度信念网络(Deep Belief Networks,DBNs)。
杰弗里·辛顿
2006年,在斯坦福任教的华裔科学家李飞飞发起创建了ImageNet项目,号召民众上传图像并标注图像内容。2009年,ImageNet正式发布,包括了1400万张图片数据,超过2万个种别,为环球AI研究(神经网络演习)供应了强大支持。
李飞飞和ImageNet
2006年,谷歌公司推出了一种基于统计学习的语音识别技能,该技能被广泛运用于语音助手、智能家居等领域。
2008年,谷歌在iPhone上发布了一款语音识别运用,开启了数字化语音助手(Siri、Alexa、Cortana)的浪潮。
2011年10月,苹果推出语音助手Siri。
2011年,IBM的打算机沃森(Watson)在美国电视智力竞赛节目“危险边缘”中,击败两位人类冠军选手,展示出其在自然措辞处理和知识推理方面的强大能力。
2012年,杰弗里·辛顿和他的学生伊利亚·苏茨克沃(Ilya Sutskever)和亚历克斯·克里切夫斯基(Alex Krizhevsky)参加了ImageNet大规模视觉识别寻衅赛。他们设计的深度神经网络模型AlexNet在这次竞赛中以压倒性上风得到第一名,引起了业界轰动。
杰弗里·辛顿师徒三人
2012年,加拿大神经学家团队创造了一个具备大略认知能力、有250万个仿照“神经元”的虚拟大脑Spaun,通过了最基本的智商测试。
2012年,谷歌“Google Brain”项目的研究职员吴恩达(Andrew Ng)、杰夫·迪恩(Jeff Dean)等人,搭建了一个神经网络(10亿参数),用来演习对猫的识别。他们的演习数据是来自youtube的1000万个猫脸图片,用了1.6万个CPU,整整演习了3天。
吴恩达
2012年7月,谷歌公司推出虚拟助手GoogleNow,即谷歌助手的前身。
2012年,谷歌公司正式发布谷歌知识图谱Google Knowledge Graph。
2013年,辛顿师徒三人共同成立了一家名为DNNresearch的公司。后来,这家公司被谷歌以几千万美元的价格竞购。
2013年,谷歌公司的托马斯·米科洛夫(Tomas Mikolov)带领研究团队揭橥了论文《Efficient Estimation of Word Representations inVector Space(词表示向量空间的有效估计)》,提出了Word2Vec。Word2Vec基于给定的语料库,通过优化后的演习模型,可以快速有效地将一个词语表达成高维空间里的词向量形式,为自然措辞处理领域的运用研究供应了新的工具。
2014年,谷歌公司收购了专注于深度学习和强化学习技能的人工智能公司——DeepMind公司。
2014年6月,一台名为Eugene Goostman(尤金·古斯特曼)的谈天机器人通过了图灵测试。
2014年,蒙特利尔大学博士生伊恩· 古德费洛(Ian Goodfellow),从博弈论中的“二人零和博弈”得到启示,提出了天生对抗网络(GANs,Generative Adversarial Networks)。
伊恩· 古德费洛
2015年,Microsoft Research的何恺明(Kaiming He)等人提出的残差网络(ResNet),在ImageNet大规模视觉识别竞赛中,得到了图像分类和物体识别的良好。
2015年1月,埃隆·马斯克、斯蒂芬·霍金和史蒂夫·沃兹尼亚克等人在一封公开信上署名,哀求禁止开拓人工智能武器。
2015年11月,谷歌公司开源了主要的深度学习框架Tensor Flow。
2015年12月,埃隆·马斯克(Elon Musk)、萨姆·奥尔特曼(Sam Altman)、彼得·泰尔(Peter Thiel)、里德·霍夫曼(Reid Hoffman)等人在旧金山联合成立了OpenAI公司。
2016年,谷歌提出联邦学习方法,它在多个持有本地数据样本的分散式边缘设备或做事器上演习算法,而不交流其数据样本。
2016年3月,DeepMind开拓的人工智能围棋程序AlphaGo(阿尔法狗),以4:1的总比分降服了天下围棋冠军李世石,震荡了全天下。
2016年2月,中国喷鼻香港的汉森机器人公司(Hanson Robotics)推出了一款名为索菲亚(Sophia)的仿人机器人。它能通过图像识别“看”东西,做出面部表情,并能利用人工智能进行互换。
2016年,微软公司推出了小冰(Xiaoice)。这是一款利用自然措辞处理和情绪打算技能供应社交谈天做事的人工智能系统。
2017年1月,Facebook人工智能研究院开源了PyTorch。这是一个用于机器学习和深度学习的开源深度学习框架。
2017年5月,升级版的AlphaGo以3:0降服天下排名第一的中国围棋棋手柯洁。
2017年10月18日,DeepMind团队公布AlphaGo Zero。从空缺状态学起,只需3天就以100:0的战绩击败曾降服柯洁的AlphaGo系统。
2017年12月,Google机器翻译团队在行业顶级会议NIPS上,揭橥了重磅论文《Attention is all you need(你所须要的,便是把稳力)》,提出只利用“自我把稳力(Self Attention)”机制来演习自然措辞模型——Transformer(转换器、变压器)。Transformer彻底改变了深度学习的发展方向。它不仅对序列到序列任务、机器翻译和其它自然措辞处理任务产生了深远的影响,也为后来AIGC的崛起打下了坚实的根本。
2018年5月,谷歌推出Google Duplex做事,许可儿工智能助手通过电话预约。
2018年6月,OpenAI发布了初版的GPT系列模型——GPT-1。同时,他们还揭橥了论文《Improving Language Understanding by Generative Pre-training(通过天生式预演习改进措辞理解)》。2019年和2020年,OpenAI接连发布了GPT-2和GPT-3。
2018年10月,谷歌发布了有3亿参数的BERT(Bidirectional Encoder Representation from Transformers)模型,意思是“来自Transformers的双向编码表示”模型。
2019年,DeepMind公司开拓了阿尔法星际争霸(AlphaStar),这是一台专门用于玩星际争霸2游戏的人工智能系统。
2019年3月份,OpenAI正式宣告重组,成为一家"利润上限(caped-profit)"的公司。7月,重组后的OpenAI拿到了微软包括Azure云打算资源在内的10亿美金投资。微软将作为"首选互助伙伴”,今后可得到OpenAI技能成果的独家授权。
2020年2月,微软推出Turind Natural Language Generatio(T-NLG),这是一种天生式措辞模型,是当时最大的措辞模型。
2020年6月,OpenAl发布了GPT-3措辞模型。该模型通过预先演习的算法天生文本,并完成人类险些无法完成的措辞任务。随后,OpenAI揭橥了论文《Language Models are Few-Shot Learner》,阐述了大模型的各种新能力,而最主要的便是小样本(few-shot)学习能力。
2020年6月,论文《Denoising Diffusion Probabilistic Models(去噪扩散概率模型,DDPM)》揭橥。这篇论文第一次把2015年出身的Diffusion"扩散模型"用在了图像天生上。不久之后,DDPM以及后续的Diffusion扩散模型就全面取代了GAN(天生式对抗网络),成为了AI绘画大模型的主流技能。
2020年11月30日,DeepMind公司宣告其研制的人工智能系统AlphaFold2可以精准预测蛋白质的3D构造,即办理了“蛋白质折叠”问题,被认为是办理了生物领域50年来的主要难题,是人工智能的又一次巨大成功。
2021年1月,OpenAl发布了可从文本天生图像的人工智能模型DALL-E。
2021年1月11日,谷歌公司揭橥论文《Switch Transformers:Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》,提出了最新措辞模型—Switch Transformer。这个模型以高达1.6万亿的参数量,成为历史上首个万亿级措辞模型。
2021年2月,Open AI开源了新的深度学习模型CLIP(Contrastive Language-Image Pre-Training)。同时,OpenAI还发布了自己基于CLIP的AI绘画DALL-E 模型。
2021年6月30日,OpenAI和GitHub联合发布了AI代码补全工具GitHub Copilot。Copilot的AI技能核心正是OpenAI的新模型CodeX(随后的8月份也对外发布了)。
2021年5月,谷歌公司引入了Language Model for Dialoque Applications(LaMDA)。这是一个大型措辞模型,用于在对话中天生类似人类的反应。
2021年10月,第一个开源的AI绘画大模型Disco-Diffusion出身。
2022年3月,OpenAI发布InstructGPT,同时揭橥论文《Training language models to follow instructions with human feedback(演习措辞模型以遵照带有人类反馈的指令)》。
2022年3月,AI绘画工具Midjourney问世,创始人是David Holz(戴维·霍尔兹)。
2022年4月,OpenAI发布了AI绘画大模型DALL-E 2。
2022年7月,DeepMind破解了险些所有已知的蛋白质构造,其AlphaFold算法数据库里包含了2亿种已知蛋白质构造。
2022年8月,Stability AI开源了Stable Diffusion绘画大模型的源代码。这是一款基于文本描述天生图像的文本到图像工具。
2022年11月,OpenAI发布了基于GPT模型的人工智能对话运用做事——ChatGPT(也可以理解为GPT-3.5),彻底引爆了全天下。
2023年1月,微软宣告对OpenAl进行多年期巨额投资,数十亿美元。
2023年2月7日,谷歌公司发布了由LaMDA供应支持的谈天机器人Bard。
2023年2月25日,Meta公司发布LLaMA模型并开源。7月19日,Meta公司发布了人工智能模型LLaMA 2的开源商用版本。
2023年3月15日,OpenAI发布了GPT-4。
2023年3月16日,百度发布文心一言。
2023年5月11日,谷歌正式开放超级AI大模型PaLM2。
2023年6月,英伟达市值打破1万亿美元。美股“七巨子”(Magnificent 7,分别是:谷歌母公司Alphabet、亚马逊、苹果、Meta、微软、英伟达和特斯拉)的股价开始不断攀升。
2023年11月,首份人工智能监管声明《布莱切利宣言》发布。
2023年11月18日,OpenAI CEO山姆·奥特曼(Sam Altman)被开除,引发全网关注。22日,OpenAI官方推特宣告,Sam Altman回归并重新担当OpenAI CEO。
2023年12月6日,谷歌公司发布多模态大模型Gemini 1.0(双子星)。
2024年2月15日,OpenAI发布人工智能文生视比年夜模型Sora。
2024年5月14日,OpenAI举行春季发布会,推出新旗舰模型GPT-4o。
2024年7月23日,Meta发布LLAMA 3.1 405B开源人工智能模型。
(截止日期:2024年7月29日)
—— The End ——
详细的发展史,还是建议大家阅读:
入门必读!
写给初学者的人工智能简史!
参考文献:
1、《人工智能简史》,尼克;
2、《人工智能发展简史》孙凌云、孟辰烨、李泽健;
3、《人工智能 60 年技能简史》,李理;
4、《深度学习简史》,Keith D. Foote;
5、《人工智能发展史(从起步到磅礴)以及浪潮阶段》,CSDN;
6、《从零动身——人工智能简史》,知乎;
7、《四张图片道清AI大模型的发展史》,阿里云;
8、《GPT的背后,从命运多舛到颠覆天下,人工神经网络的跌宕80年》,孙睿晨;
9、百度百科、维基百科等。
本文系作者个人观点,不代表本站立场,转载请注明出处!