关于人工智能你不得不知道的十个原形 | 皇牌大年夜放送_人工智能_人类
人工智能,被誉为是人类的未来。我们期待人工智能可以帮助年夜夫、生理学家、警察和军人等事情,乃至取代驾驶员以及运动员。人工智能真的已经达到足够智能的程度了吗?人们真的可以相信人工智能的决定吗?在人工智能领域实践多年的程序员以及人工智能研究者,却向人们发出了警示。
非政府组织算法不雅观察成员马蒂亚斯·斯皮尔坎普说:“数字技能的快速发展让我们以为,凭借数据和打算就能办理人类面临的统统问题。这只是一种错觉。”
原形一:得到问答冠军的人工智能,实质只是一个搜索引擎
2011年,IBM公司为了宣扬自身技能,推出了《危险边缘》特殊节目,让最精良的人类冠军与其新开拓的人工智能沃森直接对决。现场,人工智能沃森以最快速率流利应答,在节目中轻松取胜,节目结果让人们以为,人工智能已然具备了理解人类措辞的能力。
实在,人工智能沃森并不能真正与人类沟通,它实质上只是一个以网络百科全书作为数据库的搜索引擎。
而在联合国一个宣扬人类技能进步的活动中,也涌现了人机对话的场景。
联合国参会人士:“好的。我想再问你一个问题,天下上很多地方还没有网络,也没有电,联合国可以做什么来帮助他们呢?”
机器人:“好是人工智能和自动化可以用更少的资源得到更好的结果,以是,如果人工智能的聪慧水平能够进一步提高并专注双赢的结果,人工智能则可以帮助人们充分分配天下上现有的资源,包括食品、能源等等。”
而其后有节目宣布,这段机器人的回答,实在也是提前准备好的。
原形二:人工智能翻译器只能供应一样平常性答案
像谷歌翻译那些自动翻译工具,利用的资源是来自一些可免费访问的网站,例如一些政府部门、机构的官网或者网络百科,人们早已将很多笔墨译成了多种措辞。人工智能翻译器每每会自动利用人类最常用的词组作为译文,并不会根据特定情形进行剖析,以是很多翻译结果,也揭示了人们固有的刻板不雅观念。
比如,在芬兰语中,代词男他和女她都是用“hän”表示,但机器在翻译修理汽车化油器的主语时,会自动翻译为男他,在翻译为婴儿换尿布的主语时,会自动翻译为女她。翻译器自动天生可能性最高的结果,并不会参考任何个人经历。
谷歌工程师弗朗索瓦•肖莱说:“例如欧洲议会语料库,这些文本并不能代表你我之间的那种互换。系统永久会向适中的情形靠拢,由于这是它们的运作办法。”
原形三:人工智能深度学习技能存在偏见和刻板印象
深度学习是指,机器通过人类输入的各种数据资料进行自我学习,以帮助人类办理特定的问题。比如机器通过学习万千张动物的图片,来识别不同的动物,除此之外,深度学习技能还有其他现实运用。在美国有十几个州,案件审讯时都会参考一款人工智能软件,它能帮助法官预测被告再次犯案的风险及可能性。这款人工智能软件的数据,来自于美国警方的罪犯数据库,系统采取一个秘密公式来剖析罪犯的136项指标,终极,得出罪犯再次犯案可能性的总分,提交给法官。
一些严谨的将这款软件对7000个犯人的评分,与他们真实的行为做了一个比拟,结果创造,对严重犯罪行为的预测精确率仅为20%。一些还表示,软件对黑人再次犯罪的预测结果,普遍比实际高,对白人再次犯罪的预测结果却比实际低。
谷歌前研究员梅雷迪斯·惠特克说:“很多国家或地区的刑事法律智能系统,极有可能像美国一样,带有种族主义色彩,以是须要在数据中建立应对黑人偏见的设置。”
谷歌工程师弗朗索瓦·肖莱又举了一个例子来讲述人工智能系统偏见的来源:“这种偏见源于演习期间所吸收的数据,演习数据可能本身存在偏见。请大家设想有这样一个别系,它能够检讨监控录像,来判断某个人是否可疑。要打造这种系统,首先须要标注员(真人),对监控录像画面进行标注,剖断录像中的某个人是否可疑。毫无疑问,在这个步骤中,标注员是基于主不雅观作出判断的,这种判断会存在潜在偏见。”
原形四:人工智能目前还不能帮助年夜夫诊症
延续《危险边缘》节目中人工智能沃森的大热,IBM紧接着研发了人工智能年夜夫。之后经由六年,又投入了100亿美元,研发了一款专门用于治疗癌症的沃森肿瘤办理方案。
而这款软件却没有预想中前辈,须要年夜夫手动输入患者数据。不仅如此,沃森只能供应美国标准的治疗方案。根据年夜夫反响,对付那些繁芜的病例,沃森根本毫无帮助,并没有达到其流传宣传的能力。
谷歌工程师弗朗索瓦·肖莱说:“医学与现实天下息息相关,而现实天下是千姿万态的,你碰着的每一个病例,都与之前你碰着的病例间存在细微的差异。因此,你必须根据每一个新病例来调度以前利用的诊疗方针。如果你的诊疗方针一成不变,其实行程序也一成不变,那么它们就难以适用于新的病例。”
末了沃森肿瘤办理方案只被环球50家医院购买。2021年,IBM公司还遭受了剧烈的批评,沃森被迫全部下架。
原形五:人工智能并无感知能力,只有回答,没有表达
在人类的头脑中,意义是通过体验产生的:高下颌用力咬合、门牙穿透光滑的果皮、果汁渗出并顺着喉咙流下,各类体验定义了什么是苹果。然而,对付打算机系统而言,苹果只是一系列与文本数据干系联的像素。
谷歌工程师弗朗索瓦·肖莱说:“我们可能认为深度学习模型能够理解图像的内容。但实际上,深度学习模型只是将图像和文本联系起来的一种办法,与人类瞥见图片,并用措辞描述其内容的办法是完备不同的。”
人工智能永久无法体会肾上腺素飙升或泪如泉涌的真正觉得,它不懂什么是害怕,不会起鸡皮疙瘩,对痛楚或快乐没有观点,无法欣赏抽象艺术,也没有曾被压抑的创伤。因此,人工智能也没有什么须要表达。
人工智能模拟的,仅仅是人类思维的结果,而并非过程。
原形六:人们有时无法理解人工智能得出结论的过程——不透明的黑匣子
深度学习源于掌握论,掌握论是打算器学家从神经科学中得到启示,而形成的研究领域。深度学习系统类似于一个巨大的相连的网络,借鉴了人类大脑中神经元的构造。在这个仿制的神经元网络中有很多设置,能够加强或衰减不同链路之间的旗子暗记,直到终极旗子暗记能够解答人类的问题。
机器学习系统有着数以亿计的不同设置,十分繁芜,以至于连程序设计师自己也不知道,该用什么判断标准来检测系统。以是他们想出了一个词汇来描述这种繁芜的设置:黑匣子。
美国杜克大学打算机科学研究员辛西娅·鲁丁说:“黑匣子机器学习模型,是一种预测模型。它要么繁芜到人类无法理解,要么属于私有,也便是说,我们根本无法一窥个中的奥秘,也无法理解它们运算的办法。以是,我们不能用黑匣子模型来做出高风险决策。实际上,要做出更好的决策,我们的确须要理解这些预测模型的事情事理。”
原形七:“这是机器的决定”这种说法,有时是一些人躲避任务的办法
如今,一些人工智能交互界面在不断被推广,比如银行人工智能客服、电讯公司人工智能客服。在这些友好智能交互界面背后,是一些数据处理协议框架,当中,有一些并不透明的决策系统,实在正在日益被推广。
非政府组织算法不雅观察成员马蒂亚斯·斯皮尔坎普说:“我们可以看到,一些公司乐于推脱任务,他们会说,‘我们用繁芜的机器系统帮忙事情’、‘是算法出了错,与我们无关’。这种辩白或借口完备让人无法接管。”
谷歌前研究员梅雷迪斯·惠特克说:“如果你想躲避任务,并且希望做出困难决定后不会被深究任务,那么就推给机器,这是很多人的一个选择。”
原形八:全天下还没有一台完备自动化的无人驾驶汽车
作为人工智能的代表技能,无人驾驶汽车揭示了人们对全自动化做事的抱负。人们希望人工智能可以随时帮人们做出驾驶决策,既担保安全驾驶,又节省下人们的韶光。
但这个已经投入了超过800亿美元的家当,到目前为止,还没有一台可以完备自动、无人驾驶的汽车,人类驾驶员须要随时候命、准备参与。
谷歌工程师弗朗索瓦·肖莱说:“人们轻易就利用深度学习系统,然后以某种非常困难的事情为原本,例如驾驶,打造出一个并不可靠的原型。但想要开拓这种原型系统、使其足够可靠、并且在实际运用中足够高效,是相称困难的,能够上路都相称不随意马虎。”
原形九:为人工智能系统纠正、补漏的事情,正成为一种环球新经济
过去十年里,像无人汽车幕后驾驶员这类,环绕人工智能进行的人为赞助事情,催生了一种环球新经济。现在,全天下有数十万工人,正卖力为机器体例演习数据,并监督、纠正机器的反应,或者直接取代机器进行人为操作,而他们的收入并不高。
2005年,环球科技巨子亚马逊公司创始人杰夫·贝索斯宣告,推出亚马逊土耳其机器人,他当时坦率地承认,这是“人工的人工智能”,或可以称之为假人工智能。其背后须要人类付出劳动,手动掌握,从而来实现算法运作。
亚马逊土耳其机器人是一个求职平台,采取了被广泛运用的自动化决策系统,但它却陷入了一个悖论,由于这套人工智能系统,根本做不到完备自主,须要人在幕后协同操作。土耳其机器人这个名称源于18世纪一台假的自动下棋机,机器的底座里,实在有一位人类棋手正藏在里面。
谷歌前研究员梅雷迪斯·惠特克说:“他们把行业里本该闭口不谈的事说了出来。”
原形十: 人工智能可能成为一群人掌握另一群人的工具
一个截然不同的未来正在形成:现实情形是,并没有一台机器足够智能到可以取代人类,而人类却正在不断适应机器的某种标准化逻辑。
在呼叫中央里,人类必须遵照机器的算法来进行对话。通话程序会识别人类对话中的关键词,并确保预订的方案得到实行,还会对员工及客户的表述进行感情剖析。如果情形偏离正轨,系统会提示客服“要表示感同身受”等建议。对话结束后,系统还会对员工进行打分,如果得分低于预期水平,员工将会被自动开除。
《人工智能或世纪寻衅》作者、哲学家埃里克·萨丁说:“这意味着一大批人须要被迫调度自己,来适应人机联合运作。而这些系统设计的初衷,不便是为了最大化人的生产率,尽可能优化人们的生产吗?为何如今人类却没了回转的余地。在我看来,自动化是我们设置的个中一种形式或者说是骗局,用来约束普罗大众。”
加拿大蒙特利尔大学打算机剖析师、2018年图灵奖得到者约书亚·本吉奥说:“最令我感到担忧的,不是打算机出错,而是那些渴望权力,想要掌握他人的人开始把稳到这种强大的技能。”
编辑:黄博
本文系作者个人观点,不代表本站立场,转载请注明出处!