那么我们如何教会人工智能(AI)去识别这种定义模糊的知识呢?许多研究职员都曾试图这样做,但都失落败了。

为什么我们身边的人工智能都似乎一个智障?_人工智能_常识 智能写作

最近,微软的联合创始人保罗·艾伦也加入了这一研究行列。

据《纽约时报》宣布,艾伦正在为他的非营利性打算机实验室——艾伦人工智能研究所(AI2)投资1.25亿美元,且未来三年预算将翻倍。
这笔资金的流入将用于现有的项目以及“亚历山大项目”,这是一项旨在将“知识”传授给机器人的新举措。

艾伦在一份***稿中说:“当我创立AI2的时候,我想通过高影响力的研究来扩展人工智能的能力。
在人工智能研究的早期,人们对知识有很多关注,但这一事情结束不前。
人工智能仍旧缺少大多数10岁孩子所拥有的:基本知识。
我们希望启动这项研究,以在该领域取得重大打破。

如果条件足够详细,机器可以仿照人工任务。
他们可以定位和识别物体、攀爬、***房屋,供应灾害接济等等。

然而,纵然是这些高等机器,也只能实行这些大略的命令。
他们如何处理一个不熟习的情形?如何利用“知识”来校准适当的行动和反应?现在还不能。

AI2的CEO 奥伦·埃齐奥尼(Oren Etzioni)在***发布会上说:“只管最近的人工智能取得了成功,但对付人工智能来说,理解知识是非常困难的。
目前没有一个人工智能系统能够可靠地回答一系列大略的问题,比如‘如果我把袜子放在抽屉里,它们来日诰日还会在那里吗?’”或者‘你怎么知道一个牛奶盒已经满了?’”

“又例如,在2016年AlphaGo击败围棋天下冠军时,该程序并不知道围棋是一种棋盘游戏。
” 埃齐奥尼补充道。

关于我们没能教AI理解知识的缘故原由,很大略:这真的非常非常难。

几何智能公司的创始人Gary Marcus从儿童发展知识和抽象思维的办法中得到灵感;伦敦帝国理工学院的研究职员专注于符号人工智能,一种人类为人工智能标记统统的技能。

但迄今为止,这两种策略都没有导致我们可以将机器人定义为“知识”。

亚历山大项目将采纳更加强硬的方法来办理这个问题。
根据***稿,它将整合研究机器推理和打算机视觉,并找出一种估量知识的方法。
研究职员还操持以众包(群众外包)的办法搜集人类的知识。

任务是艰巨的。
但是,如果我们希望人工智能迅速达到下一阶段的运用,并融入到人类生活的更多方面,我们就必须战胜它。
亚历山大项目可能是一次很好的考试测验。