据英国《新科学家》周刊网站11月24日宣布,由IBM公司开拓的机器人——“辩论家”操持(Project Debater)——分别代表正方和反方进行了辩论,而每一方的团队都各有两名人类辩手。
21日晚,这个人工智能平台在剑桥大学同学会以一名美国女性的声音向不雅观众做了正反双方的开篇立论,其间利用了来自人类预先提交的1100多份见地中的不雅观点。

机械人与人类合营辩论AI危险性 英媒:人类最后被说服了_人工智能_不雅观 科技快讯

宣布称,在代表正方——主见人工智能弊大于利——时,“辩论家”操持的开场白带有惨淡的讽刺意味。
它说:“人工智能可以造成许多侵害。
人工智能将无法作出一个在道德上精确的决定,由于只有人类才讲道德。

它还说:“人工智能公司在如何精确评估数据集和过滤掉偏见方面仍旧极度缺少专业知识。
人工智能将采纳人类的偏见,并把这种偏见固化数十年韶光。

宣布指出,人工智能利用一款名为“众包演讲”(speech by crowd)的运用软件对人们在网上提交的论点进行剖析,进而天生自己的论点。
“辩论家”操持随后将人们提交的见地归入多少关键主题,并识别出冗余不雅观点——即说话不同的相同不雅观点。

宣布称,该人工智能平台在辩论过程中能做到前后同等,但是也涌现了少量疏忽。
它有时会说车轱辘话,并且没有供应详细的例子来支持自己的论点。

在代表反方——主见人工智能整体而言利大于弊——时,“辩论家”操持称,人工智能将在某些部门创造新的就业岗位,并“大大提升事情场所的效率”。

但随后它又提出了一个与其不雅观点背道而驰的不雅观点:“人工智能能够照顾病人,机器人能够教导学童——那些领域也不再须要人类。

宣布称,反方以微弱上风得胜,赢得了51.22%的不雅观众票。

宣布称,“辩论家”操持去年首次与人类展开辩论,它在今年2月与冠军辩手哈里什·纳塔拉詹的一对一较劲中失落利。
纳塔拉詹本次也作为反方三辩参加了在剑桥大学同学会的辩论。

IBM公司操持利用“众包演讲”人工智能平台网络大量人群的反馈。
例如,IBM工程师诺姆·斯洛尼姆说,政府可以利用它搜聚选民对政策的见地,企业也可以利用它搜聚员工的见地。

他说:“这项技能有助于在决策者和将受决策影响的人之间建立有趣和有效的沟通渠道。
”(编译/冯雪)