【代价对齐是跟谁对齐?对齐什么?】

20多年前斯皮尔伯格在片子《人工智能》中提出的伦理问题至今还惹人寻思_人工智能_价值 AI快讯

早在2001年,史蒂文·斯皮尔伯格在其执导的电影《人工智能》中就提出了一个伦理问题:当机器人学会爱人类,人类会爱机器人吗?

“斯皮尔伯格在电影中并没有给我们以答案。
除了影视作品的关注,可以说,每一次的人工智能浪潮都伴随着‘人与机器’关系的谈论。
”中国科学院科技计策咨询研究院研究员李真真说。
比如,“阿尔法狗”打败人类棋手后,2016年电气和电子工程师协会发布天下首个人工智能道德准则设计草案,并提出一个伦理问题:如何将人类规范和道德代价嵌入AI系统?

当以ChatGPT为代表的天生式AI基于演习数据开始独立创造连贯性内容,将AI提升到了认识的逻辑层面,“这意味着人工智能问题的性子也在改变,由此再次提升了人机伦理关系的关注度,并提出了代价对齐。
”李真真说 。

当“人工智能体”越来越表现出拥有与人类一样或相似的情绪和自主性时,人类该如何处理与机器人的关系?“现阶段,人机伦理关系已经成为一个不能也无法回避的议题。
”李真真说,只管在当下技能与社会文化背景下,代价对齐面对寻衅,但将代价对齐观点纳入AI大模型的研发实践的努力,凸显了使AI 置于人类可控范围的代价目标。

美国加州伯克利分校斯图尔特·拉塞尔教授认为,代价对齐旨在确保人类创造的AI与人类拥有相同的代价不雅观。

“代价”是一种繁芜的存在,“人类代价不雅观”是一种最大公约数下的代价共识。

“代价对齐是跟谁对齐?对齐什么?”李真真说,从个体层面讲,对付“什么是有代价的”判断,取决于个人的生活经历、生活体验、知识构造以及在其所经历事宜的处理中形成的代价不雅观。
就群体而言,常日会涌现不同群体之间的差异,乃至一个群体内部存在不同的判断和选择。
人类的道德体系涵盖不同文化圈在其历史长河中逐渐形成各自的主流代价,它们保有普遍的共同元素,但道德内容并非完备相同。

在她看来,人工智能的智能化表现只是模拟人类的理性思维模式。
人类文明的开化始于爱,它得益于情绪、意志、感情、履历等方面的自然交互,而这正好是人工智能所不具有的。

【“可理解人工智能”是下一个里程碑?】

“实在,在ChatGPT问世之前,学界对人工智能伦理问题就已高度关注。
”北京大学哲学系科技哲学教研室主任周程教授说。

自2017年起,人工智能伦理领域的文献呈现出迅速增加态势,这与运用深度学习技能的“阿尔法狗”问世有关。
对人工智能伦理文献绘制关键词图谱,可以看到“透明性”成为重点关注的问题。

随着人工智能的飞速发展,人类正逐渐进入算法社会,人工智能依托其强大的机器学习能力而具有一定的自主性,但这也导致了算法缺少透明性的问题。

前不久,微软公司前首席实行官比尔·盖茨公开表示,像ChatGPT这样的天生式人工智能已经到达了平台期,未来的GPT-5相较于现在的GPT-4只能做出部分改进,而无法取得飞跃性的打破。
他做出这一判断的一个依据在于:人工智能存在透明性即“黑箱”问题。
他预测,“可理解人工智能”将会是人工智能发展的下一个里程碑,但实现这一目标至少须要十年的韶光。

所谓“黑箱”问题,指的是“模型经由大量演习后,其内部状态变得相称繁芜,输入与输出之间的运算是自动进行的,这也导致人们既难以准确预测算法的行为,也不易理解算法输出特定结果的机制。

例如,在医学人工智能领域,AI赞助诊疗系统有时会做出一些令专业年夜夫感到费解的治疗建议,但年夜夫无法向算法“黑箱”讯问它为何会做出这类看起来相称不合理的决策。

周程说,提高人工智能的可理解性与可信赖性成为新哀求,国内外出台了多个文件提出要提高人工智能的可阐明性。
10月30日,七国集团发布了《广岛进程组织开拓前辈人工智能系统的国际辅导原则》,个中提到:例如测试和缓解方法,应力求确保系统全生命周期的可信赖性、安全性和安保性,以便它们不会造成不合理的风险。

虽然科学界、哲学界和科技管理界都在强调要提高人工智能系统的透明性,但是对付“可阐明AI”“可理解AI”“可信赖AI”这一组关键观点的内涵仍未达成共识。

在周程看来,这组观点涉及人类如何打开人工智能“黑箱”,又如何弥合人类心智系统与人工智能系统之间的鸿沟问题。
因此,有必要系统梳理诸如“可阐明性”“可理解性”“可信赖性”等观点,以更全面地勾勒出我们构建未来人工智能的方向与目标。
如果我们在研发人工智能时,能够建立起用户、研发者、机器之间的信赖纽带,把个人与社会的代价关怀都融入开拓的全过程,我们就能更好地让人工智能造福于人类,实现更加“以人为中央的人工智能”,减少潜在的风险,更好地应对人工智能带来的伦理寻衅。

题图来源:上不雅观题图 图片编辑:雍凯

来源:作者:黄海华