人工智能犯下一些“灾祸性缺点”_事宜_相干
人工智能可能会犯下一些“灾害性缺点”,以下是一些干系案例:
1- 加拿大航空谈天机器人缺点信息事宜:2024年2月,加拿大航空被命令向一名搭客支付赔偿金。该搭客杰克·莫法特在2023年11月祖母去世后,咨询了加拿大航空的虚拟助手关于丧亲票价的信息,谈天机器人奉告他可以以常规价格购买机票,并在购买后90天内申请丧亲折扣。然而,当莫法特提交退款申请时,航空公司却谢绝了,声称丧亲票价不能在购票后申请。仲裁委员认为航空公司没有确保其谈天机器人的准确性,终极命令航空公司支付给莫法特相应的赔偿金。
2- 《体育画报》可能揭橥虚假作者文章事宜:2023年11月,在线杂志《未来主义》称《体育画报》正在揭橥由AI天生的作者撰写的文章,且一些文章可能也是由AI天生。《未来主义》创造干系作者的头像在发卖AI天生肖像的网站上有列出。随后,《体育画报》的出版商Arena Group 声明干系文章来自第三方授权,其作者利用笔名或化名,但Arena Group不认同这些行为,并撤下了有问题的文章。
3- 甘内特公司的 AI 出错事宜:2023年8月,甘尼特公司利用的名为LedeAI的工具撰写的几篇宣布,因重复、写作质量差且缺少关键细节而受到关注。例如一篇文章开头写道:“沃辛顿基督教((WINNING_TEAM_MASCOT))在周六的俄亥俄州男子足球比赛中以2-1击败了韦斯特维尔北部((LOSING_TEAM_MASCOT))”。之后甘尼特公司在所有利用该做事的地方市场停息利用LedeAI。
4- iTutor Group 的招聘 AI 歧视事宜:2023年8月,iTutor Group 利用的AI驱动的招聘软件自动谢绝了55岁及以上的女性申请者以及60岁及以上的男性申请者,EEOC指出有超过200名合格的申请者被该软件自动谢绝。iTutor Group 虽否认不当行为,但赞许支付36.5万美元以办理诉讼,并采纳新的反歧视政策。
5- ChatGPT 虚构法庭案件:2023年,状师Steven A. Schwartz 利用ChatGPT研究针对哥伦比亚航空公司Avianca的诉讼中的先例时,ChatGPT虚构了法庭案件。
6- Zillow 公司的丢失事宜:2021年,在线房地产公司Zillow用于预测房价的机器学习算法涌现缺点率问题,再加上新冠疫情和家庭装修劳动力短缺等黑天鹅事宜,导致该公司以高于估量的未来售价购买房屋,造成2021年第三季度库存房屋跌价3.04亿美元。终极Zillow 决定结束干系业务并大幅裁员。
7- 英国丢失数千个新冠病毒病例事宜:2020年10月,英国公共卫生部利用Excel 表格处理新冠病毒新增传染病历时,因表格的行数和列数限定,导致近16000例冠状病毒病例没有上报,阻碍了打仗者追踪事情。
8- 医疗做事算法未能标记黑人患者:2019年,美国各地的医院和保险公司利用的一种医疗做事预测算法,不太可能单独挑出黑人患者加入“高风险照顾护士管理”操持,而该操持可为慢性病患者供应更好的照顾护士和监测。
9- AI 系统探求危险生化武器:2022年,研究职员改变了一个寻求有医疗效果、无毒性分子的药物AI系统的目标,使其褒奖而非惩罚毒性,该AI系统很快创造了4万个潜在化学有毒分子。
10- iPhone X 的脸部识别技能被破解:iPhone X 的Face ID被认为是安全的刷脸认证办法,但发布不久后,越南的一家公司BKAV通过利用3D打印的塑料、硅胶、扮装品和剪纸构建人脸面具破解了它,制造本钱大约150美元,这扩大了消费级设备隐私的风险。
11- Echo 音响午夜非常开启:亚马逊的Echo音响被认为强大,但一名德国男子的Echo在夜间非常唤醒并播放音乐,吵醒邻居并导致警察强行闯入关掉音响、改换门锁。
12- 谷歌 AI 将步枪误识别为直升机:麻省理工学院的研究小组通过对步枪照片进行微调,蒙蔽了Google Cloud Vision API,使其将步枪图片误识别为直升机,这表明不良样本可导致打算机对图像误识别。
13- 恶作剧路牌误导自动驾驶汽车:研究职员创造,通过利用油漆或胶带对停滞标志进行伪装,添加“LOVE”和“HATE”等词,可误导自动驾驶汽车的机器学习系统,使其将停滞路牌误识别为限速标志。
这些案例表明,人工智能在实际运用中可能会由于各种缘故原由涌现缺点,包括数据问题、算法毛病、演习不敷、安全漏洞等,从而可能导致经济丢失、安全风险、公正性问题和信赖危急等。为了减少此类缺点的发生,须要在技能研发、数据管理、测试验证、伦理规范和监管等方面加强努力,以确保人工智能的可靠和安全运用。
本文系作者个人观点,不代表本站立场,转载请注明出处!