研究职员探究AI薄弱性的缘故原由有很多。
有些人认为是数据不足好,有些人则认为是算法设计不足精妙。
然而,最近在科技媒体wired上,打算机科学家Erik J. Larson撰写了一篇文章,提出了一个新的不雅观点:优化思维是AI薄弱性的根源。

人工智能接下来应该若何优化?AI今朝的盲点_体系_软弱 文字写作

优化是推动AI尽可能准确的动力,在抽象的逻辑天下中,这种推动无疑是好的。
但是,在AI运行的现实天下中,每一个好处都是有代价的。
例如,在机器学习中,须要更多的数据来提高打算精度,须要更好的数据来确保打算的真实性。
然而,这种“更好”的数据必须不断地进行网络,因此当AI开始逐渐形成完全的画面时,新数据的涌现可能会改变现有的状况,从而导致系统崩溃。

这也阐明了为什么大众眼中看似完美的AI常常会涌现“犯精神病”的情形。
例如,将狗狗当成菠萝,把无辜的人算作通缉犯。
这些问题的根源就在于AI的优化思维。

那么,如何办理AI的薄弱性问题呢?Larson认为,我们须要更加看重AI的鲁棒性,纵然在面对非常情形时,系统也能够正常运行。
这须要我们在设计AI系统时考虑到各种可能会涌现的情形,例如数据缺失落、噪声滋扰等等。
同时,我们还须要开拓更加智能的算法,以便让AI能够更好地应对各种情形。

此外,我们还须要不断地完善AI的监管机制。
由于AI系统的繁芜性和不可预见性,我们须要建立一套完全的监管体系,以便对AI系统进行规范和约束,确保其不会给人类带来危害。
这须要政府、企业和学术机构等多方面的互助。

其余一个办理AI薄弱性的方向是,探索新的AI算法和技能。
例如,深度强化学习已经在很多领域都取得了出色的表现,它可以让AI系统更加智能地处理繁芜的任务,从而降落系统出错的概率。
同时,我们还可以考虑将AI系统和人类智能相结合,以便更好地应对繁芜的情形。

总之,AI系统的薄弱性问题须要我们负责对待。
只有通过不断地研究和探索,才能让AI更好地为人类做事。
同时,我们也须要充分意识到AI带来的风险,并采纳方法来规避这些风险。