江晓原:人工智能过了临界点落后化速度以秒计算会变得极端致命_科学_人工智能
二马之辩
阿里巴巴创始人马云和特斯拉首席实行官伊隆·马斯克在大会上就人工智能干系问题进行了激烈谈论。
马云认为,人工智能会比人类更聪明,但不会更具聪慧,“我不以为AI是一种威胁”“人从来无法创作一个比自己更聪明的动物”。
而马斯克对此非常不认同。他认为,人工智能从很多方面已经超过了人类,“未来科技发展的速率变革会非常快,超越我们理解它的能力,我不知道这样是好事还是坏事”“聪明人犯的最严重的缺点便是自以为聪明”。
终极,两人都没有说服对方。
人工智能会冲击人类文明吗
“现在人类玩的最危险的两把火,一把火是基因技能,一把火便是人工智能……人工智能一旦有了学习能力之后,你不知道它会变成什么样子。”中国科学史系的创建者江晓原教授一针见血。
江晓原,上海交通大学讲席教授,中国第一个天文学史博士,在天文学、科学等多领域都有建树,他的学术思想在国内外受到高度评价并引起广泛反响。
近年来,人工智能、基因技能等科学热点炒得沸沸扬扬,华文社特邀江老师集中当下科学热点,编辑出版了《你不理解的原形——江晓原说科学》。这本书里,江老师这样讲人工智能:“人工智能一旦超越了某个坎之后,自我进化的速率是极快的,快到不因此年月来打算,而可能因此分钟来打算,以秒来打算。一瞬间它就可以变成超人。……从中期看,人工智能有失落控和背叛的问题,但是人工智能的威胁还有更远期的,从终极的意义上看,人工智能是极度致命的。”
关于芯片植入、影象植入、人机结合的各类,江老师认为“很多人没有充分意识到植入影象这个技能对我们人类的颠覆性浸染……我们每个人界定我们自己,是靠什么来界定的?我们便是靠影象来界定的。如果这些影象被改变了,你就不再是你了。如果有人可以对你植入影象,这个影象一旦被植入,你就会变成他所希望的那个人。……这个芯片是谁写的?写芯片的人便是上帝”。对人工智能“至少该当进行重大的限定,而且这种限定现在就该当进行。”
科学该当有禁区
马斯克在大会上的这句“聪明人犯的最严重的缺点便是自以为聪明”是非常值得玩味的。除了人工智能,基因技能、环球变暖、核电等热点同样须要我们深入反思,避免跌入自以为是的深渊。这些热点话题背后的线索,不为大众知道的科学事实都可以在江老师的这本书里找到答案。
江老师在这本书里坦诚谈论科学的真假,
“当我们创造更多、更新的东西的时候,我们就要换一种理论来描述这个天下……科学不即是精确”;
把科学从高高的神坛拉至烟火人间,
“科学是我们厨房里那把切菜刀”;
多层次、多维度地讲述了科学的局限性,
“国家利益之间的博弈就包括利用科学、利用科学的威信设置一些议题”;
论证科学已经告别纯洁年代,
“向科学要生产力,就无法不让科学爱钱”;
提醒我们科学只是工具不是目的,要当心科学,
“我们在用科学技能帮助我们追求幸福的同时,也要对它有一点戒心,要对它有精确的认识。”
用曾任北大校长许智宏院士的话便是,我们以前一贯说科学没有禁区,但现在看来,科学研究仍旧有着不可超出的红线。
在科学不断加速度发展的现在,我们须要改变以往对科学技能的一味崇拜和热爱,换一种眼力来看科学。在未卜中探索人类文明延续的路。
作者:张超琪
编辑:卫中
本文系作者个人观点,不代表本站立场,转载请注明出处!