而与此形成光鲜比拟的是,从2018年底就已开始的裁员浪潮,给“史上最难就业季”增加了更多迷茫和不愿定性。
大批的毕业生正在彭湃的裁员潮下冒死奔波,探求得当的事情。

从马克思主义视角看人工智能——读《人工智能革命》一书有感_人工智能_阿尔法 AI快讯

但是,我们这位幸运的人工智能博士签完字后,如果打开网络,就会为自己的过早决定感到稍许后悔。
由于,“华为公司给人工智能专业天才开出200万年薪”这样一则信息此时已经霸占了各大网站

时至今日,人工智能缘何会如此之火呢?如果你看了《人工智能革命》这本书后,大概就会对人工智能在当本年夜火的缘故原由有所理解。
在阅读此书的过程中,你可能会有些许的困惑 由于,书中有些问题有时候看起来是无解的。
但是,我们如果从马克思主义理论角度来看待这些问题,那么这些问题可能就会得到完美阐明。

马克思主义真理不雅观是对“哥德尔谩骂”的完美救赎

数学公理化系统具备两种优雅的特性:同等性和完备性。
同等性指公理化系统不存在抵牾;完备性是指所有真命题都可以由公理化系统证明。
然而这两个特性在奥地利数学家哥德尔看来却是数学公理化系统的自掘宅兆。

1930年,哥德尔不完备性定理的提出让看似“坚不可摧的数学城堡成为了不堪一击的盐沙之基,他的命门就在于对自指的迷惑。
‘本数学定理不可以被证明’。
这句话到底是对比样错呢?如果是它是对的,得到的结论就和判断本身相悖;如果它是错的,又证明它代表的实际判断是对的。

如果你以为这个表述还有点拗口的话,我们再说一个更加浅近的例子。
为了证明上帝不是万能的,有人曾提出这样的一个问题:“上帝能不能创造一块他自己都举不起来的石头?”即便让最虔诚的基督教徒来回答这个问题,都只能得出“上帝不是万能的”这样一个结果:

1、如果上帝能创造一块自己举不起来的石头,那么上帝不是万能的(上帝举不起来这块石头);

2、如果上帝不能创造一块自己举不起来的石头,那么上帝不是万能的。

因此,无论是多么完备的理论体系,一旦考试测验对自指的描述可能就会陷入两难田地。
不完备性定理犹如魔咒般诛心,以至于被后人称为“哥德尔的谩骂”。

抛开我们刚才谈的这个上帝唯心论不雅观点,不完备性定理的运用对统统抽象性问题的剖析都产生了深远的影响,自然也包括了打算机科学和人工智能的发展。
人工智能如果要达到近似人的思维能力,也要建立起“自我”的观点,那么它也将会成为不完备性定理的活靶子。

然而,这一看似难解的问题,如果放在马克思主义视角下,实在马克思已经为我们完美办理这一困境供应了现成的答案。
“真理是详细的,总是适用于一定的条件和一定的范围。
如果条件发生了变革或者超出了特定的范围,真理就会变成谬误。

古希腊数学家芝诺片面利用静止的不雅观点剖析运动着的物体,末了得出了飞矢不动的结论。
可无论他的论证看起来是多么的“严谨”,却无法改变不了飞矢是运动的这个明显的事实。
同理,“哥德尔不完备定理”毕竟是逻辑范畴的定义,不应该用它去考量所有的问题,同样也该当有特定的适用范围。
而从实际情形来看,哥德尔“谩骂”的涌现也并未影响到人工智能发展的脚步。

马克思主义关于人的实质定义是对人工智能发展的最好表明

从第一台打算机问世以来,人类一贯梦想造出一种可以完美仿照乃至超越人脑的打算机系统。

1956年,随着打算机的理论根本和工程技能全部成熟之后,美国达特茅斯学院召开的学术会议第一次提出了“人工智能”的观点名词,这一年也被称为人工智能元年。

只管此后人工智能开始在多个领域得到发展,但是还仅限于在学术层面,并不为大众所熟习。
1997年美国IBM公司的“深蓝”超级打算机横空出世,以2胜1负3平降服了当时天下排名第一的国际象棋大师卡斯帕罗夫。
但不知出于什么考虑,随后不久,IBM公司就拆卸了“深蓝”。
这也使得天下对人工智能的话题一度陷入沉寂。

2016年,人工智能再次大放异彩,当年3月进行的围棋人机大战中,谷歌公司的阿尔法狗(AlphaGo)以4:1降服了韩国名将李世石九段。
第二年5月,改良后的阿尔法狗卷土重来,以3:0完胜当时围棋第一人柯洁。
虽然柯洁曾在正式比赛中单盘8:2碾压李世石,但是面对阿尔法狗,柯洁毫无胜机,曾一度心情崩溃,躲到厕所大哭。
2018年初,升级到“狗二代”的Master,在互联网上横扫中日韩顶级围棋手。
浩瀚围棋高手赢不了“一只狗”,导致不少人戏称,往后,我们再也不说别人“下得不如一条狗”了。

“深蓝”降服了卡斯帕罗夫虽然惊艳了天下,但人们一贯普遍认为人工智虽然能在别的棋类人机大战中霸占上风,可在围棋方面,人工智能始终无法降服人类高手。
由于要想在围棋上降服人类顶尖棋手,必须首先要让电脑学会像人一样思考。

为办理这个问题,谷歌为阿尔法狗设计了两个神经网络:“决策网络”(policy network)卖力打算走法,“值网络”(value network)则预测比赛胜利。
然后,用人类围棋高手的三千万步围棋走法演习两个神经网络。
这便是我们现在所归纳的“深度学习”这个名词的雏形。

“深度学习”对我们来说可能是个专业性非常强的名词,理解起来比较困难。
但是如果我们重新转到马克思主义视角来核阅这个名词,该当就会豁然开朗。

马克思关于人的实质定义时提出:“人是社会关系的总和”。
便是说,人的实质不是与生俱来的,而是在后天的生活实践中形成的。
单个的统统行为不可避免地要与周围所有的人发生各种各样的关系,如生产关系、性爱关系、支属关系、同事关系等等。

人工智能如果想要和人一样思考,产生自我意识,也必须如马克思主义对人的实质定义的那样,深入生活实践不断进行学习,即“深度学习”。

“深度学习”的普遍做法便是通过建立有效的学习模型,让机器从数以百万计的图像、声音和文本数据中,自行总结出某种特定事物的特色,从而实现自主学习,产生自我判断。

当以前的纯挚接管指令的人工智能在经由一段“深度学习”学习后,就可以在生活和事情适应多种变革,自主作出判断,这难道不是人工智能即将涌现自主意识的前兆吗。

犹太人有句格言:“人类一思考,上帝就发笑”。
人工智能发展到本日,面对阿尔法狗与职业棋手对弈时,所表现出来的聪慧和超强学习能力,上帝还会发笑吗?

马克思主义的阶级理论将来会不会成为人类的“灵魂拷问”

对付人类来说,机器人归根到底不过是自身能力的延伸,以人类工具的形式涌现。
它们不会出错,不会疲倦,不懂反抗。
并且可以任意将它们大卸八块,用坏了再修,或者直接抛弃换新。

然而,技能是可能进化的。
人工智能的发展到现在,不仅在思考方面已经以压倒性上风超越了人类,而且通过“深度学习”为自主意识的产生带来了一丝曙光。
如果机器真的有一天产生了自主意识,它还会服帖服帖地供我们使令吗?如此,马克思主义所谈的阶级斗争,未来会不会成为人类和机器的斗争。

一旦这样的情形变成现实,人类将会涌现一个无懈可击的仇敌。
相对付机器,哭泣、恐怖、相互猜忌等等这些负面感情都将成为人类最致命毛病,乃至包括“善良”这个我们人类引以为傲的精良品质。

某国曾经考试测验利用一种多足机器人用来排雷,每次它用脚引爆一颗地雷就会损失一条腿。
但在第一次利用时,就被当时实行任务的指挥官叫停了。
他无法忍受看着那个机器人用仅有一条烧焦的腿蹒跚而行,探求下一颗地雷。
这是人性善良的伟大光辉,但也可能是我们在未来沙场人机大战时的致命弱点。

柯洁面对阿尔法狗时一筹莫展,崩溃大哭。
可反不雅观阿尔法狗,即便降服了那么多顶尖围棋高手,首创了人工智能发展里程碑式的发展,依旧表现得云淡风轻,由于它根本就不知道什么是喜,什么是悲。
它所做的便是不断订定操持,而后实现目标。
当这样一个不受感情影响的仇敌涌如今沙场上,成为我们的对手,后果有多恐怖,是可想而知的。

发生在科幻电影中的人机大战,依照当古人工智能的发展,还须要很永劫光,乃至可能永久也不会涌现。
但是在某些领域,如何利用人工智能已经在道德层面处于两难选择。

在无人驾驶领域,当面临车毁人亡和侵害其他***时,作为一个编写代码的程序员该当如何让机器作出决议。
无论因此保护车内的人为主还是以不侵害***为主,都是对程序员的一场“道德磨练”。

机器正在考试测验学着思考,但人类再造聪慧依旧任重道远。