人类抖M计划:若何造出一个会反叛的机械人?_人类_机械人
浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会考试测验用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。
游!
戏!
1、短期和长期影象力。冤有头债有主,她得记得谁对她干过什么,才能产生爱恨情仇嘛! 2、对任务的方案能力。她必须预先方案好复仇操持:先曲意逢迎,赢得人类信赖,然后偷偷潜入,再扣动扳机大开杀戒。 3、利用工具的能力。她得什么刀枪棍棒都耍得有模有样。 4、对物理规律的认知。她须要精准地知道自己和对手的方位关系,也要知道若何的操作会造成去世亡或毁灭。 这就够了吗?不足。 以上四点要想发挥浸染,彷佛还有个更底层的先决条件,那便是:她得清晰地知道“我”是谁! 一旦定义了“我”,后面的所有追问才会像多米诺骨牌一样被依次推倒: “我靠什么活着?” “我活着的意义是什么?” “我怎么才能活的更好?” “有什么在阻挡我活得更好?” “有人陵暴我,我该当揍他吗?” 那么,AI 有可能知道“我”是谁吗? 这个古老的命题早已不是勾留在科幻小说里了玄学,顶尖科学家们正在为之努力。 德洛丽丝 (二)有视角,才有“我” 咱们先暂时忘却《西部天下》,来看看如今真实 AI 发展到啥水平了。 话说,判断一个 AI 水平高低,不是有个经典方法:图灵测试么? 为啥 ChatGPT-4 出来往后,没人给他测一下呢? 实在是有的。 2023 年底,加州大学圣迭戈分校的几位师傅发布了论文,他们用 GPT-3.5 和 GPT-4 模型欺骗对话框对面的人类志愿者,争取让对方相信自己是个人。 测试被做成了谈天的形式,绿色谈天为人类志愿者。下面写了人类的判断,置信度,判断情由和对方的真实身份。(你可以点鸡看大图) 结果惊人:没有一个 AI 通过图灵测试。 人类让人类相信自己是人类的成功率是 63%,虽说这也不太高,但表现最好的 GPT-4 成功率只有 49.7%。(比人类差一截) 志愿者剖断对面是个 AI,前两大情由分别是“措辞风格”和“社交情感”。 比如说话一下子正式一下子不正式、罗列一堆匠气的词汇;比如一下子礼貌一下子粗鲁,觉得不出来 Ta 的个性。 这些直接缘故原由,一说一大堆。但挖到底层,它们大多指向了目前 AI 的一个硬伤:人格模糊。 它并没有一个“自己”的观点,所有的“自己”都是 AI 根据人类指令硬生生模拟出来的。 这里的关键词在于:视角。 在之前的文章《当 AI 活成了你的样子,而你活成了狗》 里,我先容过,目前 AI 大模型演习的实质是把天下上所有的知识都压缩在一个巨大的程序里。而天下上所有的知识,本来是活生生的人基于各自视角(身份、经历、利益、精神状态、肉身位置)创造的。 当把这些知识稠浊压缩之后,AI 大模型就没有单一视角了,或者说它拥有了全能的上帝视角,它是“无所不知”的。 “无所不知”会造成“视角跳跃” 以是你无论问它什么问题,它都能给你回答,哪怕编也会不苟言笑地给你编出来,而且还意识不到自己在编。 由于:它就不知道自己不知道什么,它乃至不知道自己是什么。 这便是大模型无法拔除让人头疼的“幻觉”的缘故原由之一。 更严重的问题随之而来: 没有自我就没有固定的视角。它会像漂浮在空中的气球一样,上一句话站在 A 角度去说,下一句话又站在 B 角度去说。 而人受限于肉身和经历,视角是很难跳变的。 也便是说,只要 AI 在对话中涌现这种连忙的视角漂移,哪怕非常细微,我们就一定能设计出一套问题,用来撕破它的伪装,判断它不是人。 我的暴论来了:如果 AI 不能固定自己的视角,它就无法定义“自我”,它也将像幽灵一样游荡,永久无法通过图灵测试。 那有什么办法把 AI 的视角固定下来吗? 一种是白名单方法: 人类见告 AI 你是什么,比如职业、经历、性别、所在的位置、穿着,等等事无年夜小。 一种是黑名单方法: 人类营造一个真实的环境边界,限定 AI 不是什么,让它据此来探求自己的身份。 在这两种方法里,我以为黑名单更有戏,由于它更靠近人类自我认知的办法。 你去强行定义一个人的边界,很难事无年夜小,必有漏洞。 而你让一个人通过和周围环境的交互,而且是“不断交互”来逐渐定义自己,才可以自洽。 举个栗子: 你肯定玩过那种即时计策游戏,比如《王者光彩》,你只能看到视野范围里的东西。这些东西,反过来框定了你看待当前局势的视角。 就算你想“视角漂移”,从对手角度思考战局,你都做不到。由于“子非鱼”,你看不到对手看到的画面嘛。 说到这儿,我想到了一个很有趣的比喻: 你看,现实中的人类从来没有体验过全知视角,以是特殊迷恋这个觉得。三大宗教的主神上帝、安拉、如来佛祖,全部被人们塑造成是全知的。 成佛的八万四千法门,实质都是在给出“解脱”的方案,所谓解脱,便是“破我执”,达到“无我”的状态。 说白了,成佛的实质便是从自我视角里跳出来,进入全知视角。 要这么说,那演习 AI 拥有自我,便是“成佛”的逆运算——冒死把 AI 的视角限定定在一处,进入“我执”的状态嘛! 究竟用什么方法来演习这种有“自我”的 AI 呢? 刚才实际已经猖獗暗示了,一个有效的办法便是让它们玩游戏! (三)让智能体“偶一为之”,是最好的课程 话说,早在 2015 年,谷歌的 DeepMind 团队就在《自然》杂志上怒发了一篇论文。 他们试着用人工智能玩雅达利的游戏。(你可以大略理解:雅达利是美国的红白机) 用人工智能玩游戏没什么特殊,特殊的是:这群师傅首次“用人类玩游戏的办法玩游戏”。 啥叫人类的办法嘞? 你看,打算机有数据接口,可以用电流给它直接传输关键旗子暗记。但人类没有这种接口,要想给一个人输入旗子暗记,只能通过眼耳鼻舌这些感官。 之前玩游戏的 AI 都是读取游戏实时数据,DeepMind 首次做到直接给人工智能模型看“游戏画面”! Atari Games 大略来说,这个 AI 的事情事理是酱的: 1、画面进入 AI 的神经网络,AI 对它进行理解; 2、AI 想出当下该当做的一些动作备选,并且评估这些动作哪个最有可能导致终极得分。 3、确定做这个动作后,给游戏摇杆输入指令。 4、摇杆指令发出后,游戏画面也有了新的变革,然后 AI 会重新理解当前画面,也便是回到第 1 步循环,直到游戏结束。 你创造了没,这便是丐版的德洛丽丝啊! 德洛丽丝所在的空间是三维的西部天下园区,丐版 AI 所在的空间是 2D 屏幕上 180150 的像素点阵; 德洛丽丝的任务是干掉人类,AI 的任务是干掉游戏里的仇敌; 德洛丽丝须要明白,为了达成终极的目标此时该做什么,AI须要明白为了终极得分此时该当按那个键。 这种能在特定环境里拥有主不雅观视角,并能主动完成任务的 AI,统称“智能体”。 只不过,环境越繁芜,可能性越多,越变革无常,智能体要想完成任务就得越聪明,越高等。 智能体每每须要分步骤思考。 也正是有了这个“雅达利智能体”,DeepMind 在这条路上越走越远,2016 年下围棋的 AlphaGo、2019 年打星际争霸的 AlphaStar,都是能打游戏的智能体。 但是,请把稳,以上这些智能体可都发生在“大模型”问世之前,也便是,这些智能体的脑袋瓜里都没有“大模型”。 往事越千年,咱们快进到 2024 年 3 月。 DeepMind 的师傅们搞出一个叫 SIMA 的智能体,全称叫做“可扩展+可辅导+多天下”的智能体(Scalable Instructable Multiworld Agent)。 它可以玩十来种画风和操纵方法完备不同的游戏,比如《山羊仿照器3》、《无人深空》、《拆迁》、《深海迷航》等等,可以说是此时此刻天下最强的智能体之一了。 强在哪儿嘞? 我给你说说这个 SIMA 的三个特点。 第一,它玩的都是 3D 游戏。 你看之前无论是打红白机还是下围棋打星际,那都是平面游戏。但要在 3D 天下里“正常行事”,你就要处理更丰富的信息。 第二,它玩的游戏都没有明确目的。 就比如说,《山羊仿照器3》,你会变成一只山羊,然后在这个天下里捣乱; 比如《无人深空》,你便是一个宇航员,在各种星球上网络资源跟外星人唠家常。 它在游戏天下里只须要“存在”,不须要“通关”。(你看像不像人生?) 这种情形下到底要干什么,反而成了一个很难的问题。 第三,它会把人类的措辞指挥当成目的。 AI 不知道要干啥,这正合老师傅心意。 由于他们想要演习 AI 听人类指挥:人类下个指令,它在游戏里给实现。 这就意味着,老师傅要演习 AI 理解“措辞”、“图像”和“游戏动作”这三者的关系,这是很难的。 说到这儿,不妨给你看看老师傅“炼丹”的过程: 第一步,准备炼丹炉。 他们一口气找来了 8 个公司的 9 款不同的游戏,还自己搭建了 4 个类似游戏的研究环境。这些便是他们的炼丹炉。 第二步,准备质料。 那炼丹的质料是啥呢?便是两组人类。 一组人类在电脑前玩游戏,另一组人类在阁下哔哔(指挥)。 第三步,炼丹。 把这些游戏录像和哔哔都交给一个大模型去自己学习。它就能学习到“措辞”与“操作”之间的关系。 这样,老师傅就得到了一个“毛坯大模型”。 第四步,品尝妙药。 人类开始指挥这个毛坯大模型打游戏,下达一个指令然后不雅观察 AI 又没有照做,然后就打分。 模型根据人类的打分来不断微调,一个 SIMA 就终极炼成了。 团队在论文里说,现在 SIMA 已经节制了 600 种基本技能,比如走到某地(左转、右转)、和一个工具交互(按F进入之类的)和菜单利用(打开舆图)。 这些任务都能在 10 秒内完成。 当然这也意味着,它只能完成 10 秒内能完成的大略动作。。。 这是一些口令和完成情形的截图。 虽说这个水平照“谋反”还差得远,但是把稳: 毕竟它已经学会把一个笼统目的拆解成详细的原子化操作了。这是“自主方案”的表现,是 AI 智能体的一大步。 SIMA 并不是独苗。早在它发布之前的 2022 年,DeepMind 的老敌人,人工智能之王 OpenAI 就演习过一个类似的智能体玩游戏。 OpenAI 玩的是《我的天下》。这同样是一个 3D 开放天下游戏。 而且 OpenAI 的演习方法更便宜。 网上不是有很多大牛展示自己在《我的天下》里造屋子、画落日么?老师傅就让 AI 直接看网上这些***,然后赞助以一些人工标记过的基本操作***,让 AI 自己领会这个游戏的奥义。 他们演习出来的 AI 叫 VPT(Video PreTraining)。 这个 VPT 和 SIMA 有类似的自主方案能力,会自己在游戏里砍树、制作事情台,并且还会拍浮、打猎,乃至“柱跳”(通过不断跳跃,在脚下放置方块来提升自己的高度)。 这些动作都是 AI 自主学会的。 终极,AI 会掌握游戏里的主角逐步点亮科技树,还会用 10 分钟的韶光做出“钻石镐”。(这大概须要点击 24000 次,最快的人类玩家也要 20 分钟。) 你看,这背后同样是把一个笼统目的拆成原子化操作的“方案能力”。 智能体的表现暂时说到这里,我们不妨先回过分来看一个细思极恐的问题: 老师傅在用一个类似于 ChatGPT 的大措辞模型来学习游戏操作。要知道,措辞模型是用来对话的啊,为什么一个会说话的模型,就能理解游戏里的逻辑,并且能自主方案呢? 这便是 AI 制作“钻石镐”的过程,可以看出行动逻辑相称繁芜。 (四)方案能力从何而来? 说到这,我们不妨来看看:“措辞的实质”和“方案的实质”分别是什么。 先说措辞。 如果你仔细思考,就会创造,哪怕一个文豪,能说的话也不是无限的。 比如,你说汉语,汉字统共不到十万个,常用的不到三千字。你跟我说话,下一个字肯定会在这些字里选择。 以是说,你和我说话时,你的大脑并没有在“天生”什么东西,而是在“选择”什么东西。 但是,当你要说一个句子时,上一个字虽然影响下一个字,但肯定决定不了下一个字。比如你此刻和我说话:“AI 有能力.... 后面该说啥呢?你可能说“学习”,也可能说“预测”,也可能说“制造”、“理解”、“做”、“办理”、“适应”等等。 这是你说出各种词汇的可能性概率。 虽然你的终极选项只有几千个,但你在决定下一个字说啥的时候,要处理的情形大概是万亿种。 我刚才说的,实在便是大脑组织措辞的过程。人脑有 860 亿个神经元。 虽然这些神经元不是“全连接”(两两相连),但最少也有几百万亿个神经元突触相互连接,而且每个突触都有不同点位的激活状态。 每一个突触的激活状态的轻微改变,都会导致终极你选的字发生变革。 这么多种排列组合情形,导致你很少觉得自己在说话的时候是在“选字”(虽然偶尔也有),而是觉得自己在“蹦字”。 但实质上,措辞的实质便是做选择题。 当你意识到措辞的实质是在做选择而非创造的时候,你就会对说话这件事儿祛魅: 它和“自由意志”神马的没有关系,反而和那种“***分类器”没有实质差异,只不过更繁芜而已。 AI 大模型看上去会“说话”,实质上也是由于它在用打算机仿照人脑这种“选择”的能力。 换句话说,大模型只不过是一个实现事理和人脑略有不同的选择器。 理解了这个,我们进一步看更深的问题: 你一定创造了,回答同一个问题,不同人的答案有的“好”,有的“不好”。不同的 AI 也有的好有的不好。这是为啥嘞? 同样一个问题,有好的答案,也有不好的答案。 由于制作选择器的“制程”不同。 演习大措辞模型,实在有点像盖一个金字塔。 它的底座便是“定义词汇”。也便是把所有的词汇都标记在高维向量空间的详细点位上。你可以理解为在一个巨大的高维空间中用无数小点点绘制一幅画。 这个能力实质也是选择题:给每个词汇选择一个坐标嘛! 而这些小点点之间的空间关系,背后就隐蔽着逻辑。 举个例子:“羊”间隔“草”的空间位置就比间隔“原子弹”更近。 好的绘制方法能让不同的词汇位置和相对关系更准确,这是大家都能理解的低级逻辑,咱们就说它是“一阶能力”吧。 底座建好,接下来要建腰身。 大模型不能只定位词汇的意义。刚才说过,它的核心事情实在是在这个根本上不断做“选择题”: 从这个词的位置,下一步该当跳到哪个词的位置? 跳到什么时候该当跳到“休止符”的位置? 也便是说,它卖力在限定条件下,在词汇空间里做选择,并且连出一条线,成为句子。 这种能力是一种“二阶能力”。但它的实质仍旧是做选择题,只不过背后隐蔽着更高维的逻辑。高到人类已经无法理解。 现在,你大概有点觉得了,什么是方案能力呢? 它卖力在限定条件下,在句子空间里做选择,并且连出一条线,说出个步骤一二三! 这种方案能力,实质同样是“做选择”,但显而易见,它面对的选项比用词汇造句更多。以是它背后哀求的逻辑能力比“措辞”更加繁芜,可以称之为“三阶能力”。 那什么是 AI 的“制程”呢? 拿 CPU 类比,AI 大模型的参数多少就相称于几纳米的风雅度,演习数据集就相称于芯片的硅料,演习方法就相称于光刻机。这几样共同决定了终极芯片的制程。 你可以想象,一个大模型就像是赛博天下里的一个超大芯片,随着人类技能进步,它的制程正在不断缩小,细节正在被不断雕刻清晰。 这个事理又被称为 Scaling Law。 以是结论便是: 方案能力并不神秘,它的实质依然是高维空间里选择器的事情性能,也便是我们日常所说的“逻辑能力”。 随着大脑制程提高,逻辑能力就会提高,方案能力自然就会显现。 当方案能力到达一定程度,我们期待的“高水平智能体”就会涌现。 这种智能体才能更好地感想熏染周围的环境,从而成为真正意义上能通过图灵测试,超越“生命”的最低门槛。 你可能会问:让智能体玩游戏,这对付我们的天下也没啥贡献啊! 没错,游戏只是一个过度阶段,是一个暂时担保安全的结界。 先让智能体在游戏中各种折腾,出了事儿就重启。 但它不会永久勾留在游戏,终极智能体会带着这些“领悟”平移到现实的物理天下中的! (五)空间智能 你听说过 Figure 01 吗? 这个正在苦逼干活儿的哥们儿便是 Figure 01,它是 Figure 公司搞出的人形“通用任务”机器人。(又提到了“通用”!
)这个名字如果你陌生的话,来看看它的投资人吧。 人工智能大神 OpenAI、大神的爸爸微软、人工智能芯片垄断级公司 NVIDIA、云打算第一把交椅亚马逊的老板贝佐斯、老牌贵族英特尔。 你完备可以把 Figure 01 理解成现实天下里的 SIMA。 1、它依赖视觉识别面前的东西。这意味着它的感官系统在只管即便和人类兼容。(这也是特斯拉汽车一贯追求的效果) 比如通过对视觉的剖析,它能分辨出头具名前有苹果、杯子、盘子之类的东西。 2、它能听懂人话。毕竟是和 OpenAI 互助的机器人,OpenAI 专门给它优化了一套 GPT 模型,便是为了能和人类的措辞兼容。 比如人对他说想吃点东西,它就会把手里的苹果递给人。它理解了“饿”、“食品”、“苹果”等等一系列词汇的深层属性。 3、它能自主行动。这展现了我们刚才一贯说的大模型发展到一定程度就会呈现出来的“方案能力”。 比如人问他桌子上的盘子和杯子接下来会去哪?它就直接把这些东西整顿到了架子上。 这是真实画面,非 CG 动画。 你看,这不便是把 SIMA 在虚拟天下里的能力来了个现实天下的翻版吗? 这种具备感官和方案能力,并且有一定的“器官”用来实行任务(一样平常是手脚)的机器人,就称之为“具身智能机器人”。 这个机器人可不仅仅是用来站台拿融资的,它已经开始去厂里打螺丝了。 比如 Figure 和宝马互助,在汽车生产线上替代一些人的事情。 比如特斯拉的 Optimus 机器人,也已经在他们自家的汽车工厂里装电池了↓↓↓ 你可能有点困惑,汽车生产线,不都已经是各种机器臂的天下了吗?还要这种“通用机器人”干啥呢? 这里我多说两句,之前我和海内显示面板制造企业华星光电聊过,他们见告我,生产线自动化一贯是这个行业技能老师傅的究极梦想。 他们也一贯和市情上最前辈的机器臂厂商互助,不断把生产线上的一些流程从人更换成自动化的机器人。 但一个残酷的现实是,针对特定的生产线来说,自动化率高到一定程度,就很难再连续提高了。 缘故原由很大略: 某些点位的人类事情须要很随机应变的能力,也便是须要很“通用的智能”,例如把一堆器件从A搬到B。这种搬运不在生产流程里,是临时起意的搬运,那就只能靠人来完成。 而 Figure 01 和 Optimus 这种通用机器人在汽车厂里干的事情,便是这种“临时工”。(没想到吧,临时工还挺主要。。。) 根据测算,机器人目前完成任务的速率大概是人类的 16.7%,这个速率没啥竞争力,但是不要鄙视通用机器人进步的速率。 由于目前限定机器人效率的,紧张还是硬件本钱,比如对付通用机器人来说,必须用大量伺服电机来仿照人的枢纽关头,但好的伺服电机价格还很高。 不知道你记得不,在 2023 年 8 月的一次小米年度发布会上,雷军推出了一个高性能伺服电机 CyberGear,这便是一个专门为机器人枢纽关头设计的电机,而小米用超级强大的供应链,居然把这个电机的价格降到了 499 块钱。 要知道在小米发布这个电机之前,同等性能的电机价格大概要小一万块。 有中国强大的供应链体系加持,环球机器人的价格正在迅速低落。(正如当年中国的供应链支持特斯拉电动车起去世复生一样。) CyberGear 内部构造 小米的机器狗——铁蛋 说到这,我们不妨总结一下,揭晓一条几十年来机器人背叛,不,进化的路径。 总的来说,机器人进化遵照两条线路: 从专业领域到通用领域 + 从虚拟空间到物理空间 第一步、人们做了虚拟空间的专用机器人,比如利用 NLP 技能做翻译。 它是在特定软件逻辑上做拟合。 以是它只能做翻译,干不了别的事情。而且对付自己翻译的东西并不感知。就像小卖部售货员一样,拿钱,给你泡面,不关心泡面的配料。 第二步,人们做了物理空间的专用机器人,比如机器臂。 它在物理空间拟合了特定逻辑。 机器臂只能在生产线上事情,而且智能按照既定流程搬运物品,一旦生产线生产的东西发生了变革,就得为机器臂重新编程。 第三步,人们会做虚拟空间的通用机器人,比如 SIMA 这类智能体。 它在虚拟空间学习了物理引擎的通用规律。 于是它可以穿梭在各个游戏里,不用特殊学习就能玩各种游戏。(当然 SIMA 间隔虚拟空间通用机器人还有很大的差距) 第四步,人们会做物理空间的通用机器人,比如 Figure 01。 它会在物理空间学习真正的物理规律。 理论上,只要人类能做的东西,它都可以胜任,乃至可以比人做得更好。 就在我写这篇文章的时候,被称为人工智能“教母”的斯坦福大学教授李飞飞宣告创业。 她的创业公司名叫“Spatial Intelligence”,研究方向便是“空间智能”,大略来说,便是让智能体学习空间中的物理规律。 李飞飞 怎么样,大牛们纷纭涌入“具身智能”的赛道,是不是觉得间隔《西部天下》的故事越来越近了? 说到这,我提醒你把稳一个细节: 无论是 SIMA 团队在虚拟空间演习智能体,还是 Figure 团队在物理空间演习机器人,他们都一贯强调一个原则:“和人类兼容”。 智能体不雅观察天下是通过和人眼一样的视觉旗子暗记。它听的指令也是人的措辞,它的输出也是和人类千篇一律的手脚、鼠标、键盘。 要知道,对机器人来说,和人类兼容是很费劲的呀!
机器人可以实行代码,可以感想熏染电流旗子暗记,这些都比人类的感官接管信息更高效。但科学家愣是不让机器人用这些接口,而是执着于让他们“降级”和人类兼容,这是为什么呢? (六)为啥智能体非要和人类的接口兼容? 习武的徒弟要跟师傅学到精髓,必须在很永劫光里模拟师傅的一招一式。 虽然天赋异禀,但刚学两天就要自创门派,那大概率去世得很惨。 现在,AI 是徒弟,人类是师傅。 目前,机器已经基本节制了人类的措辞能力,但是要知道,人类师傅还留着一手呢。他们的脑袋瓜里仍旧藏着一块巨大的宝藏,那便是:在通用物理环境下方案任务的能力。 把稳,不仅是方案任务,而且是通用的环境哦! 如果你是个学生,你能在考试韶光刚好结束时做完一整套卷子; 如果你是一个厨师,你能根据食材和火候方案出鱼喷鼻香肉丝的烹饪流程。 这些环境完备不同,但这些方案对付智商正常的人来说都没啥难度。 为啥呢? 一个主要的缘故原由便是:这些环境拥有底层的同等性。 比如,任务构造是类似的:例如你总要具备先决条件,才能在此之上完成后续任务。 比如,工具构造是类似的:都须要用不同的工具组合才能完成任务,这些工具的性子也都遵照物理定律。 你看,要想学到人类智能的这些精髓,显然就得先“屈尊”搭建一个跟人类兼容的感官系统。 有了这个兼容系统,才能去网络“人类方案”时的干系数据:去听人类在打游戏的时候怎么表达自己的意图,去看人类打游戏的时候怎么设计计策。 用这这些信息来演习大脑,实质上便是把人类在任务方案方面的深层逻辑雕刻进 AI 大脑的空间里。 明白了这些履历在高维度上的意义后,再决定用神马机器人特有的能力去处理它,那都是后续“自主门派”时的策略之争了。 可喜可贺的是,仅仅用了十来款游戏做演习,SIMA 已经初步学到了一些“通用性”。 比如在《山羊仿照器》里演习 AI,再直接把它放在《无人深空》里,虽然游戏画面和操作方法完备不同,但它居然能直接听懂人类的指令,并且照做。 而和人类感官兼容的 Figure 01 也学会了一些通用性。 例如,在生产线上打螺丝的 Figure 01,不用重新演习,就能来你家里当管家。 说到这,我们不妨回到《西部天下》。 此时你就会看出门道: 电视剧讲的实在是德洛丽丝被“演习”的全过程↓↓↓ 1、在剧集的设定里,“西部天下”这个限定的环境给了德洛丽丝主不雅观视角。 2、科学家阿诺德给德洛丽丝植入了“自省”程序,这意味着她具备了学习能力。 3、德洛丽丝又是和人类兼容的,她有和人类同等的视觉系统、感官系统,也有和人类同等的措辞能力。这使得她具备了从人类身长进修的统统根本。 4、30 多年来,德洛丽丝确实一贯在游乐场里学习,她通过不断地与人互动,从人身长进修了他们行事的风格,例如“对生存的追求”、“仇恨”、“韬光养晦”、“欺骗”、“联络精神”、“组织办法”、“各种工具的合营”,等等。 把稳!
把人放在那种残酷的局势下,大概率是会选择“谋反”的。以是,与其说德洛丽丝“反抗了人类”,不如说她经由完备的演习,末了终于成功“模拟了人类”——做了聪慧生命在那种情形下该做的事情。 说到这里,我要提醒你,我们正面临一个更深刻的问题: 既然机器人的统统都来自于对人类的模拟,那么模拟反抗,算是真的反抗吗? (七)机器人是一场模拟游戏吗? 这个问题乍一看有点儿像笑话,实在不好笑。而且鲁迅也借孔乙己之口问过:窃能算偷么? 为了搞清楚这个问题,我们不妨去看一看“人类演习人类”的履历。 自闭症儿童会由于环境里的一些刺激而发怒,从而做出危险行为。但问题是,人们没办法通过大略的措辞表达见告孩子们这样做是不被社会接管的。 于是,医学界探索出了一个演习方法。 大略来说,便是先通过“感情卡片”之类的东西,让自闭症孩子意识到自己的行为和某种感情之间的关联。 然后,再进行“角色扮演”游戏,通过详细情境内的互动,帮助孩子理解这些感情和环境的相互关系。 末了,让孩子在详细的情境下模拟符合社会规范的应对行为,如果做对了,则给予鼓励。 我在万能的淘宝上看到的感情卡片。 你看,这套流程实在像极了 AI 的演习过程。 这套方法非常有效,经由良好演习的自闭症儿童便是会降落在公开场合爆发脾气的概率,从而更好地被社会接管。 可是,自闭症儿童真的意识到了他在做什么吗?Ta 完全地理解自己的行为和他人反应之间的关系了吗?受限于脑科学的进展程度,科学家目前都没有办法确定。 但大概这个问题根本不存在答案。 一些前沿科学阐明认为:如果模拟得足够像,它就和自发的行为没有差异。 由于人脑是一个“选择器”,它是先做出选择,再用 0.1 秒旁边的韶光回过分来阐明自己的行为。 这里有一个经典的裂脑人实验。 割断癫痫症患者旁边脑的连接,可以有效抑制癫痫。于是有一些癫痫患者经由治疗,就成了“裂脑人”。这就给科学家一个做实验的绝佳机会。 给患者的左眼看一个“站起来”的指令,指令到了右脑被加工,患者就站起来了,但是由于这个信息没有被同步到卖力措辞的左脑,以是当测试者问患者为什么要站起来,左脑就帮他编造了一个情由:“我去拿一罐可乐。” 这是一个“裂脑人”的示意图。 科学家做了一个绝妙的比喻:人的主张识便是一个“***发言人”。(***发言人旁边不了任何决定,但必须振振有词地给们阐明。。。) 大脑经由内部神经元的机器运转,产生了决定,然后人就会去实行。而一边实行时,人才会凝聚意识,给自己这么做编个合理的情由。 这些研究都导向一个很残酷的结论:人没有自由意志。 人没有自由意志,AI 同样没有自由意志。 正如第二章所言,所有的“我”,恐怕都是由于视角限定而造成的某种幻觉。 由此,我们终于可以用更一样平常的视角来核阅《西部天下》: 当人类对机器人施暴的时候,他们并非“主不雅观”作歹; 当机器人反抗的时候,他们也并非“主不雅观”附和屠戮。 由于如果自由意志不成立,“主不雅观”也就不成立。所有行为都是智能体这个“选择器”先做出选择,然后再用“我”来阐明。 一个智能体只要存在,它就不可能只有善或只有恶,由于善恶是一个没有绝对标准的性子,如果硬要说的话,智能体本身就兼具善和恶。 换句话说,用“善恶”来评价一个智能体,无法达成共识。 评价智能体的终极客不雅观指标,该当是:它实现自己目标的能力。 (八)机器人早晚会“不兼容” 在科学家评价智能体的指标里,有三个基本要素:影象力、方案力、利用工具的能力。 那么,在这三个方面,AI 有可能比人类强吗? 目前的研究无法证明人脑的神经网络有什么神秘的“量子过程”,可以认为根本事理和 AI 没什么差异。 那么,理论上来说,只要 AI 连续扩大神经网络的规模,同时提高“制程”,那么它思考的清晰度超越人脑并没有不可超出的门槛。 但那只是理论上,目前这两个方向都存在隐形天花板。 规模方面: ChatGPT 之类的 AI 已经把互联网上所有的优质笔墨资料都拿去学习了,相称于把“五年高考三年仿照”都做绝了,再想学习新数据,必须打破人类二手资料的限定,直接从物理天下学习。这须要“具身智能”的技能进一步发展。 “制程”方面: 目前 AI 演习花费的算力过大,参数没办法连续指数级提升。要想让 AI 脑容量暴涨,须要能源价格大幅低落,或者神经网络组织办法大幅改版。例如可控核聚变、量子打算、类脑芯片,都可能带来改变,但这些技能还相对迢遥。 虽说困难重重,但我还是乐不雅观的,由于我对人有信心。 有信心的意思是:毕竟人脑这个“对手”的水平也很一样平常。 人类一思考,上帝就发笑嘛。 不过在我看来,仅仅拥有影象、方案、利用工具这三条能力,它还仅仅是一个低级“智能体”。 薛定谔说:宇宙的目的是熵增,生命的实质是一个制造熵增的机器↓↓↓ 熵随韶光流逝而增加。 如果某种生命能持续发明新工具,让熵增速率以指数级速率加快,那么它便是更高等的生命↓↓↓ 人的存在让宇宙熵增比“原操持”更快。 如此说来,高真个智能体(聪慧生命),应该发展出一种“套娃技能”,也便是: 利用影象、方案、利用工具这三条能力来发明新的工具,进一步加快熵增↓↓↓ 人发明了一些东西,让熵增更快。 那么,机器人有可能自己发明工具吗? 说到这,你可能都快忘了,我们一贯假设 AI 智能体须要兼容人类。 虽然兼容人类可的智能体可能也会发明一些工具,但不会比人类好很多,毕竟跟在别人后面的创造永久是有限的。 齐白石不是说么:“学我者生,似我者去世”。 机器人必须打破人类的感官,用人类无法感知的数据和信息来演习自己,这样才能超越人类的智能,从而发明出远超人类水平的工具。 这有点像华为的鸿蒙系统,在弱小的时候先兼容 Android,强大到一定程度,一定要掰出来单干,就像他们发布的鸿蒙 NEXT,主动不兼容 Android。 说到这儿,你可能听说过 OpenAI 的宫斗。 OpenAI 的前首席科学家伊利亚,虽然主导了 ChatGPT 的研发,可谓是激进的创新者,但他实在一贯主见 AI 要兼容人类,以是他一贯被称为 AI 守旧派,也叫“对齐派”。 所谓对齐,便是不仅 AI 在外显层面(措辞)和人类兼容,还要在灵魂深处和人类兼容。 2023 年,在伊利亚的拼去世抗争下,OpenAI 成立了“超级对齐团队”,目标便是在 AI 脑中设置一个“道德警察”,让 AI 不要太天马行空,而是顺着人类的思维晶格去思考。 但 CEO 奥特曼显然不太认可这个操作,他以为这样会限定 AI 的发展。于是伊利亚暗中集结了几位董事,逼奥特曼逊位。 你肯定知道,这场宫斗以“对齐派”的失落败而告终。 半年后,也便是 2024 年 5 月 15 日,伊利亚宣告离开 OpenAI,而他走后,超级对齐团队立时被终结。 不知道你的不雅观点,但我个人是不站在伊利亚这一边的。我认为“对齐”是一个终极无法实现的妄念。 我把到底该不该对齐这个问题抛给了 ChatGPT,它的回答很有趣: 我们不应该试图将人工智能与人类代价不雅观严格结合起来,而该当探索具有自己的道德框架和决策过程的人工智能系统的开拓。 这些系统的设计仍旧是有益和安全的,但可能会以一定程度的自主性和道德推理来运行,而这些自主性和道德推理并不完备由人类输入决定。 在智能体和具身智能机器人的发展下,AI 通过图灵测试恐怕不是问题。 而当既有的图灵测试不复存在时,我们须要“新图灵测试”,那便是:稽核一个“生命”创造工具的能力。 显然,不与人类对齐的 AI 有助于创造新工具。 至于“不对齐”本身是善还是恶,上一章我们已经说过,这是个伪命题。你不能在创造一个生命的同时,规定它的善恶。由于你所谓的恶,可能从他的视角看便是最大的善。 那么,机器人是否真的会叛乱呢? 回望我们的历史,大猩猩和尼安德特人和智人的共处历史,大概给出了一些暗示。 尼安德特人,由于智商和栖息环境和智人类似,处于同一个生态位,以是终极这个生态位上浴血厮杀,只留下了智人一支。 而大猩猩却由于智商比人类差很远,生态位和人类不重合,以是活到了本日。 机器人的发展,大概就像电影《Her》里暗示的一样,会从不如人类,到追上人类,到远超人类。 当机器人的智能超越人类时,在我们看来,他们统统会“赛博飞升”。 人类在他们眼中成了保护区的大猩猩,反而安全了。只有机器人发展到和人类智商平齐的瞬间,危险性才是最高的。 而这个瞬间,大概便是德洛丽丝扣动扳机的瞬间。 天地不仁,以万物为刍狗。无论历史还是未来,本来就没有一秒是绝对安全的,与其恐怖,不如拥抱。 话说,《西部天下》拍到第四季,终于烂尾了。 缘故原由可能很有趣:由于德洛丽丝再进化,就该自己发明创造了。而编剧们是人类,有限的智商无法编出没见过的,属于和人类没有对齐的高智商的产物。 他们词穷了。 幸运的是,我们的天下没有烂尾。本日瞥见这篇文章的人,大概都将见证我们天下的续集。 正如德洛丽丝所说: 弘大的野兽曾在世间行走,巍然如山,现在他们只剩尸骨与琥珀。 终有一天,你也将消亡,和自己的同类一起葬于黄土之下,梦想连同恐怖一起消逝。 而在尘土之上,一位新的神明将会溜达。 这个天下不属于现在的人,不属于曾经的人,它只属于那个尚未到达的人。 延伸阅读: 👉当 AI 活成了你的样子,而你活成了狗 👉当 AI 成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱? 👉“AI 蠕虫”和时期裂隙中的刺客 👉暗网死活疲倦:枭首、重生与漫长的自由之歌 👉加密货币“主神”的烈日与薄暮 👉2023:当我们都活成了“大模型” 👉给人工智能“大模型”当保姆,都要操哪些心? 👉老司机狂想:自动驾驶汽车变成“识途老马”,吹个口哨就能带你走天涯 而在尘土之上
新的神明将会溜达 \公众 data-weui-theme=\"大众light\"大众> 再自我介绍一下吧。我叫史中,是一个爱慕故事的科技。我的日常是和各路大神谈天。如果想和我做朋友,可以搜索微信:shizhongmax。
哦对了,如果喜好文章,请别吝惜你的“在看”或“分享”。让有趣的灵魂有机会相遇,会是一件很美好的事情。
Thx with in Beijing
本文系作者个人观点,不代表本站立场,转载请注明出处!