来源丨https://www.zhihu.com/question/445383290

人工智能是不是走错了倾向?_人工智能_人类 云服务

编辑丨极市平台

原问题描述:

我不信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据
我不信大脑每天都在大量的模型演习或卷积,来深度学习认识一个东西。
小孩子不须要喂很多数据,看两三次就能认识什么是苹果,什么是橘子 (虽然不理解为什么是)。
神经元再少的动物,学习任何方向的任务都有主动性,而目前人工智能学习某一方向只是受控。
人类大脑也是电旗子暗记,但总觉得绝对不但是 0和1这种 二进制,是仿照旗子暗记吗?

我承认目前数学算法这种方向的人工智能,在生活中绝对有利用场景。

但要做出一个有主动思想的人工智能,基于目前冯·诺依曼架构的打算机,是否是无法实现?我们是否从根源方向就错了?

# 回答一

作者:Clyce

来源链接:https://www.zhihu.com/question/445383290/answer/1819194196

要回答题主的问题,我们首先要弄明白题主到底想问什么。

从问题结合描述来看,题主的疑问至少包含如下五层迷惑:

当古人工智能的运算构造和人类的大脑构造是否是同等/同构的?机器的学习过程一定是被动的吗?是否只有和人类大脑同等/同构的内部构造,才能得到同等或相似的外在表现?人工智能的精确方向和目的是什么?人工智能的方向走错了吗?

同时,鉴于题主的描述,我在此粗略地将题中的“人工智能”更换为“我们当前采纳的深度学习”

在回答这些问题之前,首先须要指出的是,人的判断应该基于对事实的不雅观察,而非大略的“我相信”或者“我不信”。

其余须要声明的是,我个人的专精领域是强化学习和打算机视觉,对付下文中提到的生物学、神经科学等领域的描述不一定能够做到完备准确,还望指出与谈论。

人类目前的”深度学习“在事情事理上与人脑有多少相似

接下来我们从第一层谈起,环绕题主的问题描述进行当古人工智能在事理上和人脑的关系。

我不信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据。

题主的第一条陈述包含了如下三个可谈论的议题:

人工智能利用傅里叶变换的场景中,傅里叶变换的目的是什么人类意识中是否包含了为相同目的而设立的处理机制人脑及其“周边构造中”中是否具备显式进行傅里叶变换打算的部分

对付机器系统中利用傅里叶变换的目的,不必做太多的阐明。
大多数情形下是对应的旗子暗记在频域空间下更随意马虎处理,或者展现出其在时域空间下难以提取的特色。
对付人工智能系统而言,傅里叶变换每每并非在系统中作为可学习部分,而是作为数据预处理的部分而存在。

那么反不雅观人类意识,对付旗子暗记在频域空间的处理,其最明显的例子便是对音频旗子暗记的处理了。
这一点可以从我们主不雅观对付音高的感想熏染去验证,而在解剖的层面上,同样可以找到对应的构造。
这一构造存在于我们的内耳而非大脑中——这一点同样和在“人工智能系统中”傅里叶变换部分常常涌如今数据的预处理而非可学习构造中保持同等——这一构造即是内耳的基底膜。
禁绝确地来讲,基底膜的两端松紧程度不同,导致基底膜的不同位置对不同的频率有其相应,而遍布基底膜的毛细胞则将膜各部分的振动反馈至听神经。
从这个角度讲,基底膜上的每个毛细胞反馈近似等价于傅里叶变换中的一个基。
于是我们上面的三个议题都得到理解答:构建人类意识的生物学构造中确实存在与傅里叶变换目的相同的、显式将旗子暗记从时域空间转换为频域空间的构造。

其余,人类大脑大部分区域的神经元链接,是脉冲激活模式,人工神经网络中对应的观点为Spiking Neural Network (SNN)。
在这种链接中,一个神经元的激活不仅仅取决于其接管的脉冲强度,同时也取决于脉冲的间隔和数量。
我并非SNN或神经科学方面的专家,但是这里我可以提出一种不雅观点,即Spiking Neural Network这样的激活模式天然地encode了部分频域空间上的信息。
如此不雅观点被证明成立,那么很可能意味着人脑在可学习的部分中,其隐空间同样在处理频域空间上的信息。

我不信大脑每天都在大量的模型演习或卷积,来深度学习认识一个东西

这里又是两个独立的议题:

大脑是否每天都在进行大量的模型演习大脑中是否存在卷积单元

对付1,我们从三方面看:

A: 大脑是否在每天持续地接管信息,是的。

B: 大脑是否在每天对这些信息进行学习,是的。

C: 大脑是否有专门进行演习而不接管信息的韶光。
在我理解的范畴内,根据现有的不雅观察和印证,人类的就寝深-浅就寝周期变革中,最紧张的浸染之一便是短期影象向长期影象的迁移、影象的反稠浊,以及具象观点向抽象观点的总结。

对付A与B,在现有的研究领域有一个类似的议题叫做Continual Learning,此处就不展开了。
题主大可以快速阅读一些相应的文献找到个中的对照。

对付2,大脑的视觉皮层中确实存在类似卷积的构造。
早在1962年,D. H. Hubel和T. N. Wiesel就创造了在猫的视觉皮层中,特定的一组神经元仅对特定角度的线条产生反应]。
进一步的研究显示这些被称为Columns的构造存在分外的组织性以及独特的感想熏染野分布。
下面这张图是V1视觉皮层的一张示意图:

如图所示,V1皮层中,神经细胞以左眼-右眼不断交错排列。
每个细胞拥有自己的感想熏染野且每一组细胞只对特定的方向敏感,同一个Columns内的不同细胞则对该方向的不同尺寸敏感。
合营跨Columns的long range connection,进一步组织出对不同曲率曲线敏感的神经旗子暗记。

小孩子不须要喂很多数据,看两三次就能认识什么是苹果,什么是橘子 (虽然不理解为什么是)。

这一句让我去看了一眼问题的发布韶光,是在2021年2月。
那么可以肯定的是题主对付深度学习的认知依旧勾留在多少年前。
这里我并不是想说现在的深度学习不用喂很多数据,而是现有的“当红”研究领域中,存在专门针对这类问题的研究,即Few-shot/One-shot Learning及Zero-shotLearning. 题主如果有兴趣和耐心,可以对个中的内容进行理解。

以最近被广泛研究的Contrastive Learning为例,其核心理念在于让输入数据在神经网络中的表示间隔随数据的异同进行变革。
对付源自相同数据,或应该做出相同判断的数据,让其表示间隔只管即便靠近,而反之则只管即便阔别。
在这种情形下,神经网络对付数据输出的表示向量隐式包含了对付其目标信息的预测。
对付新类别的数据,神经网络也将方向于输出不同于原有类别的表示向量。
这一在表示空间中近似于kNN的做法,使得神经网络对付后续新种别数据无需大量数据的监督演习,也能给出较好的预测。

在Few-shot/One-shot/Zero-shot领域里,较为著名的、有所说服力的,运用级别的案例即是OpenAI近期发布的两大怪兽GPT-3和DALL-E,这两个网络在充分进行预演习的根本之上,已经达到了非常显著的“举一反三”的学习效果。

有些人可能会辩论说,上文中指出的方案和案例,都包含了长期大量的预演习。
而人脑则不须要这样的预演习。
我个人认为这样的不雅观点是缺点的,和神经网络等价的预演习可以发生在:

人类自身长期的进化进程中:预演习的意义在于集成大量的Prior并供应一个良好的初始参数。
这一过程是由梯度传播达成的,还是通过进化搜索完成的,并不主要。
婴儿期间对天下反复的交互不雅观察中:婴儿期间的人类会以交互的办法对天下的运行规律进行大量的不雅观察和总结(unsupervised learning)机器的学习办法是被动的吗?

至此,我逐一谈论(批驳)了楼主的前三条问题描述,接下来我们进入第二层:机器的学习办法一定是被动的吗?

结合题主的核心问题(人工智能是不是走错了方向),这一问题的展开中还包含两个潜藏问题:学习主动性是智能的必要条件吗?什么样的学习才叫主动的学习?

对付第一个潜藏问题,我认为是一个哲学意义上的Open Question,它直指智能的核心定义。
在此我不直接抛出结论,而是通过对第二个潜藏问题的谈论来引发思考。
什么样的学习才叫主动的学习?

直觉上来说,我们假设具备主动性的学习是自发地去探索、剖析、总结这个天下,并且在环境对自身的反馈中调度自身的策略的过程。

如果以上面的话来定义主动性的学习,那么无论是给AI一个爬虫去对Web上的数据进行主动获取,并进行无监督学习,还是让一个Agent在特定或开放的环境中进行强化学习,都可以认为是符合上面定义的。

这里有人可能会回嘴说,一个爬虫对Web上的数据进行获取的行为是由程序设定好的,而对其进行的无监督学习也是有一定标准的(比如一个潜在的能量函数)。
而对付强化学习,则是一个由褒奖函数驱动的学习过程。
对付这样的不雅观点,我们可以如此思考:当我们认为人类在主动获取知识的时候,我们的“主动学习”过程,真的是无外部目标、无内在机制、无成分驱动的吗?答案显然是否定的。
我们可能会认为我们“自发地”想要完成一件事情——比如写一篇知乎答案。
而这种“自发”实质上是由一系列的心态驱动的,比如渴望得到认同,渴望拓宽眼界,渴望增强互换。
这些心态的自然产生是我们进化的结果——对付群居习气的人类,更强的认同、更频繁的互换和更多的知识意味着生存概率的提高,以是这些心态同样产生自一系列设定好的”程序“——被我们称之为本能的,以”活下去“为终极目的的繁芜程序。
而为了构建这样一套程序,我们人类也在大脑内部构建起了繁芜的内在机制,比如多巴胺褒奖机制。
那么同样的,如果存在一个方法去修正这一内在机制,或者纯挚地修正我们的”褒奖函数“,这个方法就可以险些彻底地毁掉我们原有的思维、行为办法 —— 某些化学物质在此处便也充当了”黑客攻击“的角色。

其余一说,如果我们真的将主动性的学习定义为不存在任务目标的学习,那么这里就会碰着一个inductive bias的问题。
事实上无论哪种学习模式,任务目标即是该学习系统中最核心的Inductive Bias——它包含了“我在学习的东西是故意义的”这样一个假设,以及“意义在哪里”的干系信息。
在任意情形下,不包含任何inductive bias的系统是不具备学习能力的。
人类智能的inductive bias同样明显:从行为学习的角度来看,reward shaping和生存概率直接干系;而对付视觉、听觉等感官旗子暗记处理等方面,上文也已经给出了详尽的论述。

其余,在机器学习领域中,也确实存在叫做主动学习(Active Learning)的研究领域。
这个领域的目的在于利用只管即便少的数据标注,得到只管即便准确的结果。
一种非常普遍的办法为,以一套机制,让一个别系去探求性价比最高的学习数据。
比如在一个分类问题中,一个主动学习系统每每不须要对所有数据进行标注,而是找到”标注后可能信息量最大的数据“,并要求对这些数据进行标注。
在学习了这些”范例数据“后,模型的分类准确率即大幅提升。
这一过程相似于我们在学校中学习时,故意地去探求范例例题,以便加深理解。

回到题主的问题,在题主的问题描述4中,有非常主要的一段话:

人工智能学习某一方向只是受控

这句话是错的吗,并不尽然。
人工智能的学习确实大多有着明确的外在目的、内在机制,和由目的驱动的频繁调优。
但这一点和人类智能的差别并非实质性的,而是程度上的。
经由上面的谈论我们明白人类的学习和决策同样有着明确的外在目的和内在机制,差异在于人类的学习和决策是多模态的,即其同时在各种不同类型的数据、不同类型的任务上进行学习和决策。
这一点确实是当古人工智能所短缺的。
但我们不能因此认为人工智能走错了方向——这是全体领域一贯在考试测验办理,但还没有一个公认的完善方案的开放问题,由此问题派生出来的领域包括多模态学习,多任务学习,连续/终生学习等等,这些领域都是当前研究的方向。

是否只有和人脑完备同等的内在事理,才能拥有智能

题主的前4个问题剖析完了,接下来的谈论不仅针对题主描述中的第5点,同时也贯穿全体问题的核心,也便是一个别系拥有智能的先决条件,是不是其和人类的大脑拥有相同的内在事理。

这一问题的实质事实上包含了我们对”智能“的_定义_和_期待_。
但是遗憾的是,事实上到现在,当我们评论辩论智能时,我们始终也无法给”智能“一个统一的明确定义。
对付其定义的不合不仅仅无法在不同领域间得到统一,乃至在同一个领域中,比如生理学上,也存在着耐久不衰的辩论。

那么,是否在统一智能的定义之前,这一问题就无法回答了呢?答案是否定的。
由于对付”智能“的定义有一个共同的特性。
在解释这一特性之前,许可我举几个例子:

对付人类智商的测定常日是通过一套精心设计的,有关各个能力的问题,来稽核人们办理这些问题的能力Intelligence这一词来自拉丁语Intelligere,意为理解与感知。
生理学中对智能的定义虽然并分歧一,但在行为方面,每每环绕自我驱动力、判断力、方案能力等展开,而在思想方面环绕主动性、理性决策、系统性推理、信息的解构比较与整合,以及高等、繁芜的适应性等方面展开对付非人类生物的智力研究,每每在于设计各种实验以不雅观察动物对付外部繁芜条件的反馈、长序列事宜的学习模拟以及对付特定抽象观点(如自我、数字等)的认知

从以上四个例子我们不丢脸出,对付对付智能的定义均环绕其表现以及抽象事情办法而非硬件事理展开。
至于神经科学等领域,其关注的问题更加方向于How,而非What。

那么从这里来看,我们是否可以如此认为:一个与外部环境交互过程中显现出智能的系统,即是有智能的,而不论其内部事理如何呢?

从我粗鄙的哲学功底来讲,现在还不敢下定如此暴论。
但至少,通过上面总结出的方向,我们可以认为人类对付“智能”的期待确实是表示在其外在表现上的。
既然我们谈论的问题根本在于“人工智能是否走错了方向”,那么我认为,以“期待”替代“定义”去谈论,在此处是合理的。

既然我们确定了这样的期待,我们便可以做如下的谈论:是不是只有在一个别系在硬件事理上和人脑同等的情形下,才能如我们期待般地与外部环境发生智能性的交互呢?

答案显然是否定的,不仅仅在于智能,任何系统在给定一个预期行为的背后,都可能包含不止一种实现。
一辆车可以以蒸汽驱动,可以由汽油驱动,可以由柴油驱动;相同含义的一段话可以用中文、英文乃至是任何一种自创的措辞表达。
一段数据可以在内存中表达为眇小电容中的电压,可以在硬盘中表达为局部的磁性。
从更高层次来讲,对付一个能够被表述的意义,我们总能将其以不同的办法表达成不同的实现,这些实现互相同构,这些实现共同张成为这个意义对应的编码空间,而从意义到实现的映射,不同实现之间的映射,以及实现到意义之间的映射,我们称之为编码/解码。
(在这一视角里,信息的载体也被抽象化为信息)

诚然,部分编码-解码是有损的,如数字旗子暗记的离散表示空间确实无法完备精确地还原连续空间中的仿照旗子暗记,但是对付智能这一问题来说,信息的损耗造成的偏差是可容忍的。
证明如下:

我们认为大部分人类是拥有智能的若我们引入一个向量空间Q表示人类在各个方面的智力, 则每一个个体为该向量空间中的一个向 量对付人类个体 , 存在个体 使得 到 之间的任意揷值 , 都可以认为是有智能的则在这一起径上 的偏差是可以容忍的

实在上面谈论了这么多,也可以由一个例子来表述:

人类已经对部分生物的神经系统得到了完全的模型,将这一模型放进打算机中仿照,仅仅由于载体变革了这一模型就不能如预期事情了吗?

末了让我们回到所有问题的核心上来,

人工智能的方向是什么?

对付这个核心问题,事实上“人工智能”这一词汇本身是包含着误导性的浪漫主义色彩的。
每每听到这样的词汇大家总是关注于“智能”而非“人工”上,从而遐想到文学、影视作品中那些或可以与你匆匆膝长谈互换人生,或可以得到求生欲然后把你的天下毁于一旦的那些与人无异的个体。
诚然,人类最大的浪漫之一便是人类至今仍在潜意识里相信着自己是分外的,人性是有着“神性”的。
人类对“智能”的预期也在于自己能够产生同理心范畴内的智能(对付人类不能产生同理心的,人们将其归于“繁芜的征象”,而非“智能”)。

如果我们把目的纯挚地划为构建这样的智能系统,那么只有小部分的研究(比如人工生命,以及虚拟伴侣)符合我们的梦想。
但如果我们把我们的思绪从浪漫主义的遐想中拉回来,关注到“人工”这个词上来,关注到我们磋商的我们对“智能”的现实期待上来,我们完备可以认为现在的发展方向是没有问题的。
无论过去,现在,还是可以预见的未来,“人工”的事物,或者说“人的造物”,永久在于为人类做事——或者说得幽美一些,帮助人类更好地完成任务。
在我的不雅观点中,人类的劳动分为几个层次:

机器性劳动:即有固定模式的“手作”掌握性劳动:通过对机器稀疏地掌握、操作,将高重复性的劳动交予机器方案性劳动:根据详细的需求,产生策略;或根据目的,给出详细的实现,从而将掌握也能够自动化创作性劳动:包含哲学思考、艺术创作、科学研究等上层精神活动的行为

工业革命的本色是将人类的大部分从1中解放出来,而走向2;信息革命则将人类进一步从2中解放,迈向3。
从这样的发展路线上来看,我们当前的人工智能几大紧张派生方向:自动化掌握、目的性分类识别、内容天生,可以说是正在考试测验将人类从3中解放出来,乃至进一步启示4的。

将这样的“人工”和上文中谈论的“对智能的期待”结合起来,人工智能发展的预期方向我们可以总结为:

构建一个别系,使其能够在只管即便少的人力干预下,能够对既有数据自动进行剖析、提炼、总结,从而能够产生自己的策略,或在无须人工给予详细实现的情形下完成对应的任务。

而这,正是现在当红的研究领域如Self-supervised Learning所做的事。

那么,现在人工智能发展方向就完美了么

经由上面这么一说,彷佛现在的人工智能已经完美了,已经实实在在地落在带人类由3型劳动跃向4的轨迹上了。
真的是这样的吗?

既然已经提出了这样的设问,那么答案自然是否定的。
当古人工智能依旧存在许多未能办理的关键问题,比如:

逻辑推断与基于逻辑推断办理问题的能力:关于这方面的研究从未停滞,却一贯处于起步阶段。
早期的符号派以及后来的贝叶斯派曾花费大量的精力在这一类问题上,但构建出来的系统常日缺少可泛化性或性能低下。
近期的图神经网络可以说是有进行逻辑推断的潜力,但对付开放性、高性能的普遍逻辑推断智能依旧没有令人满意的答案。
前几年的神经图灵机通过将把稳力模型映射到模糊存取结合神经门控构造,对大略算法有一定的学习能力,但是对付繁芜问题的办理,其依旧无力。
自我描述的能力,不同于通过剖析特色显著性来进行可阐明的机器学习。
人们常日更期待一个别系能够以一定办法自行输出其做出判断的依据。
比如给定一张马的图片,和一张独角兽的图片,我们更期待系统能够输出“前者没有角”这样的答案。
所幸当前的部分研究,无论是Siamese Network干系的研究,还是Capsule Network这一类“一组神经唯一代表一个特性”的研究,确实是缓慢像这个方向靠拢的没人能够担保完备当前基于梯度传播的深度学习一定是通往梦想中的人工智能(各种意义上)的最佳路径,虽然我们也并不须要为了精确复刻人脑而全部押注到SNN干系的研究上。
但是我们学者确实须要有动机和胆识去打破舒适区,去在各种不同的模型,以及相应的智能理论中探求启示。
不应某个模型位居上风就将其他研究丢弃乃至嗤之以鼻,科学向来不是取一舍一的流派战役,而是不同领域专精的人相互互助,不同视角的不雅观念彼此整合,共同提炼更优方案的领域。
一点私货

对付人类自身带有浪漫主义色彩的,对付“未来机器人”的遐想中的人工智能(也即是“强智能”),我末了说一点点私货,下面的仅代表个人不雅观点:

关于“机器产生自我意识”这一点,首先我个人而言并不认为自我意识是强智能的充分条件。
这一点可以从“蚂蚁通过镜子测试”这一点得到印证——蚂蚁能够认出镜子中的影像是自己,但是常日我们不认为蚂蚁拥有充分的“智力”。
但是反过来,我认为自我意识确实是强智能的必要条件(也便是说,我并不完备赞许彼得·沃兹所著小说《盲视》中的不雅观点)。
一个别系必须能够对自我进行不雅观察,才能在开放性的环境中做出有方案性的调度。
换言之,对自身思考、行为的不雅观察即事后主动反思、复盘的能力,这一能力将极大地加速学习过程,并且在我看来才是“主动性”的根本性差异所在。
但是上面所磋商的“自我意识”仅包含“自知”,并不包含自我表达(可阐明性)与自我映射(同理心),也即是系统仅须要具备对其内部信息构造进行不雅观察的能力,而无需将其以人类能够理解的办法表述出来的能力。
根据上面的剖析来看,对付部分元学习、梯度学习干系的研究,以及包含预测模型的预演习模型,乃至于很早就存在于强化学习中的Actor-Critic模型,这些模型存在对自我的内在信息进行进一步不雅观察、完善的能力,虽然不能说拥有自我意识,但是是存在自我意识的雏形的。
末了,关于求生欲/繁殖欲,我不认为这是一个强智能的充分或必要条件。
缘故原由很大略,这是我们地球上的生物之智能的终极目的,我们的所有行为决策、所有褒奖函数均环绕这一目的展开。
也便是说,这是我们这一智能的“任务”,我们的智能环绕这一任务构建。
而智能本身并不以详细任务为转移,其他的智能可以有其他的任务,只是我们自己的任务是活下去,延续下去。
仅此而已。
关于人工智能的目的,我前面的阐述较为“现实”,较为“功利主义”。
我相信,人工智能的发展还有一些更多的,更加浪漫的浸染,比如帮助我们认清我们自己的思维,乃至于更加靠近这个天下的实质——我并不认为思想的实质(内部)和天下的实质(外部)是可以分割的——这是我自己进入这个领域的根本缘故原由。
末了,关于这个问题本身。
常日我们说一个东西的对错时包含两层含义:1. 这个东西与客不雅观事实的同等性,2. 这个东西与人们对其的期待的同等性。
在上文的所有谈论中,有一个十分主要的核心成分,即是当前“智能”的定义尚不明确,或者说,智能实质上是一个人为构建的观点而非某个有着明确边界的客不雅观存在。
以是上文的所有谈论以“期待”替代“定义”,而对付问题“人工智能是否走错了方向”,其一句话回答应该是:当前的人工智能发展方向,与人类业界对付人工智能的期待,目前来说,大体上是同等的。

# 回答二

作者:霍华德

来源链接:https://www.zhihu.com/question/445383290/answer/1855438656

结论:绝对没有走错

谁见告你现在人工智能须要做傅里叶变换的,视觉靠CNN和transformer,都和傅里叶变换非常不一样。
靠傅里叶变换的视觉是啥,是压缩算法,离散余弦变换(Discrete Cosine Transform)那套东西,和现在的深度学习根本不是一回事。
声音数据,以前的确会用STFT(Short-time Fourier transform)做一下预处理,转化成频谱图再进一步学习。
但现在基于waveform的模型也弗成偻指算,效果完备不逊于频谱图。
大脑绝对有演习机制,只是无非不靠反向传播和梯度罢了,但脑科学的研究里基于神经可塑性的学习机制早就被证明了。
并且衍生出脉冲神经网络SNN那一套东西。
从数学上,完备可以证明SNN和DNN、CNN的某些等价性。
小孩子不须要大量数据就可以认识橘子苹果,那是由于小孩子自带一个超大的经由人类上万年演习的预演习模型,小孩的脑筋可不是随机初始化的,是通过DNA里所携带的信息来进行参数初始化的。
在人类蜕变过程中,视觉的预演习信息通过某种办法已经编码到DNA里了,虽然不知道是什么机制,但每每想到,我都觉得受到很大震荡。
你所说的主动性,在我看来是一种agent和环境交互的表述。
现在人工智能里的强化学习,完备便是在做这个方向的研究。
阿尔法狗也是基于这种深度强化学习搞出来的。
只要我们在规则中设置reward,就可以让人工智能系统在很多方面得到主动性。
想想人类为啥好色,为啥对交配那么有主动性,还不是由于啪啪啪爽有reward,你给机器人设置个啪啪啪的reward,机器人瞬间很主动,你信不信。
神经元之间是电旗子暗记,但经由突触是有阈值的,大于阈值的是1,小于阈值的是0。
电脑旗子暗记最初也是仿照旗子暗记,然后设置个阈值,把高电平定义为1或者0,你当一开就都是0和1二进制的?