宋华振:智慧的疆界-人还是机器厉害?

机器人培训 2020-02-29 09:11www.robotxin.com机器人培训
 

导语在一个AI发展如此迅速的年代,太多的关于人工智能的词汇出现在我们的生活中,处处弥漫着人工智能将会替代人类的焦虑声,以及各种标称高端大气上档次的智能大会,另一个方面,也希望了解究竟何为人工智能,其将如何影响制造业?对此的种种好奇与质疑使得我选择了一本书开始这个阅读的过程,为了把阅读的东西汇集可以分享,有空的时候就写个笔记,此文纯粹是一个不明觉厉下的笔记。

 


       此过去半年,花费了一点时间阅读了一些关于人工智能、机器学习方面的书籍,其中有一本周志明先生的《智慧的疆界-从图灵到人工智能》挺有意思,写的比较有趣,对于缺乏数学功底的人来说还是能读进去的,结合其他的书来分享一下这本书。
 

       个人觉得这本书比较好在于可阅读性比较好,实际上,人工智能这个话题基本上是一个数学话题,,如果没点数学功底就像周志华老师的《机器学习》虽然已经很简单但仍然对于大部分人来说比较困难,而这本书尽量避免了对数学的展开描述,,提高了可阅读性。
 

       另一个方面,作者的线条比较清晰,从历史的视角看待了人工智能的提出背景、发展的流派、还以人工智能发展简史结束,让我们能够全景的看待这个问题。
 


 

       结合人工智能、机器学习,我们去观测制造业对于AI目前的一些看法,想表明的观点在于“人工智能”中的“人工”扮演更为重要的角色,尤其是在工业领域,有称“人工的智能”,就现阶段而言,人工智能的确是离不开人在其中扮演的角色,即或未来发展,仍然会如此。
 

       在蛮荒之地寻找智能
 

       马文.明斯基(MarvinMinsky)和麦卡锡(John Macarthy)两位哥们为了度过他们的博士一个暑假,在1956年夏季组织了一场学术会议,史称“达特茅斯会议“,参加会议的包括了香农(Shannon)、司马贺(Herbert Simon)、艾伦.纽厄尔(AllenNeell)、阿瑟.塞缪尔(Arthur Samuel)、雷.所罗门诺夫(Ray Solomonoff)。说起这些名字,在人工智能领域都是执一方之牛耳朵的大咖。
 

       ▲1956年的达特茅斯夏季会议的人工智能大佬们
 

       之所以把此次会议定义为“人工智能“的开始,因为在这次会议上提出了”人工智能“这个词,大概这就是此次会议最大的成果,,这次会议的这帮大佬构成了人工智能初期的江湖。
 

       比较有意思的是在这些人在试图利用计算机来处理“人工智能“—要知道,这个时间是在1956年,即使计算机也不过在1946年ENIAC才开发出来没多久,以那个时代的计算机处理能力,这么些大佬的研究于今天看来实在超前,,这也使得在过去的数十年里,人工智能作为一个热词经历了很多次的波谷,人们说科技的创新Gatner曲线是一个S形的,只是人工智能这个方向简直就是一个典型的波浪式前进的过程,经历了许多起起伏伏,至今仍然被多的质疑。
 

       了这里的牛人都值的一提,像香农这样的“信息论“奠基者就不说了,其中有个司马贺,这个名字是他自己给自己起的中文名,据说这个哥们懂7国语言,9个博士学位,而且分别以心理学家拿过心理学界最高的奖,还拿过诺贝尔经济学奖,因为人工智能领域的成就拿过图领奖,了他本身是政治学博士出身,在1995年他成为第一届中国科学院6名外籍院士之一。
 

       早期的人工智能主要在完全信息对抗、模式识别、自然语言的人机对话这些方向。
 


 

       ELIZA是最早的可以与人聊天的程序,在1965年出现的,它在今天人们看来极其简陋,,有一个词汇产生称为“ELIZA“效应—就是过分解读机器的能力,说的就是那会,大家把机器人想的过于强大,实际上,现在任何一个小孩都可以写出这个程序(在那个年代这是开创性的)。
 

       三大流派的故事
 

       在人工智能的发展历史上,出现过三个主要的学派争鸣,符号主义、连接主义和行为主义。要说起这三个学派,其中符号主义感觉就是想模拟人的大脑的推理过程,而连接主义则企图通过将人的神经元推理过程对应在机器的智能中,行为主义则比较简单,不考虑什么推理过程,神经结构,就是看结果,然后去调节—学工业控制的大概不陌生—PID闭环控制就这个思路。
 

       这三个学派的发展历史就是人工智能的演进史,也出现了各种起伏波动,甚至停滞,,观察其过程,你可能都会觉得符号主义看样子还没有死,因为在不久的将来也许它还会卷土重来。
 

       1.符号主义学派
 

       符号是一切智能活动的源头、它是人工智能里不容置疑的核心,这是纽厄尔和司马贺在1975年的《作为经验主义探究的计算机科学:符号与查询》中的核心描述,为了实现智能,符号主义利用“符号”来抽象表示现实世界,利用逻辑推理和搜索来替代人类大脑的思考及认知过程,而不去关注现实中大脑的神经网络结构,也不关注大脑是不是通过逻辑运算来完成思考和认知。
 

       符号主义学派核心思想“认知即计算”,对于符号主义的着手点在于将知识以形式主义的语言精准描述,然后给计算机,计算机实在在这些知识上的演绎推理然后形成新的未知知识,即“描述已知,推理未知”。1960年麦卡锡发表了《递归函数的符号表达式以及由计机器运算的方式,PartI》论文构建了一个语言体系称为LISP—LISP及其变种Clojure直至下仍然是一门活跃的语言用于开发人工智能程序。LISP是仅次于Fortran的第二悠久的编程语言。
 

       1975年厄尼尔和司马贺在图领奖颁奖的《作为经验主义探究的计算机科学符号与查询》中提出符号主义核心观点即“认知的本质是处理符号,推理就是采用启发式及启发式搜索对问题求解的过程”—这也是符号主义命名的关键节点。
 

       尽管这个非常有效,,对于这种基于逻辑推理寻找智能而言,必须依赖于先验知识,只能依靠“死记硬背”的方式来处理,,对于开放的问题则就无能为力了。
 

       ,知识表示、知识工程和专家系统成为了下一步符号主义进行攻关的关键,包括框架理论、语义网络都被研究出来引入到智能中,而到了1977年费根鲍姆提出了知识工程(Knoledge Engineering)的概念让计算机对那些原本需要专家还是才能解决的应用问题提供求解的手段。符号主义从此进入知识期,然后就出现了基于知识的系统,一般都分为知识库和推理引擎,知识库用于计算机中反映出真实世界的还是,而推理引擎则负责使用知识库中的内容进行推理求解。包括大家听过的那些名词“决策支持系统”、“专家系统”、“推荐系统”……现在想想我们20多年前就听到的那些概念居然都是人家再20多年前的概念。
 

       不过,人类历史上吹牛逼的时候也真多,那个年代人们就开始担忧机器代替人,和今天的场景一样,好像人类的前景多么不堪,不过,这样的故事在70年前就已经上演了…可是,知识工程缺乏领域专家,使得其极其缺乏可行性—看来,还是真正的专家,人太少了。
 

       ,发现推理、知识的确很重要,学习仍然是非常重要的,,对于符号主义经历了推理、知识期还是又回到了学习这个问题上,因为人类的智力其实表现在学习、记忆、思考能力,必须将这三项能力对应为计算机,计算机通过学习获取知识改进系统,通过形式化手段描述并存储知识,通过逻辑推理基于已有知识产生新的知识,人工智能的探索就是如何让机器拥有自我学习的能力。
 

       基于规则的学习,即寻找隐藏在样本数据后的规律,决策树,这种符号主义的学习会生成一个“白盒”模型,易于解释,而目前流行的“神经网络”则输出“黑盒模型”,不便于解释。
 

       ▲ 司马贺与纽维尔
 

       符号主义存在的问题在于它仅能对特定问题、可以被形式化的框架性问题有效,而对于更为通用的、复杂的则无法把握内在本质,且会造成运算量极其巨大,即便今天的计算能力如此强大仍然无法真正解决算力问题,还是有点难度的,第二点在于NP完全问题困扰,使得指数级增长的算力要求可能今后只能通过量子计算来突破了,至少今天的算力还是达不到的。据说只能寄望于未来的“量子计算”大概能够解决了。
 

       2.连接主义学派
 

       如果说符号主义是想让机器去模拟人的心智过程,而不追求与人类相同的思维过程,那么另一个学派则是以研究人类大脑神经网络结构,主张从生物结构角度出发,让机器先去模拟人脑构造,再从中获得智能。
 

       神经学科研究了人的大脑神经元细胞的结构,包括了“树突”(Dendrities)受到外部刺激达到一定阈值沿着轴突(Axon)方向向其他神经元放电,发出脉冲信号,刺激触突(Synapse)和其它相连接的其它神经元细胞树突交换神经递质来完成信息传递。神经元细胞发送电脉冲的前提,是必须有足量的邻近神经细胞通过神经突触向其他传递信号,这种信号发送是离散的、二元的,就可以理解为逻辑上的“与”“或”“非”逻辑门计算过程。
 


 

       人们试图将神经元的这种生物结构延伸至计算机的计算过程。
 

       沃尔特.皮茨(Walter Pitts)和他的朋友麦克诺克(Warren McCulloch)一起构造了一种能够完全通过神经元连接的网络来进行逻辑运算的模型,这个模型展示了人类大脑能够实现任何可能的逻辑运算。发表了《神经活动中内在思想的逻辑验算》,在这个文章中提出了“神经网络“(Neural Netork)概念,神经网络以神经元为最小的信息处理单元,把神经元的工作过程简化为一个非常直接,及出货后的运算模型,称为M-P神经元模型。
 

       神经网络是个啥?
 

       这个词实在流行了太久了…在20年前好像就有人跟我讲guo,在下图这个模型中,一个神经元会接受多个来自其他神经元传递过来的输入信号,不同的Input重要性差别—通过权重(Weight)表示,神经元将输入按照加权求和,并将结果与自身的激发阈值(Threshold)比较,根据大小决定是否输出结果,单个M-P神经元如下图,后来在控制论大拿维纳的指导下,皮茨决定采用概率论来为这个神经元奠定一个模型,而后来又出现了一个著名的蛙眼实验,因为神经元网络被认为是解决了人的大脑运作过程,,蛙眼实验却告诉他们其实人脑并非这样运作的,因为蛙眼其实传递的信息是已经经过处理的,传递给大脑的,大脑并非唯一的处理机构,尽管这个实验对皮茨的这个架构产生了大的负面影响,,皮茨和麦克诺克所建立的神经元网络的思想仍然泛着智慧的光辉,并影响深远。
 


 

       1957年,罗森布拉特在一台计算机上模拟实现了“感知机”的神经网络模型,这个模型简单的将一组M-P神经网络平铺排列,结合赫布算法,做到了不依赖编程,靠机器学习完成与模式识别任务,1962年罗森布拉特出版了《神经动力学原理感知机和大脑机制的理论》,成为连接主义的圣经,另一位人工智能大师级的人物明斯基与罗森布拉特因为学术上的争斗,专门写了一本书《感知机计算几何导论》对感知机进行了攻击,从数学和逻辑上证明罗森布拉特的理论具有重大的局限,没有什么发展前途。明斯基认为在神经网络中的隐层每增加一个新引入的连接数量会急剧膨胀,即使只考虑网络中只有前向连接,每一层神经元都只与下一层发生连接,其产生的连接数量也是天文数字,无法计算。
 

       而人工智能也因为神经网络的这种计算问题—可以理解,也可以想象,在计算机的计算能力非常弱的70年代时期,神经网络所需要的算力是无法实现的,即使今天这也并非易事。
 

       3.行为主义学派
 

       行为主义的学派,则是由“控制论“的大家维纳先生领衔,尽管很多控制工程把维纳作为这个领域的创始人,不过,控制论本身研究的并非只是机电控制工程领域的话题,,其闭环思想倒是具有普遍的适用性,关于这个部分的实践让我们清晰的意识到”控制工程“一直在”智能“方向行走,这给我们两个启发
 

       (1).自动化领域一直是走在智能的前沿,事实上目前的“人工智能“似乎成为了计算机工程的一个重要领域,而实际上,控制工程一直走在这个领域,用于解决工业中的问题,包括PID同样也是一种数据驱动型的控制方法,而MPC的控制在今天的控制领域仍然大量应用,而PID和MPC占据了大部分的控制算法的应用场景,而这些都属于”智能“的方向,,自动化领域一直处于”智能“的前沿,在我刚进大学的时候,计算机专业还是”自动化“院系的一个专业方向,,随着计算机软件的快速发展才使得其成为了一个更为热门而独立的学科方向。
 


 

       今天很多提及的边缘计算应用于工业场景,由此看来,具有先天的优势,因为在这个架构中,原有的控制算法本身就是一种典型的感知(测量)、连接(通信)、控制、反馈的过程,而这个过程与行为主义研究智能应用于工业的优化、参数寻优、机器学习具有先天的一致性,并且由于OT端连接更接近于物理对象的对象与模型,直接获得数据并由算法对这些控制过程中的数据进行学习,并达到预测、寻优的目的。
 

       (2).通信、连接伴随着整个控制的发展数据采集、通信就一直伴随着控制与执行,自动化本身涵盖了整个智能的所有过程,数据采集、现场总线、控制器(PLC和DCS)、执行机构(电机/驱动,机器人),,通信、连接同样是今天数据智能在工业应用中不可缺少的环节。
 

       起来就是说连接主义在研究“大脑”(Brian),使用的是仿生方法,通过模拟生物的脑部组织结构去寻找智能,而符号主义则在研究“心智”(Mind)--它主要使用的是逻辑推理和验算方法,解析物理符号系统假说和启发式搜索寻找智能,仅关心承载智能的心里结构和逻辑结构,行为主义则在研究“行为”(Action),各自有它的研究方向,通过环境反馈和智能行为之间的因果关联去寻找智能,既不关心智能的载体和生理结构,也不关心逻辑和心理结构,只关心可观察的行为表现。
 

       机器学习—人扮演的角色是什么?
 

       机器学习是最近我们在制造业里最为广泛的词汇,人们试图将机器学习这种智能部署在边缘计算侧、云计算架构中,用于来实现对生产制造现场的优化,不过,如果我们观察整个机器学习的过程,就会发现,其实,在这个过程中,人所扮演的角色要远大于机器本身,可以这么理解,机器仍然是在用“蛮力“在计算,处理大量的数据,而对于如何构建这个学习过程则人要重要的多。
 


 

       关于数据的预处理(DataPreparation),这是一个数据的规范化和筛选的过程,目的是保证数据的正确、并且合适,以便后续的建模、优化等步骤可以获得高质量的数据,保证“正确“称为”数据清洗“,而确保合适则指”特征选择)-Feature Selection,实际上,目前在整个工业领域数据源非常复杂,有来自直接的信号、有来自不同的总线,必须让这些数据具有相同的数据结构、特征值单位、表示精度等方面的一致性。
 

       就像在机器视觉里,我们的目的在于“ROI“—就是我们感兴趣的那部分,即达到获得最大的目标特征对比度,而对不相关的则让它可以忽略。
 

       我们必须放弃掉对结果影响轻微的特征,挑选出对结果有决定性影响的关键特征,提供给建模阶段作为模型输入使用。
 


 

       数据如果不进行降维度,则会在空间分布稀疏,造成无法获得相关性,而另一方面,如果我们缺乏对数据的统一标准和规范,则会无法在后续进行处理,这是之所以需要语义互操作的原因,而原因正在于此。
 

       深度学习
 

       在前面探讨过连接主义学派的罗森布拉特在被明斯基灭掉后,连接主义也因为一直无法提供真正的现实应用而逐渐在70年代-80年代没有什么发展,几乎停滞,而符号主义也有一段时间崛起但最终也无法形成真正的气候。
 

       杰佛里.辛顿是被誉为人工智能教父的人物,在1969年自动化控制专家阿瑟.布莱森以“多级动态系统优化方法”提出了误差方向传播算法相同的思路(只是当时没有意识到它的重要性),而辛顿则与另一个教授鲁梅尔哈特在《自然》上发表了《通过误差方向传播算法的学习表示》清晰的阐明了该思想,这个思想将神经网络的生存危机化解,将明斯基的《感知机》一书的负面影响消除。
 


 

       前面提及神经网络输出由所有流经它的连接路径汇集,然后把连接上权值的甲醛和放到激活函数中运算而来,每条路径上的神经元权值都会对结果产生难以估量的影响,各个神经元权值不能孤立分离来训练,但如果每一组训练数据都牵扯全部可能路径的组合的话,这里的计算就算在今天也是无法想象的。
 

       反向误差传播算法
 

       反向误差传播算法就是一泓数学和计算机中的自动微分,它包含了固定迭代步骤,可以由计算机程序运行的嵌套函数导数计算,而神经元网络本身可以被理解为一种多个函数的逐层嵌套,,反向误差算法实际上是通过这个数学方法对其进行求导。
 

       可以理解为在正向过程中,一个训练集的数据输入到神经网络,通过神经元权值和激活函数处理,网络会获得输出,它是对输入的响应。而反向传播,神经网络对输入值响应与训练集标示的标签值存在误差,这个误差使用损失函数来标示,由于这个误差由随机权值导致,现在就要求解出每一层、每个神经元权值对误差的影响到底是多少?,一个变量对结果产生的影响大小—在数学上就是求导的定义,求得导数后,才能用该导数修正权值,即梯度下降的优化方法,如果采用正向求导,计算量大,而反向传播则采用了反过来逐层把误差传播至每一个隐层,直到输入层,称为反向传播。
 

       将每个权值的梯度乘以一个训练因子,用以控制学习效率。并取反,然后加到原来的权重上得到新的权值。重复过程然后获得期望的最小误差。
 

       看不明白没有关系—因为我也没有看明白,只能跟读者说“这个方法大大降低了所需计算量”。
 

       深度学习
 

       其实,1986年辛顿发现了“反向误差传播算法”给使用神经网络实现机器学习带来了希望,,机器学习领域在90年代反倒是统计学习方法更为流行,直到今天,因为反向误差传播算法无非是解决了“神经网络死不了”这样的问题,怎么玩,还得继续研究,而且也不能立竿见影,,统计机器学习的简单高效就值的钻研了。
 

       哈哈!问题又来到主题了,到底是人厉害还是机器厉害?其实,这里的确存在问题,因为即使是神经网络,一样在特征值选择、提取依赖于先验知识才行,也即如果缺乏人的标定神经网络也干不了啥。
 

       因为人家浅层机器学习也可以干这个,例如支持向量机、提升算法Boosting等,这些也可以被理解为神经网络中仅含1个或没有隐层节点的特定神经网络,这种简单方法其实也能达到比较好的效果,又简单,,就发展的比较快。
 

       2006年才是深度学习的元年,辛顿发表了《通过神经网络进行数据降维处理》—提出了数据降维方法就是用神经网络自动进行特征值选择和提取,另一篇《一种基于深度信念网络的快速学习算法》才让深度学习变得火热起来的。
 

       论证了多隐层人工神经网络可以自主学习特征,比起人类手工的特征提取器能够更好的刻画事物本质,有利于可视化与分类(表示怀疑)。并且辛顿提供了可操作的训练方案,通过逐层预训练方法来克服。
 

就目前看到的各种深度学习主要还是处理图像、语音这类问题,至于工业场景中的应用,不甚了解何时有比较清晰的场景,等慢慢再学习观察吧!
 

       神经网络有很多种,看上去就像一堆堆的圈圈和线条,据说有图有真相,只要你能看得懂
 

       看得太累了…感觉跟咱们似乎挺远的,卷积神经网络(CNN)大概主要用于图像处理吧,刚好和我的同学凯哥之前聊到这个话题,他倒是对此有点了解,给我稍微讲了一下,“图像上的技术处理就是通过一序列的卷积核进行滤波(所谓卷积,可以看成就是滤波器,时域的卷积就是频域的乘积),这些滤波器把图像的各种变化(频率)特征过滤出来,然后池化,所谓池化,是因为卷积的计算之后基本不能把图像的信息减少,输入和输出的数量基本是一样多,池化就把一个小区域内的某一个特征,或者最大值,或者平均值,提取出来,再乘上一个非线性的激活函数,再进下一个卷积滤波,这样一层一层的过滤,减少特征,通过一个全连接层,的一系列特征值进行概率统计。确定目标属于某一类。这些卷积核(滤波器)要过滤出什么样的特征值,就是参数要定义成什么样子,不是人为确定的,是通过大量数据驱动,学习得到。
 


 

       人体有10的14次方数量的神经元,就是说神经网络的神经元需要10的14方,才有可能模拟人类的智力吧,现在的算力要达到这种程度,估计还有很长的路反向神经网络,监督学习的提出者,自己否认了监督学习,提出人类许多学习场景,实际上是没有监督的。现在致力于非监督学习的研究。
 

       人工智能的智能水平
 

       看了那么多还无法消化…不过,总体来说,感觉就是,其实人工智能这个问题是一个不断发展的过程,有停滞、失败、争议,但,一直在发展,就是想达到人的能力,那还差的太远,就像神经网络的计算要求太高,而又不可解释,而符号主义可解释却又更高的算力,并且人类也无法完全认知自己的思维计算过程。
 


 

       可以看到,人们的确对人工智能高估了,它既是最为强大的人工智能所能达到的智商水平也不够6岁小孩的智商水平。
 

       ,必须动态的看待问题,人类的智商经历了数万年的不断发展,而人工智能—毕竟才几十年的时间,能够发展到这个水平,应该说算是非常迅速的了。
 

       历史
 

       看历史总是让人清晰,其脉络让我们能够看到长久的发展演进,从中获得启发,在《智慧的疆界》一章中,作者对人工智能的历史事件进行了记述,在整个43页中描述了从1913年罗素的《数学原理》彻底改变了逻辑,1936年图灵论文《论可计算书及其在判定性问题上的应用》开始提出图灵机概念,这是一种理想的计算机模型,1943年沃伦.麦卡洛克和皮茨发表的《神经活动中内在思想的逻辑验算》提出M-P神经元模型,1944年冯诺依曼《博弈论与经济行为》开创了博弈论以及1945年在离散变量自动电子计算机的设计草稿中提出的冯.诺依曼架构,维纳和香农在1948年发表两篇开创性著作奠定了控制论和信息论,1950年图灵提出图灵测试如果人类由于无法分辨一台机器是否具备与人类相似的智能,导致无法分辨与之对话的是人类还是机器,那即认可机器存在智能,1951年赫伯特.罗宾发明了机器学习中常用的“随机梯度下降算法“,1956年达特茅斯夏季讨论会提出AI这个概念,1957年罗森布拉特提出感知机,1958年麦卡锡发明了LISP语言,这是历史上第二门编程语言,1959年明斯基和麦卡锡建立MAC人工智能实验室,1966年伦纳德.包姆发明了隐马尔科夫模型,1986年辛顿发明了误差反向传播算法.使得神经网络迈入复兴…1989年卷积神经网络(CNN)由燕乐存发明,2005年波士顿动力发布BigDog,2006年辛顿开创了深度学习,提出深度信念网络、2009年Google建造无人驾驶汽车,2011年吴恩达和杰夫.迪恩建立”谷歌大脑“计划、2011年苹果推出Siri、Google推出No、Microsoft推出Cortana,2015年Google收购的DeepMind推出AlphaGo、2018年阿里巴巴数据科学开发的人工智能程序在斯坦福的阅读理解测试获得82.44分。
 

       人工智能的历史,最大的问题是,所有记录这个过程的都是一个个“人“,一个个卓越的科技工作者为我们探索、研究如何让人工智能为人类解决各种问题而不懈努力。
 

       其实,最近读吴军博士的《全球科技通史》、周志华的《机器学习》、周志明这本《智慧的疆界》感触比较深有几点

       (1).一代代的科技先贤们用他们的智慧、严谨的科学方法为我们在各个领域创造着一个个的奇迹,科技的发展历史,是一个杰出人物光辉的涌现。

       (2).基础研究尤其是数学、逻辑这些基础性研究往往很难短期看到收效,,从长远的看,它影响极其深远。

       (3).人工智能的历史,是人探索世界的历史,机器拥有的是人赋予的智能,而非机器本身具有智能,,重视人才才是发展人工智能的基础。
 

       这仅仅是一个学习笔记,里面大致梳理了一些观点,但这个毕竟非专业人士,错误百出都是正常的,不断改进—符合人工智能的发展过程。
 

       其实,你问那个标题—无关,如果非要有个结论就是目前而言,人工智能还依赖于人的先验知识,而如何将人的知识与人工智能结合,解决用户的问题,那就是好的,如果只是忽悠,就像Engineer.AI这样的,就是可笑,不要夸大人工智能—因为,过去里多少大咖竖立的“Flag“都被打脸,明斯基、司马贺都干过,连这些人工智能界的顶级大咖都能犯的错误,凭什么一群根本一知半解的人就跟着起哄”人工智能“要颠覆我们的产业呢?
 

       保持学习,人工智能也没有那么差,它还是取得了巨大的进步,如何把它已有的成绩纳入到制造业的现实,值的IT与OT界共同努力。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by