AI很聪明?有时计算加法的水平还不如高中生
谷歌的DeepMind的研究人员建立了两种不同类型的最先进的,看看它们能否被训练来回答高中数学问题。结果是E级,没有把6以上的个位数相加。
你会算下面这道题吗?
1+1+1+1+1+1+1等于多少?
如果你的答案是7,那么恭喜你,正确,而且你的数学要比目前最先进的深度学习技术要出色。
我没有开玩笑,根据国外媒体报道,谷歌旗下DeepMind的人工智能研究人员本周发表了一项研究,他们试图训练来解决算术、代数和微积分的基本问题。这类问题通常是对高中生的测试。
的表现并不好。除了不正确地猜出上述问题的答案为6外,在一次标准测试中只答对了40道题中的14道。
研究人员指出,这相当于英国16岁学生的E级。
基本上,在这一点上,人工智能很难真正学习任何基础数学。
这篇名为“分析神经模型的数学推理能力”的论文被创建为一个基准测试集,其他人可以在此基础上构建来进行数学学习,就像ImageNet被创建为一个图像识别基准测试一样。
引用纽约大学著名的评论家Gary Marcus的话,作者提到了著名的的“脆弱性”,并主张调查为什么人类能够更好地执行“关于对象和实体的离散成分推理,这是代数上的概括”。
他们提出了一系列不同的数学问题,这些问题应该促使获得这样的推理,其中包括“规划(例如,按照正确的组合顺序识别函数)”,当一个数学问题的部分可能是关联的,也可能不是分配的,也可能不是交换的。
他们写道:“如果一个模型不具备至少一部分代数泛化的能力,它就很难在一系列问题类型中做得很好。”,数据集。
他们提出了一系列问题,没有一个涉及几何,也没有一个是口头问题
42r+27c =-1167和130r+4c=372,求r等于多少。
答案4
作者综合了这些数据集,而不是将它们众包,因为这样很容易获得大量的例子。他们将问题以“自由形式”的句子形式提交给计算机,这样计算机就不会以任何方式将问题解析得更容易,比如“树”或“图”数据形式。
这些问题的基础是“美国学校数学课程(16岁以下),仅限于文本问题(不包括几何问题),它提供了作为学习课程一部分的广泛数学主题。”他们写道,他们加强了基础课程,提出了“为代数推理提供良好测试”的问题。
他们指出,为了训练一个模型,他们本可以赋予一些的数学能力,但关键是让它从无到有,并建立数学能力。,他们或多或少采用了标准的。
他们写道:“我们感兴趣的是评估通用模型,而不是那些已经具备数学知识的模型。”
“从翻译到通过图像标题进行解析,这些模型(通常是神经结构)如此普遍的原因在于,由于这些函数近似器的设计中编码的领域特定知识相对较少(或没有),所以它们没有偏见。”
作者构建了两种不同的“最先进的”来解析、嵌入并回答这些问题。一种是“长短时记忆”(LSTM),它擅长处理顺序类型的数据,由Sepp Hochreiter和Jurgen Schmidhuber在20世纪90年代开发。
他们还训练了所谓的“转换器”,这是谷歌开发的一种较新的递归,在处理各种任务时越来越受欢迎,比如嵌入文本序列来处理自然语言。
他们给了一些时间来思考,因为“模型可能需要花费几个计算步骤来整合问题中的信息”。
“为了实现这一点,我们在输出答案之前添加了额外的步骤(零输入)。”
结果一般。例如,回到本文开头的问题,当数字超过前六个计数数字时,基本加法就失败了。作者表示,他们“测试了添加1 + 1 ++ 1的模型,其中1出现n次。
“LSTM和Transformer模型都给出了n≤6的正确答案,但n = 7的错误答案是6(似乎漏掉了一个1),n > 7的其他错误值也是6。”
这是为什么呢?就像经常发生的情况一样,一些其他的事情似乎正在幕后发生,因为当把更大的数以更长的序列相加时,比如34+53+…+936等等,能够做得很好,作者观察到。
“我们对这种行为没有一个很好的解释,”他们写道。他们假设,当他们分析问题并对其进行操作时,正在创建“子和”,而当他们失败时,这是因为“输入被‘伪装’了,由重复多次的相同数字组成”。
,在一些事情上做得最好,比如在一个长数字中找到“位置值”,比如,在一个数字中找出“十位”,比如9343012。他们也擅长四舍五入十进制数和按大小顺序排序。
对这个系统来说,最难的问题是“数字理论问题”,比如因式分解,把数字或其他数学对象分解成组成部分,以及判断一个数字是否是质数。但他们指出,人类在这方面也有困难,所以这并不奇怪。另一个问题是“混合算术”的组合,所有四种运算都在这里进行。在那里,机器的性能精度“下降到50%左右”。
为什么计算机在做加法或减法的时候做得很好,但当被要求做所有这些时却感到困惑?
“我们推测,这些模块之间的区别在于,前者可以用一种相对线性/浅层/并行的方式计算(通过梯度下降法相对更容易发现求解方法),”作者沉思道,“而用括号计算混合算术表达式没有捷径。”
总而言之,在高中课程中,收集了一系列现实世界的问题,作者称E级成绩“令人失望”和“中等”。
他们得出这样的结论:当变压器构建执行比LSTM变体,“两个网络在做多”算法推理”和“模型没有学会做任何代数/算法操作的值,而是学习相对浅技巧来获得好的答案的许多模块。”
尽管如此,现在已经有了一个数据集,他们希望这是一个基线,在此基础上,其他人将加入他们的行列,训练更多种类的网络。他们指出,数据集很容易扩展,这应该能让研究人员直接达到大学水平的数学水平。
希望到那时,已经学会了加法。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可