要看穿AI的内心戏?人类要走的路还长着呢
普通计算机运行的都是人类编写好的算法,但AI不同,我们通过输入大量的数据来训练一个AI,例如各种英文与中文译文,由AI自己“学习”得出其中的对应关系。
(图片来自QZ)
由于机器并不是使用自然语言来处理信息,这就导致我们很难理解AI究竟是如何得出这些结论的。,近来也出现了“算法问责制”的呼声,更容易地理解机器生成算法的过程已经被放到了首要位置。
为此,美国乔治亚理工学院的研究人员培训了一个AI,它能够在玩《青蛙过河》 (Frogger) 游戏时用英语解释它的决策过程。
(注《青蛙过河》 是一款80年代的经典街机游戏,玩家需要引导青蛙穿过危机四伏的河流,将其一只一只引回家。)
(图片来自Codegolf)
事实上,这个AI并不是真正在讲述它所做的事情,而是预测在相同情况下,人类会如何描述这些现象。简单来说,就是研究人员给了AI一些词汇,让它将信息处理过程的那些字符“翻译”成人类可理解的文字。
具体是这样做的
录制人类玩《青蛙过河》的游戏过程,并对玩家进行录音,将其转录成文本→将这一文本与人类玩家在游戏过程使用的算法相关联→设计一个单独的算法,让AI把看到的游戏算法与人类的语言对应起来。
比如,当AI写道“正在等待一个可以跳跃的地方好让我喘口气”时,实际上它可能不是真的在等可跳跃点,只不过是它在游戏中正好处于与人类玩家类似的场景,所以用了这些词汇对此进行描述。
就目前的研究进展来看,这个AI仍然只是一个概念的证明,研究人员表示它还需要专门的训练才能用于其他任务的执行,但至少表明人类在探索AI思考过程中迈进了一小步。
理解AI的决策逻辑对于快速定位错误以及完善 AI的能力有着重要意义。比如当 Google 照片应用错误地将黑人标记为大猩猩时,工程师往往难以很快确定问题到底出在何处。如果能了解其决策过程,事情就会简单得多。
,除了乔治亚理工学院外,还有不少大学对这一课题展开了研究。
加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所则提出了另一种研究方法,称之为“指向和对齐”(pointing and justification),训练 AI 以两种方式分析数据,一种用于回答问题,一种则回顾用于该决策的数据。
(图片来自QZ)
麻省理工大学则是从模仿人类推导过程出发,让 AI 从中啤酒评级网站提取人类的评论文字(是否提取了气味、颜色等字样),以此为依据对啤酒打分,将结果与人类的评级进行对比,以探索 AI 是否有类似于人类的推导过程。(现在,AI 除了告诉你答案,还能解释为什么)
,以上这些都只是初步的研究,要了解 AI 复杂的决策过程,人类要走的路还很长。
题图来自KNOAH
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可