英国《每日邮报》网站6月28日报道,这位世界知名的教授发出警告说,可能进化得比人类更快,它们的目标将是不可预测的。
在《拉里·金现场秀》访谈节目中,霍金谈到了他对人类未来的担忧。他说“我不认为人工智能的进步一定会是良性的。”这位物理学家以前也曾直言不讳地说出自己的想法。
霍金是在西班牙加那利群岛接受采访的。他正以贵宾身份参加在那里举行的斯塔穆斯科学节。该科学节的宗旨是让科学变得平易近人。
霍金说“一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
这并不是这位物理学教授第一次就机器人造反作乱的危险发出警告。去年他曾表示,随着技术学会为自己着想以及适应环境,人类将面临一个不确定的未来。
他在伦敦举行的一个活动上对英国广播公司说“全人工智能的出现可能给人类带来灭顶之灾。”这延续了他去年早些时候的说法,当时他说,创造人工智能的成就“将是人类历史上最大的事件,但不幸的是,这也可能是的成就”。
他声称,像Siri、Google No及Cortana等个人数字助理功能的出现,只是信息技术“军备竞赛”的征兆。它们将在“今后几十年出现的新事物面前相形见绌”。
而持这种观点的并非霍金一人。去年,埃隆·马斯克曾把人工智能比作“唤醒恶魔”。这位特斯拉汽车公司创始人曾警告说,有朝一日技术会变得比核武器更具危害性。
但霍金在接受英国广播公司采访时特别提到,人工智能的潜在益处也可能是巨大的,拥有消除战争、疾病和贫穷的潜力。
在拉里·金的最新访谈中,霍金称人类面临的最大威胁是我们自身的弱点。2010年接受拉里·金采访时,霍金表示人类的两个最大威胁是贪婪和愚蠢。在最新的采访中,他表示自那时以来情况并没有发生多少改变。
霍金说“我们的贪婪和愚蠢肯定没有减少。6年前,我就污染和人口过多发出了警告。从那以后,这两个问题变得更糟了。按照目前的速度,到2100年世界人口将达到110亿。在过去5年里,空气污染出现了恶化。”
他说,人类面临的最大问题是“空气污染的加剧……以及二氧化碳水平的不断上升”。