英国物理学家史蒂芬·霍金(Stephen Haking)对于人工智能的担忧,已经表达过很多次。近日,霍金在接受拉里·金(Larry King)的采访时称,的进化速度可能比人类更快,且它们的终极目标将不可预测。
霍金在采访中一如既往地表现出人工智能对人类未来的威胁。他说“我不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”
去年,霍金警告称,随着技术不断发展,并学会自我思考和适应环境,人类的生存前途未卜。今年早些时候,霍金也曾表示,成功创造人工智能可能是人类史上最伟大的事件,不幸的是,也有可能是一个。
霍金还认为,数字个人助理Siri、Google No以及Cortana都只是IT军备竞赛的预兆,未来数十年竞赛将更加激烈。
霍金并非唯一担心人工智能的科技界名人。特斯拉和SpaceX创始人伊隆·马斯克(Elon Musk)曾经把开发人工智能比作“召唤魔鬼”,并警告称人工智能技术给人类带来的伤害可能超过核武器。
虽然,霍金不止一次的表示人工智能的担忧,它带来的其他好处显而易见,可以帮助消除战争、疾病以及贫困。霍金认为“人类面临的两大威胁是我们自身的贪婪和愚蠢”。
人工智能虽然是人类所创造,现在人类面临着着来自人工智能的威胁,霍金警告说,人工智能的发展必须在人类的可控范围内,才能保障人类的安全。