人工智能很危险!?开发需谨慎
最近的一次警告来自于患运动神经元疾病的著名天体物理学家斯蒂芬·霍金(Stephen Haking)教授。他近日接受采访时称,人工智能可能会“比我们所有人更聪明”,并且“几乎可以肯定”会发生由技术引发的灾难。大多数非专业人士都会对霍金的这一说法不以为然,认为是科幻小说中的荒诞幻想。但人工智能的发展速度之快意味着,政策制定者应该已在考虑它所带来的社会影响。
自上世纪50年代计算机时代开启后,有关机器有朝一日可能具备人类一样思考能力的说法便一直得到泛泛的讨论。美国科技公司在人工智能研究方面投入了大量资金,加上计算机的能力呈指数增长,使得近来不断冒出这类惊人的预言。
根据最近一项调查,全球一半的人工智能专家认为,2040年前将研发出人类级别的机器智能;90%的专家认为,这一技术将在2075年前实现。一些人工智能专家谈到了有朝一日对人类大脑展开“逆向工程”的可能性。与此,有些杰出的科技领军人物警告称,该技术产生的后果是难以预料的。电动汽车和私人太空飞行领域的先驱、特斯拉汽车(Tesla Motors)和SpaceX的创始人埃隆·马斯克(Elon Musk)认为,先进的计算机技术“可能比核武器更危险”。
西方政府应该认真考虑人工智能发展在伦理范畴的影响。人们担忧的一点是,在这一领域进行的几乎所有研究都由总部位于美国的科技公司私下承担。其中一些最具雄心的投资是由谷歌(Google)做出的,比如它展开的量子计算研究以及今年对英国人工智能初创公司Deep Mind的收购。不过,尽管谷歌在收购Deep Mind后成立了一个伦理委员会,但局外人依然不清楚该公司在做什么,也不清楚它在控制这项技术、而不是在尽可能快地发展这项技术上投入了多少资源。随着这些技术逐步发展,公众监督的缺失可能会成为一个令人担忧的问题。
话虽如此,我们还是应该正确看待计算机有朝一日或对人类构成挑战的可能性。科学家也许并不能肯定地说出,机器何时或是否将赶上或超越人类。
但在局面发展到那一步之前,人类与计算机智能相互协作几乎肯定将有助于解决那些不这么做就无法解决的紧迫问题。例如,计算机研究分析大量数据的能力日益增强,未来几十年将在帮助人类应对气候变化和疾病上发挥巨大作用。因遥远未来可能发生的危险而在现在遏止计算机科技的发展——并放弃这种发展带来的好处——是愚蠢的。
我们有充分理由乐观看待人工智能研究。没有证据表明科学家将难以控制计算机,即使它们发展到最先进的水平。但在这个领域,科技先驱们确实需要谨慎行事,而且必须意识到科学的发展总是能够出乎我们的意料。
机器人培训
- 达芬奇机器人献爱心 将主刀公益手术
- 亚马逊将在英国招聘2000多人 重点开发Alexa和无人
- 美、德、英、日、中5国机器人发展全景大盘点
- 国产机器人窗口期 不可错失制造2025弯道超车机会
- 一个小时,这只机械狗“自学”会了走路!
- 三穗长吉镇:无人机飞防作业 稳粮增豆保丰收
- 依靠静电着陆的新型机器人
- 工业机器人推广应用座谈会
- 在苹果的智能机器人软件公司是一种怎样的体验
- 四大家族之KUKA工业机器人应用案例分析
- 万事俱备只欠东风?机器人产业的东风到底在哪
- 欧洲 6 轮送货机器人开始在美国大学推广
- 芜湖:考核第一!6项冠军!
- 人工智能有望打破医疗资源不均衡
- 立讯精密:已进军新能源汽车市场,目标成为全
- 90后用机器人炒菜周入10万,炒菜机器人真的有可