马斯克怒怼哈佛大学教授:你对通用人工智能一无所知
近期,哈佛大学教授Steven Pinker对伊隆·马斯克提出批评,认为他在人工智能问题上持有自相矛盾的立场。Pinker指出,马斯克一方面高喊人工智能的潜在威胁,另一方面又积极推动自动驾驶技术的发展。这一观点引发了广泛讨论。
马斯克对此迅速回应,他在推特上表示,Pinker并不了解功能性或狭义人工智能(如自动驾驶汽车)与通用人工智能之间的关键区别。这一回应显示了一种积极的辩护态度,马斯克强调,他并非忽视人工智能的潜在风险,而是在推动技术发展的对风险保持警觉。
在公众眼中,Pinker因其杰出的学术成就和影响力被誉为“当前100位最有影响力的人”之一。他的批评并非无足轻重,但马斯克以坚决的态度捍卫了自己的立场。他的回应暗示了对未来人工智能发展有着更为细致和全面的理解。他知道人工智能有多种形式,并且每种形式都有其特定的应用场景和风险。而不仅仅是看到人工智能可能带来的威胁,而忽视了它在改善人类生活方面所具备的潜力。
前谷歌CEO施密特也对此发表了自己的看法。他认为在接下来的十年里,机器不可能奴役或消灭人类。这表明即便是在人工智能的快速发展过程中,仍然存在许多不确定性。与此人们对于人工智能的看法也呈现出多元化的趋势。正如马斯克所言,理解人工智能的全面性是非常重要的,而不是仅停留在它可能带来的威胁这一层面。关于这一点,钢铁侠马斯克在科技领域的一系列实际行动正在向世界证明这一点。他不仅看到了人工智能可能带来的风险,更看到了它在推动科技进步和人类生活改善方面的巨大潜力。在面对质疑和批评时,马斯克展现出他对未来的独到见解和坚定的决心。特斯拉汽车已宣称达到L5完全无人驾驶的技术水平,但相应的软件升级尚未到位。这一切的言论引起了人们广泛的关注。史蒂芬·平克(Steven Pinker)作为哈佛大学教授,同时也是美国国家科学院院士,他的观点往往备受瞩目。他曾两次入围普利策奖,获得九个名誉博士学位,被《时代》杂志列为“当前最具影响力的百人之一”。他在Wired杂志上发表的观点更是令人深思:他认为高度发达的外星文明很可能倾向于和平与宽容,并认为先进的外星人可能对我们友好。
尽管半个月前Pinker的言论引起了广泛关注,但它并没有像某些事件那样激起大量的讨论。一个活跃的推特用户转发了Pinker对马斯克的评论并手动艾特了马斯克,这一举动立刻引起了这位科技巨头的注意。马斯克对此的反应强烈,他明确表示如果连Pinker这样的知名学者都无法理解功能性或狭义人工智能(如自动驾驶汽车)与通用人工智能之间的区别——尤其是当通用人工智能拥有百万倍于当前计算机的处理能力时,人类将面临巨大的问题。
开发自动驾驶技术,或许能为通用人工智能的发展贡献一份力量,这无疑会引发关于如何教育机器的道德难题。正如马斯克所强调的那样,即便是在未来完全实现的自动驾驶汽车,也不会产生伤害人类的“意图”。它们虽然智能,但并不具备伤害人类的动机。
马斯克的思考维度总是独特而深刻,“非黑即白”的思考模式让人深思:自动驾驶并不等同于通用人工智能。上个月,这位科技巨头悄然离开了自己亲手创办的OpenAI董事会。
OpenAI是一家致力于通用人工智能研究的非营利机构,旨在防止AI技术被大型企业垄断。马斯克作为OpenAI的最大投资人之一,他的离开无疑引起了广泛关注。有人猜测,这是为了避免未来可能出现的特斯拉与OpenAI之间的利益冲突。这一消息一出,不少人开始猜测马斯克是否已经改变了对人工智能的看法,是否已经开始全力推进特斯拉的L5计划,不再担忧AI成为人类的威胁。
马斯克的退出引发了众多猜测和热议。这位科技领袖的未来动向,以及他对人工智能的看法,都成为了人们关注的焦点。无论是对于自动驾驶还是通用人工智能,马斯克始终站在科技前沿,引领着人们对未来的思考和探索。他的每一个决定都牵动着无数人的心弦,让我们期待着他能为我们揭示更多关于未来的秘密。马斯克与哈佛大学教授Pinker的交锋,仿佛是对“非黑即白”观点的激烈辩论。实际上,马斯克并未与OpenAI彻底分道扬镳,他仍是其慷慨的捐赠者,继续为团队贡献智慧与力量。
马斯克多次警示人工智能的危险性,警告它们可能被用于制造武器或操纵信息,从而引发全球冲突。霍金和比尔·盖茨亦以同样的口吻警示,当AI的智能超越人类时,它有可能“取而代之”。
他们所担忧的是“通用”人工智能(AGI),即系统能够模拟所有的人类决策。而像特斯拉的Autopilot、AlphaGo和Facebook的新闻推送算法等,是马斯克口中的功能性/狭义人工智能,与通用AI截然不同。狭义的AI系统只专注于完成特定的任务。
关于AI何时会“统治”人类的问题,谷歌前CEO认为至少还需要一二十年的时间。虽然当前的人工智能在狭义领域并不会构成威胁,但马斯克等人的担忧并非空穴来风。关于通用人工智能何时会成为人类的威胁,仍是未知数。这个问题如同一场悬而未决的棋局,等待着时间的揭晓。谷歌前CEO Eric Schmidt在慕尼黑安全会议上发表演讲时明确表示,至少在接下来的十年里,机器人的崛起并不会导致人类被奴役或灭亡。他说道:
“我们常常听到关于电影中的世界末日场景的讨论,那些描绘机器人起义的情节无疑给人们留下了深刻的印象。我可以有信心地预测,这样的场景距离我们至少还有二十年。虽然我们可以对机器人的未来感到担忧,但这还是很久以后的事情。”
Eric Schmidt的这番言论并未给人们带来多少安慰。毕竟,随着人工智能和机器人技术的飞速发展,人们讨论的焦点已经远远超出了传统的范围。在一个由科幻电影塑造的世界中长大的一代人,很容易在想象机器人未来时,联想到电影中的场景。
人们这样想固然合理,然而实现起来却颇为不易。Schmidt接着阐述了他的观点:
“我必须提醒大家,这些技术本身暗含着不少隐患,因此并不适宜用于关乎生死存亡的决策。我难以想象让一台电脑全权负责飞机飞行的所有决策。这项技术尚未达到足够的可靠性标准,实际应用中存在诸多缺陷。它或许能提供一些建议,帮助你变得更聪明,但绝不可让它负责指挥和控制。”
重点在于最后一句。研究者们心中明镜,尽管大多数普通人可能并不这么认为,AI并非是为了取代人类,而是为了更好地辅助人类。人类的大脑机制极为复杂。尽管普通人到了四十岁可能无法记住维基百科的所有内容,也无法战胜最顶尖的扑克高手,但现有的机器人技术尚无法处理人类擅长的即兴创作等简单任务。
然而事实上,AI和机器人擅长的领域主要是那些无需过多技巧、简单且重复的工作,这些工作目标明确,易于定义和衡量。机器人并不擅长即兴发挥;他们需要一套明确的规则,而这些规则将会越来越注重融入故障安全措施,以确保在出现问题时能够及时关闭机器。
可以说,人工智能与机器人技术的进一步发展,需要我们在享受其便利的也要对其可能存在的风险保持警惕。只有在充分认识并妥善应对这些风险的前提下,我们才能更好地利用这一技术,推动人类社会的进步与发展。尽管科技在持续进步,对机器人的感知能力我们仍有所期待。对于潜在的危险性机器人而言,其潜在的危险性并非源于机器人本身,而是源于编写其程序的那些人。我们的关注点不应聚焦于机器人,而应聚焦于那些为机器人编写代码的人。他们才是关键所在,他们的智慧和道德水准将决定这些机器如何被运用,以及可能带来的风险大小。