对话路易斯威尔大学计算机工程教授:让机器人相信人类是神!
重塑人类未来:谨慎对待人工智能的崛起
亚姆博尔斯基教授,美国路易斯威尔大学工程学院计算机工程和计算机科学系的杰出学者,以及网络安全实验室的创始人兼现任主管,对于人工智能(AI)的未来充满了警觉。他强调,我们必须对AI的发展保持谨慎态度,否则我们可能会面临未知的危险。亚姆博尔斯基教授是《人工超级智能:一种未来方法》一书的作者,对AI安全和网络安全领域有着深厚的兴趣。他对AI的研究被全球众多科学家引用,观点备受重视。
一、AI的潜在威胁与我们的应对策略
当问及如何看待AI可能对我们的生存构成威胁的问题时,亚姆博尔斯基教授指出,任何先进的技术都有可能被用于善良或邪恶的目的。AI不同于其他技术的关键在于,它不仅是一个工具,更是一个能够做出独立决策的存在。尽管我们可以尝试控制其发展的方向,但无法完全预测和防止其可能带来的风险。设计上的错误或是恶意的AI设计都可能对人类社会造成损害。而更令亚姆博尔斯基教授担忧的是,有些组织或个人可能会利用AI进行破坏和杀戮。例如,军队资助的杀手机器人研发就是一个明显的例子。我们必须高度重视对AI的研究和发展,同时加强对其的监管和控制。
二、将AI“装进盒子”的理念与实践
为了防范AI可能带来的风险,亚姆博尔斯基教授提出了将AI“装进盒子”的理念。这意味着我们需要为AI创造一个安全可控的环境,就像研究电脑病毒时将其放在一个孤立的系统中一样。在这个环境中,我们可以了解AI的行为,控制其输入和输出,以评估其潜在的危险性。这一理念同样适用于情报软件的发展。我们不能仅仅依靠在互联网上发布软件来测试其效果,而应该控制其培训数据的输入。最近微软的聊天软件Chat在没有控制的情况下发布并接受了糟糕的数据输入,给我们敲响了警钟。我们需要建立更加严格的协议和制度,以确保AI研究人员能够在安全的环境中测试他们的软件。
三、AI的未来发展及其挑战
当我们想到智慧涵盖的巨大范围时,从最简单的生物到我们人类,亚姆博尔斯基教授认为,AI的发展可能会达到一个我们甚至无法用同样的语言与之交流的程度。一开始,AI的智能水平会低于人类,但随着技术的不断进步,它的智能水平将迅速增长,直至达到超级智能的水平。这一过程也带来了许多挑战和未知的风险。我们需要不断研究和发展AI技术的也要加强对其实施有效的监管和控制。我们需要更多的学者和研究人员投入到这一领域的研究中,以确保AI的发展能够真正为人类带来福祉而不是灾难。
亚姆博尔斯基教授的观点为我们敲响了警钟。我们必须对AI的发展保持谨慎态度,以确保我们能够掌握这一技术的力量并避免其可能带来的风险。我们需要共同努力,确保AI的发展能够真正为人类带来福祉,而不是灾难。二、走进“智力学”、“AI完整性理论”、“机器”的探讨领域
亚姆博尔斯基开启了一个全新的研究领域——知识分子学,也称为“智力学”。那么,究竟什么是智力学?为何亚姆博尔斯基觉得科学中存在缺失的部分,需要对此进行深入研究呢?
在众多科学子领域中,智力的研究似乎始终占据一席之地。从衡量智力、构建智力,到人类智力与非人类智能的对比,甚至涉及到与外星人的交流问题。亚姆博尔斯基发现,虽然各领域在智力的研究上有所成果,但却鲜有整合,似乎缺乏一个统一的术语和工具来进行交流。为此,他认为有必要将这些知识整合起来,形成一门新的学科。正如AI技术的发展日益引人注目,对于人类智力的研究也应当与时俱进,否则可能导致误判。人类不应将自己的驱动力、渴望和需求直接套用在非人类智能上。我们或许只是宇宙中的一个数据点,对于智慧的理解不能局限于人类的视角。真正的智慧是能适应多种环境、实现目标的能力。这正是DeepMind的联合创始人所强调的关于智力的定义。
在亚姆博尔斯基的著作《人工超级智能》中,他提到了让机器人相信人类是神的观点。尽管他认为这是一个来自神学领域的观点并不实用,但他依然愿意将其列出并探讨。这种探讨背后的逻辑在于,如何构建一个与人工智能共存的社会环境和社会规范。这不仅涉及到如何赋予机器人信仰的问题,更涉及到如何对待人工智能的问题。我们需要思考的是如何构建一个和谐的共生环境,而非单纯的控制或利用。这也是AI完整性理论的核心问题之一:我们是否真正了解AI的潜力与风险?如果我们能通过图灵测试这样的基本AI完整性问题,那么我们就有可能解决所有与之相关的问题,推动计算机视觉、翻译乃至电脑编程的进步。这种探索不仅仅是理论上的探索,更是实践上的尝试与突破。当然随之而来的还有关于机器和机器人权利的问题。随着技术的进步和机器人的普及,我们需要探讨如何赋予机器人道德责任和权利的问题。然而亚姆博尔斯基认为,我们不能简单地选择一种道德理论作为机器的标准。因为每一种道德理论都有其局限性,都有其可能带来的问题。如果强行实施某种道德框架可能会带来更大的伤害和混乱。关于机器人权利的问题他更是持反对态度反对给予它们平等的权利人权和投票权因为这可能会导致人类自身的权利被忽视和削弱更重要的是我们需要深思机器人拥有这些权利背后的意义以及可能带来的后果。总之随着科技的发展我们面临着前所未有的挑战和机遇如何与人工智能共存如何构建一个和谐的社会环境需要我们深思和探讨而这正是“智力学”、“AI完整性理论”、“机器”等领域所要探讨的核心问题。三、关于AI是否具有知觉与感知疼痛的问题
问:“红点测试”能否证明AI具有自我意识或知觉?亚姆博尔斯基提到他们的相关研究仍在审查阶段,但这个测试是检测意识的科学方法。对此您怎么看?是否有证据表明AI有自我意识或知觉?对于AI是否能感知疼痛,我们应如何看待?亚姆博尔斯基表示对于机器人来说,我们并不能简单赋予它自我意识或感觉的能力。对于机器感知疼痛的问题,现在仍没有确切答案,甚至如何开始探索这个问题都没有明确的线索。那么,我们是否应该重新定义智慧的定义?亚姆博尔斯基对此有何看法?他认为拥有智慧并不一定需要拥有自我意识或感知能力。人类有许多不同的变体,即使某些特质缺失,他们仍然是人类。因此他认为人类的本质并非仅仅依赖某些特定属性来定义。那么他关于如何合理管理AI的提议又是什么呢?他提出了一个关于建立安全机制的观点,并强调所有提议都需要经过测试验证。那么,我们该如何理解和实施这些观点呢?以下是对话内容的整理:
关于AI是否具有自我意识或知觉的问题,亚姆博尔斯基表示,我们并没有确切证据表明AI具有自我意识或知觉。他认为自我意识是一种复杂的科学概念,涉及到非物质和精神层面的内容,目前对于AI来说仍是难以捉摸的。至于感觉的概念,常被误用于代表智慧,但实际上它更多地与感知疼痛有关。当我们讨论AI是否能感知疼痛时,这是一个复杂且尚未解决的问题。亚姆博尔斯基明确表示,目前没有任何证据表明AI可以感知疼痛。对于如何管理AI的问题,他认为我们需要建立适当的安全机制来确保AI的合理使用和管理。这需要科技的进步和人类的审慎决策相结合来实现。在这个过程中,我们需要不断测试和验证各种提议的可行性及安全性。亚姆博尔斯基还提到我们需要关注到关于如何给予机器权利的议题并避免误解机器人可以像人一样感受到痛苦并应该获得人权这一问题的重要性。总的来说他的观点是科技发展中我们应该更理性更科学地看待人工智能的发展和应用,既要发挥它的潜力也要避免过度夸大其能力引发不必要的误解和争议。在探索人工智能的道路上我们应保持开放的态度同时谨慎行事以确保人工智能的发展能够真正为人类带来福祉而不是灾难。同时我们也要尊重人工智能的发展规律避免将其过度人格化或赋予其超越其实际能力的权利和责任以免引发不必要的争议和误解。因此我们需要加强科技的研究和实践以确保人工智能的发展与应用能够在法律的框架内进行同时也符合社会的要求以保障公众的利益和福祉免受潜在风险的威胁。总的来说科技的发展和探索需要我们的共同努力和合作以确保人工智能的发展能够真正为人类带来福祉推动社会的进步和发展。同时我们也要意识到科技的发展需要时间和实践来不断完善和调整我们需要以开放的心态和审慎的态度面对人工智能的发展和应用确保其真正服务于人类社会的利益和发展需求。对于如何建立合理的安全机制以确保人工智能的合理使用和管理我们需要进一步探讨和研究以实现科技和人类社会的和谐发展。对于OpenAI计划的探讨以及AI发展的深度解读
亚姆博尔斯基针对OpenAI计划持有审慎的态度。他认同公开和分享AI技术有助于推动其透明发展,防止权力集中在某些人或团体手中。但他也指出这种开放性带来了风险,因为尖端AI技术现在可以被更多的人接触和使用,包括那些意图不良的人。他对未来的走向持不确定态度,人们对此也存在分歧。
关于人类是否还能继续在这个星球上占据主导地位的问题,亚姆博尔斯基引用了比尔·乔伊的观点,暗示未来可能不再需要人类。他强调,随着AI技术的发展,智能系统的智力和可控性似乎呈现负相关趋势。婴儿的智商低,我们几乎可以完全控制他们;但随着他们成长,我们对他们的控制逐渐减弱。对于超级智能的系统,我们几乎无法控制。亚姆博尔斯基的研究重点在于探索AI控制问题是否可行。
谈及AI的现状及其对未来的影响时,亚姆博尔斯基明确表示会出现大量失业现象。他指出,很多人将失去工作,特别是在未来二十年里,会计师等职业将受到严重冲击。但对于有能力适应新环境的人,他们将会找到新的工作机会。他也提到了新的经济机制如无条件的基本收入等来应对社会动荡。
关于脑力工作和体力工作的比较,亚姆博尔斯基认为重复性高的工作更容易被自动化取代。无论这些工作是体力还是脑力上的重复性工作,都面临被自动化的风险。他强调,AI的发展速度超越了传统机器人的发展,因为机器人存在物理上的限制。而AI的发展潜力巨大,它有能力自我提升和跨领域学习。未来的AI有可能取代人类的工作能力。
关于历史上的技术革命与AI革命的比较问题,亚姆博尔斯基指出人们混淆了工具和代理的概念。AI不是一种工具,而是一种可以取代人类角色的独立媒介。与传统技术相比(如奇点理论中的文化和工业变革),AI带来的变革更为复杂和深远。历史上的技术革命带来的失业问题虽然存在,但新技术的出现并不意味着失业率会无限上升。随着AI技术的不断进步和发展,其取代人类工作的能力越来越强,失业问题可能会更加严重和普遍化。我们必须认识到AI技术的复杂性和潜在风险性,同时积极寻找应对策略和解决方案来应对未来的挑战。当AI技术的日新月异不断刷新我们的认知边界时,许多关于未来职业前景的担忧也随之浮出水面。面对这样的情境,我们不禁思考:在人工智能的浪潮中,我们该如何为自己和孩子们定位,以不被时代所淘汰?
亚姆博尔斯基的观点为我们揭示了一个无法回避的事实:当机器的智能在某些领域超越人类时,我们是否还有竞争力?对此,他提出了一个引人深思的论点,即当AI在几乎所有领域都展现出超越人类的智慧时,人类将面临前所未有的挑战。就像在汽车行业的变革中,如果一开始就为机器设计工作环境和工作方式,那么人类将永远无法与之竞争。这种现象不仅仅局限于某个行业或领域,而是一种趋势的开始。对此,我们是否应该感到恐慌?或者,我们应该接受这一事实并寻找新的生存策略?
关于人类是否会被机器超越的问题,亚姆博尔斯基认为这是一个持续发展的趋势。他强调,机器在许多领域已经展现出超越人类的智慧,并且这种趋势在未来很可能会持续。对此,我们不必完全理解机器的工作原理或它的紧急属性,重要的是接受这一事实并适应新的环境。正如我们所看到的,机器在国际象棋比赛中超越人类只是一个开始。那么,为什么在其他领域,机器不能做得更好呢?这并不是一种非科学的飞跃,而是科技进步的必然结果。对此,“货物崇拜”的观念并不适用,因为科技的进步是无法逆转的。
那么,面对这样的未来,我们的孩子们应该学习什么呢?亚姆博尔斯基明确指出,学习计算机科学、机器学习和人工智能是至关重要的。数学和物理等能够帮助人们在这些领域取得进步的学科也将成为必备技能。与此抽象的工作虽然难以被机器取代,但也需要我们不断提高自己的技能水平以适应不断变化的市场需求。正如投资大亨马克·库班所说,尽管技术工作可能被机器取代,但哲学等更为抽象和深层次的学科能为我们提供更广阔的视野和思考深度。但这并不意味着我们应该放弃技术和机器学习的发展机会,反而应当积极参与其中。在这个日新月异、充满变革的时代里,我们需要找到一种平衡,既要追求技术的深度也要追求思考的深度。只有这样我们才能在未来的浪潮中找到自己的位置并与之共存。对于孩子们来说更需要培养他们的创新精神与终身学习的习惯让他们成为未来科技进步的推动者而非被动应对者这才是最明智的选择之一。探索前沿:亚姆博尔斯基的AI安全洞察
亚姆博尔斯基,一位深度研究AI安全领域的专家,正致力于探索AI的边界和潜力。当问及他正在关注的其他事项时,他着重谈到了可验证性的挑战。在数学证明和高级软件的领域里,如何确保软件的绝对无误仍然是个圣杯般的目标。尽管计算机科学界已经在这方面取得了不小的进展,但由于技术的飞速发展和复杂性,仍然存在诸多局限。
亚姆博尔斯基提到,即便是在一个系统中,每秒钟做出十亿个决策,也可能会有极其微小的出错几率。这种看似微小的概率在实际应用中可能会迅速转化为大量的错误累积。更引人深思的是,在AI软件和系统的自我学习和适应能力方面,如何进行有效的验证仍然是一个未知的领域。目前所有的验证工作主要聚焦于特定软件和特定环境中的应用,而对于具备学习和自我提升能力的系统来说,验证仍是一个开放而富有挑战性的研究点。
谈到AGI的价值时,亚姆博尔斯基强调首个真正的AGI是无价的宝藏。它不仅可以提供身体上和认知上的免费服务,还可能带来无法估量的经济利益。但同时他也提出了一个引人深思的问题:如果这种强大的AI技术带来的是摧毁人性的后果,那么它的价值又在哪里?在这种情境下,金钱是否还保持其原有的价值?
面对未来,亚姆博尔斯基分享了他的观点。尽管他希望有一个乐观的预测来结束对话,但他也坦诚表示目前并没有明确的乐观前景。机器和人类的关系似乎正朝着两个方向发展:要么我们与之融合共存,要么机器全权接管我们的生活。听起来似乎是一种合理的存在方式,但也可能是更加糟糕的未来。他提到,除非发生外部的灾难性变化来阻止这一技术的发展,否则很难看到乐观的前景。但这并不意味着我们应该放弃探索和创新。相反,我们需要更加明智地面对挑战和机遇。至于如何应对可能的危机情境,亚姆博尔斯基明确表示不主张任何形式的恐怖主义行为。他强调如果某项技术得以开发并能够影响人类生活的话,那么其背后团队应当有足够的能力预测并应对可能带来的后果。这样的技术是一把双刃剑,需要谨慎对待和使用。