对话签名支持暂停巨型AI研发的科学家:我更担心中国有太多大模型

生活知识 2024-12-11 12:15www.robotxin.com生活百科

在非营利组织未来生命研究所(FutureofLife)于2023年3月29日发出的公开信中,千余名人工智能领域的专家、科技人员及产业高层联手呼吁暂停研发超越GPT-4水平的人工智能系统至少六个月。在这封备受瞩目的信件上,我们见证了一位中国科学家的名字——曾毅,他是中国科学院自动化研究所人工智能与治理中心主任。

这封公开信虽不具有法律效力,却引发了公众对人工智能治理问题的广泛关注。曾毅主任在接受我们采访时果断表示愿意分享他的观点。当被问及“AI领域的技术研发落后是更可怕,还是继续研发人工智能带来的潜在风险更可怕?”时,他明确指出:“用一种竞争的视角看待这个问题会使人失去理性。目前,中国在人工智能领域尚未达到GPT-4的水平,但我赞同发展信息处理能力接近GPT-4的大模型,我们必须在、安全及治理方面做出更为深远的思考,远超当前大模型的研发。”

在对话中,我们进一步探讨了以下问题:

一、用暂停六个月的时间窗口来解决人工智能带来的负面影响时,我们最应该优先解决哪些问题?曾毅指出当前GPT系列大模型的多重不确定性及其带来的巨大风险。他强调暂停研发超越GPT-4水平的人工智能是必要的,以便更好地解决潜在风险。我们需要清晰地认识到人工智能带来的风险并制定相应的应对策略。

二、关于大模型的技术原理尚未完全清楚就被推向市场的问题,曾毅表示这确实是一种不负责任的做法。他认为在人工智能的发展过程中,我们需要更多地关注其安全性和问题,确保技术的成熟度和稳定性后再进行推广。同时他也呼吁企业和研究机构在追求技术创新的也要承担起社会责任。

三、关于用大量数据训练人工智能是否会产生意识的问题,曾毅认为目前的技术还无法证明这一点。他认为目前的人工智能技术仍然停留在算法和模型的层面,距离真正的意识还有很长的路要走。因此我们需要对人工智能技术的发展保持清醒的认识。同时他也指出图灵测试并不能证明人工智能拥有真正的智能只是对人类智能的一种模拟。因此我们不能将人工智能与人类智能等同看待。最后针对国内大模型扎堆推出的问题他提醒我们应该关注其背后的潜在风险加强监管和评估确保其安全性和稳定性后再进行推广。对于是否应该从小开始学习人工智能课程曾毅认为应该根据孩子的兴趣和天赋来决定同时也要注意避免过度依赖人工智能影响孩子的独立思考能力。以下是曾毅的详细观点:

暂停研发超越GPT-4水平的人工智能系统是有必要的。对于人工智能的快速发展我们需要保持清醒的认识虽然它带来了巨大的便利但同时也带来了许多未知的风险和挑战。我们需要通过暂停研发来深入思考如何解决这些潜在的风险并制定相应的应对策略以确保人工智能的发展能够为人类带来真正的福祉而不是灾难。同时我们也要关注人工智能的、安全及治理问题确保技术的发展与人类社会的价值观相符。在面对人工智能时代孩子们的学习问题我们应该根据孩子的兴趣和天赋来决定是否从小开始学习同时也要注重培养孩子的独立思考能力避免过度依赖人工智能影响他们的成长和发展。总之我们需要以开放的心态面对人工智能时代带来的挑战和机遇共同推动人工智能的健康发展为人类带来更加美好的未来。关于人工智能大模型的发展及其安全治理的思考

腾讯科技:关于人工智能大模型的发展,为何提出6个月的倡议期?在这段时间内,我们能否充分应对潜在风险?

曾毅:这6个月的倡议,更像是一个起点,一个尝试的契机。尽管在这么短的时间内取得一些成效是可喜的,但我们必须清醒地认识到,这并不意味着所有问题的彻底解决。人工智能的风险需要更深入、全面的思考,尤其是在安全治理方面。我们需要重新审视大模型的发展速度与其带来的风险之间的平衡。

在这六个月里,我们最迫切的任务是识别和解决潜在风险。这其中,人工智能对社会信任的冲击尤为严峻。随着ChatGPT等产品的普及,人们越来越依赖它们获取信息,这可能导致社会信任受到前所未有的挑战。如何在这种环境下构建并维护社会信任是一个严峻的问题。涉及到个人隐私数据的保护也是一大风险点。人工智能模型在处理大量互联网数据时,如何确保个人隐私不被侵犯?这是一个需要产业界共同思考的问题。人工智能生成技术也带来了新的问题,如混淆人与人工智能之间的边界,对社会道德产生潜在冲击等。我们需要更深入地思考人工智能技术的每一步发展与其安全考量之间的平衡。

腾讯科技:那么,在安全治理方面,是否有一些已经得到产业界认可的框架或方案?是否能够通过技术手段实现与人类价值的真正对齐?

未来的道路上,人工智能与我们相伴而行。但如何让这位“伙伴”真正符合我们的道德期待呢?

人工智能如今如同一张白纸,等待着人类用道德之笔为其上色。真正的道德人工智能,需要拥有道德的基础、道德的直觉,以及道德推理的能力。只有当我们深入了解为何人类选择这样的道德规范,而非简单的规则灌输,人工智能才能真正实现道德的自主。

我们期待人工智能遵循人类的道德规范,这些规范也在随着时间不断演化。人工智能作为一面镜子,反映出人类的未来,帮助我们更好地看清自己。我认为,满足人类道德的约束并不是人工智能道德的终点。我们期望的是一种共生状态,人工智能的演化帮助人类的进步,人类的道德框架也随之演进。

回到那封公开信,关于AI领域的技术研发问题,是否落后更可怕,还是无止境地研发更可怕?这个问题引发了一场有趣的讨论。曾毅先生的调研结果显示,人们对于这个问题持有不同的看法。大约40%的人同意暂停超越GPT-4能力的人工智能大模型研究,这是一个引人深思的观点。而令人欣慰的是,在人工智能大模型的研究者中,有超过25%的人赞同暂停研究。尤其对于那些走出人工智能大模型的利益相关方的学者来说,他们更加理性地看待这个问题,例如人文社科领域的学者,他们的认同感更为强烈。

同行之间关于这个问题的争论也是存在的。有些学者认为应该通过技术治理的方式解决问题,而不是暂停研究。曾毅先生认为,如果已知风险尚未解决,我们是否应该暂时放缓脚步?这个观点引发了很多人的共鸣。不同的出发点导致不同的看法,但不论是否暂停,重要的是在研发过程中融入安全框架,并在提供服务前充分考虑安全风险。

腾讯科技探讨人工智能的未来治理之路。面对人工智能的迅猛发展,公司、科研机构和国家的责任何在?曾毅专家为我们深入解析。

曾毅指出,人工智能的发展涉及多方利益相关者的协同治理。需要构建一套人工智能的产学研安全框架,通过自我治理来避免潜在问题。在此基础上,国家和相关部门如科技部、工信部、网信办等需要制定严格的监管政策,进行顶层管理和规制。

面对大模型技术的复杂性和“黑箱”问题,我们应警惕其潜在风险。曾毅提到,即使如OpenAI这样的领先企业,在推出ChatGPT时也存在责任问题。虽然他们可能通过收集大量人类反馈来完善技术,但面对技术的扩散和隐患的出现,显然准备还不够充分。对于人工智能企业而言,更负责任的创新至关重要。

国内的大模型研究机构在短短几个月内就宣布并发布大模型,其安全检测是否足够充分?曾毅强调,这不仅是一种社会工具,更是赋能社会发展的平台,因此必须承担起社会责任。他呼吁相关领域的企业和服务方要意识到他们的责任不仅仅是技术创新,更是对社会的影响和责任承担。

关于人工智能的发展路径,曾毅认为“大力出奇迹”的方式并非可持续的最优路径。他提到,人工智能模拟人脑的演化过程应该是和谐的、与自然和谐共处的。而现在一些人工智能大模型的发展路径更像是数据驱动的工具,虽然看似智能,但并没有模仿人脑的机制。真正的人工智能应该在不同尺度上刻画智能的方方面面,模仿人类的机制,这样才能避免潜在风险。

探索人工智能的新纪元:ChatGPT与人类的共生关系

在我们目睹ChatGPT这样先进的AI模型崭露头角时,人们纷纷惊叹于它的能力与潜力。它是基于如此大规模、多模态的数据进行训练,生成了惊人的参数,带来了一种全新的体验。那么,这一切背后的意义是什么呢?其实,这正是为了应对我们生活中的不确定性。感受它,你会发现它能解答许多复杂的问题,这种能力源自数据本身。互联网级别的数据几乎覆盖了所有人类可能想到的问题,通过统计显著性,加上随机变量产生的答案,让你觉得新颖而独特。这是一个美好的起点。

尽管ChatGPT展现出了丰富的表现力,给人一种不可预期的感觉,但我认为大家可能过于夸大其能力了。基于统计显著性,它的答案虽然丰富多样,但这并不意味着它真正拥有了所谓的理解能力。对于ChatGPT来说,大规模的数据是基础,而人类反馈的强化学习使得它的答案更符合人类的期望。在这背后,其实隐藏着许多规则和模板。例如,当它分析问题时,总会将事情分为正反两面,列出几条原因。这给人一种“ChatGPT非常理性”的印象。人类往往持有明确的观点,反映个人信念,与之不同。

那么,如何衡量机器是否真的聪明呢?图灵测试曾是衡量智能的一种方式,但现在我们看到的报道越来越多地提到某些人工智能已经通过了图灵测试。曾毅认为,图灵测试并不是唯一的衡量方式。人工智能的“智能程度”的衡量应该多元化,正如图灵在文章中提到的那样,还可以通过其他方式来测试智能。人工智能的“智能”衡量并没有黄金标准。

在谈论人工智能的未来时,我曾在一次访谈节目中分享过我的观点。面对观众的关切,他们纷纷询问关于未来人工智能是否会取代所有工作的疑虑。我对此提出一个新的思考方向,即我们需要重新定义何为“工作”、人与工作的关系以及通过明自己的价值。在未来,那些情感交互丰富的任务可能会成为新的工作形态,比如照顾孩子和老人、从事社会服务等等。这些工作需要我们人类的情感参与,这是人工智能难以替代的。复杂的情感交互可能只有我们人类才能胜任,这也让我们真正回归人的本质。

对于家长们来说,面对人工智能时代的来临,他们焦虑地思考应该如何培养孩子们的能力。曾毅提到,与其过早地让孩子们接触人工智能,不如培养他们的思考能力和对人类的认知。他建议孩子们学习心理学和认知心理学,了解人类的智慧与内心。初中高中的孩子们可以学习哲学,思考人生的意义和价值。教育不仅仅是让孩子们成为工具,更要让他们有时间思考自己的未来。技术的发展应该为人类留下属于人的空间,而不是被技术所主宰。正如城市的规划一样,一半是技术的变革,一半是人与人之间的情感交流。我们应该以适度的态度对待人工智能的发展和应用。

在谈到全球关于人工智能的愿景时,曾毅提到各国对于人工智能的认知有所不同。尽管存在一些差异,但全球共识是人工智能作为一种工具和赋能性技术为全球可持续发展提供助力。各国对于人工智能的愿景和认知的不同只是塑造人工智能的不同尝试。我们更希望探索的是人与人工智能共享的最小原则的集合,这是不同文化之间达成的共识。随着技术的发展和应用,我们需要不断反思和调整我们的价值观和行为准则,以确保人工智能的发展真正为人类带来福祉和进步。我们需要明确我们应该做什么,并朝着稳健、可持续的方向发展前进。只有这样,我们才能真正拥抱人工智能时代的美好未来。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by