谷歌聊天机器人Bard遭员工嘲讽:是个“病态的骗子”

机器人技术 2024-12-18 09:35www.robotxin.com机器人技术

近日,谷歌推出的全新人工智能聊天机器人Bard引起了广泛的关注和热议。在面向公众不久之前,谷歌曾邀请内部员工进行该新工具的使用测试。反馈的结果并不理想。据内部讨论截图显示,部分员工对Bard的评价相当尖锐,称其是“病态的骗子”和“令人尴尬”。更有员工指出,Bard在某些情况下的回答存在严重问题,如给出可能导致飞机坠机的飞行建议,以及关于潜水的建议可能引发重伤甚至死亡。尽管如此,谷歌依然决定将Bard推向市场。

谷歌作为一家互联网搜索巨头,其科技承诺在当前竞争环境下似乎被置于了一个较低的优先级。在竞争对手OpenAI的ChatGPT大受欢迎的背景下,谷歌匆忙将生成式人工智能技术融入其最重要的产品中。多名在职员工和前员工透露,谷歌的科技团队目前缺乏话语权,士气低落。他们甚至被告知不要妨碍正在开发的任何生成式人工智能工具。谷歌的目标是借助这项尖端技术振兴其搜索业务,并在与OpenAI的竞争中赢得优势。

人工智能的问题在谷歌内部引发了广泛的讨论。谷歌前经理、权益组织Signal Foundation主席梅雷迪思・惠特克表示:“如果科技不能被置于利润和增长之上,它们最终就不会起作用。”对此,谷歌回应称,负责任的人工智能仍是该公司的首要任务。谷歌发言人表示将继续投资人工智能原则应用于技术的团队。令人担忧的是,从事负责任人工智能研究的团队在一轮裁员中减员多人。

多年来,谷歌一直在引领大部分支撑当前人工智能发展的研究。在ChatGPT推出时,谷歌尚未将其生成式人工智能技术集成到产品中。谷歌员工表示,过去在将新技术应用于搜索和其他重要产品时,公司会谨慎评估自身的能力和道德考量。在过去的一年里,谷歌的高级管理层似乎改变了对风险的偏好,决定加快产品发布的步伐。

人工智能治理负责人詹纳伊建议,为了加快产品发布,可能需要在某些方面做出妥协。这引发了员工对科技的担忧。在内部消息群中,有员工表示Bard的问题不仅仅是其无用性,而且可能误导公众。尽管有员工提出警告,但詹纳伊仍然驳回了关于Bard的风险评估报告。她表示已经列出了潜在风险清单并进行了升级分析后认为可以通过有限制的实验性发布形式向前推进。

硅谷作为一个整体仍在努力解决竞争压力和技术安全之间的矛盾。人工智能研究者与专注于人工智能安全的研究人员的比例失衡反映出大型组织中提出对人工智能的担忧往往会被忽视或被轻视的现象。随着人工智能的加速发展人们对其可能对社会造成的不利影响越来越担忧。谷歌的决定再次引发了公众对这一问题的关注和讨论认为如何在竞争压力下确保人工智能的安全性和道德成为一个亟待解决的重要问题。谷歌在人工智能领域的探索与争议

自ChatGPT首次亮相以来,人工智能领域的发展日新月异,谷歌也不例外。今年年初,谷歌发布了一系列生成式人工智能产品,包括聊天机器人Bard和升级后的YouTube平台等。这一创新步伐似乎推动了谷歌进入一个全新的技术领域,但也引发了一系列关于人工智能的关切。谷歌内部的矛盾也展现在公众视野之中。本文将对这一系列事件进行深入剖析。

作为人工智能领域的领军企业,谷歌一直以来都承载着高度的关注。其产品的研发速度和影响都是不容忽视的。与此关于人工智能的问题也如影随形。从种族歧视到隐私问题,人工智能技术的潜在风险日益凸显。谷歌内部一直存在着关于如何平衡技术创新与责任的争论。在过去几年里,谷歌的一些产品就因为存在人工智能问题而引发争议。比如谷歌相簿的错误标记事件,使得公司声誉受损。此后,谷歌开始重视人工智能问题,成立了专门的部门进行研究。一些在职员工和前员工的离职引发了人们对谷歌在人工智能方面的担忧。他们担心谷歌的发展速度过快,导致没有足够的时间来研究人工智能潜在的危害。与此一些员工表示在谷歌从事人工智能工作的难度很大,他们面临着如何平衡工作与研究的挑战。他们发现自己在公司内部推动人工智能工作的难度很大,因为某些团队可能更倾向于快速推进产品的研发而非考虑其潜在风险。尽管谷歌采取了一些措施试图恢复公众声誉并加强人工智能团队的力量但问题仍然存在。尽管谷歌设立了人工智能团队并对某些项目进行了审核但在许多情况下这些审核仍然是自愿性质的这引发了一些员工对谷歌在人工智能方面的真实态度的质疑。与此同时谷歌的产品和工程团队也在努力了解为什么谷歌的人工智能在市场上进展缓慢他们意识到公众对人工智能的关切是一个重要因素。然而一些谷歌员工认为新技术应该更快地被提供给公众以便通过公众反馈进行优化他们可能更愿意冒险尝试新技术而不是过分关注其潜在风险。另一方面一些前员工表示在红色警戒发布之前谷歌工程师可能很难接触到公司最先进的人工智能模型他们需要通过研究其他公司的模型来了解技术的最新进展并探索如何在内部实现这一技术这也给谷歌带来了一定的挑战和压力尽管存在这些争议和挑战但谷歌仍然在人工智能领域进行着重要的探索和努力高拉夫・内马德这位一直在从事谷歌聊天机器人开发的前产品经理表示他看到了红色警戒和OpenAI给谷歌带来的积极变化他想知道谷歌能否成为领导者并挑战OpenAI这表明谷歌内部也存在着一股强烈的竞争意识和进取心他们希望通过不断的努力和创新在人工智能领域取得更大的突破同时也面临着巨大的挑战和压力作为一个长期致力于人工智能领域的公司谷歌需要在技术创新和责任之间找到平衡点以确保其可持续发展并赢得公众的信任和支持。总的来说谷歌在人工智能领域的探索与争议展现了一个重要的现象那就是随着科技的发展我们必须更加重视科技的问题需要企业在追求创新的同时也要关注其潜在的风险和影响以确保科技的健康发展。近期三星决定在手机中考虑采用微软必应作为默认搜索引擎,这一变化背后凸显了技术先机的决定性作用。微软必应也整合了先进的ChatGPT技术,反映了当下人工智能技术的日新月异。

谷歌内部员工发出声音,他们坚信公司已经对最新的生成式人工智能产品进行了全面且严格的安全审查,并且坚信Bard在安全性方面较竞争对手更胜一筹。一个不可忽视的事实是,目前行业的焦点是迅速推出人工智能产品。似乎在这种背景下,科技的问题被一些人看作是徒劳的探讨。

研发新人工智能功能的团队目前处于封闭的工作状态,使得大部分普通谷歌员工难以窥探到公司人工智能技术的全貌。过去,员工可以在公司邮件组和内部频道自由发表自己的观点和疑虑。但现在,谷歌以减轻“毒性”为名,推出了一系列社区指南,限制了员工的这种交流方式。一些员工对此表示疑虑,他们认为这些限制在某种程度上限制了言论自由。

米切尔表示这种情况给他们带来了挫败感。他们感到困惑:“我们到底在做什么?”尽管谷歌没有明确指示要求员工停止探讨科技问题,但在当前的工作氛围下,从事这类工作的员工明显感到自己不受支持,这可能会降低他们的工作热情。当谷歌管理层公开讨论科技时,他们更多地倾向于设想一个无法被人类控制的全能技术,而对于现实中已经存在的潜在风险却鲜少涉及。这种做法也被一些业内人士批评为营销手段。

艾尔马蒂・艾尔玛穆迪(El-Mahdi El-Mhamdi)这位曾在谷歌担任研究科学家的专家,今年2月因谷歌回避人工智能问题而选择离开。他参与的一项研究指出,从数学角度讲,现有的人工智能模型难以在保持大规模、健壮性的确保隐私安全。他并未为这项研究在谷歌内部争取到应有的讨论空间,因此他选择了放弃与谷歌的合作关系,回归学术界。他坦言:“如果你想在谷歌留下,就必须适应整个系统的运作,而非与之对抗。”

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by