给“深度伪造”这匹“野马”拴上缰绳
科技日报记者刘霞报道,生成式人工智能(AI)制造的虚假内容正在迅速传播,这些所谓的“深度伪造”内容,包括图片、音频和视频等,被用于骚扰他人、诈骗金钱,甚至干扰选举。这一现象引发了全球范围内的忧虑。
近日,英国《新科学家》网站报道了一项由美国OpenAI公司推出的新型文本—视频模型Sora。该模型让人们能更快捷、更廉价地制作出视频,使得事实与虚构的分界线愈加模糊。这不仅加剧了人们对虚假和错误信息泛滥的担忧,同时也让如何预防和阻止“深度伪造”内容误导大众成为各国和科技巨头面临的重大挑战。
Sora模型的出现,无疑给社会带来了前所未有的复杂性。正如一把双刃剑,它在带来便捷的也带来了无法忽视的风险。我们必须认识到,科技的进步需要与之相匹配的社会责任感和观念。面对这一难题,不仅需要科技巨头们的努力,更需要、公众和社会各方的共同参与和协作。
各国需要制定和实施更为严格的法规和政策,以遏制“深度伪造”内容的传播。科技巨头则需要承担起更大的社会责任,利用自身技术优势,研发出能够有效识别和过滤虚假内容的技术手段。公众也需要提高媒介素养,学会辨别真假信息,不轻易被虚假内容所误导。
面对这一挑战,我们必须携手共进,共同营造一个真实、准确、公正的信息环境。只有这样,我们才能真正利用科技的力量,推动社会的进步和发展。图片来源:视觉中国
“深度伪造”现象愈发严重
自2014年起,随着生成对抗网络技术的兴起,首波“深度伪造”内容逐渐进入公众视野。生成对抗网络是一种AI模型间的对抗技术,其持续进化能够提高虚假图片的真实性。这一代的“深度伪造”内容制作不仅需要花费大量时间,还要求创作者具备AI技术背景知识。
据美国纽约州立大学布法罗分校计算机与电子工程系教授吕思伟指出,当时制作一段30秒的视频,往往需要进行数周的数字后处理工作和依赖强大的计算能力,即便如此,视频的真实性仍难以令人满意。
令人震惊的是,在过去的两年里,新型AI技术的迅速商业化使得“深度伪造”内容的生产变得极其容易且可大规模进行。只要具备基本的文本编写能力,任何人都可以利用DALL-E、Stable Diffusion等工具,在短短几秒内生成图像。还有一些工具允许用户通过上传或录制音频样本来克隆语音。
如今,“深度伪造”已变得越来越容易,其带来的风险与挑战也不容忽视。这种技术的滥用可能导致虚假信息的传播、误导公众,甚至对个人的隐私和声誉造成损害。对于这一领域的监管和道德讨论至关重要。近年来,“深度伪造”技术迅速蔓延,网上涌现出超过9.5万个虚假视频,相较于2019年,这一数字增长了550%。研究揭示,虚假信息的传播速度竟可达到真实信息的六倍,其冲击力更是能直击特定受众的心灵。
这类“深度伪造”内容正通过错误信息和虚假信息对选举构成日益严重的威胁,使得选举过程更加复杂。以去年美国芝加哥市长初选为例,社交媒体上流传着一段模仿候选人保罗·瓦拉斯的声音发表不实陈述的视频。该视频声称“警察可随意射杀嫌疑人”,并呼吁削减警察预算。尽管瓦拉斯向社交媒体平台投诉后,该视频被删除,但在其被下架前,已被浏览了数千次。
今年1月,新罕布什尔州又发生了一起令人震惊的事件。检察长办公室的一项机器人电话活动使用了由“深度伪造”技术制作的模仿拜登总统的声音,敦促人们不要在该州1月23日的总统初选中投票。这一事件迅速引起了全美国的广泛关注,并引发了关于AI“深度伪造”对大选可能产生的影响的热烈讨论。
这一技术的滥用不仅干扰了正常的政治秩序,更对公众的信息认知造成了极大的误导。每一个被伪造的音视频都可能引发轩然大波,对选举结果产生不可预知的影响。在这个信息化高度发达的时代,我们更应警惕“深度伪造”技术的滥用,确保选举的公正与公平。去年11月发布的民调结果显示,在参与调查的2023年10月的美国成年人中,有越来越多的声音担忧AI可能对即将到来的2024年美国大选造成影响。相较于两年前,这一担忧的比例增加了5个百分点,达到了惊人的58%。与此全球范围内,包括英国、印度、尼日利亚、苏丹、埃塞俄比亚和斯洛伐克等国在内,都发现了网络上传播的虚假政客视频疑似由AI制作。
这种趋势的发展引发了人们对虚假信息和深度伪造技术的担忧,人们迫切感受到加强监管的必要性。《新科学家》网站的报道揭示了这一点,很多人已经深刻认识到深度伪造可能带来的巨大影响,但目前针对AI的防范措施仍然远远不够。欧盟已经采取了行动,《数字服务法》要求科技平台识别和标记AI生成的内容。而在美国,也有多个州开始制定相关法律,将创建或传播有害的深度伪造内容确定为非法行为。科技平台在此过程中肩负的责任尤为重大。他们需要采取有效措施阻止虚假信息的传播。据报道,《金融时报》指出亚马逊、谷歌、元宇宙平台、微软等科技巨头已在慕尼黑安全会议期间明确表示,他们将合作打击旨在误导选民的内容制作和传播。他们承诺将以“迅速和适当”的方式对这些内容采取行动,比如通过添加水印等方式明确图片的来源和是否被篡改的状态。这些措施的实施将有助于维护网络环境的真实性和公正性。现今,科技界巨头已经接纳了“内容来源和真实性联盟”(C2PA)的标准,这一标准将通过数字内容的来源及创作者信息,对数字内容进行独特的编码。今年二月,元宇宙平台公司率先宣布将在其社交媒体上标识出AI生成的图像。紧随其后,谷歌表示将为其生成式AI工具集成C2PA水印系统,OpenAI也表达了同样的承诺。
专家对此持保留意见。他们认为,虽然添加水印或许能够在某种程度上起到作用,但这并不能有效阻止那些心怀不轨者利用开源AI工具。这一问题也并未解决深受“深度伪造”侵害的用户的隐私权保护难题。尽管技术的进步给我们带来了更多的可能性,但在面对这些挑战时,我们仍需寻求更为有效的解决方案。
家用机器人
- 给“深度伪造”这匹“野马”拴上缰绳
- 揭秘京东方交互式电子白板解决方案背后的推手
- 净利率超30%,机器人减速器国产龙头,绿的谐波
- 苹果Siri助手声音进化如何模拟真人语音2025版
- 四大“北京服务”领域产业链创新链融合,预计
- 首份无人驾驶报告:技术快速成熟带来自由 但“
- 扫地机器人排位赛
- 智能化媒体时代2025年新闻领域转型人机协同新路
- 对于未来的机器人产业,赵杰教授作了这几个大
- 如果机器人都能考上大学,世界会发生什么变化
- 极狐汽车年销量增长138%,“第三空间”深受用户青
- 机器人对人类的影响探究恐惧背后的原因_2025版
- 南江:让机器人走进生活
- 东亚、欧洲、北美:人工智能研究三足鼎立
- 九号公司发布Segway赛格威智能割草机器人,实现
- 奔跑于现实的机器人,肩负着未来的新希望