尽管互联网上越来越多地充斥着虚假图片,但我们至少可以相信人类在重要时刻嗅出谎言的能力。最近的大量研究表明,人工智能生成的虚假信息对今年全球选举没有产生任何实质性影响,因为它还不是很好。
多年来,人们一直担心,越来越逼真但合成的内容可能会以有害的方式操纵观众。生成式人工智能的兴起再次引发了这种担忧,因为这项技术使任何人都可以更轻松地制作看似真实的虚假视觉和音频媒体。早在 8 月,一位政治顾问就利用人工智能模仿拜登总统的声音,在自动电话中告诉新罕布什尔州的选民在该州民主党初选期间呆在家里。
ElevenLabs 等工具可以提交某人讲话的简短声音片段,然后复制他们的声音以说出用户想要的任何内容。尽管许多商业 AI 工具都包含防止这种用途的防护措施,但开源模型仍然可用。
尽管取得了这些进步,但英国《金融时报》在一篇新报道中回顾了这一年,发现在世界各地,很少有合成的政治内容能够实现病毒式传播。
它引用了艾伦图灵研究所的一份报告,该报告发现在夏季的欧洲选举中,只有 27 条人工智能生成的内容在网上疯传。该报告的结论是,没有证据表明选举受到人工智能造假的影响,因为“大多数接触都集中在少数用户中,他们的政治信仰已经与此类内容中嵌入的意识形态叙述一致。”换句话说,在少数看到这些内容(可能在被标记之前)并被诱导相信它的人中,它强化了人们对候选人的信念,即使接触到这些内容的人知道内容本身是人工智能生成的。该报告引用了一个例子,一张人工智能生成的图像显示卡马拉哈里斯站在苏联国旗前参加集会。
在美国,新闻素养项目发现了 1,000 多个有关总统选举的错误信息,但只有 6% 是使用人工智能制作的。在 X 上,社区笔记中提到的“深度伪造”或“人工智能生成”通常只在发布新的图像生成模型时提及,而不是在选举期间。
有趣的是,社交媒体用户似乎更有可能将真实图像误认为是人工智能生成的,而不是相反,但总体而言,用户表现出了健康的怀疑态度。虚假媒体仍然可以通过官方沟通渠道或谷歌反向图片搜索等其他方式揭穿。
很难确切量化有多少人受到了深度伪造的影响,但发现它们无效是很有意义的。如今,人工智能图像随处可见,但使用人工智能生成的图像仍然具有令人反感的特性,显示出假冒的迹象。手臂可能异常长,或者脸部无法正确反射到镜面上;有许多小线索会泄露图像是合成的。Photoshop 可用于创建更令人信服的伪造品,但这样做需要技巧。
AI 支持者不一定会对这个消息感到高兴。这意味着生成的图像还有很长的路要走。任何看过OpenAI 的 Sora 模型的人都知道它生成的视频并不是很好——它看起来几乎像是视频游戏图形引擎创建的东西(猜测它是在视频游戏上训练的),显然不理解物理等属性。
尽管如此,仍有一些担忧。毕竟,艾伦·图灵研究所的报告得出的结论是,即使观众知道媒体不是真实的,包含错误信息的逼真的深度伪造也会强化他们的信念;对媒体是否真实的困惑会损害人们对在线消息来源的信任;人工智能图像已经被用来针对女性政客制作色情深度伪造,这可能会对她们的心理和职业声誉造成伤害,因为它强化了性别歧视的信念。
这项技术肯定会继续改进,所以值得关注。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/yan-jiu-fa-xian-you-yu-xiao-guo-bu-jia-deepfakes-dui-2024