我们需要讨论一下人工智能如何清理深度伪造视频——彭博社
Parmy Olson
每个人都是脆弱的。
摄影师:OLIVIER DOULIERY/AFP当人们担心人工智能时,不仅是因为他们对未来的看法,还因为他们记得过去的事情--特别是社交媒体的有毒影响。多年来,虚假信息和仇恨言论逃过了Facebook和Twitter的监管系统,并在全球传播。现在,深度伪造技术正在渗透这些平台,而Facebook 仍然负责不良内容的传播,制造这些技术的人工智能公司也有清理责任。不幸的是,就像之前的社交媒体公司一样,他们在幕后进行这项工作。
我联系了十几家生成式人工智能公司,他们的工具可以生成逼真的图像、视频、文本和语音,询问他们是如何确保用户遵守他们的规定的。1 十家公司都回复了,确认他们使用软件监控用户生成的内容,大多数称他们也有人工审核这些系统。几乎没有人同意透露有多少人负责监督这些系统。
但是他们为什么要这样做呢?与制药、汽车和食品等其他行业不同,人工智能公司没有法定义务披露他们的安全实践细节。他们可以像社交媒体公司一样对这项工作保持神秘,而且这种情况可能在未来几年内仍将存在。欧洲即将出台的人工智能法案宣扬“透明要求”,但目前尚不清楚它是否会迫使人工智能公司像汽车制造商和食品生产商一样接受安全实践审计。
对于其他行业来说,采用严格的安全标准花了几十年的时间。但是当人工智能工具发展如此迅速时,世界无法承受让它们自由发展那么长时间。Midjourney最近更新了其软件,可以生成如此逼真的图像,以至于可以显示政治家的毛孔和细纹。在一个重要的选举年开始之际,接近一半的世界将进行选举,监管真空意味着人工智能生成的内容可能对民主、妇女权利、创意艺术等产生毁灭性影响。
以下是解决这个问题的一些方法。其中一种方法是推动人工智能公司更加透明地公布他们的安全实践,这始于提出问题。当我联系OpenAI、微软、Midjourney和其他公司时,我提出了简单的问题:你们如何使用软件和人员执行规则,以及有多少人员在执行这项工作?
大多数公司愿意分享关于防止滥用的流程细节(尽管措辞含糊)。例如,OpenAI有两个团队的人员帮助重新训练他们的人工智能模型,使其更安全或者对有害输出做出反应。引起争议的图像生成器Stable Diffusion背后的公司表示,他们使用安全“过滤器”来阻止违反规则的图像,并且人类审核员会检查被标记的提示和图像。
人工智能人员监管的神秘
大多数人工智能公司不会透露有多少人帮助确保他们的产品安全
来源:这些公司
注意:所有十家公司都使用软件和人员的组合来监控提示、输出或两者兼而有之。Descript使用内容审核员来验证用户,但不检查他们对其语音克隆工具的使用。
从上面的表格中可以看出,然而,只有少数公司披露了有多少人类在监督这些系统。把这些人类想象成内部安全检查员。在社交媒体上,他们被称为内容审核员,他们在双重检查社交媒体算法标记为种族主义、厌恶妇女或暴力的内容方面发挥着具有挑战性但至关重要的作用。Facebook有超过15,000名审核员来维护网站的完整性,而不会扼杀用户的自由。这是人类最擅长的微妙平衡。
当然,大多数AI工具都不会像人们在Facebook上那样产生有害内容,因为它们内置了安全过滤器。但如果它们雇佣更多的人类审核员,它们仍然可以使自己更安全、更值得信赖。在缺乏更好的用于捕捉有害内容的软件的情况下,人类是最好的临时措施,而迄今为止,这方面的软件已经被证明是不足的。
泰勒·斯威夫特的色情deepfakes和总统乔·拜登的语音克隆以及其他国际政治家的例子只是其中几个例子,突显了人工智能和科技公司在安全方面的投入不够。诚然,雇佣更多人类来帮助他们执行规则就像拿更多的水桶来扑灭房子的火灾。这可能解决不了整个问题,但它会暂时让情况变得更好。
“如果你是一家正在开发具有生成式人工智能组件的初创公司,那么在开发过程中的各个阶段雇佣人类是非常明智甚至至关重要的,”《一切适度》的创始人本·惠特劳说,该刊物是关于在线安全的通讯。
几家人工智能公司承认只有一两名人类审核员。视频生成公司Runway表示,他们自己的研究人员负责这项工作。Descript公司生产一款名为Overdub的语音克隆工具,他们表示只检查了一部分克隆声音,以确保其与客户朗读的同意声明相匹配。该初创公司的女发言人辩称,检查他们的工作会侵犯客户的隐私。
人工智能公司拥有无与伦比的自由度来秘密进行他们的工作。但如果他们希望确保公众、监管机构和公民社会的信任,向外展示他们如何确切地执行他们的规则是符合他们的利益的。雇佣更多的人类也不失为一个坏主意。过于专注于让人工智能“更智能”,使假照片看起来更真实,文本更流畅,或者克隆声音更具说服力,这样的做法威胁着将我们推向一个更加危险、令人困惑的世界。最好是在一切变得更加困难之前加强并公布这些安全标准。
更多来自彭妮·奥尔森在彭博观点的文章:
想要更多彭博观点吗? OPIN <GO> 。或者订阅 我们的每日新闻简报 。