捕食者利用人工智能工具描绘儿童性虐待 - 彭博社
Margi Murphy
摄影师:Chris Ratcliffe/Bloomberg儿童色情者正在利用生成式人工智能技术在网上分享虚假的儿童性虐待材料,并交流如何避免被检测到,根据美国国家失踪和被剥削儿童中心的警告和彭博新闻报道的信息。
举例来说*,*在今年头四个月,一家知名儿童侵害论坛的用户分享了68套人工生成的儿童性虐待图像,这是根据内容审核初创公司ActiveFence的儿童安全和人类剥削负责人Avi Jager的说法。Jager表示,这一数字比ActiveFence在2022年最后四个月观察到的25篇帖子有所增加,但出于安全考虑,他拒绝透露论坛的名称。
ActiveFence在周二发布的一份报告中表示,这些图像似乎是由人工智能技术创建的,不显示真实的受害人。
2022年,美国国家失踪和被剥削儿童中心的网络举报系统收到了超过3200万份涉嫌儿童性剥削的举报。几乎所有举报都涉及明显的儿童性虐待材料,或CSAM。这个举报系统是由国会设立的非营利组织运营的,用于报告美国的儿童剥削情况。
论坛用户已经“数千次”发布关于如何使用所谓的GenAI工具来生成其他具有捕食性的内容,包括帮助创建虚假人物以赢得未成年人信任的脚本,以及在哪里找到易受攻击的目标的提示。
根据该组织的首席法律官Yiota Souras的说法,利用这种新兴技术生成描绘儿童性虐待的令人不安的图像,正值NCMEC每天已经收到大约8万份关于传统照片和虐待内容的报告。
“我们正处于新事物的边缘,”她说。
尽管Souras警告称,尚未出现压倒性的激增,但她表示,随着公司努力清除其平台上与CSAM相关的材料,他们现在将遭遇由算法生成的性虐待图像的浪潮。
“我们预计这将变得更加严重,”Jager说。“这才刚刚开始。”
许多较受欢迎的GenAI工具屏蔽了某些有问题的关键词,但Jager说他注意到人们分享了如何使用规避任何现有防护措施的关键词的技巧。在这些网站上,用户推荐输入非英语语言,因为图像和文本生成工具往往对非英语短语的审查较少,Jager说。
Bloomberg News发现了一个公开的网络恋童癖者论坛,上面有一个指南,介绍了如何使用伦敦亿万美元初创公司Stability AI创建的图像生成工具Stable Diffusion生成虚假儿童性虐待材料,该指南是去年十月发布的。
稳定性AI“严格禁止在我们的平台上以及我们的政策中任何为非法或不道德目的而滥用,”该公司的传讯总监莫特兹·比沙拉说。
“在过去的七个月里,我们已经采取了许多措施,大大减少了从我们的模型中暴露到不适宜工作内容的风险,”他说。“这些措施包括在我们所有的图像应用程序、API和模型中安装阻止不安全和不适当内容的过滤器,并对我们的图像模型进行训练,让其基于已经过滤了NSFW图像的数据集。”
关于人工生成的虐童材料的投诉已经开始报告。国家失踪和被剥削儿童中心正在与立法者和平台就该中心担心可能会成为“一波”此类内容的处理方式进行讨论,该中心的首席法律官索拉斯说。
索拉斯表示,该组织已经观察到色情勒索、诱骗和性交易的增加,其中在线掠食者似乎使用AI生成的脚本来诱使受害者。其他关注点包括如何区分AI生成的描绘虐待的内容与真实摄影,这可能会分散执法和内容管理的注意力,索拉斯说。
在美国,生成涉及儿童进行性行为的虚假图像是非法的,根据司法部的说法。在英国、澳大利亚和加拿大等国家,生成虚假的儿童性虐待图像也是非法的。