X在以色列袭击后首次面临大规模内容政策考验-华尔街日报
Alexa Corse and Sarah E. Needleman
上周末爆发的以色列和哈马斯之间的战争是社交媒体内容审查多年来面临的最大考验之一。到目前为止,埃隆·马斯克的X公司陷入困境,情况可能会变得更糟。
自哈马斯于10月7日袭击以色列以来,社交媒体平台一直在应对一系列挑战——误认的视频素材、捏造的信息和暴力内容。
可怕暴力事件的爆发挑战了所有社交媒体公司的内容审查能力,因为宣传者和机会主义者在其平台上充斥着虚假信息。
除X外,TikTok和Facebook在哈马斯袭击以色列之后也处理了虚假和误导性内容。即使是拥有庞大员工队伍和资源专门用于审查虚假或仇恨内容的社交媒体平台在过去一周也遇到了困难。
现在,研究社交媒体的人士表示X处于特别不稳定的位置。
最近几天在X上蔓延的帖子包括被误导性重新利用的旧视频剪辑、虚假呈现为哈马斯袭击的视频游戏素材以及一份虚假的白宫新闻稿。马斯克本人在发布了建议用户关注两个研究人员称为可疑的账户的推文后引发了争议。他的推文后来被删除。
“平台正在失败,”普林斯顿大学计算机科学助理教授乔纳森·迈尔说道。迈尔的研究批评了平台对有问题内容的回应,他提到了图像和赞美暴力并呼吁更多暴力的帖子。“这些内容读取起来很容易,但并没有迅速被删除,”他说。“证据非常清楚。”
X表示已经删除了新创建的哈马斯关联账户。照片: Josh EdelsonGetty Images欧盟高级官员蒂埃里·布勒顿最近几天致信X、Meta平台和TikTok,要求它们详细说明打击冲突周围的非法内容和虚假信息的计划。布勒顿周四通过额外的信息请求加大了对X的压力。
X首席执行官琳达·雅卡里诺周一退出了原定下周参加《华尔街日报》年度技术大会的计划,称她需要专注于冲突。
一天后,X表示雅卡里诺正在指导一个全天候工作的特别小组,以打击误导性内容或违反其他政策,并确保其内容审核员高度警惕,包括对希伯来语和阿拉伯语的审核。X 还表示已经删除了新创建的哈马斯关联账户,删除了试图操纵热门话题的账户,与一个行业组织协调,并删除或标记了数万条帖子。
马斯克已经描述他对内容管理的策略是言论自由,而不是传播范围,称该网站可能会保留法律范围内的负面或相当令人震惊的内容,但不会放大它。
在哈马斯袭击之前和之后的几天,X在欧盟的内容管理决定数量远低于许多社交媒体竞争对手,根据欧盟新内容管理法案下建立的这类决定数据库。
X在袭击发生前后三天的平均每天约有8,900个管理决定,而Facebook每天约有415,000个管理决定——这个比例要小得多,考虑到每个平台在欧盟的用户基数。在大约四分之三的情况下,X对这些帖子进行了NSFW(不适宜上班场所)标记,但似乎没有将其删除。
埃隆·马斯克已经裁减了X(原名Twitter)上的许多内容和安全政策工作岗位。图片: 汤姆·威廉姆斯/祖玛新闻社马斯克的策略包括大量依赖社区笔记,一个事实核查功能,志愿者在误导性帖子下面写上上下文笔记。该公司表示,它使用算法来展示被不同观点用户评为有帮助的笔记。
一些观察者表示,这种策略是有缺陷的,他们认为人们倾向于快速滚动浏览帖子,如果他们花时间阅读一条帖子,那么他们很可能已经消化了内容,尤其是视频内容。
“视觉媒体可以被立即解析并且更加易记,”多伦多都会大学科技与伦理副教授理查德·拉赫曼说。
最近几天,包括一些经过验证的账号在X上传播了一段视频,显示了2020年阿尔及利亚体育冠军庆祝活动,错误地声称这是以色列的袭击,斯坦福互联网观察主任、前Facebook首席安全官亚历克斯·斯塔莫斯指出。
尽管视频下方已经附上了一个事实核查社区说明,但截至周三,其中一条帖子已经有120万次观看。截至周三中午,一些其他分享了视频的帖子上缺少了这个说明,而这些帖子的观看次数较少。
X周二表示,三天内其志愿者们撰写的说明已经被数千万次观看。该公司发布了一个链接,供更多用户注册,并表示最近推出了一个更新,使说明能够更快地出现在帖子下方,并且正在努力提高自动找到并附加说明到重复使用相同视频和图片的帖子的能力。
然而,除了必须考虑这些说明之外,用户可能还需要努力确定一个未经验证的账号是否合法,因为X最近开始收费进行验证,许多用户不愿意为此付费。
大卫·弗鲁姆(David Frum)是一位作家,曾是乔治·W·布什总统的演讲撰稿人,周日发表言论称,20分钟在Twitter上的价值曾经比20分钟的有线电视新闻更大。现在,他说,“你仍然可以在这里找到有用的信息,但你必须比一年前更努力地寻找、筛选和屏蔽。”
以色列士兵在以色列卡法阿扎(Kfar Aza)移走一名平民的尸体。图片: Amir Levy/Getty Images研究人员表示,关于战争的误导性内容的泛滥也给社交媒体公司带来了更大规模的挑战。据社交威胁情报公司Cyabra称,在冲突的最初48小时内,超过40,000个在X、TikTok和Facebook上参与有关冲突讨论的账户是虚假的。该公司表示,一些账户是提前一年以上创建,为了进行虚假信息宣传活动做好了准备。这些虚假账户一直试图主导讨论,在此期间传播了超过312,000条帖子和评论。
“这种复杂程度,加上虚假账户的规模和实时进行影响力运作所需的准备工作,对于一个恐怖组织来说是前所未有的,类似于一个国家行为者级别的组织,”Cyabra表示。
一则病毒式传播的故事在X、Facebook和TikTok上声称以色列轰炸了加沙的圣普罗菲里奥斯希腊东正教堂。该教堂在周一在其Facebook页面上否认了这一说法。研究组织Bellingcat的调查称,一些视频分享了关于空袭的合法信息,但往往夹杂着虚假声明。
Facebook母公司Meta Platforms表示,他们成立了一个特别行动中心,由专家组成,包括流利的希伯来语和阿拉伯语讲者,并且正在全天候工作,采取行动处理违规内容,并与该地区的第三方事实核查机构协调。TikTok表示,他们增加了资源以防止暴力、仇恨或误导性内容,包括增加希伯来语和阿拉伯语的内容审核,并与事实核查组织合作。
对战争的图像报道可能存在几个潜在的冲突影响——可能会给观众带来创伤,并且可能会涉及删除提供历史记录和潜在战争罪证据的准确信息的问题。2018年,Facebook因下架展示缅甸政府支持的暴力行为的帖子而受到赞扬和批评针对缅甸穆斯林罗辛亚少数民族的,前Facebook首席安全官斯塔莫斯说。
2019年在Facebook上直播的新西兰基督城大屠杀导致投资于能够实时标记潜在暴力内容的技术。然而,仍然需要有人员审查标记的内容才能将其删除,斯塔莫斯说,这就是为什么平台需要强大的审核团队如此关键。
巴勒斯坦武装分子周一威胁说将开始处决囚犯并表示他们将进行广播。这一威胁是在以色列军方表示他们将采取进攻行动,加剧轰炸活动之后发出的。
大规模直播或录制的人质处决视频在社交媒体上出现的可能性很高,对平台来说可能会极具挑战性,布鲁金斯学会社交媒体高级研究员达雷尔·韦斯特表示。这可能包括删除内容或添加警告。
他说:“当出现这样的有组织行动时,可能会有成千上万的人发布内容。平台要处理这个问题会很困难。”
山姆·谢克纳 对本文有贡献。
请写信给亚历克莎·科尔斯,邮箱为 [email protected],以及萨拉·E·尼德尔曼,邮箱为 [email protected]