梅塔说,99%的恐怖主义材料被自动删除

今日百科 编辑:雪丽 日期:2025-04-05 02:23:40 5人浏览

  

  France, Paris, 2022-11-09, Facebook s parent company meta Group, founder Mark Zuckerberg, announced on Wednesday 9 November that he was laying off 11,000 employees, Photography by Serge Tenani / Hans Lucas. France, Paris, 2022-11-09, Illustration du groupe meta maison mere de Facebook, le fondateur Mark Zuckerberg a annonce mercredi 9 novembre le licenciement de 11 000 salaries, Photographie par Serge Tenani / Hans Lucas. (Photo by Serge Tenani / Hans Lucas / Hans Lucas via AFP)

  社交媒体巨头meta表示,该公司目前在其平台上收集了99%以上的恐怖主义材料。

  在2019年克赖斯特彻奇清真寺枪击事件发生后,限制有害在线内容传播的重要性得到了强调,该事件进行了直播。

  meta拥有Facebook、Instagram、WhatsApp和Messenger。

  该公司负责内容的公共政策经理Manu Gummi在马尼拉举行的东西方中心国际媒体会议上表示,自动化系统和人工版主可以迅速标记出可能与恐怖主义有关的内容。

  “我们通过自动化删除了其中99%以上的内容,因为多年来,我们的系统在删除这些内容方面已经变得非常出色和准确。”

  meta旨在减少但并不总是删除其他有害内容,如错误信息。

  “我们会降低他们的传播,以确保更少的人看到它,它不会被广泛分享或传播。我们告知——我们给人们提供背景,这样他们就可以决定他们可以阅读和信任分享的内容。

  “不只是删除内容,我们实际上告诉他们这是假的,这样他们就可以识别这些信息,他们可以告知自己,他们可以了解你在那里看到的是什么样的错误信息。”

  “事实的未来”会议关注人工智能、虚假信息和媒体信任度下降带来的威胁。

  Gummi表示,meta正在采取措施,提醒用户内容是由人工智能制作的。

  “我们依靠人们自我披露,并确保他们告诉我们这是人工智能生成的东西,或者我们也在努力制定行业标准,以识别人工智能生成的内容,并确保人们自己披露。”

  meta从8月份开始停止使用Crowd Tangle分析工具,但这一决定受到了批评,因为人们担心它会降低透明度,并降低追踪病毒式内容、错误信息和虚假信息的能力。

  Gummi说:“弃用Crowd Tangle并不一定意味着我们不会有工具来破坏操纵网络等等。”“这只是一个关于meta在哪里投资资源的商业决策。

  “对于某些我们无法从中获益的资源,或者用户没有表现出兴趣的资源,我们不得不做出商业决策,放弃使用这些资源。

  “但这并不意味着我们没有其他资源。我们确实有其他工具来破坏我们正在开发或已经在开发的这种行为。”

  吉尔博nnett在亚洲新西兰基金会的帮助下前往菲律宾

分享到

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。