首页 > 资讯 > 内容

Facebook被指控为印度东北部的仇恨的扩音器

资讯 2019-10-31 19:50:25

想象一下,有一天您将要开展业务,将孩子放学,上班,带杂货回家吃晚饭。第二天,除非您能证明自己的公民身份,否则在您出生的国家/地区被视为“非法”,并列入计划派遣的“外国人”名单。

更糟糕的是,您的社区遭到了Facebook的无情攻击,遭受了最恶毒的虐待和劝告,旨在使您,您的家人和社区陷入困境。同时,社交媒体巨头无法或愿意适当干预并制止仇恨言论。

这不是虚构的反乌托邦式练习,实际上是 印度东北阿萨姆邦的孟加拉穆斯林社区所面临的实际情况,这要归功于印度总理纳伦德拉·莫迪及其副将阿米特·沙阿(Amit Shah)策划的令人震惊的残酷行径,他们设计了一个计划,剥夺了近200万公民的国籍。

他们和他们的政党,右翼民族主义者BJP通过《全国公民登记簿》(NRC)颁布了一项选举保证,将无法证明自己的家人在该国阿萨姆邦的孟加拉穆斯林(1971年之前孟加拉国当时称为,随着东巴基斯坦的成立。作为背景,印度,巴基斯坦和孟加拉国曾经是导致分区的次大陆的英国殖民末日之前的一个国家。阿萨姆邦(Assam)人口为3000万,其中至少有1000万是穆斯林。

这本身就是孟加拉穆斯林的巨大悲剧。更糟糕的是 ,据TechCrunch称,Facebook允许其平台通过允许针对孟加拉少数民族的仇恨言论来煽动潜在的种族灭绝。阿瓦兹(Aavaz)是致力于人权问题的非营利组织,在题为《仇恨的扩音器:阿萨姆邦公民身份期间在Facebook上的虚假信息和仇恨言论》的报告中,在有关阿萨姆邦和NRC的平台上筛选了800条帖子 并发现至少有100,000条评论被视为仇恨言论。这些内容至少被浏览了540万次,分享了99,650次。发表的评论是仇恨言论的源泉,从被标记为“罪犯”,“狗”,“猪”,“强奸犯”和“恐怖分子”的少数穆斯林人口到呼吁消灭他们。其他评论则要求人们“毒化”穆斯林少数民族的女儿,并使女性杀害妇女合法化。Avaaz高级竞选人Alaphia Zoyab表示,Facebook本质上被用作针对阿萨姆邦弱势少数民族的“仇恨扩音器”。

Facebook回应指责说,它一直关注捍卫包括印度在内的世界各地的少数民族和边缘化社区的权利,一旦其被Facebook知道,将删除违反其政策的内容。显然,根据阿瓦兹(Avaaz)出土的统计数据,这些努力完全无效。

Zoyab在《时代》杂志上说:“当我们使用Facebook的在线报告工具在阿萨姆邦在线标记仇恨言论时,Facebook向我们发送了自动消息,说这并不违反他们的社区标准。” “ Facebook一直说对仇恨言论采取零容忍政策,但阿萨姆邦似乎证明这是百分之一百的失败。”

如果阿瓦兹(Avaaz)的警告似乎夸张,那么您只需要回顾一下Facebook 在缅甸极端佛教徒灭绝罗兴亚人的运动中的作用,他们屠杀并强奸了成千上万的人,驱车将近70万人逃往孟加拉国。Facebook本身承认,它使罗兴亚人失败。《卫报》 提到,Facebook的产品政策经理在博客中承认,Facebook在防止此类滥用方面做得很少。

问题是,Facebook依靠相对较少的人来监管其内容。根据 TechCrunch的 报告,Facebook在对有关阿萨姆邦状况的一般性回答中表示,有由阿萨姆语族组成的审阅者,他们以该语言对内容进行审阅。但是,当您考虑到该公司在全球范围内为信任和安全雇用了35,000名员工,而不到一半的员工仅负责20亿用户群中的内容审核时,这就像在使用喷壶扑灭森林大火。

那么,对AI的依赖,新的发光技术治愈所有这些呢?Zoyab说,这根本行不通。她在《时代》杂志上补充道:“我们的研究表明,依赖是基于错误的前提,因为它假设人们在煽动仇恨言论,然后再教授其人工智能系统。这没有发生。”

扎克伯格本人向美国国会议员承认,可能需要五到十年的时间才能开发出可以在将不同类型的内容标记给Facebook内容人员之前就基本的语言细微差别进行协商的AI工具。他说:“今天我们还没有做到这一点。”

因此,我们所拥有的是效率低下的AI和少量的内容审阅者,它们会掩盖公司自身平台上的一些最危险的仇恨言论。公司自己承认,这种管制已经导致了一次种族灭绝。

阿瓦兹(Avaaz)的佐雅(Zoyab)说:“当您成为无国籍人时,您实质上失去了享有权利的权利。”

“总体而言,我们只是发现Facebook在保护世界上最脆弱的人群方面睡着了。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。