Facebook吹哨人亮明身份:牺牲社会利益 赚钱太黑了

据报道,一名向美国执法部门举报Facebook的前雇员日前接受CBS《60分钟》栏目采访时表示,她在Facebook目睹了“公众利益和Facebook利益之间的冲突”。

她叫弗朗西斯·豪根(Frances Haugen)。事实上自从上个月遭到前员工的匿名举报以来,Facebook一直都想知道这名神秘举报人的身份。

举报信显示,Facebook的内部研究表明,这个全球头号社交网络对仇恨心理、错误信息和政治动荡都起到了推波助澜的作用——但他们却对此秘而不宣。

其中的一项指控称Facebook旗下的Instagram对青春期少女构成伤害。豪根的这封举报信的破坏力堪称史无前例,原因是她在5月份离职时带走了Facebook的大量内部研究报告。上个月这份文件被媒体曝光。

而在10月4日晚间,豪根则通过CBS的《60分钟》节目首次公开了自己的身份,还亲自解释了她为何要充当Facebook不端行为的“吹哨人”。

豪根:我在Facebook反复目睹了公众利益与Facebook利益之间的冲突。而Facebook则一次又一次地选择追求自身利益,努力赚钱就是其中最典型的一项。

豪根今年37岁,是一位来自爱荷华州的数据科学家,她拥有计算机工程学位和哈佛商科硕士学位。她曾为谷歌和Pinterest等公司效力了15 年。

豪根:我见过很多社交网络,从没见过Facebook这么糟糕的公司。

主持人:其他人离职以后可能不会“多管闲事”。我想知道你为什么要这么做。

豪根:换位思考一下,如果你是我,你知道Facebook内部发生了什么,你还知道外界对此一无所知。我知道如果我继续留在Facebook,我的未来会是什么样子,那就是不断在内部消化这个问题,然后彻底躺平。

主持人:你是什么时候把这些文件带出公司的?具体是怎么做的?

豪根:2021年的某个时候,我意识到:“我必须采取系统性的方式来做这件事,而且我必须要拿出足够的证据,让这件事情无可置疑。”

她偷偷复制了好几万页的Facebook内部研究报告。她说,有证据表明,该公司欺骗公众,让人们以为它在打击仇恨、暴力和虚假信息方面取得了重大进展。

她今年发现的一项研究报告里面提到:“我们估计,尽管我们在这方面处于全球顶尖水平,但我们可能只会在对Facebook上3%至5%的仇恨内容和0.6%的暴力和煽动性内容采取行动。”

主持人:你提供的另一份文件写道,“我们从各种来源获得的证据表明,Facebook以及旗下的各类应用程序上的仇恨言论、分裂性政治言论和错误信息正对世界各地的社会产生影响。”

豪根:当我们生活的信息环境中充斥着愤怒、仇恨、极端的内容时,就会侵蚀民众的信任,侵蚀我们对彼此的信心,侵蚀我们相互关怀的能力,Facebook目前的这种形态正在撕裂我们的社会,并在世界各地引发种族暴力。

“种族暴力”包括2018年缅甸军方使用Facebook发动的种族灭绝行动。

豪根表示,她于2019年加入Facebook。她加入Facebook是为了打击错误信息,因为她曾因为网络阴谋论而失去了一位朋友。

豪根:我从不希望任何人遭受我这样的痛苦经历。确保Facebook呈现高质量信息事关重大。

在Facebook总部,她被分配到公民诚信(Civic Integrity)部门,负责处理包括错误信息在内的选举风险。但在美国大选之后,事情却发生了转折。

豪根:他们告诉我们,“我们准备解散公民诚信部门。”他们的意思是说,“哦,太好了,我们过了大选这一关。没有发生骚乱。现在可以解散公民诚信部门了。”但几个月后却发生了暴乱。当他们解散公民诚信部门时,我心想:“我不相信他们愿意投入应该投入的资源来防止Facebook变成危险的地方。”

Facebook表示,公民诚信部门的工作已分配给其他部门。豪根则表示,Facebook问题的根源在于它在2018年对算法进行的调整——正是这个算法决定了你能在Facebook信息流上看到什么内容。

豪根:所以,如果你您坐下来刷5分钟手机,可能只会看到100条内容,但这确是Facebook从成千上万的备选项里面挑选出来的。

这套算法根据你过去互动率最高的内容进行选择。

豪根:Facebook的这种内容筛选方式存在很多弊端,其中之一就是它会针对我们所参与的内容或引发我们反应的内容进行优化。

但它自己的研究表明,仇恨、分裂、极端的内容更容易引发人们的愤怒情绪,而不太容易激发其他的情绪。

主持人:错误信息、愤怒的内容——这些都很吸引人,而且……

豪根:非常诱人。

主持人:……能加强用户的粘性。

豪根:没错。Facebook已经意识到,如果他们把算法调整得更加安全,人们在它网站上停留的时间会减少,点击的广告也会减少,他们赚的钱也会减少。

豪根说,Facebook明白2020年大选蕴含的危险。因此,它开启了安全系统以减少错误信息——但她说,其中许多变化都是暂时的。

豪根:选举一结束,他们就把系统关掉了,或者把设置改回原来的样子。这时的重点是增长,而不再是安全。

在我看来,这简直是对民主的背叛。

Facebook表示,该公司仍然保留了一些安全系统。但在大选结束后,一些人利用Facebook来组织1月6日的暴乱。检察官引用了一些Facebook的帖子作为证据——包括武装人员的照片以及许多文字内容,例如“赶紧通过子弹或投票来恢复共和吧!”极端分子使用了许多平台,但Facebook是主要阵地。

根据豪根保留的内部留言板副本,Facebook员工在袭击发生后情绪激动。“……难道我们没有足够的时间来弄清楚如何在不助涨暴力的情况下管理言论吗?” 我们搜寻其中的积极的评论后,发现了这一条,“我认为我们的领导团队没有无视数据,无视异议,无视真相……”但却引来了这样的回复:“欢迎来到Facebook!我发现你是2020年11月才入职的……我们多年来一直都在目睹……公司领导层不痛不痒的行动。”“……同事们……不能问心无愧地为一家没有采取更多措施减轻平台负面影响的公司工作。”

主持人:Facebook本质上放大了人性中最阴暗的一面。

豪根:这是这些不幸的后果之一,对吧?Facebook没有人是恶意的,只是激励措施错位了,对吧?问题在于,你看的内容越多,Facebook赚的钱就越多。人们喜欢参与引起情绪反应的事情。他们接触到的愤怒越多,互动就越多,看的内容也就越多。

正因如此,欧洲的一些主要政党才投诉Facebook。豪根获得的这份2019年的内部报告称,各方“……强烈认为算法的变化迫使他们在Facebook上的沟通中产生了负面情绪……导致他们采取更极端的政策立场。”

主持人:欧洲政党其实是在对Facebook说:你编写算法的方式正在改变我们领导国家的方式。

豪根:是的。你在强迫我们采取我们不喜欢的立场,众所周知,这对社会有害。我们知道,如果我们不采取这些立场,就无法在社交媒体行业胜出。

她说,有证据显示,Facebook的这种负面影响已经蔓延到Instagram上。

主持人:你发现的Facebook内部研究中,有一份谈到了Instagram如何伤害青春期少女。一项研究表明,13.5%的少女表示,Instagram会使强化她们的自杀念头;17%的少女表示,Instagram会使饮食失调更为严重。

豪根:Facebook自己的研究表明,当这些年轻女性开始观看这种强化饮食失调的内容时,她们会变得越来越沮丧。这实在令人心痛不已。实际上,这能让她们更多地使用这款Instagram。因此,他们最终进入了这个反馈循环,让她们越来越讨厌自己的身体。Facebook自己的研究表明,Instagram不仅对青少年构成危险,而且还对青少年构成了实实在在的伤害,这种情况比其他社交媒体更为严重。

就在上周,Facebook宣布推迟为年幼的儿童创建Instagram帐号的计划。

上个月,豪根的律师向负责金融市场执法的美国证券交易委员会(SEC)提交了至少8项投诉。这些投诉将Facebook的内部研究与公司的公众形象进行了对比——主要是其CEO马克·扎克伯格(Mark Zuckerberg)的公众形象,他在3月通过远程方式出席了美国国会的听证会。

扎克伯格在3月25日的证词中说:我们删除了可能对现实世界立刻构成伤害的内容。我们建立了前所未有的第三方事实核查项目。这套系统并不完美。但在符合我们国家价值观的错误信息处理方式中,这是我们所能找到的最优解。

约翰·泰伊(John Tye)是豪根律师团的成员之一。他在华盛顿创办了一家名为“吹哨人援助机构”( Whistleblower Aid)的法律团体。

主持人:你投诉到SEC的法律依据是什么?你认为他们违反了哪些法律?

泰伊:作为一家上市公司,Facebook不得对投资者撒谎,甚至不得隐瞒重要信息。因此,SEC定期采取执法行动,指控Facebook等公司存在重大的虚假陈述和信息遗漏,对投资者产生不利影响。

主持人:Facebook可能指控豪根窃取公司文件。

泰伊:10年前通过的《多德-弗兰克法案》(Dodd-Frank Act)在SEC内部设立了一个吹哨人办公室。该法律的一项条款规定,任何公司都不能禁止其员工与SEC沟通并与SEC共享公司内部文件。

豪根:我非常同情马克。马克从来没有打算建立一个充满仇恨情绪的平台。但他允许人们做出选择,而这些选择的副作用导致仇恨、极端的内容得到更广泛的传播,产生更大的影响。

Facebook拒绝接受采访。但该公司在发给《60分钟》栏目的书面声明中说:“我们一方面要保护数十亿人公开表达自己的权利,一方面还要确保我们平台成为一个安全而积极的地方,我们的团队每天都要在二者之间努力平衡。我们仍在通过大幅改进来解决错误信息和有害内容的传播问题。关于我们鼓励不良内容且无所作为的指控完全不实。”

“如果有任何一项研究能找到明确解决这些复杂挑战的方案,那么科技行业、政府和社会早就解决了。”

Facebook是一家市值1万亿美元的公司。仅仅创立17年,它就拥有了28亿用户,覆盖全球60%的网民。豪根计划本周前往美国国会作证。她认为联邦政府应当对此实施监管。

豪根:Facebook的所作所为表明他们不能独立行事。Facebook一次又一次地表明它更看重利润,而不是安全。它牺牲我们的安全来换取利润。我希望能通过这件事情对世界产生足够大的影响,让他们有毅力和动力去真正执行这些监管规定。这就是我的希望。

Facebook吹哨人亮明身份:牺牲社会利益 赚钱太黑了

米粒
  • 本文由 发表于 2021年10月6日12:08:59
  • 转载请务必保留本文链接:https://www.miliol.org/107879.html
科技

毒性堪比眼镜蛇 乱摸水母会出人命!

抖音之前很流行的“水母手势舞”你会吗?张开手掌再捏住手指向后拉,收回手指,张开手指,你就可以得到一只简略版的水母~ 然而不是所有的水母都这般可爱无害,比如今天的主角&mdash...
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: