北京时间 5 月 29 日上午消息,据报道,2022 年末,负责打击虚假信息的 Meta 工程师团队准备推出一款历时半年开发的事实核查工具。此前的一系列危机严重损害了 Facebook 和 Instagram 的信誉,也给监管机构创造了更多机会来打击这些平台。面对这种现状,这个工具得尤为重要。
借助这款新工具,美联社、路透社以及有信誉的专家等第三方事实核查者,便可在有问题的文章顶部添加评论,将此作为确认其可信度的一种方式。
但知情人士透露,当 Meta CEO 马克・扎克伯格(Mark Zuckerberg)宣布 2023 年为“效率之年”后,这项野心勃勃的计划也无疾而终。
Meta 宣布的裁员计划大约涉及 2.1 万人,经过好几轮落地实施后,Meta 的信任和安全工作受到了极大影响。知情人士表示,这款事实核查工具初期已获得了高管的认同,今年早些时候还处于测试阶段,但却因为此次裁员而被彻底抛弃。
Meta 发言人尚未对特定领域的裁员问题发表评论,但他通过电子邮件回应称:“我们仍然专注于发展业界领先的诚信措施,并将继续投资建设团队和技术,为我们的社区提供保护。”
放眼科技行业,随着企业通过收紧支出和大举裁员来应对宏观经济压力和收入增速放缓,大批负责保护这些最受欢迎的“互联网乐园”的人也纷纷遭到清退。然而,此时却正值网络暴力丛生(这导致越来越多的青少年出现自残行为)、虚假信息泛滥和暴力内容激增之际,而人工智能的爆发式应用更是令这些问题愈演愈烈。
在最近的财报电话会议上,科技高管纷纷强调了“少花钱,多办事”的理念,希望通过更少的资源投入来提升效率。Meta、Alphabet、亚马逊和微软都在前几年的大幅扩容之后实施了数以千计的裁员计划。微软 CEO 萨提亚・纳德拉(Satya Nadella)最近还表示,他的公司将暂停全职员工的加薪计划。
科技企业大幅压缩负责信任、安全和人工智能伦理的团队,充分说明,尽管 2024 年美国总统大选季还有几个月就将拉开帷幕,网上的各种杂音势必会增加,但企业还是更愿意迎合华尔街对效率的要求。在科技公司内部,人工智能伦理团队与信任和安全团队隶属不同的部门,但他们的目标都是减少企业的产品和服务可能对现实世界构成的伤害。
“这是一场猫鼠游戏,施虐者通常会走在前面。”阿琼・纳拉延(Arjun Narayan)说,他之前曾经在谷歌和字节跳动担任信任和安全主管,目前在新闻聚合应用 Smart News 负责信任和安全业务,“你总是扮演追赶的角色。”
但目前看来,在科技公司眼中,无论是信任和安全团队,还是人工智能伦理团队,似乎都是应当压缩的成本。
知情人士表示,Twitter 去年 11 月实质上解散了人工智能伦理团队,仅保留一名员工,同时还对信任和安全部门裁员 15%。今年 2 月,谷歌对一个旨在应对错误信息、激进情绪、有毒内容的部门裁员三分之一。据报道,Meta 也在 1 月初与大约 200 名内容审核解除了合同。根据提交给美国劳工部的数据,该公司还对 Instagram 的健康上网部门至少裁员 16 人,同时削减了信任、诚信和责任部门的 100 多个岗位。
今年 3 月,亚马逊压缩了人工智能责任团队的规模,微软也对整个伦理和社会团队进行裁员 —— 据悉,这两轮裁员将该团队的人数从 30 人缩减到零。亚马逊并未对此置评,微软则提供了有关裁员的官方博文。
在亚马逊流媒体游戏部门 Twitch,员工是在 3 月才从公司 CEO 安迪・贾西(Andy Jassy)不合时宜的内部帖子中得知了自己的命运。
贾西当时宣布在全公司裁员 9000 人,包括 400 名 Twitch 员工。知情人士表示,在这 400 名员工中,约有 50 人负责监控网络暴力、非法或有害行为。
亚马逊的信任和安全团队损失了大约 15% 的员工,而此时正值内容审核空前重要之际。
Twich CEO 丹・科朗西(Dan Clancy)在发给员工的邮件中并没有特意提到信任和安全团队,但却确认了更大范围的裁员计划。事实上,他本人当时也是刚刚从贾西的帖子中得知裁员消息的。
科朗西在邮件中写道:“我很遗憾,竟然以这种方式跟大家沟通这种消息,而没能提前与受此影响的员工进行直接沟通。”
重获信任困难重重
一位 Twitch 信任和安全团队的负责人表示,该部门剩余的员工感觉受到了“鞭笞”,并对第二轮裁员忧心忡忡。此人透露,裁员对团队构成重大打击,而负责人身威胁、暴力、恐怖主义团体和自残的 Twitch 执法响应团队也大幅缩减。
Twitch 发言人尚未对此置评,只是提供了 3 月宣布裁员的一篇官方博文。该博文并未提及信任和安全或内容审核团队。
Smart News 的纳拉延表示,由于大企业对安全问题的投资不足,导致他们难以应对层出不穷的恶意活动。随着不良内容越来越多,“信任侵蚀”也成为他们不得不面对的问题。
“从长期来看,重获消费者信任真的困难重重。”纳拉延补充道。
Meta 和亚马逊的裁员是为应对投资者的要求和营收及股价的大幅下滑,而 Twitter 则是因为公司易主。
几乎就在埃隆・马斯克(Elon Musk)去年 10 月完成对 Twitter 440 亿美元的收购后,他便开始进行大规模裁员。曾经担任 Twitter 机器学习伦理、透明度和问责团队总监的拉曼・乔杜里(Rumman Chowdhury)表示,原本拥有 17 人的 Twitter 人工智能伦理团队在裁员后仅剩 1 人。
乔杜里表示,该团队的成员是在他们的笔记本电脑遭到远程关闭后才了解到自己的处境。几小时后,他们就收到了公司的邮件通知。
“我当时才开始清点人手,组建我们的人工智能红色团队,这样就能从伦理角度对抗我们的模型,并加以落实。”乔杜里说,“感觉就好像我们都在昂首阔步时,脚底下的毯子却被人抽走了。”
乔杜里表示,他们的计划包括开发“算法放大监控机制”,通过跟踪选举和政党动态来了解“内容是否被以不当方式放大了”。
乔杜里提到了 2021 年 7 月的一个项目,Twitter 的人工智能团队当时领导了业界首个算法偏见赏金竞赛。他们邀请外部人士对平台进行偏见审核,并将结果公之于众。
乔杜里担心马斯克“目前正在积极抛弃我们所做的一切”。
“现在没有内部问责制。”她说,“我们之前服务于两个产品团队,确保幕后工作能够公平对待平台上的用户。”
Twitter 尚未对此置评。
广告主也在撤离那些声誉风险日益加大的地方。
根据 Sensor Tower 的数据,在 Twitter 上投入金额最大的 10 类美国广告客户中,有 6 类都在今年第一季度同比缩减了支出,合计缩减幅度达到 53%。该网站最近也因为允许暴力图片和视频传播而引发争议。
聊天机器人的热度激增导致问题更加复杂。这些类似于 ChatGPT 的人工智能模型使得不法分子很容易用各种内容制作虚假帐号。艾伦人工智能研究所、普林斯顿大学和佐治亚理工学院的研究人员对 ChatGPT 的 API(应用编程接口)进行测试后发现,内容“毒性”最高可以增加 6 倍,具体取决于企业分配给聊天机器人的功能定位,比如究竟是客户服务代表还是虚拟助手。
监管者也在密切关注人工智能不断扩大的影响,以及企业对人工智能伦理及信任和安全团队的缩减措施。美国联邦贸易委员会(FTC)律师迈克尔・阿特尔森(Michael Atleson)本月早些时候在一篇博文中指出了这种悖论。
“鉴于人们对使用新型人工智能工具的担忧,现在或许并不是企业建立或部署这类工具来取代人工智能伦理团队的最佳时期。”阿特尔森写道,“如果 FTC 打来电话询问此事,而你希望让我们相信你已经充分评估了风险并减轻了伤害,那么这些压缩措施或许并不明智。”
风向标 Meta
多年以来,科技行业享受了一轮超长牛市,为顶尖互联网平台带来了大量资金,而 Meta 则借机成为许多专家眼中的伦理和安全领导者。
该公司花费多年时间招募了信任和安全团队,其中有许多具备社会科学背景。他们希望以此避免重蹈 2016 年美国总统大选的覆辙。当时,Facebook 就出现了大量的虚假信息,并在 2018 年“剑桥分析”丑闻达到顶峰。那起丑闻曝光了第三方如何非法使用 Facebook 的用户数据。
但 2022 年,这一切却急转直下:在 Meta 的广告业务和股价惨遭打击后,扎克伯格进入了紧缩模式,令原先抱怨该公司过于臃肿的投资者欢呼不已。
除了事实核查项目,裁员还对研究人员、工程师、用户设计专家和其他从事社会问题相关工作的员工造成了冲击。4 位 Meta 前员工表示,专门负责应对虚假信息的团队遭到大幅裁员。
在 Meta 去年 11 月的第一轮裁员之前,该公司已经着手将诚信团队整合为一个部门。据前员工透露,去年 9 月,Meta 将中央诚信团队与商业诚信团队合并,前者负责处理社会问题,后者负责处理广告和垃圾邮件、虚假帐号等商业问题。
Meta 信任和安全团队的前员工表示,在随后几个月里,随着更广泛的紧缩计划席卷整个公司,他们的许多同事都生活在裁员的阴影中,而管理人员也没有看出他们的工作对 Meta 的利润产生了怎样的影响。
例如,改进垃圾邮件过滤器这种不需要太多资源的项目可以获批,而以改变政策为目标的长期项目则很难获得支持,比如涉及虚假信息的项目。在这样的制度下,员工更愿意从事易于管理的任务,这样就能在 6 个月的绩效评估中展示自己的成果。
在裁员前离职的 Meta 前项目经理拉维・艾耶(Ravi Iyer)表示,他认识的许多人原本在设计和政策变化方面扮演关键角色,但他们同样在此次裁员中失去工作,这比内容审核团队的裁员更令人懊恼。
“我不认为我们应该想当然地认为,信任和安全团队缩编一定会令平台变得更糟。”目前担任南加州大学科技心理学研究所主任的艾耶说,“但我发现,许多被解雇的人都是在反思这些平台的基础设计方面最有见地的人。如果平台不打算投资调整已经被证明有害的设计,那才是我们都应该担心的事情。”
Meta 发言人之前就曾弱化裁员对虚假信息部门的影响:“该该团队被整合进更广泛的内容诚信团队,他们的规模要大得多,重点是整个公司的诚信工作。”
但知情人士表示,裁员之后,负责处理虚假信息的 Meta 员工的确减少了。
对于人工智能、诚信和安全以及内容审核领域的专业人士而言,就业前景似乎非常渺茫。
刚刚被社交媒体公司裁员的人表示,随着相关企业继续紧缩开支,他们可以申请的职位并不多。一位 Meta 前员工称,当他面试了微软和谷歌的信任和安全职位后,这些职位却突然之间被砍掉了。
一位 Meta 前员工表示,该公司在信任和安全方面的收缩,可能会对规模较小的同行和初创公司产生影响,他们似乎会“在裁员方面追随 Meta”。
Twitter 前人工智能伦理负责人乔杜里表示,这些类型的工作肯定会成为削减的对象,因为“他们不能提高产品利润”。
“我认为这是一种完全错误的框架。”她说,“但如果你的价值体现在公司没有被起诉,或者别人没有受到伤害,那就很难证明你的价值。当我们的工作结束后,没有鲜花和掌声,但却可以创造一个安全无虞的社区。这可以创造长期的财务价值,但从每个季度的财报来看,确实很难衡量这背后的意义。”
一位 Twtich 前员工透露,该公司的信任和安全团队中有些人知道在哪里能发现危险活动。这对游戏行业至关重要,因为游戏本身就是一个“独特的野兽”。
而现在,很少有人去查看这些“黑暗、可怕的地方”,那里是犯罪分子藏身的地方,也是网暴活动泛滥的地方。
更重要的是,没有人知道情况究竟会有多糟。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。