设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

OpenAI 的 GPT - 4.1 无安全报告,AI 安全透明度再遭质疑

2025/4/16 7:42:48 来源:IT之家 作者:远洋 责编:远洋

IT之家 4 月 16 日消息,本周一,OpenAI 推出了新的 AI 模型 GPT-4.1 系列。该公司表示,该模型在某些测试中,尤其是编程基准测试方面,表现优于其现有的一些模型。然而,与 OpenAI 以往的模型发布不同,GPT-4.1 并未附带通常伴随模型发布而公布的安全报告(即系统卡)。

截至周二上午,OpenAI 仍未发布 GPT-4.1 的安全报告,且似乎并无此计划。OpenAI 发言人 Shaokyi Amdo 在向 TechCrunch 发表的声明中表示:“GPT-4.1 并非前沿模型,因此不会为其发布单独的系统卡。”

通常情况下,人工智能实验室会发布安全报告,展示其内部以及与第三方合作伙伴开展的测试类型,以评估特定模型的安全性。这些报告有时会揭示一些不那么令人满意的信息,例如某个模型可能会欺骗人类或具有危险的说服力。总体而言,人工智能界普遍认为这些报告是人工智能实验室支持独立研究和红队测试的诚意之举。

然而,在过去的几个月里,一些领先的人工智能实验室似乎降低了其报告标准,引发了安全研究人员的强烈反对。例如,谷歌在发布安全报告方面行动迟缓,而其他一些实验室则发布了缺乏以往细节的报告。

OpenAI 近期的表现也并不出色。去年 12 月,该公司因发布了一份包含与实际部署生产版本不同的模型基准结果的安全报告而受到批评。上个月,OpenAI 在发布一款名为“深度研究”的模型后数周,才发布该模型的系统卡。

前 OpenAI 安全研究员 Steven Adler 指出,安全报告并非由任何法律或法规强制要求,而是自愿发布的。然而,OpenAI 曾多次向各国政府承诺,会增加其模型的透明度。2023 年,在英国人工智能安全峰会前夕,OpenAI 在一篇博客文章中称系统卡是其问责制方法的“关键部分”。而在 2025 年巴黎人工智能行动峰会之前,OpenAI 表示系统卡可以为模型的风险提供有价值的见解。

Adler 表示:“系统卡是人工智能行业用于透明度和描述安全测试内容的主要工具。如今的透明度规范和承诺最终是自愿的,因此是否以及何时为某个模型发布系统卡,取决于每家人工智能公司自己的决定。”

IT之家注意到,此次 GPT-4.1 未发布系统卡的背景是,OpenAI 的现员工和前员工对其安全实践提出了担忧。上周,Adler 与其他 11 名前 OpenAI 员工在埃隆・马斯克起诉 OpenAI 的案件中提交了一份拟议的法庭之友简报,认为营利性质的 OpenAI 可能会削减安全工作的投入。《金融时报》最近报道称,由于竞争压力,OpenAI 已经减少了分配给安全测试人员的时间和资源。

尽管 GPT-4.1 并非 OpenAI 旗下性能最高的 AI 模型,但在效率和延迟方面取得了显著进步。Secure AI Project 的联合创始人兼政策分析师 Thomas Woodside 称,性能的提升使得安全报告变得更加重要。他认为,模型越复杂,其可能带来的风险就越高。

目前,许多人工智能实验室一直在抵制将安全报告要求纳入法律的努力。例如,OpenAI 曾反对加州的 SB 1047 法案,该法案要求许多人工智能开发商对其公开发布的模型进行审计并发布安全评估。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:GPT 4.1OpenAI安全报告

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知