设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

除了《AI 法案》,欧盟还将对 GPT-4 等更高能力模型增加额外规则约束

2023/12/10 16:39:56 来源:IT之家 作者:清源(实习) 责编:清源
感谢IT之家网友 软媒新友2303894 的线索投递!

IT之家 12 月 10 日消息,本周末,欧盟就全球首个 AI 监管法案“AI Act”达成初步协议,涉及包括 ChatGPT 在内的通用人工智能系统,这被视为世界上第一个全面监管 AI 的关键一环。

图源 Pixabay

综合《财富》杂志、彭博社当地时间周六晚上报道,根据彭博社获得的一份欧盟文件,所有通用人工智能系统的开发人员(或者很有可能会被广泛应用的强大模型)都必须满足基本的透明度要求,除非这些系统是免费开源的

IT之家附有关要求如下:

  • 制定可接受的使用政策

  • 随时更新有关模型训练的信息

  • 将用于训练模型的数据进行汇总,将详细摘要上报

  • 制定尊重《版权法》的政策

根据该文件,被认为会构成“系统性风险”的模型将受到额外规则的约束。报道称,欧盟将根据训练模型的计算能力来确定是否存在风险,为模型设定的阈值是每秒超过 10 万亿次运算。有专家表示,目前唯一能达到这一门槛的模型是 OpenAI 的 GPT-4

此外,欧盟执行机构还可根据数据集的规模、是否在欧盟拥有至少 10000 名注册商业用户、注册用户的最终数量等可能的指标来指定其他阈值。

报道还称,在欧盟委员会制定出更协调且长期有效的控制措施期间,这些“能力更强”的模型应该签署行为准则。这些模型还必须满足如下要求:

  • 主动报告自身能耗情况

  • 在内部或外部进行红队测试 / 对抗性测试

  • 评估和减轻可能的系统性风险,并报告任何事件

  • 确保使用适当的网络安全控制措施

  • 报告用于微调模型的信息及其系统结构

  • 如果制定了更节能的标准,则开发过程中应当符合新的标准

至于没有签署行为准则的模型,则必须向欧盟委员会证明它们确实会遵守《AI 法案》。需要注意的是,对开源模型的豁免不适用于那些“被认为会带来系统性风险”的模型

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知