IT之家 7 月 21 日消息,据路透社报道,美国政府今日宣布,已获得多家人工智能头部公司的自愿承诺,将对人工智能生成的内容加水印等措施,以帮助提高技术的安全性。
亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 这七家公司都同意提高其系统的安全性和透明度,包括允许第三方专家对其模型进行审查。
在发给 TechRadar 的一份声明中,美国政府表示:“正在开发这些新兴技术的公司有责任确保其产品的安全。为了充分发挥人工智能的潜力,美国政府鼓励该行业坚持最高标准,以确保创新不会以牺牲美国人的权利和安全为代价。”
首先,这七家公司承诺在向公众发布 AI 系统之前,对其进行内部和外部安全测试,并与相关行业参与者、政府、学术界和公众共享信息,以帮助管理人工智能风险。
这些公司还将致力于网络安全投资和内部威胁控制,以“保护专有和未发布的模型权重”,这对于驱动生成人工智能的数据模型的运行至关重要。他们还同意促进第三方调查并报告系统中的任何安全漏洞。
七家公司还同意采取措施提高公众对其系统的信任,包括开发一种方法来确保让人们知道,他们何时看到人工智能生成的内容,例如水印或其他措施。这些公司还将优先研究人工智能模型带来的社会风险,包括可能导致的种族歧视和其他形式的偏见,以及“保护隐私”。
不过IT之家从公告中发现,这些承诺都是相关企业自愿采取的措施,而且没有违反的惩罚措施,因此并不能百分百保证严格执行。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。