9 月 20 日消息,美国人工智能研究公司 OpenAI 宣布推出“红队网络”(Red Teaming Network),并邀请各领域专家加入其“红队网络”,以提高其人工智能(AI)模型的安全性。
OpenAI 的这一举措旨在深化和扩大其与外部专家的合作,以确保其人工智能模型的可靠性和安全性。签约的专家将通过协助评估和减轻模型风险,在增强 OpenAI 人工智能系统的稳健性方面发挥关键作用。
尽管 OpenAI 之前通过漏洞赏金计划和研究人员访问计划与外部专家合作,但新推出的“红队网络”将这些努力正式化。
OpenAI 表示,“红队网络”是一个由经验丰富且值得信赖的专家组成的社区,可以帮助公司更广泛地进行风险评估,而不是在主要模型部署之前进行一次性参与和选择过程。
据报道,“红队”在识别人工智能系统中的偏见和评估安全过滤器方面发挥着至关重要的作用,已经成为人工智能模型开发过程中的关键一步,尤其是在生成式技术得到更广泛采用的情况下。
OpenAI 向不同领域的专家发出邀请,包括具有语言学、生物识别、金融和医疗保健背景的专家。该公司强调了各种专业知识对人工智能评估的重要性,包括但不限于认知科学、法律、网络安全、经济学和医疗保健等领域。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。