北京时间 10 月 25 日晚间消息,微软、谷歌、人工智能初创企业 OpenAI 和 Anthropic 正加紧推进人工智能(AI)安全标准的制定工作,并于今日任命了一名董事,以期填补全球监管方面的空白。
今年夏天,这四家科技巨头联合成立了新的产业组织“前沿模型论坛”(Frontier Model Forum),致力于安全和负责任地开发 AI 模型。今日,他们又任命美国智库布鲁金斯学会(Brookings Institution)的人工智能主管 Chris Meserole 担任该组织的执行董事。
此外,前沿模型论坛还表示,计划向一个人工智能安全基金投资 1000 万美元。
Meserole 对此表示:“我们距离真正的监管可能还有一段路要走。在此期间,我们希望确保这些系统(监管规则)尽可能安全。”
在过去的几个月里,人们越来越担心日益强大的人工智能有可能取代人类工作岗位,创造和传播错误信息,或者最终超过人类智能。
Meserole 表示,该论坛将寻求对任何官方法规进行“补充”。据预计,欧盟的人工智能法案将在明年初敲定。与此同时,英国将于下周主办首届全球人工智能安全峰会,各国领导人和主要科技高管将受邀讨论相关的合作。
Meserole 还称,论坛最初将重点关注风险,包括人工智能帮助设计生物武器的能力,以及生成可用于促进关键系统黑客攻击的计算机代码的能力。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。