IT之家 2 月 5 日消息,美国加利福尼亚州提出了一项新法案(SB 243),该法案要求人工智能(AI)公司定期提醒儿童,聊天机器人是 AI 而非人类。这项法案由加利福尼亚州参议员史蒂夫・帕迪拉提出,旨在保护儿童免受 AI“容易使人上瘾、造成孤立和产生影响”等方面的危害。
IT之家注意到,该法案除了限制公司使用“易使人上瘾的互动模式”外,还要求 AI 公司向州医疗保健服务部提交年度报告,详细说明平台检测到儿童产生自杀念头的次数,以及聊天机器人提及该话题的次数。此外,法案还要求公司告知用户,他们的聊天机器人可能并不适合某些儿童使用。
去年,一位家长对 Character.AI 提起了过失致死诉讼,指控该公司的定制 AI 聊天机器人“存在不合理的危险”,原因是她的孩子在持续与该聊天机器人交流后自杀身亡。另一项诉讼则指责该公司向青少年发送“有害内容”。随后,Character.AI 公司宣布正在研发家长控制功能,并为青少年用户开发了一种新的 AI 模型,以屏蔽“敏感或具有暗示性”的输出内容。
参议员帕迪拉在新闻发布会上表示:“我们的孩子不是科技公司以他们的心理健康为代价进行实验的小白鼠。我们需要为聊天机器人用户提供常识性的保护措施,防止开发者采用那些他们明知会使人上瘾和具有掠夺性的策略。”
随着美国各州和联邦政府加大对社交媒体平台安全的监管力度,AI 聊天机器人可能很快会成为立法者的下一个监管目标。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。