北京时间 8 月 7 日晚间消息,据报道,美国证券交易委员会(SEC)主席加里・詹斯勒(Gary Gensler)多年来一直在研究 AI 的潜在后果。近期,像 ChatGPT 这样的生产式 AI 工具的激增表明,这项技术有望改变各行各业,甚至是整个社会。
日前,詹斯勒谈到了他对 AI 最担心的一些问题。
AI 可能是金融系统面临的下一个重大系统性风险。2020 年,詹斯勒与他人合写了一篇关于深度学习和金融稳定的论文。其结论是,鉴于以往网络和平台效应对科技巨头的影响,将来可能只有少数几家 AI 公司能建立一些基础的模型,来支持企业所依赖的 AI 工具。
詹斯勒预计,美国最终很可能会出现 2~3 个基础性的 AI 模式。这将加深整个经济体系的相互联系,使金融崩溃的可能性变得更大。因为当一个模型或数据集成为核心时,它会增加“羊群”行为(即从众行为),意味着每个人都将依赖相同的信息,做出类似的反应。
詹斯勒说:“这项技术(AI)将成为未来危机和未来金融危机的中心。”
AI 模型可能会把企业的利益置于投资者的利益之上。社交媒体推动的表情包股票狂潮,以及 App 上零售交易的兴起,突显了推送和预测算法的力量。但是,使用 AI 来研究投资者行为或推荐交易的公司,在根据这些信息采取行动时,会把用户利益放在优先位置吗?
SEC 上个月提出了一项规则,要求各平台消除其技术中的利益冲突。詹斯勒说:“你不应该把顾问放在投资者之前,你也不应该把经纪人放在投资者之前。因此,我们就如何解决那些可能嵌入到模型中的冲突提出了具体的建议。”
如果生成式 AI 给出错误的财务建议,谁应该负责?詹斯勒称:“根据法律,投资顾问有受托义务、注意义务和对客户忠诚的义务。无论是否使用算法,你都有同样的注意义务。”
在政策制定者的心目中,到底谁应该为 AI 承担法律责任,还存在争议。但詹斯勒认为:“应该要求这些公司创建安全的机制,因为任何使用聊天机器人的人,都不会将责任下放给这项技术。他说:“机器人的各项参数,是由建造它们的人类设定的。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。