IT之家 9 月 14 日消息,据 21 财经今天傍晚报道,为提升金融信息系统的安全性,9 月 6 日北京国家金融科技认证中心联合 10 多家金融机构发布的《虚假数字人脸检测金融应用技术规范》(IT之家注:下称《应用规范》)正式施行。
《应用规范》规定了面向金融领域应用的虚假数字人脸检测服务的技术框架、功能要求、性能要求等,并提出对应的测试评估方法,专门针对通过生成式 AI、Deepfake(深度伪造)等技术制作的虚假人脸内容进行检测。其为金融机构防御虚假数字人脸攻击提供了重要参考,这是国内首个面向 Deepfake 进行安全检测的标准。
《应用规范》注重识别不同类型的虚假人脸内容,包括图像、视频等形式,提出了基于深度学习、卷积神经网络技术的检测方法,在身份识别、交易验证的场景中均制定了相应评估方法。
据中信银行信息技术管理部创新科学家张然介绍,《应用规范》是国内金融领域首个虚假数字人脸检测标准,实现了从 0 到 1 的突破,是数字金融方向的重要研究成果。该标准目前属于团体标准,但在未来将在此标准的基础上申请国家标准及国际标准。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。