IT之家1月20日消息 今天腾讯公众号发文《我是一名“鉴黄师”,但和你想的不一样》,介绍了腾讯安全部门内容风控天御团队一名研发负责人Fay的故事。
不少人可能对“鉴黄师”有种特别的好奇和想象,不少人会认为,Fay的日常工作,就是盯着若干块“花花绿绿”的屏幕,一看一天。长期下来会不会心理扭曲?实际上并非如此。
“传统鉴黄师靠的是肉眼,而我们更依赖技术。”Fay说,虽然两者工作内容有交叉,但本质是有区别的。
2015年,Fay加入腾讯,在网络安全中心做基础平台研发。第二年因为直播乱象横生,一个10人的“鉴黄师”团队成立了,主攻审核系统研发。
为了训练AI,Fay和同事每周会抽检5万条数据,包括图片、音频、文本,进行人工审核,筛出不良内容、标注违规类型。这部分被标注的样本,将送给AI模型学习训练,理解其共同特征,在后续判定中“智能”识别不良内容。
“现在系统的识别率达已经提升95%以上。”Fay认为,相比“鉴黄师”,自己的工作,更像是AI人工智能的训练师。
“色情、血腥、暴恐图片,很容易被识别,而有一些则隐藏很深,试图绕过AI。”Fay举例,有些音频场景,前半段很正常,“中间突然出现女人娇喘声。”有一些甚至是男的。
随后,技术团队开发出了“娇喘识别”系统,对音频场景中的违规内容进行清理。但仍需要不断推动算法模型的调优和升级,比如在嘈杂背景识别声音违规等。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。