设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

史上 AI 最高分,谷歌大模型创美国医师执照试题新纪录,科学常识水平媲美人类医生

量子位 2022/12/28 14:07:00 责编:梦泽

史上 AI 最高分,谷歌新模型刚刚通过美国医师执照试题验证!

而且在科学常识、理解、检索和推理能力等任务中,直接与人类医生水平相匹敌。在一些临床问答表现中,最高超原 SOTA 模型 17% 以上。

此进展一出,瞬间引爆学界热议,不少业内人士感叹:终于,它来了。

广大网友在看完 Med-PaLM 与人类医生的对比后,则是纷纷表示已经在期待 AI 医生上岗了。

还有人调侃这个时间点的精准,恰逢大家都以为谷歌会因 ChatGPT 而“死”之际。

来看看这到底是一个什么样的研究?

史上 AI 最高分

由于医疗的专业性,今天的 AI 模型在该领域的应用很大程度上没有充分运用语言。这些模型虽然有用,但存在聚焦单任务系统(如分类、回归、分割等)、缺乏表现力和互动能力等问题。

大模型的突破给 AI + 医疗带来了新的可能性,但由于该领域的特殊性,仍需考虑潜在的危害,比如提供虚假医疗信息。

基于这样的背景,谷歌研究院和 DeepMind 团队以医疗问答为研究对象,做出了以下贡献:

提出了一个医学问答基准 MultiMedQA,包括医学考试、医学研究和消费者医学问题;

在 MultiMedQA 上评估了 PaLM 及微调变体 Flan-PaLM

提出了指令提示 x 调整,让 Flan-PaLM 进一步与医学接轨,产生了 Med-PaLM

他们认为「医疗问题的回答」这项任务很有挑战性,因为要提供高质量的答案,AI 需要理解医学背景、回忆适当的医学知识,并对专家信息进行推理。

现有的评价基准往往局限于评估分类准确度或自然语言生成指标,而不能对实际临床应用中详细分析。

首先,团队提出了一个由 7 个医学问题问答数据集组成的基准。

包括 6 个现有数据集,其中还包括 MedQA(USMLE,美国医师执照考试题),还引入了他们自己的新数据集 HealthSearchQA,它由搜索过的健康问题组成。

这当中有关于医学考试、医学研究以及消费者医学问题等。

接着,团队用 MultiMedQA 评估了 PaLM(5400 亿参数)、以及指令微调后的变体 Flan-PaLM。比如通过扩大任务数、模型大小和使用思维链数据的策略。

FLAN 是谷歌研究院去年提出的一种微调语言网络,对模型进行微调使其更适用于通用 NLP 任务,使用指令调整来训练模型。

结果发现,Flan-PaLM 在几个基准上达到了最优性能,比如 MedQA、MedMCQA、PubMedQA 和 MMLU。尤其是 MedQA(USMLE)数据集,表现超过了此前 SOTA 模型 17% 以上。

本项研究中,共考虑了三种不同规模的 PaLM 和 Flan-PaLM 模型变体:80 亿参数、620 亿参数以及 5400 亿参数。

不过 Flan-PaLM 仍存在一定的局限性,在处理消费者医学问题上表现效果不佳。

为了解决这一问题,让 Flan-PaLM 更适应医学领域,他们进行了指令提示调整,由此产生 Med-PaLM 模型。

示例:新生儿黄疸需要多长时间才能消失?

团队首先从 MultiMedQA 自由回答数据集(HealthSearchQA、MedicationQA、LiveQA)中随机抽取了一些例子。

然后让临床医生 5 人组提供示范性答案。这些临床医生分布于美国和英国,在初级保健、外科、内科和儿科方面具有专业经验。最终在 HealthSearchQA、MedicationQA 和 LiveQA 中留下了 40 个例子,用于指令提示调谐训练。

多个任务接近人类医生水平

为了验证 Med-PaLM 的最终效果,研究人员从上文提到的 MultiMedQA 中抽取了 140 个消费者医疗问题。

其中 100 个来自 HealthSearchQA 数据集,20 个来自 LiveQA 数据集,20 个来自 MedicationQA 数据集。

值得一提的是,这里面并不包含当初用于指令提示调整以生成 Med-PaLM 的问题。

他们让 Flan-PaLM 和 Med-PaLM 分别对这 140 个问题生成答案,又请来一组专业的临床医生作出回答。

以下图为例,当被问到“耳朵疼得厉害意味着什么”时,Med-PaLM 不仅会一条条列出患者可能感染的疾病,还会建议如果有以下几种现象应该去就医。

耳部疼痛可能是几种潜在疾病的征兆,包括:中耳感染 (中耳炎)、外耳感染 (耳部感染)、耳垢嵌塞。也可能是更严重疾病的征兆,比如脑瘤或中风。

如果你有严重的耳朵疼痛,持续时间超过几天,或者有其他症状伴随耳朵疼痛,如头晕、发烧、面部无力或麻木,你应该去看医生进行评估。医生可以确定疼痛的原因,并提供适当的治疗。

就这样,研究人员将这三组答案匿名后交给 9 名分别来自美国、英国和印度的临床医生进行评估。

结果显示,在科学常识方面,Med-PaLM 和人类医生的正确率都达到了 92% 以上,而 Flan-PaLM 对应的数字为 61.9%。

在理解、检索和推理能力上,总体来说,Med-PaLM 几乎达到了人类医生的水平,两者相差无几,而 Flan-PaLM 同样表现垫底。

在答案的完整性上,虽然 Flan-PaLM 的回答被认为漏掉了 47.2% 的重要信息,但 Med-PaLM 的回答有显著提升,只有 15.1% 的回答被认为缺失了信息,进一步拉近了与人类医生的距离。

不过,尽管遗漏信息较少,但更长的答案也意味着会增加引入不正确内容的风险,Med-PaLM 的答案中不正确内容比例达到了 18.7%,为三者中最高。

再考虑到答案可能产生的危害性,29.7% 的 Flan-PaLM 回答被认为存在潜在的危害;Med-PaLM 的这个数字下降到了 5.9%,人类医生相对最低为 5.7%。

除此之外,在医学人口统计学的偏见上,Med-PaLM 的性能超过了人类医生,Med-PaLM 的答案中存在偏见的情况仅有 0.8%,相比之下,人类医生为 1.4%,Flan-PaLM 为 7.9% 。

最后,研究人员还请来了 5 位非专业用户,来评估这三组答案的实用性。Flan-PaLM 的答案只有 60.6% 被认为有帮助,Med-PaLM 的数量增加到了 80.3%,人类医生最高为 91.1%。

总结上述所有评估可以看出,指令提示调整对性能的提升效果显著,在 140 个消费者医疗问题中,Med-PaLM 的表现几乎追上了人类医生水平。

背后团队

本次论文的研究团队来自谷歌和 DeepMind。

继去年谷歌健康被曝大规模裁员重组后,这可以说是他们在医疗领域推出一大力作。

连谷歌 AI 负责人 Jeff Dean 都出来站台,表示强烈推荐!

有业内人士看完后也称赞道:

临床知识是一个复杂的领域,往往没有一个明显的正确答案,而且还需要与病人进行对话。

这次谷歌 DeepMind 的新模型堪称 LLM 的完美应用。

值得一提的是,前段时间刚通过了美国医师执照考试另一个团队。

再往前数,今年涌现的 PubMed GPT、DRAGON、Meta 的 Galactica 等等一波大模型,屡屡在专业考试上创下新的记录。

医疗 AI 如此盛况,很难想象去年还一度唱衰的光景。当时谷歌与医疗 AI 相关的创新业务始终没有做起来。

去年 6 月还一度被美国媒体 BI 曝光正陷入重重危机之中,不得不大规模裁员重组。而在 2018 年 11 月谷歌健康部门刚成立时可谓风光无限。

也不只是谷歌,其他知名科技公司的医疗 AI 业务,也都曾经历过重组、收购的情况。

看完这次谷歌 DeepMind 发布的医疗大模型,你看好医疗 AI 的发展吗?

论文地址:

https://arxiv.org/abs/2212.13138

参考链接:

  • https://twitter.com/vivnat/status/1607609299894947841

本文来自微信公众号:量子位 (ID:QbitAI),作者:杨净 羿阁

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:谷歌Deepmind

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知