设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

中国科大新成果入选 ICLR 2025:特定领域仅用 5% 训练数据,知识准确率提升 14%

量子位 2025/4/7 12:43:38 责编:汪淼

让大语言模型更懂特定领域知识,有新招了!

来自中国科学技术大学 MIRA 实验室的王杰教授团队提出了一个创新的框架 —— 知识图谱驱动的监督微调(KG-SFT),该框架通过引入知识图谱(KG)来提升大语言模型(LLMs)在特定领域的知识理解和处理能力。

实验结果表明,其在多个领域和多种语言的数据集上取得了显著的效果,成功入选 ICLR 2025

截至目前,LLMs 在常识问答方面表现越来越出色,但它们对领域知识的理解和推理能力仍然有限。

由于难以深入理解专业领域问答背后所蕴含的复杂知识和逻辑关系,因此在面对这类问题时,往往无法准确地给出正确的答案和详细的推理过程,这极大地限制了其在专业领域的应用价值。

尤其是在数据稀少和知识密集型的场景中,如何让 LLMs 更好地理解和操纵知识,成为了研究的关键

而中科大 MIRA 实验室的这项工作即围绕此展开。

KG-SFT 是如何工作的

KG-SFT 针对 LLMs 难以理解领域问答背后的知识和逻辑,导致推理能力弱的问题,提出基于知识图谱增强的大语言模型监督微调技术。

KG-SFT 首先通过解析领域知识图谱中的多条推理路径,设计图上推理路径与文本推理过程的联合生成机制。使 LLMs 在监督微调过程中,能够同步输出推理答案以及蕴含丰富领域知识和逻辑关系的推理过程,从而提升其对领域知识的理解与推理能力。

KG-SFT 框架的核心在于将知识图谱与监督微调相结合,通过生成问答背后的逻辑严密的推理过程解释来增强 LLMs 对知识和逻辑的理解。

该框架包含三个关键组件:

  • Extractor(提取器)

  • Generator(生成器)

  • Detector(检测器)

1、Extractor:精准提取知识关联

Extractor 首先对问答对(Q&A)中的实体进行识别,并从外部知识图谱中提取相关的推理子图。

这一步骤揭示了 Q&A 对背后的知识关联和逻辑,为后续的解释生成提供了基础。

通过命名实体识别(NER)和多条推理路径的检索,Extractor 能够有效地从大规模知识图谱中获取与问题相关的知识。

2、Generator:生成流畅的解释

Generator 利用图结构重要性评分算法(如 HITS 算法)对推理子图中的实体和关系进行评分,选择高分部分作为重要内容。

然后,使用大型语言模型(如 ChatGPT)生成流畅的解释草稿。

这些解释不仅逻辑清晰,而且能够帮助 LLMs 更好地理解问题和答案之间的关系。

3、Detector:确保解释的正确性

Detector 对生成的解释草稿进行句子级别的知识冲突检测,确保解释的正确性。

通过自然语言推理(NLI)模型(如 DeBERTa)和重新引导机制,Detector 能够标记并纠正可能存在的知识冲突,从而提高解释的可靠性。

实验结果及创新点

实验结果表明,KG-SFT 在多个领域和语言设置中均取得了显著的性能提升。

特别是在低数据医学问答任务上,KG-SFT 在英语场景中仅使用 5% 的训练数据就比传统方法提高了近 14% 的准确率

从创新之处来看,KG-SFT 不仅关注数据的数量,更注重数据的质量。

通过生成高质量的解释,KG-SFT 帮助 LLMs 更好地理解和操纵知识,从而在特定领域实现更优的性能。

此外,KG-SFT 还可以作为插件式模块与现有的数据增强方法结合使用,进一步提升性能。

在多领域数据集上的实验结果进一步验证了 KG-SFT 的广泛适用性。

尽管在某些需要复杂推理的领域(如形式逻辑和专业会计)中表现稍逊,但整体性能依然具有较强的竞争力。

概括而言,KG-SFT 框架通过结合知识图谱和 LLMs,有效地提升了监督微调数据的质量,从而显著提高了 LLMs 在特定领域的性能。

这一方法不仅在低数据场景中表现出色,还展示了其作为插件式模块与现有数据增强方法结合的潜力。

论文作者第一作者陈瀚铸是中国科学技术大学 2021 级硕博连读生,师从王杰教授,主要研究方向为大语言模型、知识图谱和推理数据合成。

更多细节欢迎查阅原论文。

论文地址:

https://openreview.net/pdf?id=oMFOKjwaRS

本文来自微信公众号:量子位(ID:QbitAI),作者:KG-SFT 团队,原标题《中科大 ICLR2025:特定领域仅用 5% 训练数据,知识准确率提升 14%》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:中国科大ICLR 2025

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知