失败是成功之母:利用负样本增强少样本上下文学习
ArXiv ID: 2507.23211作者: Yunhao Liang, Ruixuan Ying, Takuya Taniguchi, Zhe Cui机构: Zhejiang University, HIT发布日期: 2025-07-31
摘要大型语言模型展现出强大的少样本上下文学习(ICL)能力,但性能对提供的示例高度敏感。最近的研究主要集中在为每个查询检索正样本示例,忽略了负样本(导致错误预测的示例)的额外信息。本文提出利用负样本更好地选择正样本示例,通过分析负样本的特征识别导致失败的模式,从而选择更具代表性和互补性的正样本。实验表明,结合负样本信息的方法比仅使用正样本提升**12-18%**的准确率。
问题背景少样本上下文学习的挑战12345678910111213传统 ICL 示例选择方法:正样本方法:查询:"...