通用自适应提示

论文概述通用自适应提示(Universal Self-Adaptive Prompting, USP)通过实现自动提示设计的有效零样本学习来解决 Transformers 的架构限制。与依赖”一个提示适用所有”策略的传统方法不同,USP 对任务进行分类,并选择任务适当的查询和模型生成的响应作为伪示例,以完全自动化的方式将上下文学习泛化到零样本设置。 论文信息: 发布时间:2023-05-24 作者:Xingchen Wan, Ruoxi Sun, Hootan Nakhost等 机构:Google Research 研究方向:提示工程,大型语言模型推理 核心技术:零样本学习(Zero Shot Learning) 研究背景大型语言模型(LLM)在各类任务中展现出强大的能力,但如何有效引导模型进行复杂推理仍是一个挑战。本研究针对以下问题展开: 现有问题 传统提示方法在复杂推理任务上...

阅读全文

大型语言模型是人类级别的提示工程师

论文概述这项突破性工作引入了自动提示工程师(Automatic Prompt Engineer, APE)框架,能够自动为大型语言模型生成和选择指令。APE将指令视为程序,通过搜索LLM提议的候选指令进行优化,并在另一个LLM上评估零样本性能来选择最佳指令。该方法在24个NLP任务中的19个上超过了人工编写的提示,标志着自动化提示工程过程的重大进展。 论文信息: 发布时间:2022-11-03 作者:Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han等 机构:University of Montreal, University of Oxford, UC Berkeley等 研究方向:提示工程、LLM推理 核心技术:自动提示工程(APE) 研究背景提示工程通常需要大量人工尝试和专业知识,这限制了其应用范围和效率。本研究针对以下问题展开: ...

阅读全文

微调后的语言模型是零样本学习者(FLAN)

论文概述FLAN(Finetuned Language Model for Instruction Following,遵循指令的微调语言模型)是指令微调领域的开创性工作。这篇论文证明,通过自然语言指令描述的多任务微调可以显著提高在未见任务上的零样本性能。通过在60+个NLP任务上进行指令微调,FLAN 137B在25个评估任务中的20个上超过了零样本175B GPT-3。这项工作证明了指令微调是将语言模型转变为更通用任务执行器的强大范式。 论文信息: 发布时间:2021-09-03 作者:Jason Wei, Maarten Bosma, Vincent Y. Zhao等 机构:Google Research, Google Brain 研究方向:提示工程、LLM推理 核心技术:指令微调(Instruction Tuning) 研究背景大型语言模型(LLM)虽然强大,但在零样本...

阅读全文

© 2025 Generative AI Discovery All Rights Reserved.
Theme by hiero