聚焦思维链 (F-CoT): 先整理再推理,token 减少 2-3 倍
ArXiv ID: 2511.22176作者: Lukas Struppek, Dominik Hintersdorf, Hannah Struppek, Daniel Neider, Kristian Kersting机构: TU Darmstadt, Fraunhofer IAIS发布日期: 2025-11-27内容级别: Quick
摘要标准思维链(CoT)让模型在推理过程中同时处理信息理解和逻辑推导,导致冗余 token 生成。受认知心理学中注意聚焦理论启发,本文提出 F-CoT(Focused Chain-of-Thought),一种免训练的输入导向方法。F-CoT 在推理前先将查询中的关键信息组织为简洁的结构化上下文,将信息提取与推理过程分离。在算术问题上实现2-3 倍 token 生成量减少,...
Focused Chain-of-Thought: 通过结构化输入信息实现高效 LLM 推理
Focused Chain-of-Thought: 通过结构化输入信息实现高效 LLM 推理
ArXiv ID: 2511.22176作者: Lukas Struppek, Dominik Hintersdorf, Hannah Struppek, Daniel Neider, Kristian Kersting发布日期: 2025-11-27分类: prompt-engineering, reasoning-efficiency
摘要受认知心理学启发,本文提出了 Focused Chain-of-Thought (F-CoT),一种将信息提取与推理过程分离的方法。F-CoT 首先将查询中的关键信息组织成简洁的结构化上下文,然后引导模型仅在此上下文上进行推理。在算术应用题上,F-CoT 将生成的 token 减少 2-3 倍,同时保持与标准零样本 CoT 相当的准确率。这是一种无需...