Browser-Use MCP服务器 - 让AI用自然语言控制浏览器

Browser-Use MCP服务器:浏览器自动化的自然语言革命想象一下,你对AI助手说:”帮我在Amazon上找到评分最高的蓝牙耳机,价格在$50-$100之间,然后把前5个的详细信息整理成表格”。几秒钟后,浏览器自动打开、搜索、筛选、提取数据,最后返回完美格式的表格。这不是科幻,这是Browser-Use MCP服务器正在实现的现实。 为什么需要AI驱动的浏览器自动化?传统方法的痛点使用Selenium/Playwright需要: ❌ 手动分析网页DOM结构 ❌ CSS选择器/XPath脆弱,网页改版就失效 ❌ 复杂流程需要大量if-else逻辑 ❌ 错误处理繁琐(元素未加载、网络超时等) Browser-Use的自然语言方式1234567from mcp_client import MCPClientclient = MCPClient("br...

阅读全文

ReAct模式Agent中的工具调用历史管理与Token优化策略

问题背景在实现 ReAct(Reasoning + Acting)模式的 AI Agent 时,我们面临一个核心挑战:如何高效管理工具调用历史以优化 Token 使用? ReAct 模式的标准流程 初始化:将 MCP 的 tool 列表转换为 function calling 格式,传给 LLM LLM 推理:分析请求,决定调用哪些工具及参数 执行 Tool:调用对应的 MCP tool,获取返回结果 反馈循环:将结果添加到对话历史,再次发送给 LLM 迭代判断: 需要更多信息 → 继续调用工具 信息充足 → 生成最终回复 核心问题当 Agent 处理用户的下一个输入时,需要带上 history + 最新 input。那么: history 是否有必要带上历史 tool 调用信息? 这个看似简单的问题,实际涉及到: 上下文连贯性 vs Token 成本 多轮推理能力 vs 内...

阅读全文

Anthropic HH-RLHF: 人类反馈偏好数据集

核心观点:HH-RLHF是RLHF领域的”黄金标准”数据集,它证明了一件事——对齐不是玄学,而是可以通过结构化的人类偏好数据解决的工程问题。 为什么这个数据集重要?在ChatGPT爆火之前,很少有人意识到RLHF(人类反馈强化学习)的价值。OpenAI用InstructGPT证明了它的有效性,而Anthropic用HH-RLHF把这套方法论开源出来,让所有人都能训练”有用且无害”的模型。 这个数据集的核心价值不在于16.9万条样本的规模——这个数量甚至称不上大。它的价值在于清晰的标注哲学:将对齐拆解为Helpfulness(有用性)和Harmlessness(无害性)两个维度,并用简洁的偏好对格式表达人类判断。这种设计让研究者可以分别优化这两个目标,或者在实际应用中灵活权衡。 对比其他偏好数据集,HH-RLHF的标注质量更稳定、任务定义更清晰。这也是为什么它成为了RLHF研究的事实标...

阅读全文

Infinity-Instruct: 大规模高质量指令微调数据集

核心观点:智源的Infinity-Instruct用745万条指令证明了一个反直觉的事实——你不需要全部数据,140万条核心样本就能达到95.7%的性能,关键在于数据的”能力覆盖密度”。 规模不是目的,能力覆盖才是745万条指令听起来很多,但在指令微调领域这只能算中等规模。真正让Infinity-Instruct与众不同的是它的能力标签体系(ability_tag)——每条数据都被明确标注了对应的能力维度,比如”数学推理”、”代码生成”、”概念解释”。 这个设计回答了一个核心问题:怎么知道数据集是否”覆盖全面”?传统方法是堆数据量,期望大力出奇迹。而Infinity-Instruct的approach是先定义能力矩阵,然后针对性地生成数据填补空白。这也是为什么他们能用1/5的数据量达到接近完整版的效果。 对比其他指令数据集: Alpaca 52K:规模太小,能力覆盖有明显...

阅读全文

FineVision: 2400万样本的开源多模态视觉-语言数据集

核心观点:FineVision用1%的基准污染率击穿了VLM(视觉-语言模型)数据集的最大痛点——数据泄露导致的虚假性能。这个数据集证明,开源VLM完全有可能在公平评估下超越闭源模型。 基准污染:行业的脏秘密训练数据包含测试集样本,是AI领域最严重的数据泄露问题。但在多模态领域,这个问题被系统性地忽视了——因为几乎所有大规模数据集都没有做严格的污染检测。 结果是什么?论文里报告的性能数字有相当一部分是记忆而非理解。模型在MMMU、ChartQA等基准上的高分,可能只是因为训练时见过相似甚至相同的图文对。 FineVision的核心突破是1%的基准污染率——这是通过对11个主流VLM基准进行逐一检测和过滤实现的。这意味着: 用FineVision训练的模型,性能提升是真实的 基准测试结果可以信任,不是数据泄露的假象 研究对比是公平的,不同模型站在同一起跑线 对比:LAION-5B等...

阅读全文

Orca-AgentInstruct: 微软百万级合成指令数据集

AgentInstruct:当AI学会自己批改作业核心观点:微软用多代理协作重新定义了合成数据的质量上限,这不是简单的”让GPT生成训练数据”,而是一套完整的AI自我进化系统。 105万条指令数据,成本几乎为零,质量接近人工标注——微软Orca-AgentInstruct的数据让人重新思考:我们真的还需要花大价钱雇人标数据吗? 为什么AgentInstruct不是”又一个合成数据集”市面上合成数据集多如牛毛,但大多数都是”prompt engineering的产物”:写个好prompt,调用GPT-4,批量生成,完事。这种做法有个致命问题——垃圾进,垃圾出。 AgentInstruct的野心更大:它想让AI学会自己质检、自己迭代、自己优化。 三个代理角色分工明确: 内容转换代理:把网络上的非结构化知识提取成结构化信息(相当于AI版的知识图谱工程师) 种子指令生成代理:基于知识生成多...

阅读全文

Cosmopedia: 大规模合成文本数据集 - 用于小语言模型研究

核心观点:Cosmopedia不是”用大模型生成训练数据”的简单实践,它是对”小模型能否通过精心策划的合成数据达到大模型性能”这个命题的系统性验证。答案是肯定的,但前提是数据设计要足够聪明。 小模型复兴:不是开倒车在7B、13B甚至70B参数成为主流的今天,HuggingFace投入资源研究1-3B的小模型,这不是技术倒退,而是实用主义的回归。 现实是: 绝大多数实际应用不需要70B模型的能力 边缘设备、移动端、实时场景无法承受大模型的计算成本 推理成本是服务化LLM的最大成本来源 Phi-1.5(1.3B参数)证明了小模型的可能性——在特定任务上接近GPT-3.5的性能。关键是什么?不是模型架构,而是训练数据。Cosmopedia正是这个洞察的产物。 1660万条数据的”课程设计”Cosmopedia的8个子集不是随机划分,而是精心设计的能力培养路径: 数学推理(auto_ma...

阅读全文

FineWeb: HuggingFace大规模网络爬取预训练数据集

核心观点:FineWeb不是又一个Common Crawl包装,它是HuggingFace对”如何将野生互联网数据驯化为可训练语料”这个问题的系统性回答。万亿token规模的背后,是一套可复现的工业级数据处理pipeline。 Common Crawl很好,但太野了Common Crawl每月爬取几十亿网页,这是互联网上最大的公开数据源。问题是原始数据完全不能直接用——充斥着广告、导航栏、评论区、重复内容、低质量机器生成文本。如果直接拿来训练,模型学到的是互联网的噪声,而不是语言。 FineWeb的核心价值在于清洗和质量过滤。它不是简单地去掉HTML标签,而是: 内容提取:用启发式规则+机器学习分离正文和噪声 去重:URL级去重移除30-40%重复内容,MinHash去重处理近似重复 质量评分:基于文本连贯性、语法正确性、信息密度打分 语言检测:准确识别100+种语言,置信度评分 ...

阅读全文

MMLU-Pro: 更强大的多任务语言理解评估基准

MMLU-Pro:当大模型在原版MMLU上刷到90分时,你需要一张更难的试卷核心观点:10选项设计不是简单的”加大难度”,而是精准打击了大模型的幸运猜测和浅层模式识别,强制模型展示真实的推理能力。 GPT-4在原版MMLU上88%,Claude-3 Opus 86%,Gemini-Pro 84%——当顶尖模型都在85%以上徘徊时,这个基准已经失去了区分度。MMLU-Pro用10选项和推理导向的问题设计,让这些模型的分数直接腰斩到70%左右。 这不是为了难为模型,而是为了看清模型真正会什么、不会什么。 4选项到10选项:不只是数量变化原版MMLU的4选项意味着什么?即使完全瞎猜,期望得分25%。一个模型如果在某个领域只有模糊印象,通过排除法+合理推测,很容易把准确率提升到40-50%。 这在实际应用中是个严重问题:你以为模型”基本掌握”了某个知识领域,实际上它只是”略懂皮毛”。 MML...

阅读全文

MM-RLHF: 多模态大语言模型人类反馈对齐数据集

MM-RLHF:多模态RLHF的首个完整解决方案核心观点:GPT-4V、Claude-3、Gemini都在用RLHF对齐文本输出,但多模态输出怎么对齐?MM-RLHF用10维评估体系+批评型奖励模型,给出了第一个工业级的答案。 文本RLHF已经成熟——Anthropic的HH-RLHF、OpenAI的InstructGPT都验证了方法的有效性。但多模态场景复杂得多:一张图片的描述是否”好”,不仅取决于语言质量,还要看视觉细节、空间关系、伦理安全。 MM-RLHF是第一个系统性解决这个问题的数据集,16,300条样本,10维评估,27个基准验证。 为什么多模态RLHF比文本RLHF难得多文本RLHF的评估相对简单:有用性、无害性、诚实性。多模态场景要复杂一个数量级: 视觉理解维度(这是文本RLHF没有的): 忠实性:描述是否准确对应图像内容?(最容易出幻觉的地方) 视觉细节:是否捕捉...

阅读全文

Self-Instruct: 开创性的自生成指令数据集

Self-Instruct:点燃开源大模型革命的火种核心观点:Self-Instruct的价值不在82K条数据,而在于证明了”AI可以自己生成训练数据”这条路走得通——它直接催生了Alpaca、Vicuna等一系列开源模型,改变了大模型领域的权力格局。 2022年12月,华盛顿大学发布Self-Instruct论文时,很少人意识到这会成为改变大模型历史的里程碑。3个月后,斯坦福用同样的方法生成52K数据训练出Alpaca,证明了”穷人也能玩大模型”。 从此,大模型不再是OpenAI、Google的专利。 Self-Instruct到底做对了什么在Self-Instruct之前,训练指令遵循模型有三条路: OpenAI的路:雇佣大量标注员+RLHF(成本:数百万美元) Google的路:用内部数据+模板生成FLAN数据集(需要大公司资源) 学术界的路:精心设计少量高质量数据(覆盖面有...

阅读全文

Anthropic 发布 Claude Haiku 4.5:性能接近旗舰,成本仅三分之一

概述2025年10月15日,Anthropic 发布了 Claude Haiku 4.5,这是该公司最新的小型 AI 模型。虽然定位为「小型模型」,但 Haiku 4.5 的性能表现却远超预期,在编程能力上达到了旗舰模型 Sonnet 4.5 的 90%,而成本仅为 Sonnet 4 的三分之一,速度则快了两倍以上。 核心优势接近旗舰的编程能力Claude Haiku 4.5 在代码生成和调试方面表现出色,在 SWE-bench Verified 基准测试中取得了 73.3% 的成绩,仅比旗舰模型 Sonnet 4.5(77.2%)低约 5 个百分点。在 Augment 的智能编程评估中,Haiku 4.5 达到了 Sonnet 4.5 性能的 90%。这意味着开发者可以用更低的成本获得接近旗舰级的编程辅助能力。 极致的性价比Haiku 4.5 的定价策略极具竞争力: 输入: 每百...

阅读全文

Context7 MCP:为 LLM 提供实时代码文档的革命性工具

Context7 MCP:为 LLM 提供实时代码文档的革命性工具由 Upstash 打造的实时、版本精确的代码文档服务器,彻底解决 AI 编程助手的过时信息问题 项目信息 GitHub 仓库:https://github.com/upstash/context7 Stars:33,500+ ⭐ 编程语言:TypeScript 开发团队:Upstash 分类:Development, Documentation, Code Intelligence 推荐度:4.8/5.0 维护状态:积极维护中 协议:MIT 简介Context7 MCP 是由 Upstash 团队开发的革命性 Model Context Protocol 服务器,专门解决 AI 编程助手的一个核心痛点:过时的训练数据导致错误的 API 调用和不存在的代码示例。 Context7 直接从官方文档获取最新的、...

阅读全文

Sentry MCP Server - AI驱动的错误追踪和调试

简介Sentry MCP Server 是 Sentry 官方开发的 Model Context Protocol 服务器,旨在为编程 AI 助手(如 Claude Code、Cursor)提供强大的错误追踪和调试能力。该服务器作为 Sentry API 的中间件,使 LLM 能够直接访问和分析 Sentry 中的错误事件、堆栈跟踪、问题历史和性能数据,极大提升了开发者的调试效率。服务器支持两种部署模式:远程 MCP(推荐,由 Sentry 托管在 mcp.sentry.dev)和本地 stdio 模式。核心特性包括 AI 驱动的事件和问题搜索、OAuth 身份验证、支持自托管和 SaaS 两种 Sentry 部署方式。该项目基于 Cloudflare 的远程 MCP 概念,设计理念是 human-in-the-loop(人在回路中),确保 AI 助手在访问敏感数据时始终需要人工授权...

阅读全文

MCP Server Everything - The Official Comprehensive MCP Protocol Testing Server | MCP Server Everything - 官方 MCP 协议全功能测试服务器

Introduction | 简介English: MCP Server Everything is the official Model Context Protocol (MCP) reference testing server developed by Anthropic. With over 70,000 GitHub stars, this is THE definitive reference implementation for the MCP protocol. Unlike production-oriented MCP servers, this server is specifically engineered as a comprehensive protocol demonstration platform for MCP client developer...

阅读全文

n8n-MCP:AI 驱动的工作流自动化文档服务器

n8n-MCP:AI 驱动的工作流自动化文档服务器为 AI 助手提供全面的 n8n 节点文档、属性和操作信息访问 项目信息 GitHub 仓库:https://github.com/czlonkowski/n8n-mcp Stars:8,200+ ⭐ 编程语言:TypeScript 分类:Productivity, Workflow Automation 推荐度:4.5/5.0 维护状态:积极维护中 协议:MIT 简介n8n-MCP 是一个 Model Context Protocol (MCP) 服务器,为 AI 助手(如 Claude Desktop、Claude Code、Windsurf、Cursor)提供对 n8n 工作流自动化平台的全面访问。该服务器涵盖 536 个 n8n 节点,包含 99% 的节点属性覆盖率和 90% 的文档覆盖率,使 AI 助手能够智能地...

阅读全文

Brave Search MCP Server - 隐私优先的全功能搜索引擎

简介Brave Search MCP Server 是 Brave Software 官方开发的 Model Context Protocol 搜索服务器,集成了功能强大的 Brave Search API,为 AI 助手提供全方位的搜索能力。该服务器支持五大核心搜索功能:网页搜索、本地商户搜索(POI)、图片搜索、视频搜索和新闻搜索,并提供 AI 驱动的搜索结果摘要功能。Brave Search API 以其在 RAG(检索增强生成)管道中的卓越表现而闻名,是使用 Claude MCP 的应用中最受欢迎的搜索工具。服务器支持 stdio 和 HTTP 两种传输协议,提供灵活的部署方式(NPX、Docker、Smithery)。值得注意的是,Brave Search 提供每月 2000 次免费查询额度,足够个人开发和小型项目使用。 功能特性 网页搜索 - 全球互联网内容检索 本地...

阅读全文

MCP Server Time - 官方时间和时区转换服务器

简介MCP Server Time 是 Anthropic 官方开发的时间和时区转换服务器,作为 Model Context Protocol 生态系统的参考实现之一。该服务器为大语言模型提供了准确的时间信息获取和时区转换能力,支持全球所有 IANA 时区标准,并能自动检测和使用系统时区。服务器实现了两个核心工具:获取当前时间和时区转换,使 AI 助手能够处理各种与时间相关的任务,如安排会议、计算时差、转换时间戳等。作为官方参考实现,该服务器展示了 MCP 协议在实用工具集成方面的标准实践,代码质量高,文档完善,是学习 MCP 开发的优秀示例。 功能特性 获取当前时间 - 支持任意时区的精确时间查询 IANA 时区标准 - 支持全球所有 IANA 时区(如 America/New_York, Asia/Tokyo) 时区转换 - 在不同时区之间进行时间转换 自...

阅读全文

Exa MCP:专为 AI 设计的代码搜索和网页研究引擎

Exa MCP:专为 AI 设计的代码搜索和网页研究引擎连接 AI 助手与 Exa AI 的强大搜索能力,提供代码搜索、网页研究和深度调研工具 项目信息 GitHub 仓库:https://github.com/exa-labs/exa-mcp-server Stars:3,000+ ⭐ 编程语言:TypeScript (85.1%) 开发团队:Exa Labs 分类:Search, Code Intelligence, Research 推荐度:4.2/5.0 协议:MIT 简介Exa MCP Server 是一个 Model Context Protocol 服务器,将 AI 助手(如 Claude)连接到 Exa AI 的搜索能力。Exa 是专门为 AI 设计的搜索引擎,提供优化的网页搜索、代码搜索和研究工具。 功能特性核心工具 exa-code:代码上下文搜索 ...

阅读全文

Firecrawl MCP:强大的网页抓取和内容提取服务器

Firecrawl MCP:强大的网页抓取和内容提取服务器官方 Firecrawl MCP 服务器,为 Cursor、Claude 和其他 LLM 客户端添加强大的网页抓取和搜索能力 项目信息 GitHub 仓库:https://github.com/firecrawl/firecrawl-mcp-server Stars:4,700+ ⭐ 编程语言:TypeScript 开发团队:Firecrawl 分类:Web Scraping, Data Extraction 推荐度:4.6/5.0 协议:MIT 简介Firecrawl MCP Server 是 Model Context Protocol 的官方实现,集成 Firecrawl 的网页抓取能力。Firecrawl 是专业的 Web Data API,可以将整个网站转换为 LLM 就绪的 Markdown 或结构化数...

阅读全文

COSTAR-A:增强LLM在视角问题上表现的提示框架

COSTAR-A:增强LLM在视角问题上表现的提示框架论文信息 标题: COSTAR-A: A prompting framework for enhancing Large Language Model performance on Point-of-View questions 作者: Nzubechukwu C. Ohalete, Kevin B. Gittner, Lauren M. Matheny 发布日期: 2025-10-14 ArXiv链接: https://arxiv.org/abs/2510.12637 核心概述大型语言模型(LLM)对提示设计高度敏感,制定优化的提示技术对于生成一致的高质量输出至关重要。本研究引入COSTAR-A,一种增强现有COSTAR方法的新型提示工程框架。该框架特别针对视角(Point-of-View)问题进行了优化,这类问题要求模型从特...

阅读全文

面向连续空间推理的推理时扩展

面向连续空间推理的推理时扩展论文信息 标题: Towards Inference-time Scaling for Continuous Space Reasoning 作者: Minghan Wang, Thuy-Trang Vu, Ehsan Shareghi, Gholamreza Haffari 发布日期: 2025-10-14 ArXiv链接: https://arxiv.org/abs/2510.12167 核心概述通过结合过程或结果奖励模型(PRM或ORM)重排序的多样本生成,推理时扩展已被证明对大型语言模型的文本推理有效。本文研究是否可以将这些成熟技术成功应用于连续空间推理,使用COCONUT连续空间推理语言模型作为骨干。 研究系统评估了推理时扩展技术在连续空间推理任务中的表现,如科学计算、物理模拟和几何问题求解。与离散文本推理不同,连续空间推理涉及数值计算和空间关...

阅读全文

XQuant:实现超低比特KV缓存量化的跨层压缩框架

Abstract大语言模型(LLM)在各类自然语言处理任务中展现了卓越能力。然而,其巨大的内存需求,特别是在长文本理解和生成过程中KV缓存的持续增长,给资源受限环境下的部署带来了重大挑战。量化技术作为一种在保留历史信息的同时减少内存消耗的解决方案应运而生。我们提出XQuant,一个训练免费且即插即用的框架,实现了超低等效比特位宽的KV缓存量化。XQuant引入了两项关键创新:计算开销可忽略的无数据校准方法,以及跨层KV缓存压缩技术,使量化比特位宽降至1.4比特以下。在TruthfulQA和LongBench上的大量实验表明,XQuant优于现有最先进方法(如KIVI-2bit和AsymKV-1.5bit),在实现更低比特位宽的同时保持卓越性能,在内存效率和模型精度之间建立了更好的权衡。 Key Contributions 超低比特量化突破:首次实现sub-1.4比特的KV缓存量化,相...

阅读全文

AWS MCP Servers - 官方 AWS 生态 MCP 集成套件

AWS MCP Servers - 官方 AWS 生态 MCP 集成套件 AWS Labs 官方 | Stars: 6.7k | Python | Apache-2.0 概述AWS MCP Servers 是由 AWS Labs 官方提供的 Model Context Protocol 服务器套件,包含 60+ 个专业化的 MCP 服务器,全面覆盖 AWS 文档访问、API 操作、基础设施即代码 (IaC)、容器编排、Serverless、AI 服务等领域。这套工具将 AWS 最佳实践直接带入您的开发工作流,通过 AI 助手实现智能化的云资源管理和开发。 该套件不仅提供了与 AWS 服务交互的能力,还集成了智能文档检索、安全扫描、最佳实践建议等功能,使开发者能够通过自然语言与 AWS 生态进行交互,大幅提升云开发效率和质量。 核心特性 ✅ AWS Labs 官方维护,与 AWS 服...

阅读全文

Terraform MCP Server - AI驱动的基础设施即代码管理

Terraform MCP Server - AI驱动的基础设施即代码管理 HashiCorp 官方实现 | Stars: 986 | Go | MPL-2.0 概述Terraform MCP Server 是 HashiCorp 官方提供的 Model Context Protocol 实现,为 AI 助手提供与 Terraform 生态系统的无缝集成。它支持访问 Terraform 公共注册表、管理 HCP Terraform 和 Terraform Enterprise 工作空间,以及执行基础设施即代码(IaC)的各种操作。 该服务器提供了30+ 个专业工具,涵盖 Provider/Module 搜索、工作空间管理、变量配置、运行管理等核心功能。支持双传输协议(Stdio 和 StreamableHTTP),可灵活部署在本地开发环境或企业生产环境中。特别适合需要智能...

阅读全文

Qdrant MCP Server - 为AI应用提供语义记忆层

Qdrant MCP Server - 为AI应用提供语义记忆层 官方实现 | Stars: 988 | Python | Apache-2.0 概述Qdrant MCP Server 是 Qdrant 官方提供的 Model Context Protocol 实现,作为 AI 应用的语义记忆层。它通过向量嵌入技术,能够在 Qdrant 向量搜索引擎中存储和检索上下文信息,支持语义代码搜索、知识库检索等场景。 该服务器提供了简单而强大的两个核心工具:存储(qdrant-store)和查找(qdrant-find),支持灵活的嵌入模型配置,可以与本地或远程的 Qdrant 数据库集成。特别适合需要长期记忆、上下文检索的 AI 应用场景,如代码助手、知识问答系统等。 核心特性 ✅ Qdrant 官方实现,与向量数据库深度集成 🛠️ 简洁的两个核心工具:存储和查找 🎯 支持自定义嵌入...

阅读全文

Slack MCP Server - 企业级 Slack 工作空间集成方案

Slack MCP Server - 企业级 Slack 工作空间集成方案 高性能实现 | Stars: 776 | Go | MIT 概述Slack MCP Server 是一个功能强大的 Model Context Protocol 服务器,为 Slack 工作空间提供深度集成能力。该服务器采用 Go 语言开发,支持多种认证模式和传输协议,能够实现消息检索、智能搜索、频道管理以及安全的消息发送功能。 作为企业级的 Slack 集成方案,它特别适合需要程序化访问 Slack 数据的场景,如团队沟通分析、知识库构建、自动化工作流等。支持 Stealth 和 OAuth 两种认证模式,灵活适配不同的安全需求。 核心特性 ✅ 双认证模式:支持 Stealth 和 OAuth 两种认证方式 🚀 多传输协议:Stdio、SSE、HTTP 三种传输模式 🏢 企业工作空间支持:兼容企业级...

阅读全文

Telegram MCP Server - 程序化控制Telegram的强大工具

Telegram MCP Server - 程序化控制Telegram的强大工具 社区实现 | Stars: 372 | Python | MIT License 概述Telegram MCP Server 是一个功能完整的 Telegram 集成服务器,基于 Telethon 和 Model Context Protocol (MCP) 构建。它让 AI 助手(如 Claude、Cursor)能够程序化地与 Telegram 账户交互,涵盖聊天管理、消息收发、联系人管理、用户资料操作和搜索发现等全方位功能。 该服务器通过 MCP 协议暴露了数十个 Telegram 工具,使得 AI 能够理解自然语言指令并执行复杂的 Telegram 操作。无论是自动化消息管理、批量群组操作,还是用户数据采集,Telegram MCP Server 都能提供强大的支持。 核心特性 ✅ 完整的 Te...

阅读全文

Elasticsearch MCP Server - 企业级搜索引擎的智能桥梁

Elasticsearch MCP Server - 企业级搜索引擎的智能桥梁 官方实现 | Stars: 512 | Rust | Elastic License 2.0 | 实验性 概述Elasticsearch MCP Server 是 Elastic 官方提供的 Model Context Protocol 实现,为 AI Agent 提供了与 Elasticsearch 数据的自然语言交互能力。通过这个 MCP 服务器,AI 助手可以直接探索、查询和分析 Elasticsearch 索引中的数据,无需编写复杂的查询语句。 该服务器使用 Rust 编写,提供了高性能、内存安全的实现。它支持多种连接协议(stdio、SSE、streamable-HTTP),能够无缝集成到各种 MCP 客户端中。作为实验性项目,它正在持续演进,为企业级搜索应用与 AI 的结合开辟了新的可能性。...

阅读全文

Meilisearch MCP Server - 轻量级全文搜索引擎

Meilisearch MCP Server - 轻量级全文搜索引擎 官方实现 | Stars: 145 | Python | MIT 概述Meilisearch MCP Server 是 Meilisearch 官方提供的 Model Context Protocol 实现,让 AI 助手能够通过自然语言管理搜索索引和执行全文搜索。它提供了轻量级、快速且易用的搜索引擎能力,特别适合需要即时搜索体验的应用场景。 该服务器提供了完整的 Meilisearch 功能访问,包括索引管理、文档操作、高级搜索、设置配置、API 密钥管理、任务监控等。通过 MCP 协议,开发者可以用自然语言完成复杂的搜索引擎配置和管理任务,无需编写代码。特别适合电商产品搜索、文档知识库、内容发现等场景。 核心特性 ✅ Meilisearch 官方实现,原生支持所有功能 🚀 即时搜索体验,平均响应时间 <...

阅读全文

MongoDB MCP Server - 官方文档数据库和 Atlas 集群管理工具

MongoDB MCP Server - 官方文档数据库和 Atlas 集群管理工具 官方实现 | Stars: 676 | TypeScript | Apache-2.0 概述MongoDB MCP Server 是 MongoDB 官方提供的 Model Context Protocol 实现,为 AI 应用提供完整的 MongoDB 数据库和 Atlas 云集群管理能力。它支持双连接模式(本地 MongoDB 和 Atlas 云集群),提供了从数据库连接、CRUD 操作到 Atlas 集群管理的全套工具。 该服务器内置安全控制和只读模式,支持环境变量配置敏感信息,并为危险操作提供确认机制。特别适合需要 AI 辅助的数据库查询、Schema 探索、Atlas 集群管理等场景,让 AI 助手能够安全高效地访问和操作 MongoDB 数据。 核心特性 ✅ MongoDB 官方实现,...

阅读全文

Neo4j MCP Server - 让 AI 理解你的知识图谱

Neo4j MCP Server - 让 AI 理解你的知识图谱 官方实现 | Stars: 34 | Go | BETA 阶段 概述Neo4j MCP Server 是 Neo4j 官方提供的 Model Context Protocol 实现,专门为图数据库设计的 AI 交互接口。它让 AI 能够通过自然语言理解和操作图数据库,无需手动编写复杂的 Cypher 查询。 这个服务器提供了三个核心工具:schema 内省、只读查询和写入查询,能够让 LLM 深入理解图数据库的结构,并执行安全的数据查询和操作。特别适合知识图谱探索、关系分析、社交网络分析等需要处理复杂关系的场景。 重要提示:当前处于 BETA 阶段,尚不适合生产环境使用。 核心特性 ✅ Neo4j 官方实现,与图数据库原生集成 🔍 Schema 内省:自动分析图数据库结构 📖 只读 Cypher 查询:安全执行查...

阅读全文

Redis MCP Server - 为AI应用提供高性能数据管理

Redis MCP Server - 为AI应用提供高性能数据管理 官方实现 | Stars: 275 | Python | Apache-2.0 概述Redis MCP Server 是 Redis 官方提供的 Model Context Protocol 实现,作为 AI 应用的高性能数据层。它通过自然语言接口,使 AI 助手能够直接管理 Redis 中的各种数据结构,支持从简单缓存到复杂向量搜索的全场景应用。 该服务器提供了完整的 Redis 功能支持,包括字符串、哈希、列表、集合、有序集合、流、JSON 文档和向量搜索。特别适合需要高性能、实时响应的 AI 应用场景,如会话管理、对话历史、实时缓存、推荐系统和 RAG 语义搜索。 核心特性 ✅ Redis 官方实现,提供原生级别的性能和可靠性 🚀 完整的数据结构支持:字符串、哈希、列表、集合、有序集合、流 📄 JSON ...

阅读全文

MCP Database Server - 通用数据库访问服务器

MCP Database Server - 通用数据库访问服务器 社区实现 | Stars: 206 | TypeScript | MIT 概述MCP Database Server 是一个功能完善的 Model Context Protocol 实现,提供统一的多数据库访问接口。它支持 SQLite、MySQL、PostgreSQL 和 SQL Server 四种主流数据库,让 AI 助手能够通过自然语言直接查询和操作数据库。 该服务器提供了完整的 SQL 操作能力,包括数据查询、修改、表结构管理、数据导出等功能。特别适合需要与数据库交互的 AI 应用场景,如数据分析、报表生成、数据管理等。独特的”业务洞察”功能还能帮助记录和追踪分析过程中的发现。 核心特性 ✅ 支持四种主流数据库(SQLite、MySQL、PostgreSQL、SQL Server) 🛠️ 10个强大的数据库...

阅读全文

Supabase MCP Server - 现代 BaaS 平台全功能管理工具

Supabase MCP Server 简介: Supabase 官方社区 MCP Server,提供 20+ 专业工具连接 Supabase 项目,支持数据库管理、边缘函数、存储、认证等全方位功能。采用 HTTP 托管服务模式,配置简单,并提供完善的安全控制选项。 功能特性 20+ 专业工具 - 覆盖账户、数据库、边缘函数、存储全领域 HTTP 托管服务 - 无需本地安装,一行配置即可使用 OAuth 认证 - 安全的 Supabase 账户身份验证机制 只读模式 - 可配置为只读,保护生产数据安全 项目作用域 - 支持限定特定项目访问范围 数据库分支 - 安全的开发测试环境,避免影响生产 TypeScript 类型生成 - 自动从 schema 生成类型定义 多 IDE 支持 - Cursor、Claude Desktop、Windsurf、VS Code 完善的日志诊断 - ...

阅读全文

MCP for Beginners Course

MCP for Beginners Course 简介: Microsoft 官方 MCP 入门课程,通过真实的跨语言示例介绍 Model Context Protocol 基础知识。涵盖 .NET、Java、TypeScript、JavaScript、Rust 和 Python 六种语言,帮助开发者掌握构建模块化、可扩展、安全的 AI 工作流的实用技术。 功能特性 6 种编程语言 - C#、Java、JavaScript、Python、TypeScript、Rust 11 个综合模块 - 从基础到高级的完整学习路径 真实案例驱动 - 实际项目示例,非玩具代码 跨语言对比 - 同一概念的多语言实现对比 实用技术聚焦 - 从会话设置到服务编排的实战技能 安全最佳实践 - 内置安全规范和指导 多模态 AI 集成 - 覆盖文本、图像、音频等 开源免费 - 完全开源,持续更新 课程模块0...

阅读全文

Shopify Storefront MCP Server

Shopify Storefront MCP ServerShopify 官方 Storefront MCP 服务器,使 AI 代理能够与特定 Shopify 商店的电商功能交互,让购物者通过智能界面浏览产品、管理购物车和结账,每个商店拥有独立端点,无需认证即可访问。 功能特性 官方 Shopify 服务:Shopify 官方支持 商店特定端点:每个商店独立 MCP 端点 零认证:无需 API 密钥或令牌 产品目录搜索:智能产品搜索和详情 购物车管理:添加、更新、删除购物车项目 购物车检索:获取当前购物车内容 政策查询:商店政策和 FAQ 智能问答 上下文感知:提供场景化的产品信息 自动购物车创建:首次操作自动创建购物车 支持的工具search_shop_catalog搜索产品目录 功能: 搜索产品名称和描述 获取产品详情(名称、价格、URL、描述) 上下文感知搜索结果 支持自然...

阅读全文

Modern Treasury MCP Server

Modern Treasury MCP ServerModern Treasury 官方 MCP 服务器,为支付运营提供自然语言 API 接口 核心特性本服务器提供以下核心功能,全面满足您的需求: 创建预期付款(Expected Payments) 列出内部账户(Internal Accounts) 管理交易对手(Counterparties) 创建支付订单(Payment Orders) 自动化支付工作流程 自然语言交互 API 安装与配置系统要求在开始安装之前,请确保您的系统满足以下要求: 现代操作系统(Windows、macOS 或 Linux) 稳定的网络连接 安装步骤 准备环境 安装依赖 配置服务器 启动服务 Claude Desktop 配置示例在 Claude Desktop 配置文件中添加以下内容: 1234567{ "mcpServe...

阅读全文

Datadog MCP Server

Datadog MCP ServerDatadog 官方 MCP 服务器,连接可观测性数据到 AI Agent 核心特性本服务器提供以下核心功能,全面满足您的需求: 查询指标(Metrics) 查询日志(Logs) 查询链路追踪(Traces) 访问错误信息(Errors) Dashboard 数据检索 Monitor 告警信息 事件管理(Incidents) 服务管理(Services) 安装与配置系统要求在开始安装之前,请确保您的系统满足以下要求: 现代操作系统(Windows、macOS 或 Linux) 稳定的网络连接 安装步骤 准备环境 安装依赖 配置服务器 启动服务 Claude Desktop 配置示例在 Claude Desktop 配置文件中添加以下内容: 1234567{ "mcpServers": { &...

阅读全文

MCP Fetch Server - 官方网页内容获取服务器

MCP Fetch Server - 官方网页内容获取服务器 官方实现 | Stars: 2000+ | Python | MIT License 概述MCP Fetch Server 是 Model Context Protocol 官方提供的网页内容获取服务器,专为 AI 应用设计。它能够获取任意 URL 的内容,并自动将 HTML 转换为 Markdown 格式,使 LLM 能够更好地理解和处理网页内容。 该服务器提供了简单而强大的 fetch 工具,支持分页获取、原始内容模式、自定义长度限制等功能。同时,它还提供了企业级配置选项,包括代理支持、自定义 User-Agent、robots.txt 处理等,适合各种生产环境使用。 核心价值: 将互联网内容接入 AI 应用的标准化桥梁,让 AI 助手能够实时获取和理解网页信息。 核心特性 ✅ 官方维护,Model Context ...

阅读全文

MCP Memory Server - AI的持久化知识图谱记忆系统

MCP Memory Server - AI的持久化知识图谱记忆系统 官方实现 | Stars: 2000+ | TypeScript | MIT License 概述MCP Memory Server 是 Model Context Protocol 官方提供的知识图谱持久化记忆系统,为 AI 助手提供跨会话的长期记忆能力。通过实体-关系-观察三层架构,它能够像人类一样存储和检索结构化的记忆信息,实现真正的上下文理解和个性化交互。 该服务器采用知识图谱设计理念,将信息组织为互相关联的实体网络。每个实体可以拥有类型、多个观察信息,并通过有向关系与其他实体连接。这种设计使得 AI 能够理解复杂的实体关系、追踪用户偏好、维护长期对话上下文,特别适合需要记忆功能的智能应用场景。 核心特性 ✅ 官方实现,Anthropic 官方维护和支持 🧠 知识图谱架构,实体-关系-观察三层结构 💾...

阅读全文

Sequential Thinking MCP Server - 结构化思维问题解决

Sequential Thinking MCP Server - 结构化思维问题解决 官方实现 | Stars: 2000+ | TypeScript | MIT License 概述Sequential Thinking MCP Server 是 Model Context Protocol 官方提供的结构化思维服务器。它通过维护一个动态的思维序列,帮助 AI 助手系统地解决复杂问题。 该服务器的核心是 sequential_thinking 工具,支持逐步分解问题、动态修订思考、分支到替代推理路径等功能。特别适合处理复杂规划、需要多步推理的分析任务、以及初始范围不明确的问题。通过结构化的思考过程,AI 能够更好地维护上下文,过滤无关信息,生成和验证假设。 核心特性 ✅ 官方 MCP 实现,完全兼容协议规范 🧠 动态思维序列管理,支持灵活的步骤数调整 🔄 思考修订功能,支持回...

阅读全文

Google Calendar MCP Server

Google Calendar MCP ServerGoogle Calendar Model Context Protocol服务器,为Claude等AI助手提供Google Calendar集成。支持多日历管理、事件创建更新删除、智能日程安排、自然语言理解和从图片/PDF导入事件。 功能特性 多日历支持:管理多个Google日历 完整的事件管理:创建、更新、删除、搜索事件 循环事件处理:修改重复发生的事件 空闲/忙碌查询:查询可用时间段 智能日程安排:通过自然语言理解安排会议 事件导入:从图片和PDF文档导入事件 颜色管理:列出和应用日历颜色 OAuth 2.0认证:安全的Google账户集成 TypeScript实现:类型安全的实现 多部署方式:支持npx、本地安装和Docker 支持的工具list-calendars列出所有可访问的日历 list-eve...

阅读全文

Pytest MCP Server - 专业的测试失败追踪和调试工具

Pytest MCP Server专为 pytest 测试失败追踪和解决设计的 MCP 服务器,基于 9 大系统化调试原则,提供 8 个核心调试工具,帮助开发者更快速、更系统地定位和修复 Python 测试失败,是 AI 辅助测试调试的专业工具。 功能特性 失败追踪:注册和存储测试失败信息 失败列表:查看所有测试失败 详细分析:获取失败详细信息 调试原则:应用 9 大系统化调试原则 模式分析:分析失败模式和趋势 调试提示:生成智能调试建议 文档访问:快速访问 pytest 文档 示例工具:测试示例和最佳实践 JSON 存储:持久化失败数据 MCP 规范:完全符合 MCP 协议 支持的工具register_failure注册新的测试失败 list_failures列出所有失败 get_failure_details获取失败详情 apply_debugging_principle应用调...

阅读全文

Notion MCP Server - 官方 Notion 工作空间 AI 集成

Notion MCP Server - 官方 Notion 工作空间 AI 集成 官方实现 | Stars: 3200 | TypeScript | MIT 概述Notion MCP Server 是 Notion 官方提供的 Model Context Protocol 实现,为 AI 助手提供完整的 Notion API 访问能力。它支持页面创建、数据库查询、内容更新、评论管理等核心功能,让 AI 工具能够直接与 Notion 工作空间交互,实现智能化的知识管理和团队协作。 该服务器提供了两种部署方式:官方托管版本(mcp.notion.com)和自托管版本,支持 Streamable HTTP、SSE、STDIO 三种传输协议。特别适合需要 AI 辅助的知识库管理、文档创作、项目管理等场景。作为 Notion 官方维护的项目,它具有长期稳定性和完整的功能支持。 核心特性 ✅ ...

阅读全文

Grafana MCP Server - AI驱动的可观测性平台全面集成

Grafana MCP Server - AI驱动的可观测性平台全面集成 官方实现 | Stars: 1700 | Go | Apache-2.0 概述Grafana MCP Server 是 Grafana Labs 官方提供的 Model Context Protocol 实现,为 AI 助手提供了与 Grafana 可观测性平台的深度集成能力。作为业界领先的开源可观测性解决方案,Grafana 通过这个 MCP 服务器将其强大的监控、告警、日志分析和事件管理能力完全暴露给 AI 模型,实现了真正的”AI 驱动运维”。 该服务器支持 45+ 个专业工具,覆盖 Dashboard 管理、数据源查询(Prometheus/Loki)、告警规则、事件跟踪(Incidents)、智能调查(Sift)、OnCall 排班等全栈可观测性场景。无论是查询指标、分析日志、诊断性能问题...

阅读全文

GitHub MCP Server - 官方 GitHub 平台集成的版本控制利器

GitHub MCP Server - 官方 GitHub 平台集成的版本控制利器 官方实现 | Stars: 23400 | Go | MIT 概述GitHub MCP Server 是 GitHub 官方提供的 Model Context Protocol 实现,作为连接 AI 工具与 GitHub 平台的官方桥梁。它让 AI 助手能够像人类开发者一样与 GitHub 交互,执行仓库管理、Issue 处理、PR 审查、工作流监控等全方位操作。 该服务器支持 16 个可配置的工具集(toolsets),涵盖从代码仓库到安全扫描的完整 GitHub 生态。特别推荐使用远程服务器模式,配合 OAuth 认证,实现零配置、自动更新的无缝集成体验。 核心特性 ✅ GitHub 官方维护,质量和安全性保证 🔐 OAuth 认证支持,安全便捷的身份验证 ☁️ 远程服务器模式,无需本地部署和...

阅读全文

Obsidian MCP Server

Obsidian MCP ServerObsidian知识管理MCP服务器,通过Model Context Protocol使AI代理和开发工具能够与Obsidian vault交互。提供读取、写入、搜索和管理笔记、标签和frontmatter的综合工具套件,作为Obsidian Local REST API插件的桥梁。 功能特性 完整的笔记操作:读取、更新、创建、删除笔记 搜索和替换:在笔记内进行文本搜索和替换 全局搜索:跨vault搜索笔记内容 Frontmatter管理:读取和更新YAML frontmatter 标签管理:获取和管理笔记标签 智能缓存:内存中的vault缓存提高性能 双传输协议:支持stdio和HTTP传输 灵活认证:支持JWT、OAuth等认证方式 错误处理:健壮的错误处理机制 TypeScript实现:类型安全的代码库 支持的工具read-note读取特...

阅读全文

MCP Jest Testing Framework

MCP Jest Testing Framework首个(可能是唯一)专为 Model Context Protocol 服务器设计的测试框架,类似 Jest 但专注于 MCP,提供自动化、声明式的 MCP 服务器测试,支持多种传输协议、快照测试和 CI/CD 集成,极大简化 MCP 服务器质量保证。 功能特性 专为 MCP 设计:首个 MCP 专用测试框架 极简 API:一个函数调用完成测试 声明式测试:清晰、简洁的测试定义 全面覆盖:完整的测试覆盖能力 多传输支持:stdio、HTTP streaming、SSE 快照测试:自动捕获和对比快照 测试过滤:灵活的测试筛选 CI/CD 就绪:原生 GitHub Actions 支持 进程管理:自动管理服务器进程 协议握手:自动处理 MCP 协议握手 结构化验证:深度验证 MCP 响应 安装配置安装步骤方式1: 项...

阅读全文

Browserbase MCP Server - AI驱动的云端浏览器自动化

Browserbase MCP Server - AI驱动的云端浏览器自动化 企业级方案 | Stars: 2700 | TypeScript | Apache-2.0 概述Browserbase MCP Server 是一个基于 Model Context Protocol 的云端浏览器自动化服务器,通过 Browserbase 和 Stagehand 框架,让 AI 能够像人类一样与网页交互。它将强大的 Playwright 浏览器引擎与先进的大语言模型相结合,支持自然语言指令驱动的网页操作、数据提取和自动化测试。 该服务器提供了四个核心工具(navigate、act、extract、observe),支持多种 LLM 模型(Gemini、GPT-4o、Claude),并内置代理支持、隐身模式、会话持久化等企业级特性。特别适合需要智能网页交互的场景,如动态网站爬取、自动化测试、...

阅读全文

MCP Git Server - AI 驱动的 Git 仓库操作工具

MCP Git Server - AI 驱动的 Git 仓库操作工具 官方实现 | Stars: 2000 | Python | MIT License 概述MCP Git Server 是 Anthropic 官方提供的 Model Context Protocol 实现,专为 Git 版本控制系统设计。它通过一组强大的工具,使 AI 助手能够智能地读取、分析和操作 Git 仓库,实现自动化的代码审查、提交管理、分支操作等功能。 该服务器提供了 12 个核心工具,覆盖 Git 的主要操作场景,从基础的状态查询到高级的历史分析,让 AI 能够像开发者一样与 Git 仓库交互。特别适合需要自动化 Git 工作流、智能代码分析和版本控制管理的场景。 核心特性 ✅ Anthropic 官方实现,与 MCP 协议深度集成 🛠️ 12 个核心 Git 工具,覆盖完整工作流 🎯 智能差异分...

阅读全文

Playwright MCP Server - Microsoft 官方浏览器自动化工具

Playwright MCP Server - Microsoft 官方浏览器自动化工具 Microsoft 官方实现 | Stars: 21600 | TypeScript | Apache-2.0 概述Playwright MCP Server 是 Microsoft 官方提供的浏览器自动化工具,基于 Model Context Protocol 实现。它采用可访问性树(Accessibility Tree)技术,提供快速、精确的浏览器自动化能力。 与传统基于截图的自动化方案不同,Playwright MCP 使用结构化数据直接操作浏览器,无需视觉模型进行图像识别,实现了更快的响应速度和更高的准确性。该工具已内置于 GitHub Copilot Coding Agent,可以在开发过程中实时验证代码改动的效果。 支持 Chromium、Firefox、WebKit 三大浏览器引...

阅读全文

Browserbase MCP Server - 让 AI 像人类一样操控浏览器的自动化利器

Browserbase MCP Server - 让 AI 像人类一样操控浏览器的自动化利器 简介Browserbase MCP Server 是一款革命性的云端浏览器自动化服务器,通过 Model Context Protocol 让 AI 助手能够像人类用户一样与网页进行自然交互。它不仅仅是传统的网页抓取工具,而是集成了 Stagehand 多模态 AI 技术,能够理解复杂的 DOM 结构、处理动态内容、执行 JavaScript、填写表单、点击按钮,甚至从视觉角度理解页面布局。服务器提供了 6 个核心工具,涵盖导航、交互、数据提取、截图和脚本执行等全方位能力。基于 Browserbase 的云基础设施,它支持并行运行多个浏览器会话、启用高级反检测模式、使用代理网络,确保自动化任务的稳定性和隐蔽性。这对于需要大规模网页数据采集、自动化测试、竞品监控、内容聚合等场景具有突破性价值。...

阅读全文

EduBase MCP Server - AI 驱动的在线教育平台集成

EduBase MCP Server - AI 驱动的在线教育平台集成简介EduBase MCP Server 是 EduBase 平台官方推出的 Model Context Protocol 服务器实现,让 AI 助手能够与模块化在线教育平台深度交互。这个服务器为教育机构和企业提供了通过 AI 管理在线课程、协作创建考试题目、排程考试、分析学习结果的强大能力。EduBase 平台本身提供统一的学习环境、高级测验系统、参数化题目、实时作弊检测、LaTeX 公式排版等企业级功能。通过 MCP 协议集成,AI 助手可以自然语言创建题目、排程考试、分析学习数据,大幅提升教育内容创作和教学管理的效率。无论是教育机构的在线课程管理,还是企业的员工培训平台,都能通过这个 MCP Server 实现智能化的教育管理。 核心特性 AI 协作题目创建 - 通过自然语言描述快速创建各类考试题目 考试排程...

阅读全文

Elasticsearch MCP Server - 官方搜索引擎集成

Elasticsearch MCP Server - 官方搜索引擎集成简介Elasticsearch MCP Server 是 Elastic 官方推出的 Model Context Protocol 服务器实现,为 AI 应用提供了与 Elasticsearch 集群的无缝连接能力。通过这个服务器,用户可以使用自然语言直接连接和查询 Elasticsearch 索引,无需编写复杂的查询语句。该项目使用 Rust 语言开发,确保了高性能和内存安全性。作为官方支持的实验性项目,它为实时数据检索架构、日志分析和全文搜索应用提供了强大的支持。项目在 GitHub 上获得了 512 颗星,并持续接收来自 Elastic 团队的更新和改进。 核心特性 索引管理 - 列出所有可用索引及其健康状态,实时监控索引状况 映射查询 - 获取索引的字段映射信息,了解数据结构和字段类型 灵活搜索 - 使用 ...

阅读全文

MCP Fetch Server - 官方网页内容获取和转换服务

MCP Fetch Server - 官方网页内容获取和转换服务简介MCP Fetch Server 是 Model Context Protocol 官方提供的网页内容获取服务器,专门设计用于将 HTML 网页内容转换为 LLM 友好的 Markdown 格式。这个官方服务器让 AI 助手能够轻松获取和理解网页内容,支持智能内容提取、分页处理、robots.txt 遵守等多种功能。通过简洁的 API 接口,AI 可以快速抓取网页、提取主要内容、过滤广告和无关信息,并将结果转换为结构化的 Markdown 文档。无论是用于内容摘要、信息提取、网页分析,还是构建 RAG 应用的知识库,MCP Fetch Server 都提供了可靠、高效的网页数据获取能力。作为官方服务器,它遵循最佳实践,支持代理配置、自定义 User-Agent、内容长度控制等高级功能。 核心特性 HTML 到 Mar...

阅读全文

MCP Memory Server - 赋予 AI 跨会话长期记忆的知识图谱系统

MCP Memory Server - 赋予 AI 跨会话长期记忆的知识图谱系统简介MCP Memory Server 是 Model Context Protocol 官方推出的革命性记忆系统,通过知识图谱技术赋予 AI 助手持久化的长期记忆能力。与传统的临时对话上下文不同,这个服务器能够跨会话保存和检索实体、关系和观察数据,让 AI 真正记住用户的偏好、习惯、目标和历史交互。它采用 TypeScript 开发,提供了 9 个核心工具来构建和管理复杂的知识图谱,包括实体创建、关系建立、观察记录等。系统会将所有数据持久化存储,即使重启应用,AI 也能延续之前的认知,提供更加个性化和连贯的交互体验。这对于需要长期协作的项目管理、客户服务、个人助理等场景具有突破性意义。 核心特性 知识图谱架构 - 基于实体-关系-观察三元组模型,以结构化方式存储复杂的知识和关系网络 持久化记忆 - 所有...

阅读全文

MCP Git Server - 让 AI 智能操作 Git 仓库的官方服务器

MCP Git Server - 让 AI 智能操作 Git 仓库的官方服务器简介MCP Git Server 是 Model Context Protocol 官方推出的 Git 版本控制服务器,专为 AI 助手设计。它让 Claude、ChatGPT 等大语言模型能够像开发者一样直接操作 Git 仓库,执行查看状态、提交代码、创建分支等所有常见操作。通过标准化的 MCP 协议,AI 可以安全地读取提交历史、查看代码差异、管理分支,甚至自动生成规范的提交信息。这个服务器采用 Python 开发,提供了 12 个核心工具,覆盖从基础的状态查看到高级的分支管理的完整 Git 工作流程。 核心特性 完整的 Git 工作流支持 - 提供状态查看、暂存、提交、分支管理等 12 个核心工具,覆盖日常开发所需的所有 Git 操作 智能差异对比 - 支持查看未暂存、已暂存的更改,以及任意分支和提交...

阅读全文

MCP Sequential Thinking Server - 让 AI 像人类一样结构化思考的推理系统

MCP Sequential Thinking Server - 让 AI 像人类一样结构化思考的推理系统简介MCP Sequential Thinking Server 是 Model Context Protocol 官方推出的革命性推理增强系统,让 AI 能够像人类专家一样通过结构化的思维序列来解决复杂问题。不同于传统的一次性生成答案,这个服务器引导 AI 将问题分解为多个可管理的思考步骤,每一步都可以被审视、修订和优化。它支持动态调整推理路径、回溯到之前的思考节点、探索替代方案,甚至在发现新信息时重新评估已有结论。采用 TypeScript 开发,提供了一个核心的 sequential_thinking 工具,通过参数控制思考流程。这种方法特别适合需要深度分析、多轮迭代、渐进式理解的复杂任务,如系统设计、问题诊断、战略规划等场景。它让 AI 的思考过程变得透明、可追溯、可优化...

阅读全文

Meilisearch MCP Server - 轻量级搜索引擎自然语言管理

Meilisearch MCP Server - 轻量级搜索引擎自然语言管理简介Meilisearch MCP Server 是 Meilisearch 官方推出的 Model Context Protocol 服务器实现,为这款轻量级开源搜索引擎提供了自然语言管理和查询接口。Meilisearch 以其快速、易用和开发者友好而闻名,而这个 MCP Server 进一步降低了使用门槛,让用户无需编写复杂的 API 调用即可管理搜索索引、添加文档和执行高级搜索。该项目使用 Python 实现,提供了完整的索引管理、文档操作、搜索功能、设置配置、API Key 管理和任务监控等能力。它在 GitHub 上获得了 145 颗星,特别适合需要快速构建搜索功能的中小型应用。 核心特性 索引完整管理 - 创建、列表、删除索引,获取详细的索引指标和统计信息 灵活文档操作 - 分页检索、批量添加或更...

阅读全文

Grafana MCP Server - AI 驱动的可观测性平台全面集成

Grafana MCP Server - AI 驱动的可观测性平台全面集成简介Grafana MCP Server 是 Grafana Labs 官方推出的 Model Context Protocol 服务器实现,为 Grafana 可观测性平台提供全面的 AI 集成能力。这个高星项目(1700+ GitHub Stars)将 Grafana 的强大监控和可观测性功能完美融入 AI 工作流,让 AI 助手能够通过自然语言管理 Dashboard、查询数据源、跟踪事件、管理告警、调度 OnCall 值班等。Grafana MCP Server 深度集成 Grafana 生态系统,支持 Prometheus 指标查询、Loki 日志查询、Tempo 追踪、Pyroscope 性能分析等多种数据源。通过灵活的传输模式(stdio、SSE、streamable-http)和细粒度的工具控制...

阅读全文

Neo4j MCP Server - 图数据库自然语言接口

Neo4j MCP Server - 图数据库自然语言接口简介Neo4j MCP Server 是 Neo4j 官方推出的 Model Context Protocol 服务器实现,为领先的图数据库 Neo4j 提供了强大的自然语言查询和管理接口。这个服务器使用 Go 语言开发,提供了 Schema 内省、Cypher 查询执行等核心功能,让 AI 助手能够直接与图数据库进行交互。无论是探索复杂的关系网络、执行图遍历查询,还是创建和修改图结构,都可以通过自然语言指令轻松完成。该项目目前处于 Beta 阶段,支持 Neo4j Aura、Desktop 和 Self-managed 等多种部署方式,并与 VS Code 和 Claude Desktop 完美兼容。 核心特性 Schema 内省 - 自动发现和展示图数据库的标签、关系类型和属性键 只读 Cypher 查询 - 安全地执行图...

阅读全文

Redis MCP Server - 为 AI 应用提供自然语言 Redis 接口

Redis MCP Server - 为 AI 应用提供自然语言 Redis 接口简介Redis MCP Server 是 Redis 官方推出的 Model Context Protocol 服务器实现,为 AI 应用提供了通过自然语言管理和搜索 Redis 数据的强大能力。这个服务器让 Claude Desktop、VS Code 和 OpenAI Agents 等 AI 助手能够直接操作 Redis 的所有核心数据结构,包括 Strings、Hashes、Lists、Sets、Sorted Sets、JSON 文档、Stream 流式数据,以及强大的向量搜索功能。通过标准化的 MCP 协议,开发者可以轻松地将 Redis 的高性能数据存储能力集成到 AI 工作流中,实现会话管理、实时缓存、向量搜索等多种应用场景。 核心特性 完整的数据结构支持 - 支持 Redis 所有主要数据...

阅读全文

Slack MCP Server - 强大的工作空间集成服务

Slack MCP Server - 强大的工作空间集成服务简介Slack MCP Server 是一款功能强大的 Slack 工作空间集成服务器,通过 Model Context Protocol (MCP) 协议提供与 Slack 的深度集成能力。该服务器使用 Go 语言开发,提供了完整的消息检索、搜索、频道管理等功能,让 AI 助手能够直接与 Slack 工作空间进行交互。无论是查询历史消息、搜索特定内容,还是发送新消息到频道或线程,都可以通过自然语言指令轻松完成。这个项目在 GitHub 上获得了 776 颗星,证明了其在 Slack 自动化和集成领域的价值。 核心特性 消息历史检索 - 从任意频道或私信中检索完整的消息历史,支持时间范围过滤和分页 线程回复管理 - 检索和管理 Slack 线程中的所有回复消息,保持对话上下文 智能消息发送 - 向频道发送新消息或在现有线程中...

阅读全文

MCP Database Server - 多数据库统一访问服务

MCP Database Server - 多数据库统一访问服务简介MCP Database Server 是一个功能强大的多数据库统一访问服务器,通过 Model Context Protocol 为 SQLite、SQL Server、PostgreSQL 和 MySQL 提供统一的自然语言接口。这个项目使用 TypeScript 开发,提供了完整的数据库操作能力,包括查询、修改、表管理、Schema 查看等功能。特别的是,它还提供了业务洞察备忘录功能,允许用户记录和追踪数据分析过程中的发现。该项目在 GitHub 上获得了 206 颗星,特别适合需要跨多种数据库进行数据分析和管理的场景。 核心特性 多数据库支持 - 统一接口支持 SQLite、SQL Server、PostgreSQL 和 MySQL 四种主流数据库 完整的 CRUD 操作 - 支持查询(SELECT)、插入、...

阅读全文

WooCommerce MCP Server - 通过自然语言管理 WordPress 电商商店

WooCommerce MCP Server - 通过自然语言管理 WordPress 电商商店简介WooCommerce MCP Server 是 WooCommerce 官方推出的 Model Context Protocol 服务器实现,为 AI 助手提供了通过自然语言管理 WordPress 电商商店的强大能力。这个服务器完整集成了 WordPress 和 WooCommerce 的 REST API,让 AI 能够轻松管理产品、订单、客户、分类、优惠券等电商核心功能。通过 JSON-RPC 2.0 协议,开发者可以让 AI 助手自动化执行商店运营任务,从产品上架到订单处理,从库存管理到营销活动配置,大幅提升电商运营效率。无论是小型独立商店还是大型电商平台,都能通过这个 MCP Server 实现智能化的商店管理。 核心特性 完整的产品管理 - 创建、列出、更新、删除产品,支...

阅读全文

InfluxDB MCP Server - 时序数据库自然语言接口

InfluxDB MCP Server - 时序数据库自然语言接口简介InfluxDB MCP Server 是 InfluxData 官方推出的 Model Context Protocol 服务器实现,专门为 InfluxDB 3 时序数据库提供自然语言查询和管理接口。这个服务器使得用户无需编写复杂的 SQL 查询或 Line Protocol,即可通过 AI 助手与 InfluxDB 进行交互。它使用 TypeScript 实现,提供了完整的数据库管理、数据写入、SQL 查询、Token 管理等功能,支持 InfluxDB Core、Enterprise 和 Cloud Dedicated 全系列产品。该项目特别适合 IoT、监控、分析等需要处理时序数据的场景,本地运行确保数据隐私安全。 核心特性 SQL 查询执行 - 使用标准 SQL 语法查询时序数据,支持多种输出格式(JS...

阅读全文

SonarQube MCP Server - AI 驱动的代码质量和安全分析

SonarQube MCP Server - AI 驱动的代码质量和安全分析简介SonarQube MCP Server 是 SonarSource 官方推出的 Model Context Protocol 服务器实现,为 AI 编码助手提供了强大的代码质量和安全分析能力。这个服务器将 SonarQube 的静态代码分析功能完美融入 AI 工作流,让 Claude、Codex、GitHub Copilot 等 AI 助手能够在编写代码的同时实时检测质量问题和安全漏洞。通过在 Agent 上下文中直接分析代码片段,开发者可以获得即时的代码质量反馈、安全建议和技术债务评估,显著提升代码质量和开发效率。无论是使用 SonarQube Cloud 还是自托管的 SonarQube Server,都能轻松集成到各种 AI 开发工具中。 核心特性 代码片段实时分析 - 在 AI Agent 上下...

阅读全文

LinearRAG: 基于线性图的大规模语料检索增强生成

论文概述LinearRAG是一种针对大规模语料库的新型检索增强生成框架,旨在解决当前RAG系统在处理大规模非结构化语料和不可靠知识图谱构建方面的局限性。该方法的核心创新在于构建了一个名为”三图”(Tri-Graph)的轻量级图结构,通过避免不稳定的关系建模,实现了与语料库规模呈线性关系的扩展能力。LinearRAG采用两阶段检索策略,在处理复杂推理任务时能够更准确地定位相关段落,有效减少了大语言模型的幻觉问题。 论文信息: 发布时间:2025-10-11 作者:Luyao Zhuang, Shengyuan Chen, Yilin Xiao, Huachi Zhou, Yujing Zhang, Hao Chen, Qinggang Zhang, Xiao Huang 研究方向:上下文工程 (Context Engineering), 检索增强生成 (Retrieval-Augme...

阅读全文

面向长期LLM代理的偏好感知记忆更新

面向长期LLM代理的偏好感知记忆更新论文信息 标题: Preference-Aware Memory Update for Long-Term LLM Agents 作者: Haoran Sun, Zekun Zhang, Shaoning Zeng 发布日期: 2025-10-10 ArXiv链接: https://arxiv.org/abs/2510.09720 核心概述影响基于LLM代理推理能力的关键因素之一是其利用长期记忆的能力。集成长期记忆机制使代理能够基于历史交互做出明智决策。虽然最近的进展显著改进了存储和检索组件,通过将记忆编码为密集向量进行相似性搜索或组织为结构化知识图谱,但大多数现有方法在记忆更新方面存在不足。特别是,它们缺乏根据不断演变的用户行为和上下文动态优化偏好记忆表示的机制。 为了解决这一差距,本文提出了偏好感知记忆更新机制(PAMU),实现动态和个性化的...

阅读全文

LFM2-8B-A1B - Liquid AI 大型语言模型

LFM2-8B-A1B - Liquid AI 大型语言模型模型概述LFM2-8B-A1B 是 Liquid AI 公司于 2025 年 10月发布的大型语言模型,拥有 8.3B total (1.5B active per token, MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务。 该模型支持商业使用,为企业部署提供了法律保障。 LFM2-8B-A1B 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 2.4K,获得了 152 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,支持 32K tokens 的超长上下文窗口。 LFM2-8B-A1B 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语...

阅读全文

GPT-5 Pro - OpenAI 大型语言模型

GPT-5 Pro - OpenAI 大型语言模型模型概述GPT-5 Pro 是 OpenAI 公司于 2025 年 10月发布的大型语言模型。 具备强大的逻辑推理和数学推理能力。 该模型支持商业使用,为企业部署提供了法律保障。 GPT-5 Pro 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特性 Extended reasoning for comprehensive answers:提供强大的AI能力支持 88.4% on GPQA without tools (state:of-the-art) Optimized for finance, legal, and...

阅读全文

AWS Bedrock AgentCore MCP服务器 - AI Agent开发的对话式加速器

AWS Bedrock AgentCore MCP服务器:用对话重新定义Agent开发如果你曾经尝试开发一个生产级的AI Agent,你一定经历过翻阅冗长文档、配置复杂IAM权限、调试神秘错误的痛苦。AWS在2025年10月推出的Bedrock AgentCore MCP服务器,将这些痛苦压缩到了与AI助手的几句对话中。 问题:传统Agent开发的时间黑洞传统流程需要15-20小时 第1-2小时: 阅读200+页AgentCore文档 第3-5小时: 配置AWS CLI、IAM角色、ECR仓库 第6-10小时: 代码迁移到AgentCore架构 第11-15小时: 调试权限、网络、容器化部署 AgentCore MCP的革命:分钟级部署12345678910你(对Claude说): "帮我创建一个AgentCore Runtime应用"MCP服务器自动完成:✅ ...

阅读全文

IBM Granite 4.0 H-Small - IBM 大型语言模型

IBM Granite 4.0 H-Small - IBM 大型语言模型模型概述IBM Granite 4.0 H-Small 是 IBM 公司于 2025 年 10月发布的大型语言模型,拥有 32.2B (MoE Hybrid) 参数规模。该模型经过指令微调,专门针对对话和任务执行场景进行了优化。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 IBM Granite 4.0 H-Small 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 22.1K,获得了 241 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 32.2B (MoE Hybrid) 参数规模:采用大...

阅读全文

Ling-1T - inclusionAI 大型语言模型

Ling-1T - inclusionAI 大型语言模型模型概述Ling-1T 是 inclusionAI 公司于 2025 年 10月发布的大型语言模型,拥有 1T total (~50B active per token, MoE 1/32 activation ratio) 参数规模。 具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 Ling-1T 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 715,获得了 197 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,支持 128K tokens 的超长上下文窗口,State-of-the-art on complex reasoning benchmarks。 核心特性 1T total (~50B active p...

阅读全文

Liquid AI LFM2-Audio-1.5B - 端到端音频基础模型

Liquid AI LFM2-Audio-1.5B - 端到端音频基础模型 厂商: Liquid AI发布日期: 2025-10-01模型类型: 音频基础模型模态: 音频、文本参数规模: 1.5B许可证: Apache 2.0 (有商业使用条款)评分: 4.4/5.0 概述Liquid AI LFM2-Audio-1.5B 是 Liquid AI 于 2025 年 10 月 1 日发布的端到端音频基础模型,也是 LFM2 系列的首个音频模型。该模型专为低延迟设计,响应延迟低于 100 毫秒,仅使用 1.5B 参数就实现了出色的音频理解和生成能力。LFM2-Audio 特别适合部署在边缘设备上,包括智能手机、笔记本电脑、车载系统和可穿戴设备。 LFM2-Audio 的发布标志着 Liquid AI 在多模态模型领域的重要扩展,继 LFM2 (文本)、LFM2-VL (视觉-...

阅读全文

LoRAFusion: 大语言模型的高效LoRA微调系统

LoRAFusion: LoRA明明只训练0.3%参数,为什么还这么慢?核心观点:LoRA把175B模型的微调成本降到了全参数训练的1/1000,但大家都忽略了一个事实——LoRA的实现效率很低,大量时间浪费在冗余的内存访问上。LoRAFusion通过算子融合和智能调度,让LoRA训练再快2倍,同时把70B模型的内存需求从1120GB降到142GB(2-3张A100就够)。这不是算法创新,而是把LoRA该有的性能彻底释放出来。 LoRA的性能悖论LoRA的数学很优雅:在每个线性层加一个低秩旁路 ΔW = BA,其中 B∈R^(d×r),A∈R^(r×d),rank r 通常只有8-64。 理论上,LoRA应该比全参数训练快得多: 参数量:只有0.29%需要训练(r=16时) 计算量:O(2rdn) vs 全参数的 O(d²n),当r<<d时可忽略 内...

阅读全文

Qwen3-VL 30B-A3B Instruct - 阿里巴巴 大型语言模型

Qwen3-VL 30B-A3B Instruct - 阿里巴巴 大型语言模型模型概述Qwen3-VL 30B-A3B Instruct 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Qwen3-VL 30B-A3B Instruct 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 412.4K,获得了 208 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 30B active (A3B MoE) 参数规模:采用大规模参数设计,在性能和效率之间...

阅读全文

Qwen3-VL 30B-A3B Thinking - 阿里巴巴 大型语言模型

Qwen3-VL 30B-A3B Thinking - 阿里巴巴 大型语言模型模型概述Qwen3-VL 30B-A3B Thinking 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Qwen3-VL 30B-A3B Thinking 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 7.9K,获得了 103 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 30B active (A3B MoE) 参数规模:采用大规模参数设计,在性能和效率之间取得...

阅读全文

AI Agent的有效上下文工程

文章概述本文由 Anthropic 应用 AI 团队撰写,介绍了上下文工程(Context Engineering)这一概念,它是提示工程(Prompt Engineering)在 AI Agent 时代的进化形态。随着大语言模型能力的提升,挑战不再仅仅是编写完美的提示词,而是如何策略性地管理进入模型有限注意力预算的信息。文章深入探讨了系统提示词设计、工具定义、上下文检索策略,以及长时任务的技术手段,为构建高效可靠的 AI Agent 提供了实践指南。 文章信息: 发布时间:2025-09-29 作者:Prithvi Rajasekaran, Ethan Dixon, Carly Ryan, Jeremy Hadfield 机构:Anthropic Applied AI Team 研究方向:上下文工程 (Context Engineering), AI Agent 架构 核心技术:...

阅读全文

DeepSeek-V3.2-Exp - DeepSeek 大型语言模型

DeepSeek-V3.2-Exp - DeepSeek 大型语言模型模型概述DeepSeek-V3.2-Exp 是 DeepSeek 公司于 2025 年 9月发布的大型语言模型,拥有 685B (MoE with DeepSeek Sparse Attention) 参数规模。 在代码生成和理解方面表现出色。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-V3.2-Exp 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 42.9K,获得了 607 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-V3.2-Exp 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成...

阅读全文

Claude Sonnet 4.5 - Anthropic 大型语言模型

Claude Sonnet 4.5 - Anthropic 大型语言模型模型概述Claude Sonnet 4.5 是 Anthropic 公司于 2025 年 9月发布的大型语言模型。 在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 该模型支持商业使用,为企业部署提供了法律保障。 Claude Sonnet 4.5 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特性 World’s best coding model:77.2% on SWE-bench Verified World’s best agent model:61.4% on OSWor...

阅读全文

GLM-4.6 - 智谱AI 大型语言模型

GLM-4.6 - 智谱AI 大型语言模型模型概述GLM-4.6 是 智谱AI 公司于 2025 年 9月发布的大型语言模型,拥有 356.8B total (MoE) 参数规模。 在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 GLM-4.6 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 24.6K,获得了 672 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,Competitive with DeepSeek-V3.1-Terminus and Claude Sonnet 4。 GLM-4.6 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是...

阅读全文

长期运行低代码代理的记忆管理与上下文一致性

长期运行低代码代理的记忆管理与上下文一致性论文信息 标题: Memory Management and Contextual Consistency for Long-Running Low-Code Agents 作者: Jiexi Xu 发布日期: 2025-09-27 ArXiv链接: https://arxiv.org/abs/2509.25250 核心概述AI原生低代码/无代码(LCNC)平台的兴起使得自主代理能够执行复杂的、长时间运行的业务流程。然而,一个根本性挑战依然存在:记忆管理。随着代理长时间运行,它们面临着’记忆膨胀’和’上下文退化’问题,导致行为不一致、错误累积和计算成本增加。 本文深入分析了长期运行代理的记忆管理挑战,提出了系统化的解决方案。研究识别了三个核心问题:首先是记忆膨胀,随着交互累积,上下文长度爆炸式增长;其次是上下文退化,长时间运行后重...

阅读全文

动态专家搜索:在测试时增强MoE LLM的推理能力

动态专家搜索:在测试时增强MoE LLM的推理能力论文信息 标题: Dynamic Experts Search: Enhancing Reasoning in Mixture-of-Experts LLMs at Test Time 作者: Yixuan Han, Fan Ma, Ruijie Quan, Yi Yang 发布日期: 2025-09-26 ArXiv链接: https://arxiv.org/abs/2509.22572 核心概述测试时扩展(TTS)通过在推理期间分配额外计算来增强大型语言模型的推理能力。然而,现有方法主要依赖输出级采样,而忽略了模型架构的作用。本文提出动态专家搜索(DES),一种利用混合专家(MoE)架构在测试时增强推理的新方法。 MoE模型通过多个专家网络处理不同类型的输入,但传统的静态路由策略限制了其在推理任务中的潜力。DES的核心思想是在测...

阅读全文

GraphSearch: 用于图检索增强生成的智能体深度搜索工作流

图Search: An Agentic Deep Searching Workflow for 图 检索-Augmented Generation论文概述本文是一篇关于图检索增强生成的研究论文,由 Cehao Yang 等8位研究者共同完成。 研究目标本研究的主要目标包括: Identifies two core limitations of existing 图检索增强生成: shallow 检索 and inefficient 图 utilization Proposes 图Search, an agentic deep searching workflow with modular architecture Introduces dual-channel 检索 combining semantic queries over text and relational querie...

阅读全文

InfiniPipe: 面向长上下文大语言模型训练的数据中心弹性流水线并行

InfiniPipe: 当上下文长度从4K飙到192K,传统流水线并行彻底不够用了核心观点:GPT-4能处理128K token、Claude支持200K、Gemini直接上百万,长上下文已经从实验室走进产品。但训练侧呢?传统流水线并行在32K以上就开始崩溃——通信开销爆炸、内存分布失衡、变长序列处理效率低下。InfiniPipe用”弹性流水线并行”重新定义了长上下文训练的范式,核心逻辑:不要让数据适配模型分割,让模型分割适配数据特征。 长上下文训练的三重噩梦训练192K token上下文的模型时,传统流水线并行会遇到灾难性问题: 噩梦1: 通信开销爆炸流水线并行在stage之间传递激活值。短序列时这不是瓶颈,但长序列让激活值大小从MB级跳到GB级: 4K token:激活值约100MB 32K token:激活值约800MB 192K token:激活值约4.8GB 你的GPU...

阅读全文

Google Gemini 2.5 Flash - Google 高性能多模态语言模型

Google Gemini 2.5 Flash - Google 高性能多模态语言模型 厂商: Google DeepMind发布日期: 2025-09-25模型类型: 多模态语言模型模态: 文本、图像、视频、音频许可证: 专有商业模型 (Proprietary)评分: 4.5/5.0 概述Google Gemini 2.5 Flash 是 Google DeepMind 于 2025 年 9 月 25 日发布的最新多模态语言模型更新版本,是 Gemini 2.5 系列中专注于高速推理和成本效益的版本。该模型在保持 Gemini 2.5 Pro 级别能力的同时,大幅提升了响应速度和成本效率,特别适合需要大规模部署和实时响应的应用场景。 Gemini 2.5 Flash 在质量和效率方面都实现了显著改进,不仅延续了 Gemini 系列强大的多模态理解能力,还在推理速度、上下...

阅读全文

Tencent HunyuanImage 3.0 - 腾讯 大型语言模型

Tencent HunyuanImage 3.0 - 腾讯 大型语言模型模型概述Tencent HunyuanImage 3.0 是 腾讯 公司于 2025 年 9月发布的大型语言模型,拥有 83B (MoE, 64 experts, 13B active per token) 参数规模。 具备强大的逻辑推理和数学推理能力。 该模型支持商业使用,为企业部署提供了法律保障。 Tencent HunyuanImage 3.0 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 2.6K,获得了 853 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,Comparable to or surpassing leading closed-source models。 核心特性 83B (MoE, 64 experts, 13B active per token...

阅读全文

以查询为中心的图检索增强生成

以查询为中心的图检索增强生成论文信息 标题: Query-Centric Graph Retrieval Augmented Generation 作者: Yaxiong Wu, Jianyuan Bo, Yongyue Zhang, Sheng Liang, Yong Liu 发布日期: 2025-09-25 ArXiv链接: https://arxiv.org/abs/2509.21237 核心概述基于图的检索增强生成(RAG)通过外部知识丰富大型语言模型(LLM),实现长上下文理解和多跳推理。但现有方法面临粒度困境:细粒度的实体级图会产生高昂的token成本并丢失上下文,而粗粒度的文档级图无法捕捉细微的关系。 粒度困境细粒度实体级图优势: 精确的实体关系建模 支持细致的推理 关系表达清晰 劣势: Token成本极高 上下文信息碎片化 实体消歧困难 粗粒度文档级图优...

阅读全文

Google Data Commons MCP服务器 - 公共数据的AI智能访问

Google Data Commons MCP服务器:让AI拥抱真实世界数据想象一下,当你的AI助手不再依赖训练数据中可能过时的信息,而是能够实时访问全球最权威的公共统计数据——人口普查、经济指标、健康数据、气候变化趋势……这正是Google在2025年9月推出的Data Commons MCP服务器带来的革命性改变。 什么是Data Commons?在深入MCP服务器之前,我们需要了解Data Commons本身。这是Google的一个雄心勃勃的项目,旨在将全球分散的公共数据集整合到一个统一的知识图谱中。截至目前,它已经汇聚了来自联合国、世界银行、各国政府、科研机构的数万亿数据点,覆盖240多个国家和地区。 数据类型包括: 人口统计:年龄分布、性别比例、教育水平、就业率 经济指标:GDP、收入不平等、通货膨胀、贸易数据 健康数据:预期寿命、疾病发病率、医疗资源分布 环境数据:气候...

阅读全文

DeepSeek-V3.1-Terminus - DeepSeek 大型语言模型

DeepSeek-V3.1-Terminus - DeepSeek 大型语言模型模型概述DeepSeek-V3.1-Terminus 是 DeepSeek 公司于 2025 年 9月发布的大型语言模型,拥有 685B total (MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-V3.1-Terminus 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 20.7K,获得了 314 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-V3.1-Terminus 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表...

阅读全文

Qwen-Image-Edit-2509 - 阿里巴巴 大型语言模型

Qwen-Image-Edit-2509 - 阿里巴巴 大型语言模型模型概述Qwen-Image-Edit-2509 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 undisclosed (diffusion model) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Qwen-Image-Edit-2509 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 72.9K,获得了 546 个点赞,显示出强大的社区影响力和用户认可度。 Qwen-Image-Edit-2509 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。...

阅读全文

Qwen3-Omni 30B-A3B Instruct - 阿里巴巴 大型语言模型

Qwen3-Omni 30B-A3B Instruct - 阿里巴巴 大型语言模型模型概述Qwen3-Omni 30B-A3B Instruct 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色。 该模型支持商业使用,为企业部署提供了法律保障。 Qwen3-Omni 30B-A3B Instruct 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 293.6K,获得了 619 个点赞,显示出强大的社区影响力和用户认可度。 Qwen3-Omni 30B-A3B Instruct 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能...

阅读全文

xAI 发布 Grok 4 Fast: 性能比肩旗舰,成本降低 98%%

概述2025年9月19日,xAI 发布了 Grok 4 Fast,这是一个针对成本优化的推理模型,在保持与旗舰模型 Grok 4 相当性能的同时,将成本降低了 98%。通过平均减少 40% 的思考 token 使用量,Grok 4 Fast 在 LMArena 的文本竞技场中排名第 8,与 Grok 4 并驾齐驱,同时提供了业界最具竞争力的性价比。 核心优势极致的成本效率Grok 4 Fast 最大的突破在于其卓越的成本效率: 价格降低 98%: 相比 Grok 4,在前沿基准测试中达到相同性能所需的成本降低了 98% 思考 token 减少 40%: 平均使用的思考 token 比 Grok 4 少 40% Token 使用量优化: 在 Artificial Analysis Intelligence Index 中使用了 6100 万 tokens,显著少于 Gemini 2....

阅读全文

Magistral Small 1.2 2509 - Mistral AI 大型语言模型

Magistral Small 1.2 2509 - Mistral AI 大型语言模型模型概述Magistral Small 1.2 2509 是 Mistral AI 公司于 2025 年 9月发布的大型语言模型,拥有 24B 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Magistral Small 1.2 2509 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 24.7K,获得了 235 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 24B 参数规模:采用大规模参数设计,在性能和效率之间取得最佳平衡 Smal...

阅读全文

突破记忆墙:长上下文代理LLM推理的优化路径

突破记忆墙:长上下文代理LLM推理的优化路径论文信息 标题: Combating the Memory Walls: Optimization Pathways for Long-Context Agentic LLM Inference 作者: Haoran Wu, Can Xiao, Jiayi Nie, Xuan Guo, Binglei Lou, Jeffrey T. H. Wong, Zhiwen Mo, Cheng Zhang, Przemyslaw Forys, Wayne Luk, Hongxiang Fan, Jianyi Cheng, Timothy M. Jones, Rika Antonova, Robert Mullins, Aaron Zhao 发布日期: 2025-09-11 ArXiv链接: https://arxiv.org/abs/2509.095...

阅读全文

测试时扩展在知识密集型任务中尚不有效

测试时扩展在知识密集型任务中尚不有效论文信息 标题: Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks Yet 作者: James Xu Zhao, Bryan Hooi, See-Kiong Ng 发布日期: 2025-09-08 ArXiv链接: https://arxiv.org/abs/2509.06861 核心概述测试时扩展通过允许模型生成长推理链来增加推理时计算,在许多领域展现出强大性能。然而,本研究表明,这种方法对于需要高事实准确性和低幻觉率的知识密集型任务尚不有效。 研究系统评估了测试时扩展技术在知识密集型任务上的表现,如开放域问答、事实核查和专业领域查询。实验使用多个先进推理模型,包括o1-preview、o1-mini等,在WikiQA、Tri...

阅读全文

S1-Base-671B - ScienceOne AI 大型语言模型

S1-Base-671B - ScienceOne AI 大型语言模型模型概述S1-Base-671B 是 ScienceOne AI 公司于 2025 年 9月发布的大型语言模型,拥有 671B (Heterogeneous Mixture-of-Experts) 参数规模。 具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 S1-Base-671B 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 N/A,获得了 N/A 个点赞,显示出强大的社区影响力和用户认可度。 S1-Base-671B 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工...

阅读全文

Microsoft MAI-1-Preview - 微软 大型语言模型

Microsoft MAI-1-Preview - 微软 大型语言模型模型概述Microsoft MAI-1-Preview 是 微软 公司于 2025 年 8月发布的大型语言模型,拥有 undisclosed (Mixture-of-Experts) 参数规模。作为基座模型,它为下游任务提供了强大的基础能力。 该模型支持商业使用,为企业部署提供了法律保障。 Microsoft MAI-1-Preview 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特性 undisclosed (Mixture-of-Experts) 参数规模:采用大规模参数设计,在性能和效率之间取...

阅读全文

© 2025 Generative AI Discovery All Rights Reserved.
Theme by hiero