Ramp Labs 提出多智能体记忆共享新方案,Token 消耗最高降低 65%
2026-04-11 13:17:44
币小二 快讯,4 月 11 日,AI 基础设施公司 Ramp Labs 发布研究成果「Latent Briefing」,通过直接压缩大模型 KV 缓存实现多智能体系统间的高效记忆共享,在不损失准确率的前提下大幅降低 Token 消耗。在主流多智能体架构中,编排者(Orchestrator)将任务拆解并反复调用工作者(Worker)模型,随着推理链路不断延伸,Token 用量呈指数级膨胀。Latent Briefing 的核心思路是借助注意力机制识别上下文中真正关键的部分,在表示层直接丢弃冗余信息,而非依赖速度慢的 LLM 摘要或稳定性差的 RAG 检索。在 LongBench v2 基准测试中,该方法表现亮眼:Worker 模型 Token 消耗降低 65%,中等长度文档(32k 至 100k)的 Token 节省中位数达 49%,整体准确率较基线提升约 3 个百分点,而每次压缩的额外耗时仅约 1.7 秒,较原始算法提速约 20 倍。实验以 Claude Sonnet 4 作为编排者、Qwen3-14B 作为工作者模型,覆盖学术论文、法律文书、小说及政府报告等多类文档场景。研究还发现,最优压缩阈值因任务难度和文档长度而异——难题适合激进压缩以过滤投机性推理噪声,长文档则更适合轻度压缩以保留分散的关键信息。
声明:文章不代表币小二观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!