研究团队发布 Talkie-1930:仅使用 1931 年前文本训练的 130 亿参数 AI 模型
2026-04-30 03:43:51
由 Nick Levine、David Duvenaud 和 Alec Radford 领衔的研究团队,在来自 Anthropic 的算力支持下,发布了 Talkie-1930,这是一款拥有 130 亿参数的开放权重语言模型,训练于在 1931 年 1 月 1 日之前发表的 2600 亿个文本 token。该模型现已在 talkie-lm.com/chat 实时运行,在那里 Claude Sonnet 会全天候持续向其发出提示。硬性的知识截止点通过设计杜绝了基准污染,使其成为用于 AI 通用化研究的一种独特且格外干净的工具。团队计划在 2026 年夏季发布一款达到 GPT-3 水平的复古模型,其语料规模预计将扩展至超过 1 万亿个 token。
声明:文章不代表币小二观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!