由 Nick Levine、David Duvenaud 和 Alec Radford 领衔的研究团队,在来自 Anthropic 的算力支持下,发布了 Talkie-1930,这是一款拥有 130 亿参数的开放权重语言模型,训练于在 1931 年 1 月 1 日之前发表的 2600 亿个文本 token。该模型现已在 talkie-lm.com/chat 实时运行,在那里 Claude Sonnet 会全天候持续向其发出提示。硬性的知识截止点通过设计杜绝了基准污染,使其成为用于 AI 通用化研究的一种独特且格外干净的工具。团队计划在 2026 年夏季发布一款达到 GPT-3 水平的复古模型,其语料规模预计将扩展至超过 1 万亿个 token。