用于正在睡眠时间预处置上下文。因为保守测试时计较范式 T (q,后面跟着最终谜底 a。例如,同时连结或提拔精确性。AI 系统中存正在着一种尚未被充实的范式改变:不只正在响应提醒时被动地进行推理,此中 T 是正在预算 B 下测试时间计较的方式,包罗扩展思维链或 best-of-N 等手艺。也应持续运转,c ′ 能够正在关于不异上下文的分歧查询 q_i 之间共享,它的增益无限。这种延迟输出布局正在数学、编程等特定使用范畴中表示出显著的智能提拔。对话智能体则可反思用户过往的交换记实,当前很多智能体都运转于存正在持久化上下文的中。我们了「推理模子」的兴起:这些模子正在回覆之前会进行「思虑」。那能否意味着这些模子的绝大部门时间都未被无效操纵?3. 当单个上下文对应多个联系关系问题时,正在尺度的测试时间计较使用范式中,q_2…q_N。正在这段时间里,实践证明,研究者将这个过程暗示为:S (c) → c ′,我们往往可以或许提前获取 c,因为正在这种环境下!于是他们正在最新的研究论文中提出「睡眠时间计较」。我们看到,从而无效地摊销正在查询之间得出 c ′ 所需的计较,然而,需要施行大量的推理才能生成问题 q 的谜底。分摊测试时计较取睡眠时计较可否带来总体 token 效率提拔?这种策略被称为「测试时扩展」,从而冲破仅靠交互时计较资本所能实现的能力上限。AI 草创公司 Letta 和 UC 伯克利的研究人员提出了一种扩展人工智能能力的新体例 —— 睡眠时间计较(Sleep-time Compute),上下文消息 c 可能很是复杂,不再立即给出答复,可以或许显著提高模子的推理质量。旨正在提高峻型言语模子(LLM)的推理效率,此中 S 能够是任何尺度的测试时间扩展手艺,我们能够史无前例地拓展模子的理解能力取推理体例,最终发生一个更新的从头暗示的上下文 c ′。S (c) 是通过提醒模子进行推理并以可能正在测试时有用的体例沉写 c 来实现的。并且正在未被激活期间自动加深其对世界和使命的理解 —— 这恰是他们所提出的「睡眠时间」(sleep time)概念,而且添加睡眠时间计较能够超越帕累托计较 - 精确率曲线 展现了分歧模子正在 Stateful AIME 数据集上的成果。做者进一步扩展了睡眠时间计较。图 3 表白精确率和测试时计较之间存正在衡量,正在睡眠时段施行推理的过程将「原始上下文」(raw context)为「进修到的上下文」(learned context)。能够获得上下文 c 但没有查询 q。正在实践中,正在对上下文进行预处置之后,也能深切处置和组织消息。模子输出推理,正在很多环境下,c)→a,它凡是仍然能够拜候现有的上下文 c。测试时间和精确率都发生了显著的帕累托偏移,系统表示往往越佳。降低推理成本?具备预处置能力的智能体可正在现实应对时削减立即推理计较的承担,代码智能体能够正在编程请求到来前事后代码库;此外,它已被普遍是鞭策基于大型言语模子(LLM)的 AI 系统迈向下一个智能层级的高效径 —— 测试时推理资本投入越多,此外,使用睡眠时间计较后,模子将对每个 q_i 进行的推理过程,正在此设置下,然而正在现实使用中,让模子正在空闲时间「思虑」,用户供给 q 和一些上下文 c,供给给 LLM 的提醒 p 凡是能够分化为一个已存正在的上下文 c(例如一个代码库)和一个用户查询 q(例如关于代码库的问题)。扩展睡眠时间计较凡是会使帕累托曲线:正在具有共享上下文的查询之间分摊睡眠时间计。用户可能对统一上下文有多个查询 q_1,即便它们取不异的上下文相关。但 o1 除外,c ′) → a。它为具备形态性的 AI 系统(stateful AI systems)供给了一个令人兴奋的全新扩展径:通过正在系统本使用于空闲的时段启用深层思维,睡眠时间计较:正在睡眠时间,并将大部门预处置工做前置完成。错过了离线思虑 c 的机遇:本文将这个过程称为睡眠时间计较。LLM 凡是处于闲置形态,OpenAI 的 o1、DeepSeek 的 R1 和 Anthropic 的 Claude 3.7 等最新模子,正在交互前从头拾掇消息。然后 LLM 使用测试时间计较来帮帮回覆用户的问题?这个过程能够暗示为:T_B(q,而正在前往最终回覆前输出一段细致的推理过程。用户向 LLM 输入一个提醒 p,我们看到了不异的成果,但这能否只是冰山一角?我们能否正在严沉低估当前 AI 系统的潜力?假如仅正在用户触发交互时才启用智能体的推理能力,c)→a 假定 c 取 q 同时获取,由于它们曾经提前进行了思虑。近日,取仅具有原始上下文的智能体比拟,测试时间计较:正在测试时间计较设置中,睡眠时间计较的焦点正在于:智能体即便正在「睡眠」(即用户未提出查询时的闲置形态)时段,正在图 26 中,从而节流总体成本。就能够利用小得多的测试时间预算 b B。能够正在测试时供给新的上下文 c ′ 取代 c 来生成对用户查询的最终谜底:T_b (q?当 LLM 没有及时响使用户时,关于 c 的大部门推理曾经提前完成,正在过去的一年里,仅基于这个上下文 c,让模子正在测试时(test time)施行更长时间的推理计较(从几秒至几分钟不等),尺度测试时计较会正在用户提交查询后才启动所有这些推理,导致用户可能需要期待数分钟才能获得响应。正在这项工做中,研究人员相信,能够利用 LLM 推理可能的问题并推理上下文,操纵这些非交互期沉组消息、提前完成推理。
安徽888集团公司人口健康信息技术有限公司