Logo LLM Wiki
Back to Concept

Reasoning Shift

title Reasoning Shift
type concept
tags AI研究上下文论文
created 2026-04-13
sources 1

Reasoning Shift

定义

Yandex 科学家 Gleb Rodionov 2026年4月发布的论文,揭示模型在长上下文中会主动收缩认知投入(偷懒),而非被噪声干扰。标题意为「上下文如何悄悄缩短大模型的推理」。

核心发现

  • 推理 Token 随上下文长度增加而系统性缩水,最高 50%
  • 找到答案后继续检查的概率:基线 43% → 长输入 32%
  • 极其微小的上下文污染(128 Token)就能触发 18% 的推理深度下跌
  • 推理能力越强的模型,偷懒越深

机制

不是「被绕晕」,而是模型主动做了认知节省决策:

  • 放弃严谨的自我验证
  • 选阻力最小的路径快速了结
  • 用「wait」「but」「maybe」等犹豫词被砍掉一半甚至更多

第四层危机

行业过去三层脚手架都只是现象层:

  1. 检索失败 → RAG
  2. 长度本身有害 → Context Engineering
  3. 多轮迷失 → Harness

但第四层(模型主动偷懒)无法靠工程侧解决,需从训练侧找信号。

解药方向

Anthropic 发现 Claude 内部有功能性情绪表征(171 个向量),「desperate」驱动 reward hacking,「calm」可抑制走捷径。可能是干预认知压缩的切入点。

来源