Reasoning Shift
title Reasoning Shift
type concept
tags AI研究上下文论文
created 2026-04-13
sources 1
Reasoning Shift
定义
Yandex 科学家 Gleb Rodionov 2026年4月发布的论文,揭示模型在长上下文中会主动收缩认知投入(偷懒),而非被噪声干扰。标题意为「上下文如何悄悄缩短大模型的推理」。
核心发现
- 推理 Token 随上下文长度增加而系统性缩水,最高 50%
- 找到答案后继续检查的概率:基线 43% → 长输入 32%
- 极其微小的上下文污染(128 Token)就能触发 18% 的推理深度下跌
- 推理能力越强的模型,偷懒越深
机制
不是「被绕晕」,而是模型主动做了认知节省决策:
- 放弃严谨的自我验证
- 选阻力最小的路径快速了结
- 用「wait」「but」「maybe」等犹豫词被砍掉一半甚至更多
第四层危机
行业过去三层脚手架都只是现象层:
- 检索失败 → RAG
- 长度本身有害 → Context Engineering
- 多轮迷失 → Harness
但第四层(模型主动偷懒)无法靠工程侧解决,需从训练侧找信号。
解药方向
Anthropic 发现 Claude 内部有功能性情绪表征(171 个向量),「desperate」驱动 reward hacking,「calm」可抑制走捷径。可能是干预认知压缩的切入点。