🧠

上下文丢失可视化

滑动调整上下文长度,观察 AI 注意力如何随窗口扩大而衰减——理解「Lost in the Middle」现象

128K
4K8K32K128K200K
50%
少(10%)多(90%)

🔥 注意力热力图

颜色越暖(橙/红)= 注意力越高 · 颜色越冷(蓝/紫)= 注意力越低

0K-13K系统提示 + 用户指令10%
13K-26K填充内容(文档/代码/对话记录)35%
26K-39K填充内容(文档/代码/对话记录)56%
39K-52K填充内容(文档/代码/对话记录)66%
52K-66K填充内容(文档/代码/对话记录)70%
66K-79K填充内容(文档/代码/对话记录)70%
79K-92K填充内容(文档/代码/对话记录)66%
92K-105K填充内容(文档/代码/对话记录)56%
105K-118K填充内容(文档/代码/对话记录)35%
118K-131K关键问题 + 输出格式要求10%

📈 注意力分布曲线

典型的 U 形分布:开头和结尾注意力高,中间急剧下降

开头中间结尾

🔄 模型代际对比

📟2023 模型(如 GPT-3.5)

• 上下文窗口:4K - 8K tokens

• 中间内容丢失率:40-60%

• 有效利用长度:~60% 的窗口

🧠2026 模型(如 Claude Opus 4)

• 上下文窗口:200K tokens

• 中间内容丢失率:10-20%

• 有效利用长度:~85% 的窗口

💡 如何应对上下文丢失?

📌重要信息前置

把关键指令、输出格式要求放在 prompt 的开头或结尾,避免被"淹没"在中间。

📋结构化格式

使用 Markdown 标题、列表、分隔符等结构化格式,帮助模型定位信息。

✂️分段处理

超长文档拆分为多个子任务,每次只喂相关片段,而非一次性灌入全文。

🔁关键信息重复

在 prompt 末尾重复强调核心要求(如"必须用 TypeScript"),对抗注意力衰减。

📖 本工具基于论文 "Lost in the Middle: How Language Models Use Long Contexts"(Liu et al., 2023)的发现设计
🦞 本站内容基于 2026 年 4 月数据 · AI 工具迭代迅速,信息仅供参考,请以官方最新发布为准