Claude、ChatGPT 等 AI 助理都很聪明,但它们都只知道互联网上的内容、你上传的少量文档,以及我们的对话内容,它缺少更多关于你上下文。
这不是 Claude 的问题,是信息隔离的结构性问题。大部分人最大的已经数字化的上下文,大量存在于电脑和手机中,而电脑中存放着与我们工作、学习、生活最相关的哪些上下文,比如文档。你的文档和 AI 之间,隔着一道看不见的墙。
下面是 4 个真实场景,看看借助 LinklyAI 拆掉这道墙之前和之后,对话会有什么不同。
场景一:整理几年前的工作文档
你想把 2023 年做过的项目复盘整理一遍,看看踩过哪些技术坑。你要先打开文件管理器,一个一个翻文件夹,找到那几份复盘文档,打开,选中你认为相关的段落,复制,粘贴到对话框里,然后说”帮我整理一下”。
Before
Claude 能做的,只有你粘进去的那几段。
你:帮我整理这段里提到的技术问题。
Claude:这段内容提到了两个问题:一是数据库连接池配置不当导致的性能瓶颈,二是……
你能得到的,只有你已经找到的内容的润色版。
After
你打开 Claude,直接说:
你:帮我整理我电脑中 2023 年所有项目复盘里提到的技术问题,按严重程度分个类。
Claude:好的,我来搜一下你的本地文档。
[调用 search(“2023 项目复盘 技术问题”)]
找到 7 个相关文件:Q1-项目复盘.md、电商平台重构复盘.pdf……
[调用 outline([“电商平台重构复盘.pdf”])]
文档结构:1. 项目背景 2. 时间线 3. 技术问题汇总 4. 经验总结
[调用 read(“电商平台重构复盘.pdf”, “技术问题汇总”)]
Claude:根据你 2023 年的 7 份项目复盘,我整理了以下技术问题清单,按影响程度排列:
- 严重:数据库连接池配置问题(出现在 3 份复盘中)、Redis 缓存击穿……
- 中等:前端构建链路缺少类型检查……
你没有复制粘贴任何东西。Claude 自己找到了所有相关文件,看了结构,精读了关键章节,给你做了跨文档的汇总。
场景二:阅读英文技术文档
你收藏了一份 HTTP/3 的 RFC 规范 PDF,想搞清楚连接迁移(Connection Migration)是怎么工作的。你要先打开 PDF,用内置搜索找到”connection migration”关键词所在的章节,翻到那一页,选中那几段,复制出来,粘进对话框。
Before
如果你复制的段落上下文不够,Claude 的解释就会不完整,你得再翻回去复制更多。
你:帮我解释一下这段关于连接迁移的内容。
Claude:这段描述的是……
你能得到的,仅限于你选中并复制出来的那几段。
After
你直接问:
你:帮我看一下我保存在我电脑里的 HTTP/3 规范文档,重点解释连接迁移那部分,包括它解决了什么问题、工作原理是什么。
Claude:好的,我来找一下。
[调用 search(“HTTP/3 连接迁移 RFC”)]
找到:rfc9000-quic-transport.pdf
[调用 outline([“rfc9000-quic-transport.pdf”])]
第 9 章:Connection Migration,第 10 章:……
[调用 read(“rfc9000-quic-transport.pdf”, “第 9 章 Connection Migration”)]
Claude:HTTP/3(基于 QUIC)的连接迁移解决了一个 TCP 的根本性问题:TCP 连接绑定在四元组(源 IP + 源端口 + 目标 IP + 目标端口)上,一旦 IP 地址变了(比如你从 WiFi 切换到 4G),连接就断了,必须重新握手。
QUIC 用 Connection ID 来标识连接,而不是四元组……
Claude 自己定位到了那份 RFC,找到了第 9 章,精读了连接迁移的完整描述,给了你一个完整的解释。你没有打开任何 PDF。
场景三:写工作汇报
季度汇报要交了。你打开 Claude,靠着记忆说”我这个季度主要做了用户系统重构、推动了代码规范落地……”,或者花二十分钟翻工作日志、把每个月的关键事项复制进去。
Before
Claude 帮你写出来了,但内容基于你口述的片段,写出来的东西很空,缺少具体数据,要改很多轮。就算你手动翻了记录,内容是丰富了,但你自己就已经累了一半。
你:帮我写一份 Q1 工作总结,我这个季度主要做了用户系统重构、推动了代码规范落地……
Claude:好的,以下是根据您提供的信息整理的 Q1 工作总结……
你得到的,是你口述片段的润色版,数据全靠自己补。
After
你直接说:
你:帮我写一份 Q1 工作总结,去我的电脑的工作日志文件夹里找一下最近三个月的记录,整理关键成果,写一个初稿。
Claude:好的,我来搜一下。
[调用 search(“工作日志 2025 Q1”)]
找到:2025-01-工作日志.md、2025-02-工作日志.md、2025-03-工作日志.md
[调用 read(“2025-01-工作日志.md”)] [调用 read(“2025-02-工作日志.md”)] [调用 read(“2025-03-工作日志.md”)]
Claude:根据你三个月的工作日志,这是初稿:
一季度核心成果
- 用户系统重构上线:完成数据库迁移,注册耗时从 1.2s 降至 380ms……
- 代码规范落地:制定 TypeScript 规范文档,覆盖团队 8 人……
你什么都没手动翻,Claude 自己读完了三个月的日志,提取了关键信息,直接给了你一个有数据支撑的初稿。
场景四:基于私有资料做分析
你在做一个新产品的市场分析。之前花了很多时间整理了一批竞品分析文档、行业研究报告,都存在本地。但 Claude 不知道这些——你能做的,只是打开一份文件,复制最相关的几段进去问。
Before
Claude 的分析基于你贴进去的片段,不了解你整理的完整上下文。它给你的,本质上是基于互联网公开信息的通用分析。
你:帮我分析一下笔记类工具的竞争格局。
Claude:笔记类工具市场竞争激烈,主要玩家包括 Notion、Obsidian……(通用答案)
你得到的,是 Claude 凭公开信息写出来的内容,和你自己整理的私有调研没有任何关系。
After
你说:
你:帮我分析一下笔记类工具的竞争格局,用linkly-ai 查找我电脑里的竞品分析和行业报告,不要只说通用结论,要结合我整理的具体内容。
Claude:好的,我来搜一下你的本地文件。
[调用 search(“笔记 竞品分析”)]
找到:Notion竞品分析-2024.pdf、Obsidian用户研究.docx、2024笔记工具行业报告.pdf
[调用 outline([“Notion竞品分析-2024.pdf”, “2024笔记工具行业报告.pdf”])]
[调用 read(“Notion竞品分析-2024.pdf”, “用户留存分析”)]
Claude:基于你整理的三份资料,笔记工具竞争格局的核心矛盾是:
根据你的 Notion 竞品分析,Notion 最大的留存问题是”复杂度陷阱”——用户上手成本高,70% 的 Power User 功能利用率不足 20%……
你的行业报告里提到,2024 年增速最快的细分市场是……
这次分析引用的是你花时间整理的私有资料,不是公开信息的泛泛总结。你积累的知识,第一次真正参与进了 AI 的推理过程。
怎么配置:大约 5 分钟
让 Claude 能读到你的本地文档,需要两件事:一是 Linkly AI 建好本地索引,二是通过 MCP 协议把它连接到 Claude。
第一步:安装 Linkly AI
去 下载 Linkly AI 下载安装,首次启动时选择你的文档目录(比如 ~/Documents),它会自动开始在后台建索引。
第二步:配置 MCP
Linkly AI 安装后会自动启动 MCP 服务,默认端口 60606。在你的 AI 工具里配置一下:
- Claude Code:终端运行
claude mcp add --transport http linkly-ai http://127.0.0.1:60606/mcp - Cursor:Settings → MCP Servers → 添加,Type:
StreamableHTTP,URL:http://127.0.0.1:60606/mcp
第三步:验证
配置好之后,在 Claude 里发一条消息:
搜索我的本地文档,找找有没有关于项目复盘的内容。
如果 Claude 调用了 search 工具并返回了结果,就说明配置成功了。
Linkly AI 使用了 Outlines Index 技术,让 AI 能以 search → outline → read 的渐进方式翻阅文件,而不是把文档切成碎片喂给模型——这让它在长文档、跨文档分析场景下的效果明显优于传统 RAG 方案。
不是 Claude 变聪明了。
是你终于给了它读你文件的权限。
你电脑里那几百份 PDF、Word、Markdown 笔记,它们一直在等着被用到。一旦连上,你会发现 AI 助手能帮你做的事,和之前完全不是一个量级。
下载 Linkly AI,花 5 分钟配置一次,之后就是完全不同的使用体验。
由 Linkly AI 团队出品。
