为什么开发 Linkly AI

Hi,我是 Kane,Linkly AI 的开发者和创始人。
今天想和大家聊聊,为什么我们会开发 Linkly AI 这样的知识库产品。
#困扰我们的问题
作为一个重度 AI 用户,我和我的团队成员,每天都在用 ChatGPT 、Claude 这些最好的 AI 聊天工具。它们很强大,但有一个问题一直困扰着我们:
AI 与我们本地资料之间始终存在鸿沟
LLM 本身和 AI 搜索,已经解决了公开信息的检索问题,但我们的笔记、文档、代码、收藏的文章、论文等,这些当时花了精力积累收集的知识资产,其实包含更多我们以前的思考和重要的知识。 但由于它们大部分存储在计算机上,或者散落在各个 App 中,通用 AI 迄今为止无法完美地访问和整合它们。
市面上有很多解决方案,比如各种 AI 笔记,AI 知识库产品。但它们大部分需要上传数据到云端(令人担忧的隐私问题),或者功能比较复杂,或者需要锁定到它们的生态里,无法使用我们已经订阅过的 ChatGPT 等更好的工具去使用。 有许多 AI 知识库像个半成品,另外一些不甘于只做一个 AI 知识库,而是想做一个更加强大的 Agent或者创作平台,导致到了 2026 年,我们依然找不到一个简单的、纯粹的、安全的本地知识库解决方案。
我们相信用户其实要的很简单:一个本地的、简单的、安全的知识库,它能无缝地融入我们现有的工作流,而不是要求我们换一个新的入口,或者把数据上传到云端。除此之外,如果能够低成本使用,那就更好了。
所以我们开发了 Linkly AI。
#Linkly AI 定位
Linkly AI 的定位是:一个安静运行在本地的 AI 知识库。
它是一个私有知识的上下文层,通过 MCP 协议,将本地文件夹中的文件,变成任何 AI 方便使用的上下文。 你继续用你喜欢的 ChatGPT、Claude 等,但现在它们可以更方便地"看到"你本地的文件了。
具体来说,Linkly AI 做了这几件事:
- 监听你指定的文件夹,自动索引里面的文档(PDF、Word、Markdown、代码等)
- 构建知识库,基于检索和 Agent 等技术,为 AI 实时组装上下文
- 通过 MCP、Skills 和简单的拷贝粘贴来完成连接,让任意 AI 应用可以直接使用知识库中的内容。
整个过程可以完全在本地完成,无需上传数据。

#产品主张
在开发过程中,有几个原则我们一直在坚持:
#本地优先
所有数据都存在你自己的电脑上。可选的账号系统,可选的云同步,基础功能免费。动手能力强的用户,自己部署一些本地模型,完全可以实现 100% 离线使用。
#低成本
得益于本地策略,Linkly AI 的核心功能将是完全免费的,包括知识库的创建和使用等。只有当你需要使用我们云端的算力(比如使用我们的 embedding 服务)和存储时才需要支付费用。但即使不付费,你也可以接入 OpenAI、Ollama 等其他模型服务。
#开放
数据不锁定。知识库文件就存储在你本地文件夹,你随时可以导出。通过 MCP 标准协议对外提供服务,也无需绑定任何特定的 AI 应用。
#专注
Linkly AI 不是又一个 AI 聊天工具,也不是又一个笔记软件。它只做一件事:把你的本地文件变成 AI 可以理解的上下文。
#目前的状态
Linkly AI 目前处于早期版本,即将开启内测,已支持 macOS、Windows 和 Linux 三个平台。
核心功能已经可用:
- 知识库创建和管理
- 多格式文档解析(PDF、DOCX、MD、TXT 等)
- 混合检索
- MCP 服务(可接入 ChatGPT、Claude、Cursor、Cherry Studio 等众多 AI 应用)
- 快捷检索启动器
我们还创新地提供了远程连接方案,让你可以在 Claude.ai、ChatGPT.com 这些在线应用中直接访问本地知识库。
当然,还有很多不完善的地方,也还有很多重要功能尚未发布。Linkly AI Team 正在密集迭代中,敬请期待。
#最后
我们相信,在 AI 时代,每个知识工作者都需要一个全新的方式管理自己的知识资产。大部分 AI 的目标都是取代人类,而 Linkly AI 则是为了帮助人类更高效地使用 AI。
这就是我们开发 Linkly AI 的初衷和使命。希望你们喜欢。