跳转到主要内容

可以用来做什么

本地大模型 + Linkly AI 本地知识库,数据全程不出本机。Linkly AI 的 read 工具直接读取你计算机中的保密合同、医疗记录等敏感内容,没有任何数据上传到云端,适合对隐私有严格要求的场景。
Linkly AI 服务运行在本地,即便没有网络,本地模型也能通过 search 工具检索你的知识库作答,不依赖任何云端服务。
以相同的 Linkly AI 知识库为基准,分别用 Llama、Mistral、Qwen 等模型进行检索和问答,比较哪个模型更擅长理解你的文档类型。

前置条件

  • 已安装 LM Studio
  • Linkly AI Desktop 已启动,MCP 服务正在运行

配置步骤

1

打开 MCP 设置

在 LM Studio 中,找到 MCP 服务器配置(具体位置可能因版本而异)。
2

添加 Linkly AI MCP

添加新的 MCP 服务器,填写: - Name:linkly-ai - URL:http://127.0.0.1:60606/mcp
3

验证连接

在对话中尝试搜索文档来验证连接是否成功。
LM Studio 的 MCP 支持可能因版本而异。如果你的版本尚未支持 MCP,请更新到最新版本。

常见问题

请确保使用的是支持 MCP 功能的 LM Studio 版本。该功能在较新的版本中可用。
请检查 Linkly AI Desktop 是否已启动,MCP 服务是否正在运行。