メインコンテンツへスキップ

できること

ローカル大規模言語モデル + Linkly AI ローカルナレッジベースで、データはすべてローカルマシン内で完結します。Linkly AI の read ツールがあなたのコンピュータの機密契約書や医療記録などの機密コンテンツを直接読み取り、クラウドへのデータアップロードは一切ありません。プライバシーに厳格な要件があるシナリオに適しています。
Linkly AI サービスはローカルで動作するため、ネットワークがなくてもローカルモデルが search ツールでナレッジベースを検索して回答できます。クラウドサービスへの依存はありません。
同じ Linkly AI ナレッジベースをベースラインとして、Llama・Mistral・Qwen などのモデルでそれぞれ検索と Q&A を行い、あなたのドキュメント種類の理解に最も優れたモデルを比較できます。

前提条件

  • LM Studio がインストール済みであること
  • Linkly AI Desktop が起動しており、MCP サービスが実行中であること

設定手順

1

MCP 設定を開く

LM Studio で MCP サーバー設定を見つけます(バージョンによって場所が異なる場合があります)。
2

Linkly AI MCP を追加

新しい MCP サーバーを追加して以下を入力します: - Name:linkly-ai - URL:http://127.0.0.1:60606/mcp
3

接続を確認

会話でドキュメントの検索を試して接続が成功しているか確認します。
LM Studio の MCP サポートはバージョンによって異なる場合があります。お使いのバージョンが MCP をサポートしていない場合は、最新バージョンにアップデートしてください。

よくある質問

MCP 機能をサポートする LM Studio バージョンを使用していることを確認してください。この機能は比較的新しいバージョンで利用できます。
Linkly AI Desktop が起動しており、MCP サービスが実行中であることを確認してください。