Claude、ChatGPT などの AI アシスタントはとても優秀だ。でも、彼らが知っているのはインターネット上の情報、あなたがアップロードした少量のファイル、そして対話の内容だけ。あなたの最も重要なコンテキスト——コンピューター上のファイルたち——には、まだ届いていない。
これは Claude の問題ではなく、情報が構造的に隔離されているという問題だ。私たちのデジタル化された文脈の多くは、仕事・学習・生活に直結するドキュメントとしてコンピューターに眠っている。あなたのファイルと AI の間には、見えない壁がある。
Linkly AI でその壁を取り除く前後で、会話がどう変わるか。4つのシナリオで見てみよう。
シナリオ1:過去のプロジェクト振り返りを整理する
2023年に行ったプロジェクトの振り返りをまとめ直し、どんな技術的な失敗があったかを確認したい。Linkly AI なしでは、ファイルマネージャーを開いてフォルダを一つ一つ掘り、振り返りドキュメントを探し出し、関連しそうな段落を選択・コピーして、チャットに貼り付けてから「整理して」と頼むことになる。
Before
Claude にできるのは、あなたが貼り付けた部分だけ。
あなた:この文章に出てくる技術的な問題を整理してください。
Claude:この文章では2つの問題が挙げられています。一つはデータベース接続プールの設定ミスによるパフォーマンスボトルネック、もう一つは……
得られるのは、あなたがすでに見つけた内容を磨いたものだけ。
After
Claude を開いて、ただこう言う:
あなた:私のコンピューター上の2023年のプロジェクト振り返りをすべて調べて、技術的な問題を深刻度別にまとめてください。
Claude:了解しました。ローカルドキュメントを検索します。
[calling search(“2023 プロジェクト振り返り 技術的問題”)]
7件の関連ファイルが見つかりました:Q1-振り返り.md、ECプラットフォーム再構築振り返り.pdf……
[calling outline([“ECプラットフォーム再構築振り返り.pdf”])]
ドキュメント構成:1. プロジェクト背景 2. タイムライン 3. 技術的問題まとめ 4. 教訓
[calling read(“ECプラットフォーム再構築振り返り.pdf”, “技術的問題まとめ”)]
Claude:2023年の7件の振り返りをもとに、影響度順に技術的問題をまとめました:
- 重大:DBコネクションプールの設定ミス(3件の振り返りに登場)、Redisキャッシュのスタンピード……
- 中程度:フロントエンドビルドパイプラインに型チェックがない……
コピー&ペーストは一切不要。Claude が自分でファイルを見つけ、構造を確認し、重要なセクションを精読して、複数ドキュメントにまたがる要約を作ってくれた。
シナリオ2:技術仕様書を読む
HTTP/3 の RFC 仕様を PDF で保存してあり、Connection Migration(接続移行)の仕組みを理解したい。Linkly AI なしでは、PDF を開いて「connection migration」というキーワードで章を探し、該当ページを開いて段落を選択・コピーし、チャットに貼り付けることになる。
Before
コピーした段落の文脈が足りなければ、Claude の説明も不完全になる。また PDF に戻って追加コピーが必要だ。
あなた:この接続移行に関する箇所を説明してください。
Claude:この箇所では……
得られるのは、選択してコピーした部分に限られる。
After
直接こう聞く:
あなた:コンピューターに保存してある HTTP/3 の仕様書を見て、Connection Migration の部分を重点的に説明してください。何の問題を解決するのか、どう動くのかを含めて。
Claude:了解しました。探してみます。
[calling search(“HTTP/3 Connection Migration RFC”)]
見つかりました:rfc9000-quic-transport.pdf
[calling outline([“rfc9000-quic-transport.pdf”])]
第9章:Connection Migration、第10章:……
[calling read(“rfc9000-quic-transport.pdf”, “Chapter 9 Connection Migration”)]
Claude:HTTP/3(QUIC ベース)の Connection Migration は、TCP の根本的な問題を解決します。TCP 接続は4タプル(送信元IP+ポート、宛先IP+ポート)に紐付いており、IPアドレスが変わると(Wi-Fi からモバイル回線への切り替えなど)接続が切れて再ハンドシェイクが必要になります。
QUIC は4タプルではなく Connection ID で接続を識別するため……
Claude が RFC を自分で見つけ、第9章を特定し、Connection Migration の全記述を精読して、完全な説明を返してくれた。PDF を開く必要はなかった。
シナリオ3:業務報告書を書く
四半期報告書の締め切りが来た。Claude を開いて記憶を頼りに「今四半期はユーザーシステムのリファクタリングやコーディング規約の整備をやりました……」と話すか、20分かけて作業ログを掘り起こして各月のハイライトをコピーすることになる。
Before
Claude は書いてくれるが、口述したフラグメントが元なので内容が薄く、具体的なデータが欠け、何度も修正が必要になる。ログを自分で掘り起こしても、その時点でもう疲れ切っている。
あなた:Q1 の業務まとめを書いてください。今四半期はユーザーシステムのリファクタリングやコーディング規約整備をやりました……
Claude:ご提供いただいた情報をもとに、Q1 業務まとめを作成しました……
得られるのは、口述したスケッチを磨いたもの。実際のデータを埋めるのは自分の仕事のまま。
After
直接こう言う:
あなた:Q1 の業務まとめを書いてください。コンピューターの作業ログフォルダから直近3ヶ月の記録を探して、主要な成果を整理し、初稿を作ってください。
Claude:了解しました。検索します。
[calling search(“作業ログ 2025 Q1”)]
見つかりました:2025-01-作業ログ.md、2025-02-作業ログ.md、2025-03-作業ログ.md
[calling read(“2025-01-作業ログ.md”)] [calling read(“2025-02-作業ログ.md”)] [calling read(“2025-03-作業ログ.md”)]
Claude:3ヶ月分の作業ログをもとに、初稿を作成しました:
Q1 主要成果
- ユーザーシステムのリファクタリング完了:DBマイグレーション完了、登録処理時間を1.2sから380msに短縮……
- コーディング規約の整備:TypeScript規約ドキュメントを作成、チーム8名に展開……
何も手で掘り起こしていない。Claude が3ヶ月分のログを読み込み、重要な情報を抽出して、データに基づいた初稿を直接渡してくれた。
シナリオ4:プライベートな調査資料を使った分析
新製品の市場分析を行っている。競合分析ドキュメントや業界レポートをまとめるのに多くの時間を費やし、すべてローカルに保存してある。でも Claude はそれを知らない。できるのは、ファイルを開いて最も関連しそうな段落をコピーして貼り付けることだけ。
Before
Claude の分析は貼り付けたフラグメントに基づいており、あなたがまとめた全体のコンテキストを知らない。返ってくるのは、公開情報に基づいた汎用的な分析だ。
あなた:ノートツールの競合状況を分析してください。
Claude:ノートツール市場は競争が激しく、主要プレイヤーには Notion、Obsidian などが……(汎用的な回答)
得られるのは、あなたの調査資料とは無関係な内容。
After
こう言う:
あなた:ノートツールの競合状況を分析してください。Linkly AI でコンピューター上の競合分析資料や業界レポートを検索して、汎用的な結論ではなく、私がまとめた具体的な内容に基づいて分析してください。
Claude:了解しました。ローカルファイルを検索します。
[calling search(“ノートツール 競合分析”)]
見つかりました:Notion競合分析-2024.pdf、Obsidianユーザー調査.docx、2024ノートツール業界レポート.pdf
[calling outline([“Notion競合分析-2024.pdf”, “2024ノートツール業界レポート.pdf”])]
[calling read(“Notion競合分析-2024.pdf”, “ユーザーリテンション分析”)]
Claude:あなたがまとめた3つの資料をもとに、ノートツール競合状況の核心的な課題は:
あなたの Notion 競合分析によると、Notionの最大のリテンション問題は「複雑性の罠」——学習コストが高く、Power User の70%が機能の20%以下しか活用していない……
業界レポートによると、2024年に最も成長したセグメントは……
この分析は、あなたが時間をかけてまとめたプライベートな資料に基づいている。あなたが積み上げてきた知識が、初めて AI の推論プロセスに参加した瞬間だ。
セットアップ:約5分
Claude がローカルドキュメントを読めるようにするには2つのことが必要だ。Linkly AI でローカルインデックスを構築し、MCP プロトコルで Claude に接続する。
ステップ1:Linkly AI をインストール
Linkly AI をダウンロードしてインストールし、初回起動時にドキュメントディレクトリ(例:~/Documents)を選択する。バックグラウンドで自動的にインデックス作成が始まる。
ステップ2:MCP を設定
Linkly AI はインストール後、ポート 60606 で MCP サービスを自動起動する。AI ツール側で設定を追加する:
- Claude Code:ターミナルで
claude mcp add --transport http linkly-ai http://127.0.0.1:60606/mcpを実行 - Cursor:Settings → MCP Servers → 追加、Type:
StreamableHTTP、URL:http://127.0.0.1:60606/mcp
詳細な手順は MCP 設定ドキュメント と クイックスタート を参照。
ステップ3:確認
設定後、Claude にメッセージを送る:
ローカルドキュメントを検索して、プロジェクト振り返りに関する内容を探してください。
Claude が search ツールを呼び出して結果を返せば、設定完了だ。
Linkly AI は Outlines Index 技術を採用しており、AI が search → outline → read の段階的なアプローチでファイルを閲覧できる。ドキュメントを断片化して渡す従来の RAG 方式より、長文ドキュメントや複数ドキュメントにまたがる分析で大幅に優れた結果を出す。
Claude が賢くなったわけじゃない。
あなたが初めて、ファイルを読む許可を与えたのだ。
コンピューターに眠っている何百もの PDF、Word ドキュメント、Markdown ノート——それらはずっと使われるのを待っていた。接続した瞬間、AI アシスタントができることのスケールが根本から変わる。
Linkly AI をダウンロード——5分のセットアップで、まったく違う体験が始まる。
Linkly AI チーム制作。
