Linkly AI はどのようにローカルファーストを実現しているのか?

前回の記事では、Linkly AI とは何か、そして何ができるのかをご紹介しました。今回は、その技術的な仕組みについてお話ししたいと思います。Linkly AI は、どのようにして「ローカルファースト」を実現しているのでしょうか?
この記事は、プライバシーとデータセキュリティに関心のあるすべての方に向けて書いています。技術的な内容も、できるだけ分かりやすい言葉で説明していきます。
#ドキュメントはどのようにして「知識」になるのか?
フォルダを Linkly AI のナレッジベースに追加すると、アプリケーションはバックグラウンドで 4 つの処理を静かに実行します。
- スキャン:Linkly AI は指定されたフォルダを継続的に監視します。新しいファイルは自動的に検出され、変更されたファイルは再処理され、削除されたファイルはインデックスから削除されます。これらはすべてバックグラウンドで自動的に行われるため、手動での操作は必要ありません。
- パース:異なるドキュメント形式は、異なる言語で書かれた本のようなものです。Linkly AI は、PDF、Word、Markdown などの様々な形式を統一されたテキスト形式に「翻訳」し、見出しレベルやページ番号などの構造メタデータも抽出します。
- チャンク分割:長いドキュメントをそのまま AI に渡すことはできません。モデルのコンテキストウィンドウを使い切ってしまい、モデルの注意力も分散してしまいます。Linkly AI はドキュメントを意味のまとまりごとにインテリジェントに分割し、各チャンクが比較的完全な意味単位を保持するようにします。
- インデックス作成:Linkly AI は各テキストチャンクをメタデータ(ソースファイル、ページ番号など)とともにローカルデータベースに保存します。これは「インデックス」を作成するようなもので、必要な情報をすばやく見つけることができます。
長いドキュメントをそのまま AI に渡すことはできません。モデルのコンテキストウィンドウを使い切ってしまい、モデルの注意力も分散してしまいます。Linkly AI はドキュメントを意味のまとまりごとにインテリジェントに分割し、各チャンクが比較的完全な意味単位を保持するようにします。
ステップ 4:インデックス作成
これが最も興味深いステップです。AI モデルは各テキストセグメントを数字の列(専門用語では「ベクトル」と呼ばれます)に変換します。これは、広大な「意味空間」の中で各テキストに座標を割り当てるようなものです。似た意味を持つテキストは、近い座標を持つことになります。
これら 4 つのステップが完了すると、AI に質問したとき、Linkly AI は最も関連性の高い段落をすばやく検索し、出典情報も一緒に提供できるようになります。
#データはどこに保存されるのか?
答えは、すべてお使いのコンピューター上です。
Linkly AI はローカルデータベースを使用してすべての情報を保存します。ドキュメントのメタデータ、分割されたテキストブロック、そして各テキストブロックのベクトル表現です。データがクラウドに自動的にアップロードされることはありません。つまり、オフラインでもナレッジベースは正常に動作します(ローカル AI モデルを使用して検索と埋め込みを行う場合)。
#オンライン AI はどのようにローカルの知識にアクセスするのか?
これは素晴らしい質問です。Claude.ai や ChatGPT.com などのオンライン AI サービスはクラウド上で動作しているため、お使いのコンピューター内のファイルを直接「見る」ことはできません。しかし、これらのより強力なオンライン AI でローカルの知識を活用したい場面は多々あります。Linkly AI は革新的な「リモートコネクター」でこの問題を解決しています。
#リモート接続の仕組み
このようなシナリオを想像してみてください。Claude.ai で質問をすると、Claude があなたのナレッジベースに問い合わせる必要があると判断します。その流れは以下の通りです:
- Claude.ai がクエリリクエストを Linkly AI の中継サーバーに送信します
- 中継サーバーがセキュアな「トンネル」を通じて、お使いのコンピューターで動作している Linkly AI にリクエストを転送します
- Linkly AI がローカルのナレッジベースから関連コンテンツを検索します
- 検索結果は同じ経路を通って Claude.ai に返されます
- Claude がこれらの情報に基づいて質問に回答します
このプロセス全体は、通常 1〜2 秒でシームレスに完了します。
#データは安全なのか?
重要なポイントは、オンライン AI に送信されるのは検索された抜粋のみであり、完全なドキュメントではないということです。
例えて言えば、アシスタントに調べ物を頼むようなものです。アシスタントは関連する数段落の抜粋だけを専門家に送り、ファイリングキャビネット全体を送るわけではありません。具体的には:
- 送信される内容:あなたの質問、クエリに関連するテキストの抜粋(通常は数千文字程度)、出典情報
- 決して送信されない内容:完全なドキュメント、データベースファイル、クエリに関係のないコンテンツ
#より高いセキュリティオプション
より厳格なセキュリティ要件がある場合、Linkly AI はいくつかのソリューションを提供しています:
- 完全ローカルモード:Ollama などのローカルモデルを使用し、すべての計算がお使いのコンピューター上で行われ、データがマシンから外に出ることはありません。これが最高レベルのセキュリティです。
- セルフホスト中継サービス:オープンソースのリモートコネクターを提供しており、ご自身の Cloudflare アカウントにデプロイすることで、データフローを完全にコントロールできます。
#なぜローカルファーストを選ぶのか?
Linkly AI を開発した理由についての記事で述べたように、市場にあるほとんどの AI ナレッジベース製品はデータをクラウドにアップロードする必要があり、プライバシーを重視するユーザーの多くが躊躇してしまいます。
私たちが「ローカルファースト」の設計思想を選んだのは、以下のことを信じているからです:
あなたの知識はあなたのものです。 仕事のドキュメント、学習ノート、個人的な日記など、これらはあなたが時間をかけて蓄積した知識資産です。完全にコントロールできる場所に保存されるべきです。
プライバシーは贅沢品であってはなりません。 個人データを保護するために、高額な費用や複雑な操作が必要であってはなりません。ローカルストレージは、プライバシーを保護する最もシンプルで信頼性の高い方法です。
柔軟性は重要です。 完全なオフラインアクセスが必要な場面もあれば、リモートアクセスが必要な場面もあります。ローカルファーストのアーキテクチャにより、実際のニーズに応じて柔軟に選択できます。
#まとめ
Linkly AI のローカルファースト設計により、以下のことが保証されます:
- データ主権:すべてのオリジナルドキュメントとナレッジベースデータは、お使いのコンピューターに保存されます
- コントロール可能な接続:リモートアクセスはオプションであり、いつでもオフにできます
- 最小限のデータ転送:リモート接続を有効にしても、クエリに関連する抜粋のみが転送されます
- 複数のセキュリティレベル:完全ローカルからセルフホスト中継まで、様々なセキュリティ要件に対応します
まだ Linkly AI をお試しでない方は、linkly.ai からダウンロードしてご体験ください。ご質問がございましたら、ドキュメントをご確認いただくか、コミュニティでお気軽にお問い合わせください。