メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://linkly.ai/docs/llms.txt

Use this file to discover all available pages before exploring further.

このページでは、Linkly AI ユーザーから特によく寄せられる質問にお答えします。

Linkly AI はユーザーのデータプライバシーをどのように保護していますか?

Linkly AI は ローカルファースト(local-first) のアーキテクチャを採用しています。ドキュメントの原本、全文検索インデックス、ベクトルインデックス、ベクトル化モデルの推論はすべてお使いのデバイス上で完結し、デフォルトではいかなるサーバーにもアップロードされません。

ローカルに保存されるデータ

  • ドキュメントの原本:元のフォルダにそのまま残ります。Linkly AI は読み取るだけで、コピーや移動は行いません。
  • 全文検索インデックス(BM25):Tantivy を使ってローカルで構築します。
  • ベクトルインデックス:埋め込みベクトルはローカルデータベースに保存されます。
  • 埋め込みモデル:Qwen3-Embedding-0.6B(GGUF 量子化)を llama.cpp 経由でローカルで推論します。macOS Apple Silicon では自動的に Metal GPU 加速が有効になります。
  • アプリログ:ローカルファイルにのみ書き込まれ、自動的にアップロードされることはありません。

AI 対話のデータの行き先

チャットボットが大規模言語モデルを呼び出す際、データの流れは選択した provider によって異なります:

ローカルモデル

Ollama、LM Studio など OpenAI 互換のローカルサービス。データは完全にローカルに留まり、デバイスから出ません。

Linkly 公式

api.linkly.ai を経由してサードパーティのモデルプロバイダーに転送します。リクエストは Linkly のサーバーを通過します。

サードパーティ直結

OpenAI、Anthropic などの API に直接接続します。リクエストは Linkly のサーバーを経由しません。
設定 → AI モデルから各 provider を自由に追加・切り替え・無効化できます。

ユーザー体験改善プログラム(テレメトリ)

どの機能が使われているか、どんな実行環境で動いているかを把握するため、Linkly AI はデフォルトで匿名の利用データ送信を有効にしています:
送信される情報送信されない情報
機能の利用カウント(アクション単位)ドキュメントの内容、ファイル名、パス
アプリのバージョン、OS、アーキテクチャチャット内容、検索クエリ
ローカルでランダム生成されたデバイス IDAPI キー、カスタム URL
設定 → データプライバシー → ユーザー体験改善プログラムでいつでも無効にできます。無効化すると、メモリ内でまだ送信されていないイベントもすべて破棄されます。
設定の「データプライバシー」パネルでは、各機能のデータの流れ(ローカル / 公式クラウド / サードパーティ)が 3 枚のカードで可視化されており、どのデータがデバイスから出ていくのかを一目で確認できます。

プライバシーへの約束

  • Google Analytics などのサードパーティ分析 SDK は組み込んでいません。
  • ブラウザ履歴やクリップボードを読み取りません。
  • アカウントログインは必須ではありません。コア機能はオフラインで動作します。
  • アプリログはお使いのマシンにのみ保存され、明示的に共有しない限り送信されません。

Linkly AI のインデックスはどのくらいで完了しますか?

インデックス処理にかかる時間は、ファイル数、ファイル種別、マシンの性能、インデックスモードによって変わります。Linkly AI のインデックスは 3 つのフェーズで進行します:
1

ファイル名の高速インデックス(秒単位)

ファイルが発見されるとすぐにパスとファイル名を全文検索インデックスへ書き込み、本格的なインデックスを待たずにファイル名で検索できるようにします。
2

全文抽出と BM25 インデックス(分単位~時間単位)

ドキュメントの内容(txt、md、html、docx、pdf、画像)をパースし、アウトラインとメタデータを Tantivy に書き込みます。複数の worker で並列処理できます。
3

ベクトル埋め込み(分単位~時間単位)

ローカルの埋め込みモデルで各ドキュメントチャンクのベクトルを生成し、ベクトルインデックスへ書き込みます。

速度に影響する要因

  • ファイル数:総処理時間とほぼ線形に比例します。
  • ファイル形式:プレーンテキストが最も速く、PDF はページ構造の解析が必要です。
  • マシン性能:Apple Silicon(M シリーズ)では Metal GPU 加速で埋め込み処理が高速化されます。Windows / Linux 上では現状 CPU 推論です。
  • インデックスモード設定 → インデックスパフォーマンス / バランス / 自動 を選べます。パフォーマンスモードは並列度が高く CPU 使用率も上がります。自動モードはシステムのアイドル時に自動的にパフォーマンスモードへ切り替わります。

目安

以下はあくまで概算で、実際の所要時間は機材とファイル構成によって大きく変わります:
シナリオ目安
数千ファイルのプレーンテキスト(txt / md)、M シリーズ Mac数分
数万ファイルの混在形式(PDF を一部含む)、M シリーズ Mac数十分~数時間
大量の画像を含む(OCR 必要)さらに長時間
同等規模を Windows / Linux の純 CPU マシンでMac より遅い
Launcher の上部にあるインデックス進捗バーで、処理中の進捗(処理済み / 残り)をリアルタイムで確認できます。インデックスはバックグラウンドで進行し、検索を妨げません — ファイル名インデックスが完了した時点で検索はすぐに使えます。
Linkly AI を試してみる段階では、小規模なナレッジベース(数百~数千ファイル)から始め、慣れてからより大きなディレクトリを追加することをおすすめします。

Linkly AI のアプリログを取得するには?

アプリは起動中、すべてのレベルのログを自動でローカルの app.log ファイルに書き込みます(1 ファイル最大 2 MB、ローテーション方式)。問題を報告されるときや、ご自身でトラブルシューティングする際に、このログを添付していただくと原因特定が大幅に速くなります。ログ内の機微なデータはすでにマスクされています。 ログを取得する方法は 2 つあります:

方法 1:アプリ内から開く(推奨)

最もかんたんな方法です:
1

「アプリ情報」ページを開く

Linkly AI で 設定 → アプリ情報 に移動します。
2

データディレクトリを開く

データディレクトリ」の行を見つけ、右側の「開く」ボタンをクリックします。アプリのデータが保存されているフォルダがファイルマネージャで開きます。
3

logs サブディレクトリから app.log を取り出す

そのフォルダ内の logs/ サブディレクトリに入り、app.log を弊社にお送りください。

方法 2:データディレクトリを手動で開く

アプリがクラッシュしていたり起動できない場合は、ディスク上のフォルダを直接開いてください:
  1. Finder を開きます。
  2. 上部メニューから 移動 → フォルダへ移動…(または + + G)を選びます。
  3. 以下のパスを貼り付けて Return キーを押します:
    ~/Library/Application Support/ai.linkly.desktop/logs
    
  4. 開いたフォルダで app.log を見つけて弊社へお送りください。
上記のパスすら存在しない場合、ログを書き込む前にアプリがクラッシュしている可能性があります。クラッシュ時の画面やダイアログのスクリーンショットと、OS のバージョンを併せてお送りください。