Passer au contenu principal

Documentation Index

Fetch the complete documentation index at: https://linkly.ai/docs/llms.txt

Use this file to discover all available pages before exploring further.

Cette page rassemble les questions les plus fréquemment posées par les utilisateurs de Linkly AI.

Comment Linkly AI protège-t-il la confidentialité des données ?

Linkly AI repose sur une architecture local-first. Les documents originaux, l’index plein texte, l’index vectoriel ainsi que l’inférence du modèle d’embedding s’exécutent tous sur votre appareil et ne sont, par défaut, envoyés à aucun serveur.

Quelles données restent sur votre appareil

  • Documents originaux : ils restent dans leur dossier d’origine. Linkly AI se contente de les lire — il ne les copie pas et ne les déplace pas.
  • Index plein texte (BM25) : construit localement avec Tantivy.
  • Index vectoriel : les embeddings sont stockés dans une base de données locale.
  • Modèle d’embedding : Qwen3-Embedding-0.6B (quantifié GGUF), exécuté localement via llama.cpp ; sur Apple Silicon, l’accélération GPU Metal est activée automatiquement.
  • Journaux d’application : écrits uniquement dans des fichiers locaux, jamais envoyés automatiquement.

Où vont les données du chat IA

Quand le chatbot appelle un grand modèle de langage, le chemin des données dépend du provider que vous avez choisi :

Modèle local

Ollama, LM Studio ou tout autre service local compatible OpenAI. Les données restent entièrement sur votre machine.

Linkly officiel

Les requêtes sont relayées par api.linkly.ai vers un fournisseur de modèles tiers. Elles transitent par les serveurs Linkly.

Tiers en direct

Connexion directe à OpenAI, Anthropic, etc. Les requêtes ne passent pas par les serveurs Linkly.
Vous pouvez ajouter, basculer ou désactiver chaque provider depuis Paramètres → Modèles IA.

Programme d’amélioration de l’expérience utilisateur (télémétrie)

Pour comprendre quelles fonctionnalités sont utilisées et dans quels environnements l’application tourne, Linkly AI envoie par défaut un rapport d’usage anonyme :
Données envoyéesDonnées NON envoyées
Compteurs d’usage par fonctionnalitéContenu des documents, noms, chemins
Version de l’appli, OS, architectureContenu des chats, requêtes
Identifiant d’appareil aléatoire généré localementClés API, URL personnalisées
Vous pouvez le désactiver à tout moment depuis Paramètres → Confidentialité → Programme d’amélioration de l’expérience utilisateur. Une fois désactivé, les événements en attente en mémoire sont également jetés.
Le panneau « Confidentialité » des paramètres affiche, sous forme de trois cartes, le flux de chaque fonctionnalité (Local / Cloud officiel / Tiers), pour que vous voyiez d’un coup d’œil quelles données quittent votre appareil.

Engagements de confidentialité

  • Aucun SDK d’analytique tiers (Google Analytics, etc.).
  • Nous ne lisons ni votre historique de navigation, ni votre presse-papiers.
  • Aucun compte obligatoire — les fonctionnalités essentielles fonctionnent hors ligne.
  • Les journaux d’application restent sur votre machine et ne nous sont envoyés que si vous les partagez explicitement.

Combien de temps prend l’indexation Linkly AI ?

Le temps d’indexation dépend du nombre de fichiers, de leur type, des performances de la machine et du mode d’indexation. L’indexation se déroule en trois phases :
1

Index rapide des noms de fichiers (quelques secondes)

Dès qu’un fichier est détecté, son chemin et son nom sont écrits dans l’index plein texte, ce qui vous permet de chercher par nom de fichier pendant que l’indexation continue.
2

Extraction du contenu et index BM25 (minutes à heures)

Le contenu des documents (txt, md, html, docx, pdf, images) est analysé ; les sommaires et métadonnées sont écrits dans Tantivy. Plusieurs workers peuvent traiter en parallèle.
3

Embeddings vectoriels (minutes à heures)

Le modèle d’embedding local génère un vecteur pour chaque morceau de document et l’écrit dans l’index vectoriel.

Facteurs qui influencent la vitesse

  • Nombre de fichiers : à peu près linéaire avec le temps total.
  • Format des fichiers : le texte brut est le plus rapide ; les PDF nécessitent l’analyse de la mise en page.
  • Performances de la machine : sur Apple Silicon (série M), l’accélération GPU Metal rend les embeddings nettement plus rapides que l’inférence CPU. Sous Windows / Linux, l’inférence est actuellement sur CPU.
  • Mode d’indexation : choisissez Performance / Équilibré / Auto dans Paramètres → Indexation. Le mode Performance utilise plus de concurrence et de CPU ; Auto bascule sur Performance quand le système est inactif.

Estimations approximatives

Ces ordres de grandeur ne sont qu’indicatifs — le temps réel varie beaucoup selon le matériel et le mix de fichiers :
ScénarioTemps approximatif
Milliers de fichiers texte brut (txt / md), Mac MQuelques minutes
Dizaines de milliers de fichiers mixtes (avec PDF), Mac MPlusieurs dizaines de minutes à quelques heures
Beaucoup d’images nécessitant l’OCRSensiblement plus long
Même volume sur Windows / Linux en CPU purPlus lent que sur Mac
Vous pouvez suivre la progression en temps réel (indexés / en attente) en haut du Launcher. L’indexation tourne en arrière-plan et ne bloque pas la recherche — dès que l’index des noms de fichiers est terminé, la recherche est immédiatement disponible.
Si vous découvrez Linkly AI, commencez avec une petite base de connaissances (centaines à milliers de fichiers), puis ajoutez des dossiers plus volumineux une fois que vous êtes à l’aise.

Comment récupérer les journaux d’application Linkly AI ?

Pendant qu’elle tourne, l’application écrit automatiquement tous ses journaux dans un fichier local app.log (2 Mo maximum par fichier, avec rotation). Joindre ce fichier accélère considérablement le diagnostic lorsque vous nous signalez un problème ou que vous le résolvez vous-même. Les données sensibles sont déjà masquées. Il y a deux façons de récupérer le journal :

Option 1 : Ouvrir depuis l’application (recommandé)

C’est la méthode la plus simple :
1

Ouvrir la page « À propos »

Dans Linkly AI, allez dans Paramètres → À propos.
2

Ouvrir le répertoire de données

Repérez la ligne « Répertoire des données » et cliquez sur le bouton « Ouvrir » à droite. Le gestionnaire de fichiers s’ouvre sur le dossier des données de l’application.
3

Récupérer app.log dans le sous-dossier logs

Ouvrez le sous-dossier logs/ et envoyez-nous app.log.

Option 2 : Ouvrir le répertoire de données manuellement

Si l’application a planté ou ne se lance plus, ouvrez le dossier directement sur le disque :
  1. Ouvrez le Finder.
  2. Dans la barre de menus, choisissez Aller → Aller au dossier… (ou appuyez sur + + G).
  3. Collez le chemin suivant et appuyez sur Entrée :
    ~/Library/Application Support/ai.linkly.desktop/logs
    
  4. Trouvez app.log dans le dossier ouvert et envoyez-le-nous.
Si même ces chemins n’existent pas, c’est que l’application a planté avant d’avoir pu écrire ses journaux. Faites alors une capture d’écran de la fenêtre de plantage et envoyez-la-nous avec votre version d’OS.