Passer au contenu principal

Ce que vous pouvez faire

Grand modèle local + base de connaissances locale Linkly AI : les données ne quittent jamais votre machine. L’outil read de Linkly AI lit directement vos contrats confidentiels, dossiers médicaux et autres contenus sensibles stockés sur votre ordinateur, sans aucun envoi de données dans le cloud — idéal pour les cas d’usage avec des exigences strictes en matière de confidentialité.
Le service Linkly AI s’exécute en local : même sans réseau, le modèle local peut utiliser l’outil search pour interroger votre base de connaissances et répondre à vos questions, sans dépendre d’aucun service cloud.
Avec la même base de connaissances Linkly AI comme référence, effectuez des recherches et des questions-réponses avec Llama, Mistral, Qwen et d’autres modèles, et comparez lequel est le plus performant pour comprendre votre type de documents.

Prérequis

  • LM Studio installé
  • Linkly AI Desktop démarré, service MCP en cours d’exécution

Étapes de configuration

1

Ouvrir les paramètres MCP

Dans LM Studio, trouvez la configuration du serveur MCP (l’emplacement exact peut varier selon la version).
2

Ajouter le MCP Linkly AI

Ajoutez un nouveau serveur MCP et renseignez : - Name : linkly-ai - URL : http://127.0.0.1:60606/mcp
3

Vérifier la connexion

Essayez de rechercher des documents dans la conversation pour vérifier si la connexion est réussie.
Le support MCP de LM Studio peut varier selon la version. Si votre version ne supporte pas encore MCP, mettez à jour vers la dernière version.

Questions fréquentes

Assurez-vous d’utiliser une version de LM Studio qui supporte la fonctionnalité MCP. Cette fonctionnalité est disponible dans les versions plus récentes.
Vérifiez que Linkly AI Desktop est démarré et que le service MCP est en cours d’exécution.