Saltar al contenido principal

Para qué puedes usarlo

Modelo local grande + base de conocimiento local de Linkly AI, los datos nunca salen de la máquina. La herramienta read de Linkly AI lee directamente contratos confidenciales, historiales médicos y otro contenido sensible de tu ordenador, sin ninguna subida de datos a la nube. Ideal para escenarios con requisitos estrictos de privacidad.
El servicio de Linkly AI se ejecuta localmente; incluso sin red, el modelo local puede consultar tu base de conocimiento con la herramienta search para responder, sin depender de ningún servicio en la nube.
Con la misma base de conocimiento de Linkly AI como referencia, realiza recuperación y preguntas y respuestas con modelos como Llama, Mistral y Qwen por separado, y compara cuál es mejor para comprender tus tipos de documentos.

Requisitos previos

  • LM Studio instalado
  • Linkly AI Desktop iniciado con el servicio MCP en ejecución

Pasos de configuración

1

Abrir la configuración de MCP

En LM Studio, busca la configuración del servidor MCP (la ubicación exacta puede variar según la versión).
2

Agregar Linkly AI MCP

Agrega un nuevo servidor MCP y completa: - Name: linkly-ai - URL: http://127.0.0.1:60606/mcp
3

Verificar la conexión

Intenta buscar documentos en la conversación para verificar si la conexión es exitosa.
La compatibilidad con MCP en LM Studio puede variar según la versión. Si tu versión aún no admite MCP, actualiza a la versión más reciente.

Preguntas frecuentes

Asegúrate de estar usando una versión de LM Studio que admita la función MCP. Esta función está disponible en versiones más recientes.
Verifica si Linkly AI Desktop está iniciado y si el servicio MCP está en ejecución.