6 points par GN⁺ 19 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • MCP est une interface standard fondée sur l’abstraction d’API qui permet à un LLM de demander l’exécution d’une tâche sans connaître la structure interne de l’outil, avec prise en charge de l’usage à distance et des mises à jour automatiques
  • Grâce à une architecture Zero-Install, à l’authentification OAuth et à une sécurité par sandboxing, il réduit la charge d’installation et les problèmes de permissions, tout en offrant le même environnement sur n’importe quelle plateforme
  • À l’inverse, les Skills entraînent beaucoup de friction en environnement réel en raison de leur dépendance aux CLI, de la complexité de l’authentification et du déploiement, ainsi que des problèmes de compatibilité entre plateformes
  • Il faut distinguer les Skills comme couche de connaissance et le MCP comme couche de connexion : lorsqu’un LLM interagit avec des systèmes externes, il est pertinent d’utiliser MCP, tandis que les Skills conviennent à la transmission de connaissances procédurales
  • Des services de tunneling cloud comme MCP Nest permettent d’accéder à distance à un serveur MCP local, ce qui en fait un élément clé pour construire un environnement d’intégration IA standardisé

Les avantages du MCP

  • Le Model Context Protocol (MCP) repose sur une structure d’abstraction d’API permettant à un LLM d’exécuter une tâche par simple requête, sans avoir à comprendre le fonctionnement interne de l’outil
    • Exemple : lorsqu’un LLM interagit avec DEVONthink, il appelle devonthink.do_x() et le serveur MCP se charge de tout le traitement
  • L’usage distant en Zero-Install est possible : il suffit au client d’indiquer l’URL du serveur MCP pour fonctionner immédiatement, sans installation supplémentaire
  • Les mises à jour automatiques sont prises en charge : si le serveur MCP distant est mis à jour avec de nouveaux outils ou de nouvelles ressources, tous les clients utilisent immédiatement la dernière version
  • L’authentification basée sur OAuth renforce la sécurité, sans que l’utilisateur ait à gérer lui-même les tokens
  • La portabilité est élevée : accès possible via le même serveur MCP depuis n’importe quel environnement, qu’il s’agisse de Mac, mobile ou web
  • Une architecture sandboxée limite les permissions d’exécution directe sur l’environnement local et n’expose qu’une interface contrôlée
  • Grâce aux fonctions de recherche intelligente et de mise à jour automatique, seuls les outils nécessaires sont chargés, et même en cas d’installation locale ils peuvent être mis à jour automatiquement à l’exécution

Limites et frictions des Skills

  • Les Skills sont utiles pour enseigner à un LLM des connaissances spécifiques ou une manière d’utiliser un outil, mais lors de l’exécution réelle, la dépendance aux CLI devient problématique
  • La plupart des Skills exigent l’installation d’une CLI distincte, alors que les versions web de ChatGPT, Perplexity ou Claude, par exemple, ne peuvent pas exécuter de CLI
  • Cela entraîne les problèmes suivants
    • Complexité du déploiement : il faut distribuer et gérer les CLI sous forme de binaires, via NPM, uv, etc.
    • Problèmes de gestion des secrets : les tokens d’authentification sont stockés en clair dans des fichiers .env, ou l’authentification disparaît quand la session est réinitialisée
    • Fragmentation de l’écosystème : les méthodes d’installation et de mise à jour des Skills varient selon les plateformes, ce qui provoque des problèmes de compatibilité et des erreurs de parsing YAML
    • Gaspillage de contexte : même si le LLM n’a besoin que d’un seul appel de fonction, il faut charger l’intégralité de SKILL.md
  • Un Skill qui inclut l’instruction « installez d’abord la CLI » ajoute une complexité inutile ; le remplacer par un MCP distant est plus efficace

Critères pour choisir le bon outil

  • Quand utiliser MCP : comme interface standard lorsque le LLM doit se connecter à des systèmes externes tels que des sites web, services ou applications
    • Exemple : Google Calendar devrait gérer l’authentification et l’exécution via un MCP distant basé sur OAuth, sans exiger l’installation d’une CLI
    • Il serait également idéal que Chrome, Hopper, Xcode, Notion, etc. fournissent chacun un endpoint MCP intégré pour contrôler leurs fonctionnalités respectives
  • Quand utiliser les Skills : ils doivent se concentrer sur la transmission de connaissances pures et de contexte
    • Enseigner l’usage d’outils déjà installés (curl, git, gh, gcloud)
    • Normaliser la terminologie interne, les flux de travail et le style rédactionnel d’une organisation
    • Partager des connaissances procédurales comme le traitement de PDF ou la gestion des secrets (par exemple l’usage de fnox)
  • Les Skills doivent être distingués comme couche de connaissance, et le MCP comme couche de connexion

Connecteurs et manuels

  • Afin de clarifier les rôles respectifs des Skills et du MCP, il est proposé d’appeler les Skills des manuels pour LLM (LLM_MANUAL.md) et le MCP des connecteurs (Connector)
  • Exemples réellement exploités en production
    • mcp-server-devonthink : serveur MCP local permettant à un LLM de contrôler directement DEVONthink
    • microfn : MCP distant fourni sur mcp.microfn.dev
    • Kikuyo : MCP distant fourni sur mcp.kikuyo.dev
    • MCP Nest : service permettant un accès distant à un serveur MCP local via un tunnel cloud (mcp.mcpnest.dev/mcp)
  • Certains projets fournissent aussi un Skill pour la CLI, mais un Skill expliquant comment utiliser MCP est plus utile
    • Le Skill agit comme une couche de connaissance qui explique les fonctions du MCP, la relation entre les outils et les moments où les utiliser
    • Le MCP se charge de la connexion et de l’exécution réelles
  • Cette combinaison permet au LLM d’exploiter efficacement le MCP sans tâtonnements répétés

Utiliser MCP et Skill en parallèle

  • Les erreurs de format de date, limitations de recherche et autres schémas peu intuitifs découverts lors de l’usage du MCP peuvent être organisés sous forme de Skill pour être réutilisés
  • Le Skill ainsi créé joue alors le rôle d’une antisèche pour le MCP, aidant le LLM à agir correctement sans gaspiller inutilement des tokens
  • Le dossier .claude/skills permet de conserver des consignes de comportement IA propres à chaque projet et de gérer les procédures fréquentes sous forme de dotfiles
  • L’avenir de l’intégration de l’IA dépend d’interfaces standardisées (MCP), et il faut éviter les approches fragmentées basées sur des CLI
  • On peut espérer une prise en charge officielle du MCP par de grands services comme Skyscanner, Booking.com, Trip.com ou Agoda.com

Présentation de MCP Nest

  • MCP Nest est un service qui rend accessibles à distance, via tunneling cloud, des serveurs MCP normalement limités au local (Fastmail, Gmail, etc.)
  • Il peut être utilisé de la même manière depuis des clients compatibles MCP comme Claude, ChatGPT ou Perplexity
  • Il permet de conserver le même environnement MCP sur tous les appareils sans exposer directement la machine locale

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.