Sécurisation du MCP construire sous Windows.

 Sécurisation du protocole de contexte de modèle (MCP). 

Construire un avenir agentique plus sûr sous Windows :

À mesure que les agents d'IA gagnent en performances et s'intègrent aux flux de travail quotidiens, le besoin d'une communication sécurisée et standardisée entre les outils et les agents n'a jamais été aussi grand. Lors de Microsoft Build 2025, nous annonçons un aperçu de la manière dont Windows 11 adopte le protocole MCP (Model Context Protocol) comme couche fondamentale pour un calcul agentique sécurisé et interopérable, et de la manière dont nous le sécurisons dès le départ.

Qu'est-ce que le MCP ?

MCP est un protocole léger et ouvert, essentiellement JSON-RPC sur HTTP, qui permet aux agents et aux applications de découvrir et d'invoquer des outils de manière standardisée. Il permet une orchestration transparente entre les services locaux et distants, permettant aux développeurs de créer une seule fois et de l'intégrer partout.

MCP définit trois rôles :

  • Hôtes MCP : applications comme VS Code ou d’autres outils d’IA qui souhaitent accéder aux fonctionnalités via MCP.
  • Clients MCP : clients qui initient des requêtes aux serveurs MCP.
  • Serveurs MCP : services légers qui exposent des fonctionnalités spécifiques (par exemple, accès au système de fichiers, recherche sémantique, actions d'application) via l'interface MCP.

Windows 11 permettra aux développeurs d'applications intelligentes souhaitant exploiter les fonctionnalités de MCP et d'IA générative pour créer des applications centrées sur l'IA générative et l'intelligence artificielle, capables d'exploiter MCP lorsque cela est nécessaire pour agir au nom de l'utilisateur. Nous fournirons un aperçu préliminaire des fonctionnalités de la plateforme MCP aux développeurs dans les prochains mois afin de recueillir leurs commentaires.

Pourquoi la sécurité est importante

Le protocole MCP ouvre de nouvelles possibilités, mais introduit également de nouveaux risques. Sans contrôles rigoureux, un serveur MCP, par exemple, pourrait exposer des fonctionnalités sensibles, être mal configuré pour autoriser l'accès à distance ou être exploité par de nombreux moyens d'attaque, notamment par injection d'invites ou par empoisonnement d'outils. D'un point de vue sécurité, les données d'entrée et d'apprentissage d'un LLM sont considérées comme non fiables. De plus, l'injection d'invites croisées peut permettre aux attaquants d'inclure des données d'invite non fiables et de mener une attaque par intrusion . Dans le cas d'une simple application de chat, une injection d'invites pourrait entraîner un jailbreak ou une fuite de données mémoire ; avec le protocole MCP, cela pourrait entraîner l'exécution complète de code à distance, soit l'attaque la plus grave.

Nous avons utilisé des recherches de sécurité internes et externes pour identifier plusieurs vecteurs de menaces émergents qui doivent être pris en compte dans une architecture agentique sécurisée :

  • Injection croisée (XPIA) : le contenu malveillant intégré dans les éléments de l'interface utilisateur ou les documents peut remplacer les instructions de l'agent, entraînant des actions involontaires telles que l'exfiltration de données ou l'installation de logiciels malveillants.
  • Lacunes d'authentification : les normes actuelles du MCP en matière d'authentification sont nouvelles et adoptées de manière incohérente. OAuth est facultatif et des approches ad hoc émergent.
  • Fuite d'informations d'identification : les agents exécutés avec tous les privilèges utilisateur risquent d'exposer des jetons ou des informations d'identification sensibles.
  • Empoisonnement des outils : les serveurs MCP non contrôlés ou de mauvaise qualité peuvent exposer des fonctionnalités dangereuses ou être utilisés pour augmenter les privilèges.
  • Manque de confinement : sans isolement, un agent compromis peut affecter l'ensemble de la session utilisateur ou du système.
  • Examen de sécurité limité : de nombreux serveurs sont développés rapidement avec un examen de sécurité minimal, ce qui augmente le risque de vulnérabilités.
  • Risques liés au registre et à la chaîne d'approvisionnement MCP : Sans contrôle, un registre public de serveurs MCP pourrait devenir un vecteur de logiciels malveillants ou d'abus.
  • Injection de commande : des entrées incorrectement validées dans le serveur MCP peuvent conduire à une exécution de commande arbitraire.

La norme MCP et la sécurité liée à l'IA constituent un domaine de recherche en pleine évolution. L'objectif de Windows 11, en tant que système d'exploitation agentique, est de fournir les capacités de sécurité fondamentales les plus solides tout en évoluant et en s'adaptant aux menaces émergentes.

Architecture de sécurité MCP dans Windows 11

Conformément à l'engagement de Microsoft dans le cadre de l'initiative Secure Future , la sécurité est notre priorité absolue dans le cadre du développement des fonctionnalités MCP. L'architecture de sécurité MCP de Windows 11 offre des fonctionnalités de sécurité fondamentales basées sur les principes suivants :

  1. Fournir un ensemble de base d’exigences de sécurité que tous les développeurs de serveurs MCP doivent respecter pour garantir la sécurité des utilisateurs.
    • Windows 11 vise à offrir un écosystème de serveurs ouvert et diversifié, tout en accordant la priorité absolue à la sécurité des utilisateurs. Cela implique de s'assurer que chaque serveur répond aux exigences de sécurité (plus d'informations ci-dessous), possède une identité unique et que le code est signé pour permettre la validation et la révocation de la provenance si nécessaire.
  2. L'utilisateur a le contrôle de toutes les opérations de sécurité sensibles effectuées en son nom.
    • Lorsque les agents interviennent pour le compte de l'utilisateur, leur périmètre et leurs opérations doivent être transparents pour celui-ci, et les opérations sensibles telles que les modifications de l'état du système d'exploitation, les accès aux données et aux identifiants doivent être visibles. Toutes les actions sensibles effectuées pour le compte de l'utilisateur doivent être vérifiables et transparentes.
  3. Le principe du moindre privilège doit être appliqué pour contenir l’impact de toute attaque possible sur un serveur MCP.
    • Windows 11 applique des capacités déclaratives et une isolation (le cas échéant) pour les serveurs afin de limiter le rayon d'explosion et l'impact des attaques sur MCP.

Contrôles de sécurité MCP

Pour tenir ces promesses, Windows 11 fournira les contrôles de sécurité suivants :

  • Communication via proxy : Toutes les interactions client-serveur MCP sont acheminées via un proxy Windows de confiance, permettant une application centralisée des politiques et du consentement. Cela inclut la possibilité d'appliquer l'authentification et l'autorisation de manière centralisée et cohérente, répondant ainsi à l'un des principaux défis du protocole MCP. Cela permet également un audit transparent de toutes les opérations pour le compte de l'utilisateur et fournit un point central où les solutions de sécurité peuvent observer et répondre aux attaques potentielles.
  • Autorisation au niveau de l'outil : les utilisateurs doivent approuver explicitement chaque paire client-outil, avec la prise en charge de la granularité par ressource contribuant à respecter le principe de maintien du contrôle de l'utilisateur.
  • Registre central des serveurs : seuls les serveurs MCP qui répondent à des critères de sécurité de base seront disponibles dans le registre Windows, garantissant ainsi la détectabilité sans compromettre la confiance.
  • Isolation à l'exécution : Les serveurs MCP implémenteront le principe du moindre privilège, appliqué par des mécanismes tels que l'isolation et les autorisations granulaires. L'utilisateur contrôlera ainsi les privilèges accordés à un serveur MCP grâce à un modèle déclaratif et limitera le rayon d'action d'une attaque potentielle sur un serveur MCP spécifique.

Exigences de sécurité du serveur MCP

Les serveurs MCP devront répondre à une série d'exigences de sécurité de base afin d'apparaître dans le registre des serveurs MCP de Windows 11, qui comprend :

  1. Signature de code obligatoire pour établir la provenance et permettre la révocation
  2. La définition des outils des serveurs ne peut pas être modifiée lors de l'exécution
  3. Tests de sécurité des interfaces exposées
  4. Identité obligatoire du colis
  5. Les serveurs doivent déclarer les privilèges dont ils ont besoin

Ces exigences permettront d'éviter des types d'attaques comme l'empoisonnement d'outils, tout en créant un écosystème ouvert et diversifié de serveurs MCP. Plus d'informations sur ces exigences seront disponibles lors de la sortie de la version préliminaire pour les développeurs. Ces exigences sont susceptibles d'être modifiées au fur et à mesure que nous en apprendrons davantage grâce à la version préliminaire.

Aperçu du développeur

Microsoft proposera aux développeurs un aperçu privé des fonctionnalités du serveur MCP après la publication de Microsoft Build, uniquement à des fins de retour d'expérience. Cet aperçu privé pourra inclure des fonctionnalités de sécurité qui ne sont pas en mode d'application pendant la période d'aperçu privé, mais qui seront activées avant la disponibilité générale. Microsoft fournira cet aperçu privé aux développeurs et exigera que les appareils soient en mode développeur afin que seuls les développeurs autorisés puissent l'utiliser. L'application de la sécurité par défaut sera intégrée à la version finale destinée aux clients.

Regard vers l'avenir

La sécurité n'est pas une fonctionnalité ponctuelle, c'est un engagement continu. À mesure que nous développons MCP et d'autres fonctionnalités agentiques, nous continuerons à faire évoluer nos défenses. De l'isolation rapide et de la validation double LLM à l'application des politiques d'exécution et aux plugins de pare-feu, notre feuille de route est conçue pour garder une longueur d'avance sur les menaces. Nous collaborons également avec d'autres acteurs de l'écosystème, tels qu'Anthropic et le comité directeur MCP, pour aider MCP à répondre aux besoins croissants en matière de sécurité grâce à une innovation agentique continue. Pour plus d'informations, consultez : Microsoft Build 2025 : L'ère des agents IA et la construction du Web agentique ouvert .

Chez Microsoft, nous sommes convaincus que la confiance est le fondement de l'innovation. En intégrant la sécurité au cœur de notre plateforme agentique, l'avenir de l'IA sur Windows est non seulement puissant, mais aussi sûr.

Par David Weston,

https://blogs.windows.com/windowsexperience/2025/05/19/securing-the-model-context-protocol-building-a-safer-agentic-future-on-windows/

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON



Présentation du protocole de contexte de modèle

 Présentation du protocole de contexte de modèle

Pourquoi MCP ?

MCP vous aide à créer des agents et des flux de travail complexes au-dessus des LLM. Les LLM ont souvent besoin de s’intégrer aux données et aux outils, et MCP fournit les avantages suivants :

  • Une liste croissante d’intégrations prédéfinies auxquelles votre LLM peut se connecter directement
  • La flexibilité de passer d’un fournisseur à un autre fournisseur de LLM
  • Les bonnes pratiques pour sécuriser vos données au sein de votre infrastructure

Introducing the Model Context Protocol \ Anthropic



Protocole de contexte de modèle

Le Model Context Protocol est une norme ouverte qui permet aux développeurs d’établir des connexions bidirectionnelles sécurisées entre leurs sources de données et les outils alimentés par l’IA. L’architecture est simple : les développeurs peuvent soit exposer leurs données via des serveurs MCP, soit créer des applications d’IA (clients MCP) qui se connectent à ces serveurs.

Aujourd’hui, nous présentons trois composants principaux du protocole Model Context Protocol pour les développeurs :

Claude 3.5 Sonnet est capable de créer rapidement des implémentations de serveurs MCP, ce qui permet aux organisations et aux particuliers de connecter rapidement leurs ensembles de données les plus importants à une gamme d’outils alimentés par l’IA. Pour aider les développeurs à commencer à explorer, nous partageons des serveurs MCP prédéfinis pour les systèmes d’entreprise populaires tels que Google Drive, Slack, GitHub, Git, Postgres et Puppeteer.

Les premiers utilisateurs comme Block et Apollo ont intégré MCP dans leurs systèmes, tandis que des entreprises d’outils de développement telles que Zed, Replit, Codeium et Sourcegraph travaillent avec MCP pour améliorer leurs plateformes, ce qui permet aux agents d’IA de mieux récupérer des informations pertinentes pour mieux comprendre le contexte d’une tâche de codage et de produire un code plus nuancé et fonctionnel avec moins de tentatives.

« Chez Block, l’open source est plus qu’un modèle de développement : c’est le fondement de notre travail et un engagement à créer une technologie qui entraîne des changements significatifs et sert de bien public pour tous », a déclaré Dhanji R. Prasanna, directeur de la technologie chez Block. « Les technologies ouvertes comme le Model Context Protocol sont les ponts qui relient l’IA aux applications du monde réel, garantissant que l’innovation est accessible, transparente et ancrée dans la collaboration. Nous sommes ravis de nous associer à un protocole et de l’utiliser pour construire des systèmes agentiques, qui éliminent le fardeau de la mécanique afin que les gens puissent se concentrer sur la création.

Au lieu de conserver des connecteurs distincts pour chaque source de données, les développeurs peuvent désormais construire sur la base d’un protocole standard. Au fur et à mesure que l’écosystème mûrit, les systèmes d’IA conserveront leur contexte lorsqu’ils passeront d’un outil et d’un ensemble de données à l’autre, remplaçant ainsi les intégrations fragmentées d’aujourd’hui par une architecture plus durable.

Commencer

Les développeurs peuvent commencer à créer et à tester des connecteurs MCP dès aujourd’hui. Tous les plans Claude.ai prennent en charge la connexion de serveurs MCP à l’application Claude Desktop.

Les clients de Claude for Work peuvent commencer à tester les serveurs MCP localement, en connectant Claude aux systèmes internes et aux ensembles de données. Nous fournirons bientôt des kits d’outils de développement pour le déploiement de serveurs MCP de production à distance qui peuvent servir l’ensemble de votre organisation Claude for Work.

Pour commencer à construire :

Une communauté ouverte

Nous nous engageons à faire de MCP un projet et un écosystème collaboratifs et open source, et nous sommes impatients d’entendre vos commentaires. Que vous soyez un développeur d’outils d’IA, une entreprise cherchant à exploiter les données existantes ou un adopteur précoce explorant les frontières, nous vous invitons à construire ensemble l’avenir de l’IA contextuelle.

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON



𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹 (𝗠𝗖𝗣) : tout ce qu'il faut savoir

 𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹 (𝗠𝗖𝗣) : tout ce qu'il faut savoir.

Les grands modèles de langage (LLM) sont puissants, mais 𝗰𝗼𝗻𝘁𝗲𝘅𝘁-𝗹𝗶𝗺𝗶𝘁𝗲𝗱. Ils :

→ Manquent de sensibilisation à la 𝗯𝘂𝘀𝗶𝗻𝗲𝘀𝘀, à la 𝗱𝗮𝘁𝗮, à la 𝗮𝗻𝗱𝗲 𝘄𝗼𝗿𝗸𝗳𝗹𝗼𝘄

→ Fonctionnent de manière isolée, ce qui entraîne une 𝗴𝗲𝗻𝗲𝗿𝗶𝗰 𝗿𝗲𝘀𝗽𝗼𝗻𝘀𝗲𝘀

→ Ne peuvent pas accéder à la 𝗿𝗲𝗮𝗹-𝘁𝗶𝗺𝗲 𝗲𝘅𝘁𝗲𝗿𝗻𝗮𝗹 𝗸𝗻𝗼𝘄𝗹𝗲𝗱𝗴𝗲

𝗥𝗲𝘁𝗿𝗶𝗲𝘃𝗮𝗹-𝗔𝘂𝗴𝗺𝗲𝗻𝘁𝗲𝗱 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝗼𝗻 (𝗥𝗔𝗚) et 𝗔𝗴𝗲𝗻𝘁𝗶𝗰 𝗔𝗜 ont introduit des modèles pour améliorer l'IA Capacité à récupérer des données et à interagir avec des outils. Cependant, leurs implémentations restent complexes, ce qui conduit à des algorithmes de type 𝗰𝘂𝘀𝘁𝗼𝗺-𝗯𝘂𝗶𝗹𝘁, 𝗻𝗼𝗻-𝘀𝗰𝗮𝗹𝗮𝗯𝗹𝗲 𝘀𝗼𝗹𝘂𝘁𝗶𝗼𝗻𝘀.

𝗔𝗻𝘁𝗵𝗿𝗼𝗽𝗶𝗰’𝘀 𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹 (𝗠𝗖𝗣) vise à 𝘀𝘁𝗮𝗻𝗱𝗮𝗿𝗱𝗶𝘀𝗲 𝗵𝗼𝘄 𝗥𝗔𝗚 𝗮𝗻𝗱 𝗔𝗴𝗲𝗻𝘁𝗶𝗰 𝗔𝗜 𝗮𝗿𝗲 𝗶𝗺𝗽𝗹𝗲𝗺𝗲𝗻𝘁𝗲𝗱, assurant 𝘀𝗰𝗮𝗹𝗮𝗯𝗶𝗹𝗶𝘁𝘆, 𝗿𝗲𝗹𝗶𝗮𝗯𝗶𝗹𝗶𝘁𝘆, 𝗮𝗻𝗱 𝗱𝗲𝗲𝗽 𝗰𝗼𝗻𝘁𝗲𝘅𝘁 𝗮𝘄𝗮𝗿𝗲𝗻𝗲𝘀𝘀 pour les applications basées sur le LLM.

Qu'est-ce que c'est ?

❯ 1. 𝗛𝗼𝘀𝘁 𝗘𝗻𝘃𝗶𝗿𝗼𝗻𝗺𝗲𝗻𝘁

Le 𝗶𝗻𝗳𝗿𝗮𝘀𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗲 où fonctionnent les applications LLM :

→ 𝗣𝗵𝘆𝘀𝗶𝗰𝗮𝗹 𝗠𝗮𝗰𝗵𝗶𝗻𝗲𝘀 – Postes de travail, serveurs sur site

→ 𝗩𝗶𝗿𝘁𝘂𝗮𝗹 𝗠𝗮𝗰𝗵𝗶𝗻𝗲𝘀 – VM cloud, serveurs distants

→ 𝗖𝗼𝗻𝘁𝗮𝗶𝗻𝗲𝗿𝘀 – Docker, Kubernetes

❯ 2. 𝗛𝗼𝘀𝘁

Applications basées sur le LLM, telles que :

→ Chatbots, assistants de recherche

→ Agents d'IA pour l'automatisation des workflows

→ IDE avec complétion de code et débogage

❯ 3. 𝗠𝗖𝗣 𝗖𝗹𝗶𝗲𝗻𝘁𝘀

Les clients MCP utilisent des protocoles de sécurité tiers pour envoyer des requêtes aux serveurs MCP pour obtenir des données ou des actions externes.

❯ 4. 𝗠𝗖𝗣 𝗦𝗲𝗿𝘃𝗲𝗿

Les serveurs MCP servent de passerelle entre les LLM et les sources de connaissances externes, notamment :

→ 𝗔𝗣𝗜𝘀 – CRM, ERP, outils d'entreprise

→ 𝗗𝗮𝘁𝗮𝗯𝗮𝘀𝗲𝘀 – Bases de données opérationnelles, entrepôts

→ 𝗖𝗼𝗱𝗲 𝗥𝗲𝗽𝗼𝘀𝗶𝘁𝗼𝗿𝗶𝗲𝘀 & 𝗙𝗶𝗹𝗲𝘀

→ 𝗟𝗶𝘃𝗲 𝗘𝘃𝗲𝗻𝘁 𝗦𝘁𝗿𝗲𝗮𝗺𝘀 – Événements envoyés par le serveur, WebSockets

Au-delà de la récupération, MCP permet la 𝗲𝘅𝗲𝗰𝘂𝘁𝗶𝗼𝗻 𝗰𝗮𝗽𝗮𝗯𝗶𝗹𝗶𝘁𝗶𝗲𝘀, notamment :

→ Mise à jour des configurations

→ Exécution de scripts

→ Déclenchement de workflows

❯ 5. 𝗧𝗿𝗮𝗻𝘀𝗽𝗼𝗿𝘁 𝗟𝗮𝘆𝗲𝗿

MCP permet l'𝘀𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗲𝗱 𝗰𝗼𝗺𝗺𝘂𝗻𝗶𝗰𝗮𝘁𝗶𝗼𝗻 grâce à 𝗝𝗦𝗢𝗡-𝗥𝗣𝗖 2.0, prenant en charge 

→ 𝗦𝘁𝗮𝗻𝗱𝗮𝗿𝗱 𝗜𝗻𝗽𝘂𝘁/𝗢𝘂𝘁𝗽𝘂𝘁 (𝗦𝘁𝗱𝗶𝗼)

→ 𝗦𝗲𝗿𝘃𝗲𝗿-𝗦𝗲𝗻𝘁 𝗘𝘃𝗲𝗻𝘁𝘀 (𝗦𝗦𝗘)

→ 𝗖𝘂𝘀𝘁𝗼𝗺 𝗜𝗺𝗽𝗹𝗲𝗺𝗲𝗻𝘁𝗮𝘁𝗶𝗼𝗻𝘀 pour des informations spécifiques Besoins

❯ 𝗧𝗵𝗲 𝗙𝘂𝘁𝘂𝗿𝗲 𝗼𝗳 𝗔𝗜 𝘄𝗶𝘁𝗵 𝗠𝗖𝗣

MCP marque un tournant dans l'évolution de l'IA en définissant une 𝗽𝗿𝗼𝘁𝗼𝗰𝗼𝗹𝗹𝗲 𝗹𝗲 𝗽𝗿𝗼𝘁𝗼𝗰𝗼𝗹𝗲𝗻𝘁 ...𝗲 𝗹𝗲 𝗽𝗿𝗼𝘁𝗼� ✔ 𝗔𝗴𝗲𝗻𝘁𝗶𝗰 𝗔𝗜 – Un modèle permettant à l'IA d'interagir avec les outils.

✔ 𝗠𝗖𝗣 – Un 𝗽𝗿𝗼𝘁𝗼𝗰𝗼𝗹𝗹𝗲𝗻𝘁 qui standardise leur implémentation.

Source : Deepak Bhardwaj 

Building Diagramotion | 40K+ Readers | Simplifying Data, AI & MLOps Through Clear, Actionable Insights


Modèle de protocole contextuel : Guide sur ce qu'il est et ce qu'il signifie pour le développement de l'IA

MCP (Model Context Protocol): Simply explained in 5 minutes

Introduction - Model Context Protocol

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON




𝗠𝗖𝗣 𝘃𝘀 𝗔𝟮𝗔 𝘃𝘀 Appel de fonction.

 𝗠𝗖𝗣 𝘃𝘀 𝗔𝟮𝗔 𝘃𝘀 Appel de fonction — Quelle est la différence ?


Si vous développez ou faites évoluer des systèmes d’IA, il est essentiel de comprendre ces trois méthodes d’orchestration.

Voici une représentation visuelle de la manière dont chaque approche gère une tâche simple : la récupération d’informations météorologiques.

↑ 𝗠𝗖𝗣 (𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹) Le LLM agit comme un contrôleur : il choisit l’outil approprié via un client MCP, obtient l’approbation de l’API et gère l’exécution. Idéal pour la gouvernance et la conformité de l’entreprise.

↑ 𝗔𝟮𝗔 (𝗔𝗴𝗲𝗻𝘁-𝘁𝗼-𝗔𝗴𝗲𝗻𝘁) Vous êtes ici dans l’ère des agents. Un agent coordinateur délègue des tâches à plusieurs agents : un pour interpréter, un pour planifier, un pour formater et un pour appeler l’API. Voici l'intelligence modulaire et agentique en action.

↑ 𝗙𝘂𝗻𝗰𝘁𝗶𝗼𝗻 𝗖𝗮𝗹𝗹𝗶𝗻𝗴 La voie la plus directe. Le LLM déclenche un appel de fonction comme déclaré dans l'invite. Il est efficace, mais manque de mémoire, de coordination ou de raisonnement approfondi entre les tâches.

𝗘𝗮𝗰𝗵 𝗺𝗲𝘁𝗵𝗼𝗱 𝗵𝗮𝘀 𝗮 𝘁𝗿𝗮𝗱𝗲𝗼𝗳𝗳 :

• 𝗠𝗖𝗣 offre plus de contrôle

• 𝗔𝗟𝗮𝗔 offre plus de flexibilité

• 𝗙𝘂𝗻𝗰𝘁𝗶𝗼𝗻 𝗖𝗮𝗹𝗹𝗶𝗻𝗴 offre plus de rapidité

Comprendre 𝘸𝘩𝘦𝘯 𝘵𝘰 𝘶𝘴𝘦 𝘸𝘩𝘢𝘵 est le véritable levier.

J'ai créé cette infographie pour rendre la différence visuelle et facile à comprendre. (source en anglais 

Brij kishore Pandey 

Data & AI Architect | Strategist | LLM | Generative AI | Agentic AI | MLOps ).



-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON



Serveurs MCP et tableaux de bord (T2BI-IA).

 Serveurs MCP et tableaux de bord (T2BI-IA).

Les possibilités :

Résumé du Projet

Le projet vise à intégrer un Tableau de Bord Intelligent (T2BI) avec le Model Context Protocol (MCP) pour créer un système de gouvernance de l'IA.

Cette solution est conçue pour répondre aux besoins de surveillance et de reporting des entreprises qui utilisent l'IA.

Les principaux KPI identifiés pour la gouvernance de l'IA sont le biais, la performance, la sécurité, les prompts et la conformité (dans le cadre d’un POC).

L'architecture proposée comprend les composants suivants :

  • Sources de données IA : Systèmes et applications qui génèrent des données de gouvernance de l'IA.

  • Serveur MCP pour la Gouvernance IA : Collecte les données des sources de données IA.

  • Backend T2BI et Base de Données SQL : Traite, stocke et prépare les données pour le tableau de bord.

  • Frontend T2BI : Interface utilisateur pour la visualisation et l'analyse des KPI de gouvernance IA.

Le flux de données principal implique la collecte des données par le serveur MCP, l'interrogation de ces données par le backend T2BI, le traitement et le stockage des données dans une base de données SQL, l'exposition des KPI via une API T2BI, et enfin, la visualisation dans le frontend T2BI.

Les technologies envisagées incluent Python ou Node.js pour le serveur MCP, Python (Flask/Django) ou Node.js (Express) pour le backend T2BI, une base de données SQL (PostgreSQL, MySQL, SQL Server) et React, Vue.js ou Angular pour le frontend T2BI.

Suggestions et Prochaines Étapes :

  1. Finaliser le Schéma d'Architecture : Le document mentionne qu'un schéma d'architecture sera fourni dans un fichier séparé. Il est crucial de finaliser ce schéma pour avoir une vision claire des interactions entre les composants.

  2. Définir Précisément les Schémas de Données pour les KPI : Définir les schémas de données pour chaque KPI (biais, performance, sécurité, prompts, conformité) est essentiel pour assurer la cohérence et l'exactitude des données collectées et traitées.

  3. Développer un POC : Commencer le développement d'un Proof of Concept (POC) en se concentrant sur un flux de données simple pour un ou deux KPI permettra de valider l'architecture et d'identifier les éventuels problèmes.

  4. Mettre en Place l'Environnement de Développement : La liste des tâches inclut la mise en place de l'environnement de développement. Assurez-vous que cet environnement est configuré de manière à faciliter le développement, le test et le déploiement.

  5. Développement Backend et Implémentation API : Développer le backend pour la connexion T2BI-MCP et implémenter les API nécessaires sont des étapes clés. Une attention particulière doit être accordée à la sécurité, à la performance et à la scalabilité de ces composants.

  6. Création de Scripts de Traitement de Données : Les scripts de traitement de données doivent être robustes et efficaces pour transformer les données brutes en KPI exploitables.

  7. Conception de la Maquette du Tableau de Bord : La conception de la structure et des maquettes des écrans principaux du tableau de bord est cruciale pour assurer une interface utilisateur intuitive et efficace.

  8. Documentation Complète : Documenter l'architecture technique, créer un guide d'utilisation, documenter les API et interfaces, et préparer une présentation de la solution sont des étapes importantes pour assurer la maintenabilité et la compréhension du système.

Liste des tâches pour le projet d'intégration T2BI et MCP :

Architecture d'intégration T2BI-MCP pour la Gouvernance de l'IA :

Schéma 1 : Architecture Fonctionnelle :

Ce schéma met en évidence les composants principaux du système et leurs interactions fonctionnelles.

Flux de Données :

  1. Les Sources de Données IA fournissent les données brutes.

  2. Le Serveur MCP collecte et standardise ces données via ses outils.

  3. Le Backend T2BI récupère les données du MCP, les traite et les stocke dans la base de données SQL.

  4. Le Backend T2BI expose les KPI via l'API T2BI.

  5. Le Frontend T2BI consomme l'API pour afficher les informations aux utilisateurs.

Schéma 2 : Architecture Technologique :

Ce schéma détaille les technologies envisagées pour chaque composant.

Notes:

  • Les technologies sont des suggestions, et le choix final peut dépendre des contraintes spécifiques du projet et des préférences de l'équipe.

  • Le schéma technologique met en évidence la séparation des langages et des outils utilisés pour chaque couche de l'architecture.

Exemples des POC et articles :

https://and500.blogspot.com/2025/04/creation-dun-tableau-de-bord-interactif.html Création d'un tableau de bord interactif avec MANUS.

https://jcyixrhx.manus.space/ Tableau de Bord - Analyse Comparative HPQ et HPE.

https://pages.manus.im/?sId=GGpylTeYBlj19KrvLl0kXz&filename=tableau_de_bord.mdx Tableau de Bord des Cotations Boursières.

https://www.ugaia.eu/2025/03/creation-dun-tableau-de-bord-interactif.html Création d'un tableau de bord interactif avec MANUS,  mars 2025.

https://www.ugaia.eu/2025/03/tableau-de-bord-pour-lanalyse-des.html T2BI-IA pour l'analyse des cotations boursières des grandes entreprises.  mars 2025.

TESTS Agents-MCP-T2BI·IA - UGAIA.EU: Mistral

https://and500.blogspot.com/search/label/Mistral

GUILD4AI :

https://lecercle.guild4ai.ai/c/espace-technique/manus-tests

Cette approche ci

Model Context Protocol (MCP) - Anthropic

Serveur MCP Brave Search

Une implémentation de serveur MCP qui intègre l’API Brave Search, offrant des capacités de recherche Web et locale.

Fonctionnalités

  • Recherche Web : requêtes générales, actualités, articles, avec contrôles de pagination et de fraîcheur

  • Recherche locale : trouvez des entreprises, des restaurants et des services avec des informations détaillées

  • Filtrage flexible : contrôlez les types de résultats, les niveaux de sécurité et la fraîcheur du contenu

  • Replis intelligents : la recherche locale revient automatiquement sur le Web lorsqu’aucun résultat n’est trouvé

servers/src/brave-search at main · modelcontextprotocol/servers

Brave Search API | Brave

mikechao/brave-search-mcp: An MCP Server implementation that integrates the Brave Search API, providing, Web Search, Local Points of Interest Search, Image Search, Video Search and News Search capabilities


G4AI :

https://lecercle.guild4ai.ai/c/espace-technique/serveurs-mcp-et-tableaux-de-bord-t2bi-ia-b5aa3136-7cb0-489c-adce-beb29f0fdf7f

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON



Outil de recherche sur le Web de Claude

Outil de recherche sur le Web de Claude

L’outil de recherche Web donne à Claude un accès direct au contenu Web en temps réel, ce qui lui permet de répondre aux questions avec des informations à jour au-delà de son seuil de connaissances. Claude cite automatiquement les sources des résultats de recherche dans le cadre de sa réponse.

Modèles pris en charge

La recherche sur le Web est disponible à l’adresse suivante :

  • Claude 3.7 Sonnet (claude-3-7-sonnet-20250219)
  • Claude 3.5 Sonnet (nouveau) (claude-3-5-sonnet-latest)
  • Claude 3.5 Haïku (claude-3-5-haiku-latest)

Comment fonctionne la recherche sur le Web

Lorsque vous ajoutez l’outil de recherche Web à votre demande d’API :

  1. Claude décide quand effectuer la recherche en fonction de l’invite.
  2. L’API exécute les recherches et fournit les résultats à Claude. Ce processus peut se répéter plusieurs fois au cours d’une même demande.
  3. À la fin de son tour, Claude fournit une réponse finale avec des sources citées.

L’administrateur de votre organisation doit activer la recherche Web dans la console.

Fournissez l’outil de recherche Web dans votre demande d’API :

import anthropic

client = anthropic.Anthropic()

response = client.messages.create(
    model="claude-3-7-sonnet-latest",
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": "How do I update a web app to TypeScript 5.5?"
        }
    ],
    tools=[{
        "type": "web_search_20250305",
        "name": "web_search",
        "max_uses": 5
    }]
)
print(response)

Définition de l’outil

L’outil de recherche Web prend en charge les paramètres suivants :

JSON
{
  "type": "web_search_20250305",
  "name": "web_search",
 
  // Optional: Limit the number of searches per request
  "max_uses": 5,
 
  // Optional: Only include results from these domains
  "allowed_domains": ["example.com", "trusteddomain.org"],

  // Optional: Never include results from these domains
  "blocked_domains": ["untrustedsource.com"],

  // Optional: Localize search results
  "user_location": {
    "type": "approximate",
    "city": "San Francisco",
    "region": "California",
    "country": "US",
    "timezone": "America/Los_Angeles"
  }
}

Utilisations maximales

Le paramètre limite le nombre de recherches effectuées. Si Claude tente plus de recherches que ce qui est autorisé, il y aura une erreur avec le code d’erreur.max_usesweb_search_tool_resultmax_uses_exceeded

Filtrage de domaine

Lors de l’utilisation de filtres de domaine :

  • Les domaines ne doivent pas inclure le schéma HTTP/HTTPS (utilisez au lieu de example.comhttps://example.com)
  • Les sous-domaines sont automatiquement inclus ( couvertures example.comdocs.example.com)
  • Les sous-chemins sont pris en charge (example.com/blog)
  • Vous pouvez utiliser l’un ou l’autre ou , mais pas les deux dans la même demande.allowed_domainsblocked_domains

Localisation

Ce paramètre vous permet de localiser les résultats de recherche en fonction de l’emplacement d’un utilisateur.user_location

Réponse

Voici un exemple de structure de réponse :

{
  "role": "assistant",
  "content": [
    // 1. Claude's decision to search
    {
      "type": "text",
      "text": "I'll search for when Claude Shannon was born."
    },
    // 2. The search query used
    {
      "type": "server_tool_use",
      "id": "srvtoolu_01WYG3ziw53XMcoyKL4XcZmE",
      "name": "web_search",
      "input": {
        "query": "claude shannon birth date"
      }
    },
    // 3. Search results
    {
      "type": "web_search_tool_result",
      "tool_use_id": "srvtoolu_01WYG3ziw53XMcoyKL4XcZmE",
      "content": [
        {
          "type": "web_search_result",
          "url": "https://en.wikipedia.org/wiki/Claude_Shannon",
          "title": "Claude Shannon - Wikipedia",
          "encrypted_content": "EqgfCioIARgBIiQ3YTAwMjY1Mi1mZjM5LTQ1NGUtODgxNC1kNjNjNTk1ZWI3Y...",
          "page_age": "April 30, 2025"
        }
      ]
    },
    {
      "text": "Based on the search results, ",
      "type": "text"
    },
    // 4. Claude's response with citations
    {
      "text": "Claude Shannon was born on April 30, 1916, in Petoskey, Michigan",
      "type": "text",
      "citations": [
        {
          "type": "web_search_result_location",
          "url": "https://en.wikipedia.org/wiki/Claude_Shannon",
          "title": "Claude Shannon - Wikipedia",
          "encrypted_index": "Eo8BCioIAhgBIiQyYjQ0OWJmZi1lNm..",
          "cited_text": "Claude Elwood Shannon (April 30, 1916 – February 24, 2001) was an American mathematician, electrical engineer, computer scientist, cryptographer and i..."
        }
      ]
    }
  ],
  "id": "msg_a930390d3a",
  "usage": {
    "input_tokens": 6039,
    "output_tokens": 931,
    "server_tool_use": {
      "web_search_requests": 1
    }
  },
  "stop_reason": "end_turn"
}

Résultats de la recherche

Les résultats de la recherche sont les suivants :

  • url: L’URL de la page source
  • title: Le titre de la page source
  • page_age: Date de la dernière mise à jour du site
  • encrypted_content: Contenu crypté qui doit être renvoyé dans des conversations à plusieurs tours pour les citations

Références

Les citations sont toujours activées pour la recherche sur le Web, et chacune comprend :web_search_result_location

  • url: L’URL de la source citée
  • title: Le titre de la source citée
  • encrypted_index: Une référence qui doit être repassée pour les conversations à plusieurs tours.
  • cited_text: Jusqu’à 150 caractères du contenu cité

Les champs de citation de recherche Web , , et ne sont pas pris en compte dans l’utilisation du jeton d’entrée ou de sortie.cited_texttitleurl

Erreurs

Si une erreur se produit lors d’une recherche sur le Web, vous recevrez une réponse qui se présente sous la forme suivante :

{
  "type": "web_search_tool_result",
  "tool_use_id": "servertoolu_a93jad",
  "content": {
    "type": "web_search_tool_result_error",
    "error_code": "max_uses_exceeded"
  }
}

Voici les codes d’erreur possibles :

  • too_many_requests: Dépassement de la limite de débit
  • invalid_input: Paramètre de requête de recherche non valide
  • max_uses_exceeded: Dépassement du nombre maximal d’utilisations de l’outil de recherche web
  • query_too_long: La requête dépasse la longueur maximale
  • unavailable: Une erreur interne s’est produite

pause_turn Raison de l’arrêt

La réponse peut inclure une raison d’arrêt, qui indique que l’API a interrompu un tour de longue durée. Vous pouvez fournir la réponse telle quelle dans une demande ultérieure pour permettre à Claude de continuer son tour, ou modifier le contenu si vous souhaitez interrompre la conversation.pause_turn

Mise en cache des invites

La recherche sur le Web fonctionne avec la mise en cache des invites. Pour activer la mise en cache des invites, ajoutez au moins un point d’arrêt cache_control dans votre demande. Le système mettra automatiquement en cache jusqu’au dernier bloc web_search_tool_result lors de l’exécution de l’outil.

Pour les conversations à plusieurs tours, définissez un point d’arrêt au moment ou après le dernier bloc pour réutiliser le contenu mis en cache.cache_controlweb_search_tool_result

Par exemple, pour utiliser la mise en cache d’invite avec la recherche Web pour une conversation à plusieurs tours :

import anthropic

client = anthropic.Anthropic()

# First request with web search and cache breakpoint
messages = [
    {
        "role": "user",
        "content": "What's the current weather in San Francisco today?"
    }
]

response1 = client.messages.create(
    model="claude-3-7-sonnet-latest",
    max_tokens=1024,
    messages=messages,
    tools=[{
        "type": "web_search_20250305",
        "name": "web_search",
        "user_location": {
            "type": "approximate",
            "city": "San Francisco",
            "region": "California",
            "country": "US",
            "timezone": "America/Los_Angeles"
        }
    }]
)

# Add Claude's response to the conversation
messages.append({
    "role": "assistant",
    "content": response1.content
})

# Second request with cache breakpoint after the search results
messages.append({
    "role": "user",
    "content": "Should I expect rain later this week?",
    "cache_control": {"type": "ephemeral"}  # Cache up to this point
})

response2 = client.messages.create(
    model="claude-3-7-sonnet-latest",
    max_tokens=1024,
    messages=messages,
    tools=[{
        "type": "web_search_20250305",
        "name": "web_search",
        "user_location": {
            "type": "approximate",
            "city": "San Francisco",
            "region": "California",
            "country": "US",
            "timezone": "America/Los_Angeles"
        }
    }]
)
# The second response will benefit from cached search results
# while still being able to perform new searches if needed
print(f"Cache read tokens: {response2.usage.get('cache_read_input_tokens', 0)}")

Streaming

Lorsque la diffusion en continu est activée, vous recevrez des événements de recherche dans le cadre du flux. Il y aura une pause pendant l’exécution de la recherche :

event: message_start
data: {"type": "message_start", "message": {"id": "msg_abc123", "type": "message"}}

event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "text", "text": ""}}

// Claude's decision to search

event: content_block_start
data: {"type": "content_block_start", "index": 1, "content_block": {"type": "server_tool_use", "id": "srvtoolu_xyz789", "name": "web_search"}}

// Search query streamed
event: content_block_delta
data: {"type": "content_block_delta", "index": 1, "delta": {"type": "input_json_delta", "value": "{\"query\":\"latest quantum computing breakthroughs 2025\"}"}}

// Pause while search executes

// Search results streamed
event: content_block_start
data: {"type": "content_block_start", "index": 2, "content_block": {"type": "web_search_tool_result", "tool_use_id": "srvtoolu_xyz789", "content": [{"type": "web_search_result", "title": "Quantum Computing Breakthroughs in 2025", "url": "https://example.com"}]}}

// Claude's response with citations (omitted in this example)

Demandes par lots

Vous pouvez inclure l’outil de recherche Web dans l’API Messages Batches. Les appels de l’outil de recherche Web via l’API Messages Batches sont au même prix que ceux des requêtes API Messages standard.

Utilisation et tarification

L’utilisation de la recherche Web est facturée en plus de l’utilisation du jeton :

"usage": {
  "input_tokens": 105,
  "output_tokens": 6039,
  "cache_read_input_tokens": 7123,
  "cache_creation_input_tokens": 7345,
  "server_tool_use": {
    "web_search_requests": 1
  }
}

La recherche sur le Web est disponible sur l’API Anthropic pour 10 $ par 1 000 recherches, plus les coûts de jeton standard pour le contenu généré par la recherche. Les résultats de recherche Web dans la conversation sont comptés comme des jetons d’entrée sur les demandes d’achèvement ultérieures pendant le tour en cours ou sur les tours de conversation suivants.

Chaque recherche sur le Web compte pour une utilisation, quel que soit le nombre de résultats renvoyés. Si une erreur se produit lors d’une recherche sur le Web, la recherche sur le Web ne sera pas facturée.


Tutoriels - Anthropic

https://docs.anthropic.com/fr/docs/claude-code/tutorials#configurer-le-model-context-protocol-mcp

Table des matières

Web search tool - Anthropic

https://docs.anthropic.com/en/docs/build-with-claude/tool-use/web-search-tool

Premiers pas avec Claude Code - Anthropic

https://docs.anthropic.com/fr/docs/claude-code/getting-started

-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON




Sécurisation du MCP construire sous Windows.

 Sécurisation du protocole de contexte de modèle (MCP).  Construire un avenir agentique plus sûr sous Windows : À mesure que l...