v2.2.0 : Proxy LLM, Inscription en libre-service, Système de Skills
La plus grande version de STOA à ce jour — 1 091 commits, 297 fonctionnalités et un virage fondamental vers la gestion d'API AI-native.
Model Context Protocol related updates
Voir tous les tagsLa plus grande version de STOA à ce jour — 1 091 commits, 297 fonctionnalités et un virage fondamental vers la gestion d'API AI-native.
Les gateways IA nécessitent des approches de rate limiting spécialisées qui tiennent compte de la consommation de tokens, des réponses en streaming et des coûts variables des requêtes. Les limites traditionnelles de requêtes par seconde ne capturent pas la vraie utilisation des ressources par les charges de travail IA. Ce guide couvre les stratégies de rate limiting par token, la gestion des quotas par tenant et les patterns d'implémentation pour les gateways IA en production.
Les clients MCP comme Claude Desktop et GPT sont des clients publics. Ils ne peuvent pas stocker de secrets client. OAuth 2.1 avec PKCE (Proof Key for Code Exchange) résout cela en remplaçant le secret client par une preuve cryptographique que seul le requérant original pourrait produire. Cet article parcourt le flux OAuth complet pour les gateways MCP, incluant la chaîne de découverte, le Dynamic Client Registration, et les pièges de production que nous avons rencontrés et résolus.
Vous définissez une API une seule fois. STOA l'expose à la fois comme endpoint REST et comme outil MCP — mêmes politiques, même surveillance, zéro duplication. C'est l'Universal API Contract (UAC), et ce tutoriel vous y guide en 5 minutes.
La plupart des plateformes API vous obligent à maintenir des configurations séparées pour chaque protocole : une pour les consommateurs REST, une autre pour les agents IA via MCP. Cela signifie des limites de débit dupliquées, des règles d'auth dupliquées, et une surface de misconfiguration doublée. L'UAC élimine tout cela.
Les outils MCP personnalisés vous permettent d'exposer n'importe quelle API comme une interface native IA que Claude et d'autres agents IA peuvent découvrir et invoquer automatiquement. Ce tutoriel vous guide à travers la création, l'enregistrement et le test d'un outil MCP personnalisé en utilisant le gateway STOA, de la définition YAML initiale jusqu'à l'invocation en direct par un agent IA.
Les agents IA ont besoin d'un accès programmatique aux APIs, mais les patterns d'authentification traditionnels conçus pour les utilisateurs humains — cookies de navigateur, tokens de session, flows d'autorisation OAuth2 — ne fonctionnent pas. Les agents IA sont des services autonomes, pas des utilisateurs. Ils opèrent sans navigateur, sans interactions humaines dans la boucle, et à la vitesse des machines. Cet article présente cinq patterns d'authentification qui fonctionnent pour les agents IA, du plus simple (API keys) au plus sécurisé (liaison de certificat mTLS), avec des exemples d'implémentation pratiques pour chacun.
Il fait partie de la série Qu'est-ce qu'un MCP Gateway. Pour le contexte plus large sur pourquoi les agents IA ont besoin d'une infrastructure spécialisée, consultez Connecter les agents IA aux APIs enterprise.
Kong et STOA supportent tous les deux le Model Context Protocol, mais ils l'abordent depuis des directions opposées. Kong a ajouté MCP via des plugins sur sa pile éprouvée Nginx/Lua. STOA a intégré MCP dans le cœur du gateway dès le premier jour. Cet article compare les deux spécifiquement sur les capacités MCP — découverte d'outils, transport, authentification, gouvernance et support des workflows d'agents — pour vous aider à choisir le bon MCP gateway pour votre architecture d'agents IA.
Chaque endpoint d'API REST peut devenir un outil MCP que les agents IA découvrent et invoquent automatiquement. La conversion est un exercice de mapping : votre spec OpenAPI contient déjà le nom, la description, les paramètres et l'URL d'endpoint dont MCP a besoin. Ce guide vous accompagne depuis un seul endpoint jusqu'à l'automatisation en masse avec des ToolSet CRDs.
Les agents IA ont besoin d'un moyen sécurisé et standardisé d'accéder à vos APIs. Le Model Context Protocol (MCP) fournit ce pont, et STOA Platform rend son déploiement trivial. Dans ce tutoriel, vous apprendrez à configurer un MCP gateway prêt pour la production en utilisant Docker Compose en moins de 10 minutes.
Nouveau dans les MCP gateways ? Commencez par notre guide complet : Qu'est-ce qu'un MCP Gateway ? pour comprendre l'architecture et le modèle de sécurité avant de déployer.
À la fin de ce guide, vous aurez un gateway fonctionnel qui expose vos APIs REST existantes aux agents IA comme Claude, se connecte à l'authentification et applique des politiques au runtime.
Le Model Context Protocol (MCP) est un protocole basé sur JSON-RPC 2.0 qui standardise comment les agents IA découvrent, s'authentifient et invoquent des outils externes. Il définit quatre phases — initialisation, découverte, invocation et streaming — sur des transports branchables incluant SSE, WebSocket et stdio. Cet article couvre les mécanismes internes du protocole qui comptent pour les déploiements en production.