GOLIVE
Retour au blog

Agent IA : comprendre les fondamentaux pour vos projets tech

Un agent IA n'est pas un chatbot amélioré. Comprendre ce qui le distingue d'un simple workflow vous aidera à prendre de meilleures décisions sur vos projets logiciels.

Agent IA : comprendre les fondamentaux pour vos projets tech

Le terme agent IA est partout en 2025, souvent utilisé de façon interchangeable avec "workflow IA" ou "LLM connecté à des outils". Pourtant, la distinction compte : selon ce que vous construisez ou achetez, vous pouvez vous retrouver avec un système fondamentalement différent de ce que vous attendiez. Voici les fondamentaux à comprendre pour orienter vos décisions.

  • 🚀 Un agent IA confie au LLM le rôle de décideur : l'humain ne programme plus les étapes à l'avance.
  • 💡 Quatre patterns structurent tout agent : réflexion, usage d'outils, planification, et systèmes multi-agents.
  • ⚠️ Les cinq niveaux d'agents vont du thermostat réflexe à l'agent apprenant : choisir le bon niveau évite de sur-ingéniérer.
  • ✅ Pour chaque produit SaaS existant, une version agentique est possible : un cadre concret pour identifier où investir.

De l'outil IA à l'agent IA : où se situe la rupture

La confusion vient du fait que les trois niveaux, LLM brut, workflow IA, et agent IA, se ressemblent de l'extérieur. Tous produisent du texte, tous utilisent un modèle de langage. La différence est dans qui décide des étapes.

Un LLM comme ChatGPT ou Claude répond à un prompt. C'est tout. Il ne sait pas ce que vous avez dans votre agenda, il n'a pas accès à vos données internes, et surtout, il est passif. Vous lui posez une question, il répond. Si vous lui demandez quand est votre prochain rendez-vous, il ne peut pas répondre correctement parce qu'il n'a aucun accès à cette information.

Un workflow IA résout ce problème en partie. Un humain programme un chemin prédéfini : "chaque fois que l'utilisateur pose une question sur son agenda, interroge d'abord Google Calendar, puis réponds". Ça fonctionne tant que la question reste dans le périmètre prévu. Dès que la question sort du chemin programmé, le système échoue. Le contrôle logique appartient toujours à un humain. On peut multiplier les étapes à l'infini, passer par des APIs météo, des modèles de synthèse vocale, des outils d'envoi d'email : tant qu'un développeur a tracé le chemin, c'est un workflow.

L'agent IA franchit une étape supplémentaire : le LLM devient lui-même le décideur. C'est le changement fondamental. Au lieu de suivre un chemin tracé à l'avance, l'agent raisonne sur la meilleure façon d'atteindre un objectif, sélectionne les outils appropriés, exécute des actions, observe les résultats intermédiaires, et décide s'il faut itérer. Ce modèle porte un nom dans le milieu : le framework ReAct (Reason + Act). L'agent raisonne, agit, observe, recommence.

Cette capacité d'itération autonome est ce qui différencie vraiment un agent d'un workflow. Si vous avez déjà dû retravailler manuellement le prompt d'une IA parce que le résultat n'était pas satisfaisant, un agent ferait cette correction lui-même, sans intervention humaine. C'est aussi ce qui explique pourquoi les développeurs qui travaillent avec l'IA doivent repenser leur façon de concevoir les systèmes : le code ne programme plus chaque décision, il définit un espace de décision dans lequel l'agent évolue.

Les quatre patterns qui définissent un agent autonome

Andrew Ng, l'une des figures les plus respectées du domaine, a formalisé quatre grands patterns de design agentique. Les comprendre vous donne un vocabulaire précis pour évaluer n'importe quelle solution du marché ou cadrer les exigences d'un projet.

Le premier pattern est la réflexion. L'agent produit un résultat, puis critique son propre output pour l'améliorer. Dans un contexte de génération de code, ça donne : l'agent écrit le code, génère des tests, détecte les erreurs, corrige, et répète le cycle jusqu'à ce que tous les tests passent. Ce que vous auriez fait manuellement en plusieurs allers-retours avec un développeur, l'agent le fait de façon autonome. Une extension naturelle de ce pattern est le multi-agent de révision : au lieu d'un seul LLM qui s'auto-critique, un second LLM joue le rôle du critique. Les deux agents collaborent pour atteindre une qualité que ni l'un ni l'autre n'aurait atteinte seul.

Le deuxième pattern est l'usage d'outils. En équipant un LLM de capacités comme la recherche web, l'exécution de code, l'accès aux calendriers ou la lecture de bases de données, vous lui permettez de collecter l'information manquante avant de répondre. Un agent avec un outil de recherche web vous donnera une réponse fondée sur des sources récentes, là où un LLM nu travaillerait uniquement depuis ses données d'entraînement. La RAG (Retrieval-Augmented Generation) que vous entendez souvent citer n'est qu'une forme particulière de ce pattern : l'agent va chercher de l'information pertinente avant de répondre.

Le troisième pattern est la planification. Donné un objectif complexe, l'agent décompose lui-même les étapes nécessaires et identifie les outils requis pour chacune. Un exemple concret issu d'une démonstration d'Andrew Ng : demandez à un agent de générer une image d'une personne dans une pose identique à celle d'une image de référence, puis de décrire cette image à voix haute. L'agent planifie de lui-même : analyser la pose de référence avec un modèle de vision, générer l'image avec la même pose, convertir en description textuelle, passer à la synthèse vocale. Aucune de ces étapes n'a été programmée à l'avance par un humain.

Le quatrième pattern regroupe les systèmes multi-agents. Plutôt qu'un seul LLM qui jongle avec tout, plusieurs agents spécialisés collaborent, chacun avec son rôle, ses outils, et sa tâche. Les recherches montrent que cette approche produit de meilleurs résultats qu'un agent unique qui essaie de tout gérer. La logique est la même que pour une équipe humaine : la spécialisation améliore la qualité du livrable final.

Les cinq niveaux d'intelligence d'un agent

Tous les agents IA ne se valent pas. IBM Technology propose une taxonomie utile pour ne pas confondre des systèmes de nature très différente. Il y a cinq niveaux, classés par degré d'autonomie et de capacité décisionnelle.

L'agent réflexe simple réagit à des stimuli immédiats selon des règles prédéfinies. Un thermostat est l'exemple parfait : si la température descend sous 18°C, il déclenche le chauffage. Il ne se souvient de rien, n'anticipe rien. Efficace dans des environnements stables, il échoue dès que la situation sort du cadre programmé.

L'agent réflexe à modèle ajoute une mémoire interne. Il maintient un état représentant sa compréhension du monde et l'actualise au fil du temps. Un robot aspirateur qui cartographie les zones nettoyées et mémorise les obstacles appartient à cette catégorie. Il n'anticipe pas vraiment, mais il ne répète pas les mêmes erreurs parce qu'il sait où il est passé.

L'agent basé sur des buts introduit le concept d'objectif. Plutôt que de réagir à des règles, l'agent simule des états futurs possibles et choisit l'action qui l'approche le plus de son but. Une voiture autonome utilise ce type de raisonnement : elle évalue différentes trajectoires possibles et sélectionne celle qui l'amène à destination.

L'agent basé sur l'utilité raffine encore : il ne cherche pas seulement à atteindre un but, mais à maximiser une fonction d'utilité composite. Un drone de livraison qui optimise simultanément la rapidité, la sécurité du colis et la consommation de batterie illustre bien ce niveau. Il ne choisit pas simplement "la route qui arrive à destination" mais "la meilleure route selon plusieurs critères en tension".

Enfin, l'agent apprenant s'améliore avec l'expérience. Il dispose d'un composant critique qui évalue ses performances, d'un composant d'apprentissage qui met à jour ses stratégies, et d'un générateur de problèmes qui l'incite à explorer des actions inédites. Le jeu vidéo est souvent cité comme terrain d'entraînement : après des milliers de parties, l'agent converge vers des stratégies qu'aucun humain n'aurait codées en dur.

Type d'agent Mémoire Planification Apprentissage Exemple
Réflexe simple Non Non Non Thermostat
Réflexe à modèle Oui Non Non Robot aspirateur
Basé sur des buts Oui Oui Non Voiture autonome
Basé sur l'utilité Oui Oui Non Drone de livraison
Agent apprenant Oui Oui Oui IA de jeu vidéo

Dans la pratique actuelle, la plupart des agents IA déployés en entreprise combinent ces niveaux. Et comme IBM le souligne : les agents IA fonctionnent généralement mieux avec un humain dans la boucle pour les décisions à fort impact. Ce n'est pas une faiblesse du système, c'est une bonne pratique d'architecture.

Architectures multi-agents : du séquentiel à l'asynchrone

Une fois qu'on dépasse l'agent unique, les architectures se compliquent et les configurations possibles se multiplient. Crew AI, en collaboration avec DeepLearning.AI, a documenté cinq patterns principaux qui couvrent l'essentiel des cas d'usage rencontrés en production.

Le pattern séquentiel est le plus simple : un agent fait son travail et passe le relais au suivant, comme sur une chaîne de montage. Pour le traitement automatisé de documents, par exemple, un premier agent extrait le texte, un deuxième résume, un troisième identifie les actions à prendre, un quatrième enregistre en base de données. C'est prévisible, facile à monitorer, et simple à déboguer.

Le pattern hiérarchique introduit un agent manager qui orchestre des sous-agents spécialisés. Pour produire un rapport de décision business, un agent manager reçoit la mission et délègue : un sous-agent analyse les tendances de marché avec ses propres outils, un autre collecte le feedback client depuis les bases de données internes, un troisième suit les métriques produit. Le manager compile et synthétise. Chaque sous-agent dispose de ses propres outils, le manager n'intervient que pour coordonner.

Le pattern hybride combine hiérarchie et séquentialité avec des boucles de feedback continues. Les systèmes de véhicules autonomes utilisent ce modèle : un agent planifie la route globale, des sous-agents gèrent la fusion de capteurs et l'évitement d'obstacles en temps réel, avec des retours constants vers le niveau supérieur. Ce pattern est courant en robotique et dans les systèmes adaptatifs complexes.

Le pattern parallèle fait traiter différentes parties d'une tâche simultanément par plusieurs agents indépendants. Pour l'analyse de grandes masses de données, c'est le choix naturel : chaque agent prend un segment, les résultats sont fusionnés en fin de processus. Le gain en vitesse peut être significatif sur des volumes importants.

Enfin, le pattern asynchrone laisse les agents s'exécuter indépendamment, sans synchronisation imposée. C'est la structure privilégiée pour la surveillance en temps réel, comme la détection de menaces en cybersécurité : un agent monitore le trafic réseau, un autre analyse des patterns comportementaux, un troisième effectue des tests aléatoires. Quand l'un d'eux détecte une anomalie, le système réagit. Cette approche gère bien l'incertitude et les conditions changeantes.

La complexité croissante de ces architectures s'accompagne d'une complexité de gouvernance. Plus vous ajoutez d'agents, plus vous avez de points de défaillance potentiels et moins vous avez de visibilité directe sur les décisions prises. C'est une réalité à intégrer dès la phase de conception, pas en cours de route. Tina Huang cite une observation de Y Combinator qui mérite d'être retenue : pour chaque produit SaaS existant, il existe un équivalent agentique à construire. C'est un cadre concret pour identifier les opportunités sans avoir à inventer des cas d'usage de toutes pièces.


Les agents IA ne sont pas une couche cosmétique sur les LLMs existants. Ce sont des systèmes avec leur propre logique architecturale, leurs propres patterns de design, et leurs propres contraintes opérationnelles. Avant de mandater une équipe pour construire un agent ou d'intégrer une solution du marché, il vaut la peine de définir précisément quel niveau d'autonomie vous visez, quels outils l'agent devra manipuler, et quel humain reste dans la boucle pour les décisions critiques. Ces choix ont des conséquences directes sur les coûts, la qualité des outputs, et la maintenabilité du système. Le cas de Achille.ai, qui a scalé son infrastructure LLM avec GoLive Software, illustre bien ce que ça représente concrètement de passer du prototype à la production sur ce type d'architecture.

Sources