Développer avec l’IA générative et les agents

Ref. IA-03
En partenariat avec :
CATIE

Prochaine date :

le 24 mars 2026

Objectifs de la formation

  • Comprendre les principes des LLM et leur intégration en développement logiciel
  • Découvrir et expérimenter les agents et frameworks (LangChain, LlamaIndex, …)
  • Expérimenter l’utilisation de Copilot en mode agent (vibe coding)
  • Identifier les méthodes de spécialisation “doucesˮ des modèles (du prompt engineering au LoRA)
  • Appréhender les enjeux de confidentialité et lʼalternative du déploiement local via Ollama
  • Intégrer un LLM (cloud ou local) dans une application Python

Équipe pédagogique

Experts en IA, data science et transformation numérique du CATIE – Centre de Ressources Technologiques spécialisé dans le numérique

Pour qui ?

  • Développeurs logiciels, data engineers
  • Ingénieurs R&D souhaitant intégrer des briques dʼIA générative dans leurs applications
  • Chefs de projet techniques en innovation numérique

Prérequis

  • Bonnes bases en développement Python
  • Aucune connaissance préalable en IA requise
  • Disposer d’un PC

Contenu de la formation

  • Introduction & panorama
    • Qu’est-ce quʼun LLM et comment fonctionne un générateur de texte ?
    • Cas d’usage techniques : chatbots, assistants de code, analyse de documents
    • Démonstration rapide : Copilot (vibe coding)
  • Confidentialité et alternatives locales
    • Enjeux de sécurité et gouvernance des données
    • Risques liés aux API cloud (RGPD, dépendances, coûts)
    • Présentation dʼOllama et des modèles open source disponibles
    • Démonstration : exécution locale dʼun modèle
  • Premiers pas avec un LLM
    • Appels API (OpenAI / Hugging Face)
    • Comparaison Cloud vs Local (exemple : même prompt avec Ollama)
    • Exercice guidé : créer un mini chatbot simple
  • Agents & frameworks
    • Qu’est-ce quʼun agent ?
    • Tour d’horizon des frameworks (LangChain, LlamaIndex, Langfuse, …)
    • Exploiter tout le potentiel de Copilot en mode agent : serveurs MCP, Chat Mode vs Instructions vs Prompts, bonnes pratiques
  • Méthodes de spécialisation « douces »
    • Sans fine tuning : prompt engineering (in context learning, chain of thought…), RAG (Retrieval Augmented Generation)
    • « Parameter Efficient » fine tuning (PEFT) : soft Prompting, LoRA (Low-Rank Adaptation)
  • Atelier
    • Développement dʼune petite application Python intégrant : un agent avec RAG, choix du backend (API cloud ou modèle Ollama local)
    • Restitution et échanges
  • Conclusion & perspectives
    • Bilan, tendances, bonnes pratiques
    • Évaluation de la satisfaction des participants et remise des attestations
    • Avec la formule intra entreprise : Questions ouvertes et discussion sur les cas dʼusage des participants

Ressource technique & pédagogiques

  • Alternance théorie / démonstrations / ateliers pratiques
  • Codes sources fournis
  • Support de formation numérique remis aux participants

Suivi et évaluation

  • Tours de table réguliers
  • Contrôle de connaissances via exercices pratiques
  • Évaluation de satisfaction
  • Attestation de fin de formation
Dernière mise à jour :

2025-10-23 - 11:30:09

Version :

1

Développer avec l’IA générative et les agents

Cette pré-inscription permet d'identifier votre besoin et d'être contacté par nos équipes. Elle ne vaut pas inscription définitive.

Civilité
Entreprise de rattachement