Logo de l'organisme de formation

Conseil et Formation en informatique / numérique

Représentation de la formation : Maîtriser les LLM et le RAG pour l'IA Générative

Maîtriser les LLM et le RAG pour l'IA Générative

De la théorie à la pratique avec LangChain

Formation mixte
Accessible
Durée : 21 heures (3 jours)
Durée :21 heures (3 jours)
HT
S'inscrire
Durée :21 heures (3 jours)
HT
S'inscrire
Durée :21 heures (3 jours)
HT
S'inscrire

Besoin d’adapter cette formation à vos besoins ?

N’hésitez pas à nous contacter afin d’obtenir un devis sur mesure !

Formation créée le 19/02/2025.

Version du programme : 1

Programme de la formation

Les Large Language Model (LLM) transforment le traitement du langage naturel (NLP). Ces modèles basés sur l’architecture Transformers offrent des avantages considérables en termes de compréhension et de génération du langage naturel. Cependant, ces modèles ont encore beaucoup de défis à relever. Ils ont des connaissances limitées aux données sur lesquelles ils se sont entraînés et ils peuvent parfois générer des informations incorrectes ou inventées, appelées hallucinations. Sans oublier, que l'entraînement et l'utilisation de ces LLM peuvent être coûteux en termes de puissance de calcul et de ressources. Le Retrieval Augmented Generation (RAG) marque une étape importante dans l'évolution du NLP en permettant de dépasser les limitations des modèles de langage traditionnels. Grâce à l'intégration de connaissances externes, ces systèmes permettent d’obtenir des réponses plus précises, factuelles et pertinentes en s’appuyant sur des informations à jour et vérifiées. Cette formation vous permettra de comprendre comment les modèles de langage peuvent être rendus plus précis, plus fiables et plus polyvalents. Vous serez en mesure de concevoir et de mettre en œuvre des systèmes RAG pour améliorer les chatbots, les moteurs de recherche, les assistants virtuels et bien d'autres applications. Durée : 3 jours (formation possible en présentiel ou distanciel)

Objectifs de la formation

  • Comprendre les bases théoriques et pratiques des LLM
  • Connaître les enjeux et les limites des LLM
  • Maîtriser les fondements de l’architecture RAG
  • Construire des systèmes RAG performants, de l'indexation à la génération
  • Savoir évaluer et optimiser les systèmes RAG grâce à des techniques avancées
  • Développer des applications et agents basés sur les LLM avec LangChain

Profil des bénéficiaires

Pour qui
  • Data Engineers
  • Data Scientists
  • Développeurs
Prérequis
  • La connaissance du langage Python est nécessaire.
  • Des bases en machine learning sont requises.

Contenu de la formation

  • Large Language Models (LLM)
    • Histoire du NLP
    • Les réseaux de neurones pour traiter du texte
    • Architecture des LLM : Transformers
    • Mécanisme d’attention
    • Tokens & Embeddings
    • Panorama de quelques modèles
    • Méthodes d’apprentissage et d’optimisation : Self Supervised Learning, Supervised fine-tuning (SFT), Reinforcement Learning from Human Feedback (RLHF), Group Relative Policy Optimization (GRPO), Fine tuning DPO
    • Coût et empreinte écologique des LLM
    • Des LLM vers les SLM
  • LangChain
    • Présentation de LangChain et de ses fonctionnalités
    • Ecosystème de LangChain
  • Fondements du RAG
    • Limitations des LLM
    • Définition des concepts clés
    • Architecture
  • Pipeline d’injection
    • Tokens
    • Chunking
    • Embeddings
    • Base de données vectorielles
  • Pipeline de génération
    • Algorithme de recherche
    • Gestion de la mémoire et du contexte
    • Techniques de prompting : zero-shot, few-shot, ReAct, Chain-of-Thought, Tree-of-Thought, etc.
    • Catégorisation des LLM et adéquation au RAG
  • Evaluation des Systèmes RAG
    • Les principes d'évaluation
    • Les métriques d’évaluation
    • Les frameworks d’évaluation
  • Optimisation des Systèmes RAG
    • Advanced RAG
    • Modular RAG
    • AgenticAI
Équipe pédagogique

Alexia, véritable passionnée de la data est une experte en intelligence artificielle et en science des données. Avec plus de 15 ans d'expérience, elle maîtrise un spectre de compétences étendu : Big Data, Data Science, Data Visualisation, Machine Learning, Deep Learning, Intelligence Artificielle, etc. Son parcours, marqué par des contributions significatives dans le domaine de l'apprentissage machine, l'a propulsée au rang des experts mondiaux. En témoignent son titre de Google Developer Expert en machine learning depuis 2019 et sa présence dans le classement des personnalités les plus influentes de l'IA en France. Auteure reconnue et formatrice inspirante, elle démocratise l'IA et partage sa vision d'un futur où l'homme et la machine collaborent harmonieusement. Son premier livre est une collaboration sur l'intelligence artificielle et les neurosciences ("Apprendre demain" - édition Dunod). Son second ouvrage, plus technique, aborde le Deep Learning ("Machine Learning using TensorFlow cookbook" - édition Packt). Pour Alexia, l'IA est bien plus qu'une simple technologie : c'est un levier pour repenser notre société et notre rapport au travail.

Suivi de l'exécution et évaluation des résultats
  • Feuilles de présence.
  • Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
  • Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
  • Une synthèse est proposée en fin de formation.
  • Certificat de réalisation de l’action de formation.
Ressources techniques et pédagogiques
  • Accueil des apprenants dans une salle dédiée à la formation (si présentiel).
  • Présentation du support via vidéoprojecteur (ou partage visio).
  • Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
  • Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
  • Une synthèse est proposée en fin de formation.
  • Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices.
  • Un suivi et un échange avec les participants seront mis en place quelques jours après la formation.

Capacité d'accueil

Entre 2 et 8 apprenants

Délai d'accès

4 semaines

Accessibilité

Pour plus d'informations sur les modalités d'accessibilité pour cette formation, vous pouvez contacter directement adeschamps@confor.tech .