Maîtriser les LLM et le RAG pour l'IA Générative
De la théorie à la pratique avec LangChain
Formation créée le 19/02/2025.Version du programme : 1
Type de formation
Formation mixteDurée de formation
21 heures (3 jours)Accessibilité
OuiMaîtriser les LLM et le RAG pour l'IA Générative
De la théorie à la pratique avec LangChain
Les Large Language Model (LLM) transforment le traitement du langage naturel (NLP). Ces modèles basés sur l’architecture Transformers offrent des avantages considérables en termes de compréhension et de génération du langage naturel. Cependant, ces modèles ont encore beaucoup de défis à relever. Ils ont des connaissances limitées aux données sur lesquelles ils se sont entraînés et ils peuvent parfois générer des informations incorrectes ou inventées, appelées hallucinations. Sans oublier, que l'entraînement et l'utilisation de ces LLM peuvent être coûteux en termes de puissance de calcul et de ressources. Le Retrieval Augmented Generation (RAG) marque une étape importante dans l'évolution du NLP en permettant de dépasser les limitations des modèles de langage traditionnels. Grâce à l'intégration de connaissances externes, ces systèmes permettent d’obtenir des réponses plus précises, factuelles et pertinentes en s’appuyant sur des informations à jour et vérifiées. Cette formation vous permettra de comprendre comment les modèles de langage peuvent être rendus plus précis, plus fiables et plus polyvalents. Vous serez en mesure de concevoir et de mettre en œuvre des systèmes RAG pour améliorer les chatbots, les moteurs de recherche, les assistants virtuels et bien d'autres applications. Durée : 3 jours (formation possible en présentiel ou distanciel)
Objectifs de la formation
- Comprendre les bases théoriques et pratiques des LLM
- Connaître les enjeux et les limites des LLM
- Maîtriser les fondements de l’architecture RAG
- Construire des systèmes RAG performants, de l'indexation à la génération
- Savoir évaluer et optimiser les systèmes RAG grâce à des techniques avancées
- Développer des applications et agents basés sur les LLM avec LangChain
Profil des bénéficiaires
- Data Engineers
- Data Scientists
- Développeurs
- La connaissance du langage Python est nécessaire.
- Des bases en machine learning sont requises.
Contenu de la formation
Large Language Models (LLM)
- Histoire du NLP
- Les réseaux de neurones pour traiter du texte
- Architecture des LLM : Transformers
- Mécanisme d’attention
- Tokens & Embeddings
- Panorama de quelques modèles
- Méthodes d’apprentissage et d’optimisation : Self Supervised Learning, Supervised fine-tuning (SFT), Reinforcement Learning from Human Feedback (RLHF), Group Relative Policy Optimization (GRPO), Fine tuning DPO
- Coût et empreinte écologique des LLM
- Des LLM vers les SLM
LangChain
- Présentation de LangChain et de ses fonctionnalités
- Ecosystème de LangChain
Fondements du RAG
- Limitations des LLM
- Définition des concepts clés
- Architecture
Pipeline d’injection
- Tokens
- Chunking
- Embeddings
- Base de données vectorielles
Pipeline de génération
- Algorithme de recherche
- Gestion de la mémoire et du contexte
- Techniques de prompting : zero-shot, few-shot, ReAct, Chain-of-Thought, Tree-of-Thought, etc.
- Catégorisation des LLM et adéquation au RAG
Evaluation des Systèmes RAG
- Les principes d'évaluation
- Les métriques d’évaluation
- Les frameworks d’évaluation
Optimisation des Systèmes RAG
- Advanced RAG
- Modular RAG
- AgenticAI
Équipe pédagogique
Suivi de l'exécution et évaluation des résultats
- Feuilles de présence.
- Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
- Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
- Une synthèse est proposée en fin de formation.
- Certificat de réalisation de l’action de formation.
Ressources techniques et pédagogiques
- Accueil des apprenants dans une salle dédiée à la formation (si présentiel).
- Présentation du support via vidéoprojecteur (ou partage visio).
- Composée à 70% de pratique, cette formation utilise des exercices illustrés et didactiques.
- Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
- Une synthèse est proposée en fin de formation.
- Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices.
- Un suivi et un échange avec les participants seront mis en place quelques jours après la formation.
Capacité d'accueil
Délai d'accès
Accessibilité
Pour plus d'informations sur les modalités d'accessibilité pour cette formation, vous pouvez contacter directement adeschamps@confor.tech .