NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
21 heures sur 3 jours
à Paris & à distance
(Zoom, Google Meet, etc.).
2 100 € HT / personne
Etudions ensemble vos options
de financement
Objectifs de la formation
NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
Identifier les concepts fondamentaux du traitement du langage naturel (NLP).
Utiliser spaCy pour le prétraitement et l’analyse linguistique des textes.
Exploiter la librairie Hugging Face pour utiliser et entraîner des modèles de NLP.
Déployer et optimiser des modèles de génération de texte avec Llama.
Développer une application NLP complète avec Python.
Pré-requis pour suivre cette formation
Maîtrise de Python et de ses bibliothèques standards (NumPy, Pandas) Connaissances de base en machine learning et deep learning Notions en manipulation de texte et en statistiques (souhaité) Environnement Python installé avec spaCy, Hugging Face Transformers et PyTorch/TensorFlow
A qui s'adresse cette formation ?
Développeurs, ingénieurs en IA, data scientists, chercheurs et toute personne souhaitant approfondir ses compétences en NLP.
Formations recommandées
Aucun programme supplémentaire n'est requis pour suivre cette formation.
Au programme de la formation
NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
Fondamentaux du NLP
-
Définition du NLP et historique
-
Applications : chatbots, résumé, classification, extraction d’informations
-
Tâches de base en NLP : segmentation, catégorisation, parsing
-
Problèmes courants : ambiguïté, polysémie, contexte
Écosystème NLP en Python
-
Comparaison NLTK vs spaCy : objectifs et philosophies
-
Installation et structure de spaCy
-
Chargement de modèles linguistiques (fr_core_news_md, en_core_web_sm, etc.)
-
Premiers traitements de texte avec spaCy
Analyse linguistique avec spaCy
-
Tokenisation, lemmatisation, POS tagging
-
Analyse morpho-syntaxique et dépendances
-
Reconnaissance d’entités nommées (NER)
-
Visualisation avec displacy
Vectorisation et extraction d’informations
-
TF-IDF : principe, implémentation avec scikit-learn
-
Word2Vec : introduction aux word embeddings
-
Embeddings contextuels avec spaCy
-
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
-
Présentation de la plateforme Hugging Face
-
Notions de transformer, encoder, decoder
-
Exploration de transformers
, datasets
et tokenizers
-
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînés
-
Présentation de BERT, DistilBERT, RoBERTa, GPT
-
Importation de modèles via from_pretrained()
-
Tokenisation automatique et passage en batch
-
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisés
-
Structuration des datasets : DatasetDict
, load_dataset()
-
Préparation des entrées pour l’apprentissage supervisé
-
Fine-tuning avec Trainer
ou KerasTrainer
-
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec Transformers
-
Classification de texte (ex : spam, intention)
-
Résumé de texte avec BART et T5
-
Traduction automatique
-
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLM
-
Différences entre modèles discriminatifs et génératifs
-
GPT, Llama : principes, entraînement, performances
-
Introduction au prompting (zero-shot, few-shot)
-
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponses
-
Chargement de Llama via Hugging Face
-
Utilisation de quantization et accélération pour déploiement local
-
Contrôle des sorties par techniques de prompting
-
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligent
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Définition du NLP et historique
Applications : chatbots, résumé, classification, extraction d’informations
Tâches de base en NLP : segmentation, catégorisation, parsing
Problèmes courants : ambiguïté, polysémie, contexte
-
Comparaison NLTK vs spaCy : objectifs et philosophies
-
Installation et structure de spaCy
-
Chargement de modèles linguistiques (fr_core_news_md, en_core_web_sm, etc.)
-
Premiers traitements de texte avec spaCy
Analyse linguistique avec spaCy
-
Tokenisation, lemmatisation, POS tagging
-
Analyse morpho-syntaxique et dépendances
-
Reconnaissance d’entités nommées (NER)
-
Visualisation avec displacy
Vectorisation et extraction d’informations
-
TF-IDF : principe, implémentation avec scikit-learn
-
Word2Vec : introduction aux word embeddings
-
Embeddings contextuels avec spaCy
-
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
-
Présentation de la plateforme Hugging Face
-
Notions de transformer, encoder, decoder
-
Exploration de transformers
, datasets
et tokenizers
-
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînés
-
Présentation de BERT, DistilBERT, RoBERTa, GPT
-
Importation de modèles via from_pretrained()
-
Tokenisation automatique et passage en batch
-
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisés
-
Structuration des datasets : DatasetDict
, load_dataset()
-
Préparation des entrées pour l’apprentissage supervisé
-
Fine-tuning avec Trainer
ou KerasTrainer
-
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec Transformers
-
Classification de texte (ex : spam, intention)
-
Résumé de texte avec BART et T5
-
Traduction automatique
-
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLM
-
Différences entre modèles discriminatifs et génératifs
-
GPT, Llama : principes, entraînement, performances
-
Introduction au prompting (zero-shot, few-shot)
-
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponses
-
Chargement de Llama via Hugging Face
-
Utilisation de quantization et accélération pour déploiement local
-
Contrôle des sorties par techniques de prompting
-
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligent
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Tokenisation, lemmatisation, POS tagging
Analyse morpho-syntaxique et dépendances
Reconnaissance d’entités nommées (NER)
Visualisation avec displacy
-
TF-IDF : principe, implémentation avec scikit-learn
-
Word2Vec : introduction aux word embeddings
-
Embeddings contextuels avec spaCy
-
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
-
Présentation de la plateforme Hugging Face
-
Notions de transformer, encoder, decoder
-
Exploration de
transformers
,datasets
ettokenizers
-
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînés
-
Présentation de BERT, DistilBERT, RoBERTa, GPT
-
Importation de modèles via from_pretrained()
-
Tokenisation automatique et passage en batch
-
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisés
-
Structuration des datasets : DatasetDict
, load_dataset()
-
Préparation des entrées pour l’apprentissage supervisé
-
Fine-tuning avec Trainer
ou KerasTrainer
-
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec Transformers
-
Classification de texte (ex : spam, intention)
-
Résumé de texte avec BART et T5
-
Traduction automatique
-
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLM
-
Différences entre modèles discriminatifs et génératifs
-
GPT, Llama : principes, entraînement, performances
-
Introduction au prompting (zero-shot, few-shot)
-
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponses
-
Chargement de Llama via Hugging Face
-
Utilisation de quantization et accélération pour déploiement local
-
Contrôle des sorties par techniques de prompting
-
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligent
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Présentation de BERT, DistilBERT, RoBERTa, GPT
Importation de modèles via from_pretrained()
Tokenisation automatique et passage en batch
Évaluation rapide sur des tâches classiques (sentiment, NER)
-
Structuration des datasets :
DatasetDict
,load_dataset()
-
Préparation des entrées pour l’apprentissage supervisé
-
Fine-tuning avec
Trainer
ouKerasTrainer
-
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec Transformers
-
Classification de texte (ex : spam, intention)
-
Résumé de texte avec BART et T5
-
Traduction automatique
-
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLM
-
Différences entre modèles discriminatifs et génératifs
-
GPT, Llama : principes, entraînement, performances
-
Introduction au prompting (zero-shot, few-shot)
-
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponses
-
Chargement de Llama via Hugging Face
-
Utilisation de quantization et accélération pour déploiement local
-
Contrôle des sorties par techniques de prompting
-
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligent
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Classification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
-
Différences entre modèles discriminatifs et génératifs
-
GPT, Llama : principes, entraînement, performances
-
Introduction au prompting (zero-shot, few-shot)
-
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponses
-
Chargement de Llama via Hugging Face
-
Utilisation de quantization et accélération pour déploiement local
-
Contrôle des sorties par techniques de prompting
-
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligent
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Chargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
-
Conception d’un flux conversationnel avec un LLM
-
Mémoire conversationnelle, gestion du contexte
-
Structuration des échanges (intention, entités, actions)
-
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectives
-
Intégration des modèles dans une API ou interface web
-
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
-
Évaluation des résultats (précision, fluidité, pertinence)
-
Biais, éthique et futur du NLP
Intégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Méthode pédagogique
8 participants maximum, un poste par stagiaire et un support de cours est remis en fin de stage. La formation est constituée d'apports théoriques, de démonstrations et de mises en pratique basées sur des exercices (méthode démonstrative).
Accessibilité
Cette formation est accessible aux personnes en situation de handicap.
Modalité de validation des acquis
Évaluation continue des connaissances via des exercices et/ou ateliers et des acquis via un questionnaire en fin de formation. Attestation de fin de stage (certificat de réalisation). Émargement quotidien d'une feuille de présence.
Demander des informations
Vous souhaitez en savoir plus ou directement vous inscrire à une session ?
Contactez-nous pour monter votre dossier !

Formations similaires
Ces formations pourraient vous intéresser