NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
21 heures sur 3 jours
à Paris & à distance
(Zoom, Google Meet, etc.).
2 100 € HT / personne
Etudions ensemble vos options
de financement
Objectifs de la formation
NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
Identifier les concepts fondamentaux du traitement du langage naturel (NLP).
Utiliser spaCy pour le prétraitement et l’analyse linguistique des textes.
Exploiter la librairie Hugging Face pour utiliser et entraîner des modèles de NLP.
Déployer et optimiser des modèles de génération de texte avec Llama.
Développer une application NLP complète avec Python.
Pré-requis pour suivre cette formation
Maîtrise de Python et de ses bibliothèques standards (NumPy, Pandas) Connaissances de base en machine learning et deep learning Notions en manipulation de texte et en statistiques (souhaité) Environnement Python installé avec spaCy, Hugging Face Transformers et PyTorch/TensorFlow
A qui s'adresse cette formation ?
Développeurs, ingénieurs en IA, data scientists, chercheurs et toute personne souhaitant approfondir ses compétences en NLP.
Formations recommandées
Aucun programme supplémentaire n'est requis pour suivre cette formation.
Au programme de la formation
NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)
Fondamentaux du NLPDéfinition du NLP et historique
Applications : chatbots, résumé, classification, extraction d’informations
Tâches de base en NLP : segmentation, catégorisation, parsing
Problèmes courants : ambiguïté, polysémie, contexte
Écosystème NLP en PythonComparaison NLTK vs spaCy : objectifs et philosophies
Installation et structure de spaCy
Chargement de modèles linguistiques (fr_core_news_md, en_core_web_sm, etc.)
Premiers traitements de texte avec spaCy
Analyse linguistique avec spaCyTokenisation, lemmatisation, POS tagging
Analyse morpho-syntaxique et dépendances
Reconnaissance d’entités nommées (NER)
Visualisation avec displacy
Vectorisation et extraction d’informationsTF-IDF : principe, implémentation avec scikit-learn
Word2Vec : introduction aux word embeddings
Embeddings contextuels avec spaCy
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
Présentation de la plateforme Hugging Face
Notions de transformer, encoder, decoder
Exploration de transformers
, datasets
et tokenizers
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînésPrésentation de BERT, DistilBERT, RoBERTa, GPT
Importation de modèles via from_pretrained()
Tokenisation automatique et passage en batch
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisésStructuration des datasets : DatasetDict
, load_dataset()
Préparation des entrées pour l’apprentissage supervisé
Fine-tuning avec Trainer
ou KerasTrainer
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec TransformersClassification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLMDifférences entre modèles discriminatifs et génératifs
GPT, Llama : principes, entraînement, performances
Introduction au prompting (zero-shot, few-shot)
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponsesChargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligentConception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Définition du NLP et historique
Applications : chatbots, résumé, classification, extraction d’informations
Tâches de base en NLP : segmentation, catégorisation, parsing
Problèmes courants : ambiguïté, polysémie, contexte
Comparaison NLTK vs spaCy : objectifs et philosophies
Installation et structure de spaCy
Chargement de modèles linguistiques (fr_core_news_md, en_core_web_sm, etc.)
Premiers traitements de texte avec spaCy
Analyse linguistique avec spaCyTokenisation, lemmatisation, POS tagging
Analyse morpho-syntaxique et dépendances
Reconnaissance d’entités nommées (NER)
Visualisation avec displacy
Vectorisation et extraction d’informationsTF-IDF : principe, implémentation avec scikit-learn
Word2Vec : introduction aux word embeddings
Embeddings contextuels avec spaCy
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
Présentation de la plateforme Hugging Face
Notions de transformer, encoder, decoder
Exploration de transformers
, datasets
et tokenizers
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînésPrésentation de BERT, DistilBERT, RoBERTa, GPT
Importation de modèles via from_pretrained()
Tokenisation automatique et passage en batch
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisésStructuration des datasets : DatasetDict
, load_dataset()
Préparation des entrées pour l’apprentissage supervisé
Fine-tuning avec Trainer
ou KerasTrainer
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec TransformersClassification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLMDifférences entre modèles discriminatifs et génératifs
GPT, Llama : principes, entraînement, performances
Introduction au prompting (zero-shot, few-shot)
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponsesChargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligentConception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Tokenisation, lemmatisation, POS tagging
Analyse morpho-syntaxique et dépendances
Reconnaissance d’entités nommées (NER)
Visualisation avec displacy
TF-IDF : principe, implémentation avec scikit-learn
Word2Vec : introduction aux word embeddings
Embeddings contextuels avec spaCy
Exercices : extraction d’entités, phrases nominales, analyse grammaticale
Introduction à Hugging Face et aux Transformers
Présentation de la plateforme Hugging Face
Notions de transformer, encoder, decoder
Exploration de
transformers
,datasets
ettokenizers
Utilisation de pipelines NLP (sentiment, NER, traduction)
Chargement et évaluation de modèles pré-entraînésPrésentation de BERT, DistilBERT, RoBERTa, GPT
Importation de modèles via from_pretrained()
Tokenisation automatique et passage en batch
Évaluation rapide sur des tâches classiques (sentiment, NER)
Fine-tuning sur des jeux de données personnalisésStructuration des datasets : DatasetDict
, load_dataset()
Préparation des entrées pour l’apprentissage supervisé
Fine-tuning avec Trainer
ou KerasTrainer
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec TransformersClassification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLMDifférences entre modèles discriminatifs et génératifs
GPT, Llama : principes, entraînement, performances
Introduction au prompting (zero-shot, few-shot)
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponsesChargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligentConception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Présentation de BERT, DistilBERT, RoBERTa, GPT
Importation de modèles via from_pretrained()
Tokenisation automatique et passage en batch
Évaluation rapide sur des tâches classiques (sentiment, NER)
Structuration des datasets :
DatasetDict
,load_dataset()
Préparation des entrées pour l’apprentissage supervisé
Fine-tuning avec
Trainer
ouKerasTrainer
Sauvegarde, export et réutilisation du modèle
Cas pratiques de NLP avec TransformersClassification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Modèles génératifs et LLMDifférences entre modèles discriminatifs et génératifs
GPT, Llama : principes, entraînement, performances
Introduction au prompting (zero-shot, few-shot)
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponsesChargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligentConception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Classification de texte (ex : spam, intention)
Résumé de texte avec BART et T5
Traduction automatique
TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)
Différences entre modèles discriminatifs et génératifs
GPT, Llama : principes, entraînement, performances
Introduction au prompting (zero-shot, few-shot)
Méthodes de génération : sampling, température, nucleus (top-p)
Déploiement et contrôle des réponsesChargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Construction d’un chatbot intelligentConception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Chargement de Llama via Hugging Face
Utilisation de quantization et accélération pour déploiement local
Contrôle des sorties par techniques de prompting
Alignement et ajustement des réponses générées
Conception d’un flux conversationnel avec un LLM
Mémoire conversationnelle, gestion du contexte
Structuration des échanges (intention, entités, actions)
Démonstration : création d’un agent conversationnel spécialisé
Application finale et perspectivesIntégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Intégration des modèles dans une API ou interface web
Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)
Évaluation des résultats (précision, fluidité, pertinence)
Biais, éthique et futur du NLP
Méthode pédagogique
8 participants maximum, un poste par stagiaire et un support de cours est remis en fin de stage. La formation est constituée d'apports théoriques, de démonstrations et de mises en pratique basées sur des exercices (méthode démonstrative).
Accessibilité
Cette formation est accessible aux personnes en situation de handicap.
Modalité de validation des acquis
Évaluation continue des connaissances via des exercices et/ou ateliers et des acquis via un questionnaire en fin de formation. Attestation de fin de stage (certificat de réalisation). Émargement quotidien d'une feuille de présence.
Demander des informations
Vous souhaitez en savoir plus ou directement vous inscrire à une session ?
Contactez-nous pour monter votre dossier !

Formations similaires
Ces formations pourraient vous intéresser