NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)

Maîtrisez les fondamentaux du NLP moderne : explorez les bases du traitement du langage naturel, exploitez spaCy pour analyser et structurer les textes, utilisez les puissants modèles de Hugging Face pour vos cas d’usage, déployez des modèles génératifs comme Llama, et développez une application NLP complète en Python, de l’analyse à la génération de texte.

21 heures sur 3 jours

à Paris & à distance
(Zoom, Google Meet, etc.).

2 100 € HT / personne

Etudions ensemble vos options
de financement

Objectifs de la formation

NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)

Identifier les concepts fondamentaux du traitement du langage naturel (NLP).
Utiliser spaCy pour le prétraitement et l’analyse linguistique des textes.
Exploiter la librairie Hugging Face pour utiliser et entraîner des modèles de NLP.
Déployer et optimiser des modèles de génération de texte avec Llama.
Développer une application NLP complète avec Python.

Pré-requis pour suivre cette formation

Maîtrise de Python et de ses bibliothèques standards (NumPy, Pandas) Connaissances de base en machine learning et deep learning Notions en manipulation de texte et en statistiques (souhaité) Environnement Python installé avec spaCy, Hugging Face Transformers et PyTorch/TensorFlow

A qui s'adresse cette formation ?

Développeurs, ingénieurs en IA, data scientists, chercheurs et toute personne souhaitant approfondir ses compétences en NLP.

Formations recommandées

Aucun programme supplémentaire n'est requis pour suivre cette formation.

Au programme de la formation
NLP (Traitement du Langage Naturel) avec Python (spaCy, Hugging Face, Llama)

Fondamentaux du NLP

  • Définition du NLP et historique

  • Applications : chatbots, résumé, classification, extraction d’informations

  • Tâches de base en NLP : segmentation, catégorisation, parsing

  • Problèmes courants : ambiguïté, polysémie, contexte

Écosystème NLP en Python

  • Comparaison NLTK vs spaCy : objectifs et philosophies

  • Installation et structure de spaCy

  • Chargement de modèles linguistiques (fr_core_news_md, en_core_web_sm, etc.)

  • Premiers traitements de texte avec spaCy

Analyse linguistique avec spaCy

  • Tokenisation, lemmatisation, POS tagging

  • Analyse morpho-syntaxique et dépendances

  • Reconnaissance d’entités nommées (NER)

  • Visualisation avec displacy

Vectorisation et extraction d’informations

  • TF-IDF : principe, implémentation avec scikit-learn

  • Word2Vec : introduction aux word embeddings

  • Embeddings contextuels avec spaCy

  • Exercices : extraction d’entités, phrases nominales, analyse grammaticale

Introduction à Hugging Face et aux Transformers

  • Présentation de la plateforme Hugging Face

  • Notions de transformer, encoder, decoder

  • Exploration de transformers, datasets et tokenizers

  • Utilisation de pipelines NLP (sentiment, NER, traduction)

Chargement et évaluation de modèles pré-entraînés

  • Présentation de BERT, DistilBERT, RoBERTa, GPT

  • Importation de modèles via from_pretrained()

  • Tokenisation automatique et passage en batch

  • Évaluation rapide sur des tâches classiques (sentiment, NER)

Fine-tuning sur des jeux de données personnalisés

  • Structuration des datasets : DatasetDict, load_dataset()

  • Préparation des entrées pour l’apprentissage supervisé

  • Fine-tuning avec Trainer ou KerasTrainer

  • Sauvegarde, export et réutilisation du modèle

Cas pratiques de NLP avec Transformers

  • Classification de texte (ex : spam, intention)

  • Résumé de texte avec BART et T5

  • Traduction automatique

  • TP : fine-tuning rapide sur un corpus thématique (juridique, médical, etc.)

Modèles génératifs et LLM

  • Différences entre modèles discriminatifs et génératifs

  • GPT, Llama : principes, entraînement, performances

  • Introduction au prompting (zero-shot, few-shot)

  • Méthodes de génération : sampling, température, nucleus (top-p)

Déploiement et contrôle des réponses

  • Chargement de Llama via Hugging Face

  • Utilisation de quantization et accélération pour déploiement local

  • Contrôle des sorties par techniques de prompting

  • Alignement et ajustement des réponses générées

Construction d’un chatbot intelligent

  • Conception d’un flux conversationnel avec un LLM

  • Mémoire conversationnelle, gestion du contexte

  • Structuration des échanges (intention, entités, actions)

  • Démonstration : création d’un agent conversationnel spécialisé

Application finale et perspectives

  • Intégration des modèles dans une API ou interface web

  • Réalisation d’un mini-projet NLP (chatbot, résumé, analyse)

  • Évaluation des résultats (précision, fluidité, pertinence)

  • Biais, éthique et futur du NLP

Méthode pédagogique

8 participants maximum, un poste par stagiaire et un support de cours est remis en fin de stage. La formation est constituée d'apports théoriques, de démonstrations et de mises en pratique basées sur des exercices (méthode démonstrative).

Accessibilité

Cette formation est accessible aux personnes en situation de handicap.

Modalité de validation des acquis

Évaluation continue des connaissances via des exercices et/ou ateliers et des acquis via un questionnaire en fin de formation. Attestation de fin de stage (certificat de réalisation). Émargement quotidien d'une feuille de présence.

Demander des informations

Vous souhaitez en savoir plus ou directement vous inscrire à une session ?
Contactez-nous pour monter votre dossier !

Aucune session n'est programmée.
Contactez-nous pour définir librement vos propres dates
Demander le programme
S'inscrire directement

Responsable de formation

Participants

Participant
x
Ajouter un participant

Financement

Comment souhaitez-vous financer cette formation ?


Modalités

Souhaitez-vous du distanciel ou du présentiel ?



Envoyer l'inscription
Merci, un conseiller vous contacte rapidement !
deco validation Ziggourat

Formations similaires

Ces formations pourraient vous intéresser

Voir d'autres formations
Voir d'autres formations