Fine-tuning et Personnalisation de Modèles Génératifs

Dernière mise à jour le 26 février 2025

Programme de la formation

  • Rappel de la notion de fine-tuning : différences entre prompt engineering, LoRA, et full fine-tuning.
  • Tour d’horizon des librairies (Hugging Face, PyTorch Lightning) et modèles compatibles.
  • Préparation du dataset : collecte, nettoyage, segmentation, balance des classes (si classification).
  • Paramètres clés (learning rate, batch size) et gestion du sur-apprentissage ou de l’underfitting.
  • Mise en œuvre pratique : démonstration pas à pas d’un fine-tuning sur GPT-3.5 via l’API OpenAI ou sur un modèle open source.
  • Évaluation des performances : perplexité, F1, BLEU, selon la tâche visée (génération ou QA).
  • Retour d’expériences sur les coûts (GPU/TPU), temps de calcul, pilotage de budget.
  • Point sur la maintenance d’un modèle personnalisé (mises à jour, validation continue).
  • Cas d’usage dans l’assurance : ajuster un modèle à la terminologie métier, l’historique de sinistres, la FAQ interne.
  • Discussion : quand privilégier le fine-tuning vs RAG ou prompt engineering pour les besoins métiers.

 

Dernière date
Inscription possible jusqu'à la veille de la formation 16h (hors weekend et jour férié)

Date à programmer, dès inscription.

Merci de contacter info@caritat.fr pour toute inscription.

Prix
  • 500 € HT
  • TVA 20%
  • 600 € TTC
Lieu

TEAMS, En distanciel, via application

Durée

2 heures

Programme adaptable,
sur-mesure

Notre formateur

Kezhan SHI

Il est diplômé de l'École Centrale Paris et titulaire d'un master en actuariat de l'Université Paris Dauphine. Il a travaillé chez Axa Global Direct et Allianz, avant de rejoindre Diot Siaci en 2022, au titre de Directeur adjoint Data Science.

Points clés

À qui s’adresse cette formation ?

Aux data scientists, data engineers et développeurs impliqués dans la personnalisation de modèles IA pour le domaine assurance.

Pour obtenir quoi ?

La connaissance des étapes essentielles pour adapter un LLM à un corpus métier et mesurer la qualité des résultats.

Quels sont les objectifs pédagogiques ?

Savoir planifier et réaliser un projet de fine-tuning, depuis la collecte des données jusqu’à la mise en production.

Quelles méthodes mobilisées ?

Exposé technique, démonstrations en environnement de notebook (Colab) et échanges sur la faisabilité opérationnelle.

Quels sont les prérequis ?

Bases de programmation Python et connaissance des principes de l’apprentissage supervisé.

Quelles modalités d’évaluation ?

Une évaluation des acquis des objectifs sera réalisée durant la formation.

 

Inscrivez-vous à notre newsletter

Pour recevoir toutes les dernières informations