Programme de la formation
- Rappel du fonctionnement des Transformers (mécanisme d’attention, encodage/décodage).
- Présentation de modèles majeurs : BERT, GPT, T5, Mistral, et leurs spécificités.
- Schématisation de l’entraînement : prétraining, fine-tuning, RLHF, et volumes de données utilisés.
- Analyse des forces et faiblesses (hallucinations, biais, coût d’inférence).
- Cas d’usage en assurance : traitement de formulaires, génération de rapports, classification de documents.
- Aperçu des interfaces courantes (ChatGPT, Google Bard) et de la configuration de base (température, tokens).
- Gestion de la confidentialité : comment protéger les données lors de l’utilisation de LLM externes.
- Retours d’expérience sur la mise en œuvre en entreprise : bonnes pratiques et pièges courants.
- Mise en perspective réglementaire : RGPD, stockage de données, accès aux logs.
- Discussion sur l’évolution à venir : modèles open source, spécialisations sectorielles.