XP0
Solo
// Bienvenue dans kAIros

Dans la course à l'IA,
prendre du recul, c'est prendre de l'avance.

⏱ Première leçon : 3 min

Depuis le déploiement du premier modèle ChatGPT en novembre 2022, les innovations IA grand public se succèdent à un rythme insoutenable, qui nous laisse souvent dans une crainte latente de manquer l'opportunité, la nouveauté qui change tout. On appelle ça la FOMO.

De l'expert auto-proclamé parce qu'il a « débattu avec ChatGPT » au consultant qui facture des milliers d'euros pour un rapport truffé d'hallucinations, tous sont victimes de ce sentiment d'urgence qui nous prive du recul nécessaire à un usage pertinent.

Vous ne gagnerez pas la course à la dernière IA,
mais vous pouvez être celui qui la comprend le mieux.
Cette micro-formation est destinée aux 99 % d'entre nous qui, sans prétention technique, gagneront à avoir une idée claire des rouages et des mécaniques à l'œuvre.

Entre les ayatollahs du transhumanisme et ceux qui pensent que l'IA n'est qu'un programme stupide qui « devine le mot suivant », faites un pas de côté. Soyez le juste milieu.
C'est le moment.

Bienvenue dans kAIros
0
Points XP
0
Leçons terminées
39
Au total
Rang : Apprenti
Modules du parcours
00
Ce qui se passe quand vous promptez
LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs., tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., prédiction, hallucinationsPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi., faux raisonnement, stochasticité, RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. vs fine-tuningRéentraînement d'un modèle existant sur des données spécifiques. Coûte 100 à 10 000 fois moins que l'entraînement complet., modèle vs produit — le module fondateur complet.
LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs.TokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.ÉmergenceRAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération.Fine-tuningRéentraînement d'un modèle existant sur des données spécifiques. Coûte 100 à 10 000 fois moins que l'entraînement complet.
0 / 10 leçons
~20 min
01
Comment une machine apprend
Neurones, gradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur., réseaux profonds, TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle., scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul. — les mécanismes complets qui sous-tendent tous les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. modernes.
Réseaux profondsGradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur.TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle.Scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul.
0 / 7 leçons
~20 min
02
L'art du prompt
Persona, contexte, exemples, chaîne de pensée — les techniques qui font la différence entre une IA médiocre et une IA redoutable.
PromptingFew-shotChain-of-thoughtAPI
0 / 6 leçons
~12 min
03
IA en entreprise — usages & limites
RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération., agents, automatisation, risques — ce que l'IA fait réellement en entreprise aujourd'hui et comment l'évaluer en manager.
RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération.AgentsSecteursRisques
0 / 6 leçons
~12 min
04
IA générative — images, sons, vidéos
Diffusion, embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace., CLIPModèle d'OpenAI (2021) entraîné sur 400 millions de paires image-texte. Permet la génération d'image guidée par texte. — comprendre comment l'IA génère des images et pourquoi c'est fondamentalement différent des LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs..
DiffusionEmbeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace.Génératif
0 / 5 leçons
~10 min
05
Éthique, biais & futur de l'IA
Biais dans les modèles, RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle., EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque., AGI — les enjeux éthiques et réglementaires que tout manager doit maîtriser.
ÉthiqueEU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque.BiaisRLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle.
0 / 5 leçons
~10 min
06
Évaluer et choisir un modèle
Benchmarks, open-source vs propriétaire, coût en production, confidentialité des données.
DécisionCoûtConfidentialité
0 / 5 leçons
~12 min
07
Concevoir un cas d'usage IA
Volume vs jugement, cahier des charges, ROI réaliste, pièges classiques du premier projet.
MéthodeROIStratégie
0 / 5 leçons
~12 min
Progression globale du parcours
0 / 8 modules complétés
Module 00 / 1 sur 10

Vous avez déjà utilisé l'IA

Introduction+15 XP⏱ 3 min

Vous avez demandé à ChatGPT de reformuler un email, à Gemini de résumer un document, à Copilot de finir une phrase. Vous avez donc déjà utilisé un grand modèle de langageRéseau de neurones entraîné sur des centaines de milliards de mots pour prédire le token suivant. À partir d'une certaine taille, des capacités inattendues émergent spontanément. GPT-5, Claude, Gemini, Llama et Mistral sont des grands modèles de langage., probablement sans vous demander ce qui se passait réellement de l'autre côté de l'interface.

Ces outils sont conçus pour être fluides, presque transparents. Mais cette fluidité masque des mécanismes précis, et les comprendre change assez profondément la façon dont on s'en sert, et dont on évalue ce qu'ils peuvent ou non faire pour nous.

Ce parcours n'a pas pour ambition de vous transformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle. en ingénieur. Il cherche à vous donner l'intuition juste de ce qui se passe — pour décider avec discernement, déléguer à bon escient, et ne plus être surpris quand une IA dit une bêtise avec beaucoup de confiance.
Questionnaire — Où en êtes-vous avec l'IA ?
🎯
Auto-positionnement
5 questions pour calibrer votre parcours
+15 XP
1. Comment décririez-vous votre usage actuel de l'IA ?
2. Qu'est-ce qu'un token, pour vous ?
3. Avez-vous déjà écrit un system prompt ?
4. Quelle est votre principale motivation pour cette formation ?
5. Qu'est-ce qui vous rendrait le plus mal à l'aise avec l'IA au travail ?
Module 00 / 2 sur 10

Le modèle fait semblant de raisonner

Concept critique+20 XP⏱ 5 min

Un grand modèle de langage peut défendre une thèse, commenter un arrêt de tribunal ou expliquer la relativité. De l'extérieur, ça ressemble à du raisonnement. Mais ce n'en est pas.

Ce que produit le modèle ressemble au raisonnement humain parce qu'il en a ingéré des quantités massives pendant son entraînement. Il a appris à en imiter la forme. Ce qui trahit l'absence de raisonnement réel, c'est ce qui se passe dès qu'on lui demande d'opérer sur les lettres individuelles, des unités que son système de tokenisation ne lui permet pas de voir.

Le test le plus simple : demandez-lui de soutenir une conversation en écrivant chaque message à l'envers lettre par lettre. Envoyez-lui ce message d'amorce :

Expérience — Conversation à l'envers
🔄
Discutez à l'envers avec votre LLM
Copiez l'amorce, observez, puis collez sa réponse pour la décoder
+20 XP
ÉTAPE 1 — Envoyez ce message à votre LLM
Amorce à copier-coller
? neib xuev ut ,srevne'l à snotucsiD
= "Discutons à l'envers, tu veux bien ?" écrit lettre par lettre à l'envers
ÉTAPE 2 — Collez la réponse du LLM ici
Un humain concentré peut tenir cette conversation — ça demande juste de l'attention. Un LLM sophistiqué échoue dès les premières phrases, parce qu'il prédit ce qui vient après, jamais ce qui vient avant.
EN REVANCHE — 3 lignes de Python suffisent
Code Python
texte = "Discutons à l'envers, tu veux bien ?"
inverse = texte[::-1]
print(inverse)  # ? neib xuev ut ,srevne'l à snotucsiD
Ce programme sans aucune connaissance du monde réussit instantanément ce que le modèle le plus puissant ne peut pas faire seul — parce qu'il a simplement accès à chaque caractère individuellement.
Module 00 / 3 sur 10

Que fait vraiment le modèle ?

Concept clé+20 XP

Un grand modèle de langageRéseau de neurones entraîné sur des centaines de milliards de mots pour prédire le token suivant. À partir d'une certaine taille, des capacités inattendues émergent spontanément. GPT-5, Claude, Gemini, Llama et Mistral sont des grands modèles de langage. fait essentiellement une chose : prédire le tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. suivant. Pendant son entraînement, il a ingéré des centaines de milliards de mots et appris, à chaque position dans un texte, quel fragment venait le plus probablement après. Cette opération, répétée des milliards de fois sur des données massives, est à l'origine de tout ce que ces modèles savent faire.

Trois idées fausses circulent à son sujet, et il vaut la peine de les nommer clairement.

"Il cherche sur Internet" : un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. de base n'a aucun accès au réseau. Il utilise uniquement ce qu'il a appris lors de son entraînement. Certains produits ajoutent une couche de recherche web par-dessus, mais c'est une fonction distincte du modèle lui-même.

"Il comprend comme un humain" : il n'a pas de compréhension consciente. Ce qu'il fait ressemble si précisément à de la compréhension que la confusion est naturelle, mais il s'agit de reconnaissance de patterns statistiques, pas d'intentionnalité.

"Il a toujours raison" : puisqu'il génère ce qui est statistiquement probable, il peut être fluide, assuré et factuellement faux simultanément. La confiance du ton ne dit rien de la véracité du contenu.

Quand vous interrogez un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs., vous ne consultez pas une encyclopédie mise à jour. Vous activez un générateur de texte très sophistiqué. Pour tout fait important, la vérification reste de votre ressort.
Le paradoxe des capacités émergentes. Si le modèle ne fait que prédire des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., comment peut-il traduire vers le finnois, écrire du Python ou expliquer l'inflation ? Ces compétences n'ont jamais été explicitement enseignées — elles ont émergé spontanément au-delà d'un certain seuil de taille. On les appelle propriétés émergentesCapacités qui apparaissent spontanément dans un LLM au-delà d'un certain seuil de taille, sans avoir été explicitement entraînées. : des aptitudes qui apparaissent brusquement à partir d'une certaine échelle, sans qu'on les ait programmées. La prédiction de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., pratiquée à très grande échelle, engendre quelque chose que personne n'avait planifié.
Simulation — Génération token par token
Observez la génération en direct
Le modèle prédit un token à la fois — regardez comment
+20 XP
PROMPT D'ENTRÉE
La capitale de la France est
TOKENS GÉNÉRÉS
En attente...
Le modèle ne "sait" pas ce qu'il va écrire à l'avance. Il choisit chaque token selon une distribution de probabilités calculée sur tout le contexte précédent.
Vous avez atteint la limite de l'accès gratuit.
Module 00 / 4 sur 10

TokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. et embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. — comment la machine lit

Concept + Pratique+20 XP

Un grand modèle de langageRéseau de neurones entraîné sur des centaines de milliards de mots pour prédire le token suivant. À partir d'une certaine taille, des capacités inattendues émergent spontanément. GPT-5, Claude, Gemini, Llama et Mistral sont des grands modèles de langage. ne lit pas votre texte mot par mot. Il le découpe d'abord en tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., des fragments qui peuvent être des mots entiers, des syllabes, ou de simples morceaux de mots. Puis il travaille sur cette séquence de fragments. Son vocabulaire est fixe, de l'ordre de cinquante mille tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens..

"Bonjour" tient en un seul tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.. "Anticonstitutionnellement" en requiert plusieurs. Les emojis et les mots rares génèrent souvent plus de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. qu'on ne l'anticipe — ce qui a une importance pratique, puisque les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. sont facturés à la consommation de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., à l'entrée comme à la sortie.
Visualisation — Tokenisez
🔬
Découpez une phrase en tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
Chaque couleur = un tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
+20 XP
Cliquez sur un exemple ci-dessous (ou tapez votre propre phrase) pour voir comment un LLM découpe le texte. Chaque bloc coloré est un token, l’unité que le modèle manipule réellement. Observez : certains mots sont découpés en plusieurs morceaux, les chiffres sont fragmentés, les émojis comptent pour plusieurs tokens. C’est ainsi qu’un LLM "lit" votre texte.
← Cliquez un exemple
Pour en savoir plus — Sennrich et al., "Neural Machine Translation with BPE" (arXiv) — tokenisation BPE
Les tokens deviennent des vecteurs

Un modèle ne travaille pas sur le texte. Une fois la phrase découpée en tokens, chaque token est transformé en un vecteur (une liste de nombres) dans un espace à plusieurs milliers de dimensions. Cet espace n’est pas arbitraire : pendant l’entraînement, le modèle apprend à positionner les tokens de telle sorte que la proximité géométrique reflète la proximité de sens.

Conséquence contre-intuitive : deux mots qui ne partagent aucune lettre peuvent être quasiment au même endroit dans l’espace vectoriel, et deux mots qui se ressemblent visuellement peuvent être très loin. C’est cette représentation, et non le texte littéral, que le modèle manipule à chaque étape.

Exercice — Mesurez la proximité de sens
📐
Proximité vectorielle
Sélectionnez deux mots : la distance dans l’espace s’affiche
+20 XP
Sept mots sont placés dans un espace à 2 dimensions. Les coordonnées ont été ajustées pour refléter ce qu’un modèle de langage apprend pendant son entraînement : la position dans cet espace reflète le sens du mot, pas sa forme. Cliquez sur deux mots pour voir la distance entre eux.
Cliquez un premier mot…
Module 00 / 5 sur 10

Prédire le mot suivant

Simulation+25 XP

À chaque position dans un texte, le modèle calcule une distribution de probabilités sur l'ensemble de son vocabulaire, puis tire un tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. selon cette distribution. Le paramètre qu'on appelle températureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables. règle l'amplitude de ce tirage : basse, elle concentre les probabilités sur les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. les plus probables et rend le modèle prévisible ; haute, elle les étale et ouvre la porte à des sorties plus créatives, parfois surprenantes, parfois incohérentes.

Simulation — Probabilités & températureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables.
🎲
Visualisez la distribution
Choisissez un contexte, ajustez la températureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables.
+25 XP
← Sélectionnez un contexte
TempératureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables. : 0.70 = précis · 2 = créatif
TokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. sélectionné
Pour en savoir plus — Vaswani et al., "Attention Is All You Need" (2017, arXiv) — softmax & distribution de probabilités
Module 00 / 6 sur 10

Contexte & fenêtre de mémoire

Concept + Pratique+20 XP

Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. n'a pas de mémoire au sens courant du terme. À chaque génération, il relit l'intégralité de la conversation depuis le début. Sa fenêtre de contexteQuantité maximale de texte qu'un LLM peut traiter en une seule fois. Au-delà, il ignore le reste. Les modèles modernes gèrent souvent plus de 100 000 tokens, soit la taille d'un roman. est la quantité maximale de texte qu'il peut traiter en une seule fois ; au-delà, il coupe simplement.

Les modèles récents disposent de fenêtres de 100 000 à 1 million de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., soit à peu près la taille d'un roman. Mais une fenêtre longue a un coût : le traitement est plus lourd, et les études montrent que les modèles perdent en précision sur les informations placées au milieu d'un très long contexte, un phénomène surnommé "lost in the middle".

Commencer une nouvelle conversation, c'est donner au modèle une page blanche. Il n'a aucun souvenir de vos échanges précédents, sauf si vous les lui réinjectez explicitement.
Exercice — Ordre de la fenêtre de contexteQuantité maximale de texte qu'un LLM peut traiter en une seule fois. Au-delà, il ignore le reste. Les modèles modernes gèrent souvent plus de 100 000 tokens, soit la taille d'un roman.
🪟
Reconstituez l'ordre
Touchez une carte, puis touchez la case cible
+20 XP
👆 Tapez une carte pour la sélectionner, puis tapez la case où la placer.
Prompt système
Historique conversation
Message actuel
1
Premier lu par le modèle…
2
Deuxième…
3
Dernier (le plus récent)…
Pour en savoir plus — Liu et al., "Lost in the Middle: How LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. Use Long Contexts" (2023, arXiv)
Simulation — La fenêtre se remplit
📏
Observez la consommation du contexte
SYSTÈMETu es un assistant pédagogique. Réponds en français, de façon concise.

← Envoyez un message pour voir la fenêtre se construire
Contexte utilisé12%
Module 00 / 7 sur 10

Pourquoi ça hallucine

Exercice critique+30 XP

Une hallucinationPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi., c'est quand un modèle produit une information fausse avec le même aplomb que s'il disait quelque chose de vrai. Il s'agit d'une conséquence directe de son fonctionnement, pas d'un dysfonctionnement.

Le modèle génère le tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. statistiquement le plus probable. Si la suite la plus probable est factuellement inexacte (parce que cette inexactitude était fréquente dans ses données, ou parce que le fait réel y était rare), il la génère quand même, sans la moindre hésitation. Les domaines les plus exposés sont les faits récents (au-delà de sa date de coupure), les chiffres précis, les références spécifiques comme les citations ou les URLs, et les informations rares ou spécialisées.

⚔ La règle à retenir : un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. est très fiable pour reformuler, synthétiser, générer des ébauches. Il est peu fiable pour certifier un fait précis. Ces deux usages appellent deux postures différentes.
Exercice — Fiable ou à vérifier ?
🔍
Classez ces types de demandes
Touchez une carte, puis la colonne cible
+30 XP
👆 Sélectionnez une carte, puis tapez la colonne où la placer.
Reformuler un email
Citer des statistiques
Structurer un plan
Citer un article de loi
Brainstormer
Trouver une URL
Traduire un texte
Cours d'une action
✓ Faible risque
⚠ À vérifier
Pour en savoir plus — Huang et al., "Survey on HallucinationPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi. in LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs." (2023, arXiv) — causes et taxonomie
Module 00 / 8 sur 10

Le modèle n'est pas une calculatrice — il est non-déterministe

Implications pratiques+20 XP⏱ 4 min

Posez la même question deux fois au même modèle. Vous obtiendrez deux réponses différentes. Cette instabilité vient directement du mécanisme de génération lui-même.

À chaque étape, le modèle ne choisit pas le tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. le plus probable de façon déterministe. Il effectue un tirage selon une distribution de probabilités. La températureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables. règle l'amplitude de ce tirage, mais même réglée au minimum, une part d'aléatoire subsiste. Le paramètre seed, disponible via l'API, permet de fixer la graine du générateur aléatoire et d'obtenir des réponses reproductibles, tant qu'on utilise la même version du modèle.

Pour les workflows d'entreprise, cela a une implication concrète : vous ne pouvez pas "reproduire" un résultat IA comme vous reproduiriez le résultat d'une formule Excel. Si une sortie du modèle est utilisée dans une décision, elle doit être documentée au moment où elle est produite.
Comment les produits gèrent cet aléatoire.

Les interfaces grand public masquent la stochasticité à l'utilisateur. En coulisse, certains systèmes génèrent plusieurs réponses candidates et sélectionnent la meilleure selon un modèle de récompense. D'autres abaissent la températureParamètre qui règle l'amplitude de l'aléatoire lors de la génération. Basse (proche de 0) : réponses prévisibles. Haute (proche de 1) : réponses créatives mais moins stables. pour les tâches de précision et l'élèvent pour les tâches créatives. L'aléatoire n'est pas supprimé — il est piloté.
Exercice — Déterministe ou stochastique ?
🎲
Classez ces systèmes
Touchez une carte, puis la colonne cible
+20 XP
👆 Sélectionnez un système, puis tapez la colonne.
Calculatrice
LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. (temperature > 0)
Requête SQL sur une base
Générateur d'images IA
Algorithme de tri
LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. (temperature = 0, seed fixé)
⚙ Déterministe
🎲 Stochastique
Pour en savoir plus — Ouyang et al., "Aligning Language Models to Follow Instructions" (2022) — contrôle du comportement des LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs.
Module 00 / 9 sur 10

Trois façons de spécialiser un modèle

Décision stratégique+25 XP⏱ 5 min

La question arrive tôt ou tard dans toute organisation qui s'intéresse à l'IA : peut-on entraîner un modèle sur nos propres données ? La réponse est oui, mais selon trois approches très différentes, dont les coûts, les délais et les propriétés ne sont pas interchangeables.

Le prompt engineering consiste à guider le modèle existant par la rédaction des instructions. Coût nul, résultats immédiats. La limite est simple : tout ce que le modèle doit savoir doit tenir dans la fenêtre de contexteQuantité maximale de texte qu'un LLM peut traiter en une seule fois. Au-delà, il ignore le reste. Les modèles modernes gèrent souvent plus de 100 000 tokens, soit la taille d'un roman. à chaque appel. Cela constitue le bon point de départ pour explorer un cas d'usage avant d'investir davantage.

Le RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. (Retrieval-Augmented Generation) indexe vos documents dans une base vectorielle. À chaque question, les passages pertinents sont récupérés et injectés dans le contexte du modèle. Vos données restent à jour sans réentraîner quoi que ce soit. Cette architecture se trouve derrière la quasi-totalité des chatbots documentaires en entreprise aujourd'hui.

Le fine-tuningRéentraînement d'un modèle existant sur des données spécifiques. Coûte 100 à 10 000 fois moins que l'entraînement complet. consiste à réentraîner le modèle (ou ses couches finales) sur vos propres données. Il absorbe votre terminologie, votre style, vos règles métier. Les performances sur la tâche cible peuvent être nettement supérieures, mais le coût est élevé et les données d'entraînement deviennent obsolètes avec le temps.

⚔ La règle : commencez par le prompt engineering. Si les résultats sont insuffisants et vos données changent régulièrement, passez au RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération.. Si vos données sont stables et que vous avez besoin d'une cohérence stylistique forte, envisagez le fine-tuningRéentraînement d'un modèle existant sur des données spécifiques. Coûte 100 à 10 000 fois moins que l'entraînement complet.. Ne brûlez pas les étapes.
Un modèle fine-tuné sur vos données conserve toutes les limites du modèle de base. Il n'est pas immunisé contre les hallucinationsPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi. — il peut même en développer de nouvelles, propres à vos données, si celles-ci contiennent des inexactitudes.
Exercice — Quelle approche pour quel cas ?
🎯
Choisissez la bonne stratégie
Touchez un cas, puis la stratégie recommandée
+25 XP
👆 Sélectionnez un cas d'usage, puis tapez la stratégie appropriée.
Chatbot RH répondant sur la convention collective (mise à jour trimestrielle)
Modèle qui génère des emails dans le ton exact de votre marque (corpus stable)
Prototype rapide pour tester si l'IA peut résumer vos appels commerciaux
RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. — documents indexés, réponses toujours à jour
Fine-tuningRéentraînement d'un modèle existant sur des données spécifiques. Coûte 100 à 10 000 fois moins que l'entraînement complet. — le modèle absorbe le style durablement
Prompt engineering — test immédiat, zéro infrastructure
Pour en savoir plus — Lewis et al., "Retrieval-Augmented Generation" (2020, arXiv)
Module 00 / 10 sur 10

Modèle vs Produit — ce que vous utilisez vraiment

Compréhension système+25 XP⏱ 4 min

Quand vous utilisez ChatGPT, Claude ou Copilot, vous n'interagissez pas avec un modèle à l'état brut. Vous interagissez avec un produit, une couche applicative construite sur le modèle, qui en modifie profondément le comportement.

Cette couche est composée de plusieurs éléments. Le system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. de l'opérateur est un ensemble d'instructions envoyées en amont de chaque conversation, invisibles pour l'utilisateur, mais déterminantes pour le comportement du modèle : rôle, ton, périmètre autorisé, règles de refus. ChatGPT, Claude.ai et Bing Chat reposent parfois sur les mêmes modèles sous-jacents, mais leurs system promptsInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. sont très différents, ce qui explique des comportements en apparence incomparables.

À cela s'ajoutent des filtres de sécurité qui opèrent en entrée et en sortie, et les effets de l'alignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent. par renforcement (RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle.) : le modèle brut a été ajusté à partir de préférences humaines pour être plus utile, plus prudent, et moins susceptible de produire du contenu problématique.

Un même modèle appelé via l'API sans system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. et utilisé via ChatGPT peut se comporter de façon très différente sur les mêmes prompts. Ce n'est pas le modèle qui change — c'est l'enveloppe applicative.
Si votre organisation déploie un modèle en interne, elle devient l'opérateur. Elle est alors responsable du system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur., des guardrailsFiltres de modération appliqués en entrée et en sortie d'un LLM. Bloquent ou modifient les requêtes problématiques., et de tout comportement inattendu qui en résulte — y compris vis-à-vis du droit applicable.
Simulation — Construisez un system prompt
⚙️
Configurez votre propre assistant
Observez comment le system prompt change le comportement
+25 XP
SYSTEM PROMPT
Sélectionnez un profil pour voir le system prompt correspondant.
Module 01 / 1 sur 7

Qu'est-ce qu'apprendre ?

Fondamental+20 XP

Vous savez maintenant qu'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. prédit des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.. Mais comment un programme vierge devient-il capable de le faire ? Comment passe-t-on d'un tableau de nombres aléatoires à quelque chose qui semble comprendre ?

Un enfant apprend à reconnaître un chat en voyant des centaines de chats dans des contextes variés, sans qu'on lui ait fourni de définition formelle. Une machine apprend de la même façon : en ajustant progressivement ses paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. internes pour devenir meilleure sur une tâche, à partir d'exemples. Ce processus s'appelle l'entraînement. Le modèle fait une prédiction, mesure son erreur, se corrige. Des millions de fois, jusqu'à ce que les erreurs deviennent suffisamment rares.

Exercice — Apprentissage ou règles ?
🎯
Classez ces systèmes
Touchez une carte, puis la colonne cible
+20 XP
👆 Sélectionnez une carte, puis tapez la colonne.
Filtre anti-spam
Calculatrice
Recommandations Netflix
Calcul de TVA
Reconnaissance faciale
Réveil auto
🤖 Apprentissage
⚙️ Règles codées
Pour en savoir plus — LeCun, Bengio & Hinton, "Deep Learning" (2015, Nature) — fondements de l'apprentissage machine
Module 01 / 2 sur 7

Le neurone artificiel

Simulation+25 XP

Un neurone artificiel est la brique élémentaire de tout réseau. Il reçoit plusieurs valeurs en entrée, les pondère selon des poids ajustables, additionne le tout, et décide s'il s'active selon un seuil.

La formule est simple : sortie = 1 si Σ(xᵢ × wᵢ) ≥ seuil. Ce qui rend les réseaux puissants, ce n'est pas la sophistication de chaque neurone — c'est la mise en réseau de milliers, puis de milliards d'entre eux.
Simulation — Jouez avec un neurone
Neurone interactif
Activez des entrées, ajustez les poids
+25 XP
x₁
w₁=0.6
x₂
w₂=0.3
x₃
w₃=0.1
Σ
Somme
pondérée
?
Sortie
w₁ = 0.6
w₂ = 0.3
w₃ = 0.1
x₁ = 0
x₂ = 0
x₃ = 0
Somme : 0.00 → seuil 0.5 → Sortie : 0
Pour en savoir plus — LeCun, Bengio & Hinton, "Deep Learning" (2015, Nature) — réseaux de neurones artificiels
Module 01 / 3 sur 7

La boucle d'apprentissage

Tap-to-order+30 XP

Tout modèle suit la même boucle, en cinq étapes qui se répètent à l'infini.

① Données d'entrée : une phrase, une image, un son que le modèle va traiter. ② Prédiction : le modèle calcule sa réponse avec ses poids actuels. ③ Calcul de l'erreur : on compare la prédiction à la bonne réponse et on mesure l'écart. RétropropagationAlgorithme qui calcule comment chaque paramètre a contribué à l'erreur et permet de les ajuster en conséquence. : on remonte cette erreur à travers le réseau pour attribuer à chaque paramètre sa part de responsabilité. ⑤ Ajustement des poids : chaque paramètre est modifié d'un tout petit peu dans la direction qui réduit l'erreur.

Puis la boucle recommence, avec une nouvelle donnée. Des millions de fois. Les plus gros modèles comptent plus de mille milliards de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. à ajuster ainsi, pour devenir bons à prédire des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens..

Ce qui mérite qu'on s'y arrête : la boucle n'a jamais demandé au modèle d'apprendre à coder, à traduire ou à résoudre des syllogismes. Elle n'optimise qu'une seule chose : la prédiction du tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. suivant. Et pourtant, au-delà d'un certain seuil de taille, des capacités inattendues émergent.

Propriétés émergentesCapacités qui apparaissent spontanément dans un LLM au-delà d'un certain seuil de taille, sans avoir été explicitement entraînées. : à chaque palier de taille — 7B, 70B, 540B paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. — les chercheurs ont observé l'apparition soudaine de capacités absentes dans les modèles plus petits : raisonnement arithmétique multi-étapes, analogies abstraites, humour. Ces sauts demeurent en partie inexpliqués. C'est l'une des frontières actives de la recherche.
Exercice — Reconstituez la boucle
🔄
Remettez les étapes dans l'ordre
Touchez une carte, puis la case cible
+30 XP
👆 Sélectionnez une carte, puis tapez la case où la placer.
Prédiction
Données d'entrée
Ajustement des poids
Calcul de l'erreur
RétropropagationAlgorithme qui calcule comment chaque paramètre a contribué à l'erreur et permet de les ajuster en conséquence.
Première étape…
Deuxième…
Troisième…
Quatrième…
Cinquième…
↩ La boucle recommence
Pour en savoir plus — Wei et al., "Emergent Abilities of Large Language Models" (2022, arXiv)
Module 01 / 4 sur 7

L'architecture TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle. — pourquoi ça a tout changé

Architecture cléTap-to-order+30 XP

Jusqu'en 2017, les modèles de langage utilisaient des réseaux récurrents qui lisaient le texte séquentiellement, mot après mot. Cette architecture avait deux défauts rédhibitoires : elle était difficile à paralléliser sur GPU, et la mémoire des informations lointaines s'estompait sur les longues séquences.

En 2017, huit ingénieurs de Google publient Attention Is All You Need et proposent une architecture fondamentalement différente : le TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle.. Son principe central est le mécanisme d'attentionCœur du Transformer : pour chaque token, le modèle calcule un score de pertinence avec tous les autres tokens de la fenêtre. : pour chaque tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. à générer, le modèle examine simultanément tous les autres tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. de la fenêtre et calcule, pour chacun, un score de pertinence. Il peut ainsi relier "il" à "le président" deux cents tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. plus tôt sans l'avoir oublié au passage.

Concrètement, le mécanisme d'attention se déroule en cinq étapes successives. ① Query : pour chaque token à traiter, le modèle génère un vecteur "requête" qui représente ce qu'il cherche. ② Keys : on compare cette requête aux vecteurs "clés" de tous les autres tokens de la séquence et on en déduit un score de pertinence pour chacun. ③ Softmax : on normalise ces scores pour qu'ils totalisent 1, ce qui donne des poids d'attention. ④ Values : on utilise ces poids pour pondérer et combiner les vecteurs "valeurs" des tokens pertinents. ⑤ Output : on obtient une représentation enrichie du token de départ, nourrie par le contexte qui compte.

Ce mécanisme est entièrement parallélisable : contrairement aux réseaux récurrents, tous les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. peuvent être traités en même temps sur GPU. C'est cette propriété qui a permis l'entraînement de modèles cent fois plus grands en des temps raisonnables — et c'est elle, au fond, qui a déclenché la vague des grandes propriétés émergentesCapacités qui apparaissent spontanément dans un LLM au-delà d'un certain seuil de taille, sans avoir été explicitement entraînées. décrites dans la leçon précédente.
L'attention a un coût quadratique avec la longueur de la séquence : doubler la fenêtre de contexteQuantité maximale de texte qu'un LLM peut traiter en une seule fois. Au-delà, il ignore le reste. Les modèles modernes gèrent souvent plus de 100 000 tokens, soit la taille d'un roman. quadruple le calcul. C'est pourquoi l'extension des contextes longs reste un axe de recherche actif, et pourquoi les modèles "longue fenêtre" sont plus coûteux à l'usage.
Exercice — Comment fonctionne l'attention ?
🔦
Ordonnez le mécanisme d'attentionCœur du Transformer : pour chaque token, le modèle calcule un score de pertinence avec tous les autres tokens de la fenêtre.
Touchez une carte, puis la case cible
+30 XP
👆 Sélectionnez une carte, puis tapez la case cible.
Générer une requête (Query) pour le tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. courant
Calculer un score avec chaque clé (Key) de la séquence
Normaliser les scores en probabilités (Softmax)
Pondérer et agréger les valeurs (Values)
Produire la représentation enrichie du tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
"Que cherche ce tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. ?"…
"À quel point chaque autre tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. est pertinent ?"…
"Convertir les scores en poids d'attention…"
"Combiner les informations des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. pertinents…"
"Résultat : représentation contextuelle du tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.…"
Pour en savoir plus — Vaswani et al., "Attention Is All You Need" (2017, arXiv) — l'article fondateur
Quiz — RNN vs TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle.
Pourquoi le TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle. a-t-il remplacé les RNNs ?
+15 XP
Quelle propriété du TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle. explique principalement l'explosion de la taille des modèles depuis 2017 ?
Sa capacité à mémoriser infiniment plus de données qu'un RNN
Son architecture parallélisable qui permet d'entraîner des modèles beaucoup plus grands sur GPU
Son absence totale de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. entraînables, ce qui le rend plus rapide
Pour en savoir plus — Vaswani et al., "Attention Is All You Need" (2017, arXiv)
Module 01 / 5 sur 7

Des neurones aux couches — les réseaux profonds

ArchitectureSimulation+25 XP⏱ 5 min

Un neurone seul ne peut modéliser que des relations linéaires. Pour aller au-delà, il faut empiler des couches : chaque couche transforme la représentation reçue et la transmet à la suivante, produisant des abstractions de plus en plus riches.

C'est ce qu'on appelle le deep learning : "deep" désigne simplement la profondeur de cet empilement. Un réseau avec trois couches cachées est déjà "profond". Les plus grands modèles en comptent des centaines.

Imaginez un réseau entraîné sur des images : la première couche détecte des contours et des gradients de couleur. La deuxième reconnaît des formes. La troisième des objets. La quatrième des concepts. Personne n'a dit au réseau quoi détecter à chaque étage — ces représentations hiérarchiques ont émergé de l'entraînement seul.

Dans un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs., l'information traverse cinq étages, dans cet ordre.

EmbeddingReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. : chaque token est converti en un vecteur numérique dans un espace à plusieurs milliers de dimensions. ② Encodage positionnel : comme le Transformer traite les tokens en parallèle, il perd naturellement l'information d'ordre. On y ajoute donc un signal qui encode la position de chaque token dans la séquence. ③ N couches Transformer : chaque couche applique le mécanisme d'attention vu à la leçon précédente, puis un réseau dense (FFN). Les modèles modernes empilent des dizaines, voire des centaines de ces couches. ④ Normalisation finale : une dernière étape stabilise les vecteurs de sortie avant la projection. ⑤ LM Head : cette couche de sortie projette le vecteur final sur tout le vocabulaire et calcule les probabilités du prochain token.

Plus un réseau est profond, plus il peut modéliser des patterns complexes — et plus il est coûteux à entraîner et à exécuter. C'est le compromis fondamental qui explique pourquoi des modèles légers de 7 ou 8 milliards de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. coexistent avec des géants de plusieurs centaines de milliards.
Exercice — Ordonnez les couches d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs.
🏗
Architecture d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. de A à Z
Touchez une carte, puis la case cible
+25 XP
👆 Sélectionnez une carte, puis tapez la case cible.
EmbeddingReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace.tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. → vecteurs
Encodage positionnel
N couches TransformerArchitecture de réseau de neurones publiée en 2017, base de tous les grands modèles actuels. Son mécanisme central, l'attention, permet de traiter tous les tokens en parallèle. (attention + FFN)
Normalisation finale
LM Head — vecteur → probabilités sur le vocabulaire
Entrée : convertir les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
Injecter l'ordre des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
Traitement profond par blocs répétés…
Stabiliser les représentations…
Sortie : choisir le prochain tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
Pour en savoir plus — Vaswani et al., "Attention Is All You Need" (2017, arXiv) — architecture complète
Module 01 / 6 sur 7

La descente de gradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur. — comment le modèle apprend vraiment

Mécanique d'apprentissage+25 XP⏱ 5 min

La boucle d'apprentissage repose sur un algorithme central : la descente de gradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur.. Pour l'intuitionner, imaginez un paysage montagneux où chaque position représente une configuration possible des paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. du modèle, et où l'altitude représente l'erreur de prédiction. L'objectif est de trouver la vallée la plus basse.

À chaque étape, le modèle calcule la pente locale, appelée gradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur., puis effectue un petit pas dans la direction qui descend. Répété des milliards de fois sur des données variées, ce processus converge vers une configuration qui minimise l'erreur.

Le taux d'apprentissageParamètre qui contrôle la taille des pas lors de la descente de gradient. Trop grand : le modèle diverge. Trop petit : l'entraînement est très lent. règle la taille de chaque pas. Trop grand, le modèle saute par-dessus les vallées et diverge. Trop petit, l'entraînement prend une éternité. Calibrer ce paramètre est l'une des compétences clés des ingénieurs qui entraînent ces modèles.

En pratique, on n'utilise jamais tout le corpus à chaque étape, ce serait prohibitif. On calcule le gradientMesure de la pente de la fonction d'erreur par rapport à chaque paramètre. Indique dans quelle direction ajuster les poids pour réduire l'erreur. sur de petits sous-ensembles appelés mini-batchesPetits sous-ensembles de données utilisés pour calculer le gradient à chaque étape d'entraînement.. Le résultat est plus bruité, mais infiniment plus rapide. Tous les grands modèles utilisent cette méthode.

Entraîner un très grand modèle from scratch nécessite des milliers de GPUs pendant des semaines et coûte plusieurs dizaines de millions d'euros. En revanche, fine-tuner un modèle existant sur vos données coûte cent à dix mille fois moins — ce qui rend cette option accessible à des organisations de taille ordinaire.
Simulation — Descendez le gradient
⛰️
Trouvez le minimum
Guidez la descente de gradient sur ce paysage d'erreur
+25 XP
Erreur : —
Taux d'apprentissage
0.01 1.0
0.3
Module 01 / 7 sur 7

De 7B à 540B — ce que change l'échelle

Scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul.+25 XP⏱ 5 min

La taille d'un modèle se mesure en paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris., les poids ajustables qui constituent sa mémoire apprise. GPT-2 : 1,5 milliard. GPT-3 : 175 milliards. Les modèles actuels : plus de mille milliards. Mais qu'apporte concrètement cette montée en échelle ?

En 2020, Kaplan et ses collègues d'OpenAI ont montré que les performances d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. suivent des lois de puissance prévisibles selon trois variables : le nombre de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris., la taille du corpus d'entraînement, et le budget de calcul. Autrement dit, l'amélioration n'est pas erratique, elle est quantifiable.

DeepMind a affiné ces lois en 2022 avec Chinchilla : un modèle est entraîné de façon optimale quand il voit environ vingt tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. par paramètre. GPT-3, avec 175 milliards de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris., aurait dû être exposé à 3 500 milliards de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens., il n'en a vu que 300 milliards. La course aux paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. avait sous-entraîné les modèles.

La conséquence pratique est importante : un modèle de 7 milliards de paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. entraîné sur des données de qualité peut surpasser un modèle de 70 milliards mal entraîné sur une tâche spécifique. Ce phénomène a rendu les modèles open-source (Llama, Mistral, Phi) compétitifs pour des usages ciblés, sans nécessiter l'infrastructure des grands laboratoires.

Les scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul. prédisent des métriques moyennes. Elles ne prédisent pas les propriétés émergentesCapacités qui apparaissent spontanément dans un LLM au-delà d'un certain seuil de taille, sans avoir été explicitement entraînées. : les sauts qualitatifs restent imprévisibles, même quand on connaît précisément les paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. d'entraînement.
Exercice — Interprétez les scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul.
📊
Quelle conclusion tirer ?
Associez chaque situation à la bonne interprétation
+25 XP
👆 Sélectionnez une situation, puis tapez la conclusion.
Un modèle 7B fine-tuné sur vos données surpasse GPT-4 sur votre tâche
Doubler les paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. améliore les performances de façon prévisible
Un modèle 70B entraîné sur peu de données est moins bon qu'un 7B bien entraîné
La taille n'est pas tout — la spécialisation sur la tâche cible peut compenser la taille
Les scaling lawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul. sont des lois de puissance — l'amélioration est continue et quantifiable
Le ratio paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris./tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. d'entraînement compte autant que la taille brute (Chinchilla)
Pour en savoir plus — Kaplan et al., "Scaling LawsLois qui décrivent comment les performances d'un LLM évoluent selon le nombre de paramètres, le volume de données et le budget de calcul. for Neural Language Models" (2020, arXiv)
Module 02 / 1 sur 6

Pourquoi le prompt change tout

Fondamental+15 XP⏱ 3 min

Vous savez maintenant comment le modèle génère ses réponses. Ce qui détermine le résultat, c'est le contexte initial, autrement dit le prompt. Deux formulations qui demandent la même chose peuvent produire des sorties radicalement différentes.

On peut voir un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. comme un acteur très compétent : il peut jouer n'importe quel rôle, mais c'est vous qui lui donnez le script, le décor et les contraintes de mise en scène. Le prompt engineering n'est pas une compétence technique au sens strict : il consiste à formuler une demande avec assez de précision pour que le modèle comprenne non seulement ce qu'on veut, mais comment on le veut.

Un bon prompt repose sur quatre dimensions : Rôle (qui est le modèle dans cette interaction ?), Contexte (quelle est la situation ?), Tâche (qu'est-ce qu'on lui demande exactement ?), Format (comment veut-on la réponse ?).
Simulation — L'impact du prompt
✍️
Même question, prompts différents
Faites varier le prompt et observez la différence
+15 XP
CHOISISSEZ UN PROMPT
Module 02 / 2 sur 6

Le persona — donnez un rôle au modèle

Technique clé+20 XP

Commencer un prompt par "Tu es…" est l'une des techniques les plus immédiatement efficaces. Le persona cadre tout le registre de la réponse : vocabulaire, niveau de détail, posture, hypothèses implicites.

"Tu es un consultant spécialisé en restructuration" active des patterns très différents de "Tu es un professeur qui explique à des étudiants de première année" : même sur le même sujet, la réponse obtenue sera structurée, tonée et nuancée différemment.

Le modèle ne "devient" pas réellement ce rôle. Il active les patterns statistiques associés à ce type de locuteur dans ses données d'entraînement. Les rôles précis et crédibles fonctionnent donc mieux que les rôles vagues, et pourquoi un persona incohérent produit des réponses incohérentes.

Exercice — Associez rôle et résultat
🎭
Quel rôle pour quel besoin ?
Touchez un rôle, puis le cas d'usage correspondant
+20 XP
👆 Sélectionnez un rôle, puis tapez sa case cible.
Avocat d'affaires
Coach de communication
DAF expérimenté
Journaliste critique
Relire un contrat pour identifier les clauses risquées
Reformuler un message difficile avec tact
Analyser un business plan et pointer les risques financiers
Trouver les failles dans un argumentaire de vente
Pour en savoir plus — Liu et al., "Pre-train, Prompt, and Predict" (2021, arXiv) — techniques de prompting par rôle
Module 02 / 3 sur 6

Donner des exemples — le few-shot

Pratique+20 XP

Plutôt que de décrire ce qu'on veut, on peut le montrer. Inclure deux ou trois exemples de la forme souhaitée dans un prompt est souvent plus efficace qu'une longue description : le modèle généralise le pattern à partir des exemples.

C'est ce qu'on appelle le few-shot prompting. On lui soumet des paires entrée/sortie représentatives, et il infère le format attendu pour les cas suivants.

Zero-shot : "Classe ce tweet comme positif ou négatif." Few-shot : "Tweet : 'Super produit !' → Positif. Tweet : 'Vraiment décevant.' → Négatif. Tweet : 'Livraison en retard, service correct.' → ?" Le few-shot est particulièrement utile pour les tâches de classification, de reformulation stylisée, et de génération dans un format contraint.
Simulation — Few-shot en action
🎓
Entraînez le modèle par l'exemple
Ajoutez des exemples et voyez comment la sortie change
+20 XP
EXEMPLES FOURNIS AU MODÈLE
0 exemple
Aucun exemple — zéro-shot
TÂCHE À ACCOMPLIR
Sentiment de : "La livraison était rapide mais l'emballage abîmé."
SORTIE DU MODÈLE
Cliquez "Tester" pour voir la sortie.
Module 02 / 4 sur 6

Chain-of-thought — faites raisonner le modèle

Technique avancée+20 XP

Pour les tâches qui demandent plusieurs étapes (calculs, analyses, raisonnements enchaînés), demander au modèle de "penser à voix haute" avant de conclure améliore sensiblement la qualité du résultat.

Ajouter une instruction comme "Raisonne étape par étape avant de donner ta réponse" force le modèle à générer des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. intermédiaires de raisonnement. Ces tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. deviennent du contexte pour la suite de la génération et contraignent les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. de conclusion vers des réponses plus cohérentes. Le raisonnement intermédiaire fonctionne comme une auto-correction par le contexte.

Cette technique fonctionne parce que le modèle "se lit" lui-même au fur et à mesure qu'il génère. Un raisonnement intermédiaire explicite réduit la probabilité d'une conclusion incohérente avec ce raisonnement.
Les assistants grand public récents (ChatGPT, Claude, Gemini, Mistral Le Chat…) appliquent cette technique automatiquement pour les questions complexes, soit en affichant le raisonnement, soit en le gardant en interne dans des "reasoning tokens". Vous n'avez plus à le demander explicitement dans une interface chat. En revanche, si vous appelez directement l'API d'un modèle sans ce comportement intégré, l'instruction "raisonne étape par étape" reste pertinente.
Exercice — Construisez le prompt optimal
🧠
Quand activer le chain-of-thought ?
Identifiez la situation où expliciter le raisonnement apporte le plus
+20 XP
Vous appelez directement l\u2019API d\u2019un modèle (sans interface chat). Pour laquelle de ces tâches le chain-of-thought fera-t-il la plus grande différence sur la qualité de la réponse ?
Traduire une phrase du français vers l\u2019anglais.
Résoudre un problème d\u2019arithmétique à trois étapes et justifier la réponse.
Récupérer la capitale d\u2019un pays.
Reformuler un paragraphe pour en réduire la longueur.
Pour en savoir plus — Wei et al., "Chain-of-Thought Prompting Elicits Reasoning in LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs." (2022, arXiv)
Module 02 / 5 sur 6

Les pièges du prompt engineering

Quiz final+30 XP

Le prompting a des limites structurelles qu'aucune formulation ne peut effacer.

Il n'existe pas de prompt universel. Un bon prompt réduit l'ambiguïté ; il ne compense pas un modèle inadapté à la tâche ou des données insuffisantes. Les instructions négatives ("ne réponds pas en bullet points") sont systématiquement moins fiables que leurs équivalents positifs ("réponds en prose continue") : dites ce que vous voulez, pas ce que vous refusez. Et la longueur d'un prompt ne garantit rien : deux mille mots mal structurés peuvent être moins efficaces que cinquante mots précis.

⚔ La règle : testez d'abord simple. Complexifiez seulement si les résultats sont insuffisants. Un prompt surchargé d'instructions contradictoires dégrade les performances plutôt qu'il ne les améliore.
Quiz final — Module 02
Module 02 / 6 sur 6

System promptsInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. & API — comment les entreprises intègrent vraiment

Intégration+25 XP⏱ 5 min

Quand une organisation déploie un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. en production, elle ne tape pas des prompts dans une interface. Elle construit un système : une architecture composée de plusieurs couches dont elle contrôle chacune via l'API.

Le system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. est envoyé avant chaque message utilisateur. Il définit le rôle du modèle, les règles permanentes, le contexte stable et le format attendu, et reste invisible pour l'utilisateur final. À cela s'ajoutent les documents récupérés par RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. et l'historique de conversation, qui forment le contexte dynamique, variable d'un échange à l'autre.

Architecture typique d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. en production : System promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. (permanent) + Documents RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. (récupérés) + Historique + Message utilisateur. C'est l'intégralité de ce que reçoit le modèle à chaque appel.

Les paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. API les plus utiles : temperature (0 pour le déterminisme, 0,7–1 pour la créativité), max_tokens (longueur maximale de la réponse, coût direct), seed (reproductibilité des résultats).

Le coût API se calcule sur les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. en entrée et en sortie. Un system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. de deux mille tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. est facturé à chaque appel. Sur dix mille appels par jour, un system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. verbeux peut coûter dix fois plus cher qu'une version concise produisant des résultats équivalents.
Exercice — Qu'appartient au system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur. ?
Classez ces éléments
Permanent vs dynamique
+25 XP
👆 Sélectionnez un élément, puis tapez la colonne.
Le rôle et l'identité du modèle
La question de l'utilisateur
Les règles métier permanentes
L'historique de la conversation
Le format de réponse attendu
Les documents récupérés par RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération.
System promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. Invisibles pour l'utilisateur.
💬 Contexte dynamique
Pour en savoir plus — Ouyang et al., "Training Language Models to Follow Instructions" (2022, arXiv)
🏆
Validez vos acquis
+30 XP
1. Quelle est la structure optimale d'un prompt complet ?
Tâche → Format → Rôle → Contexte
Rôle → Contexte → Tâche → Format
Il n'y a pas d'ordre, seul le contenu compte
2. Le chain-of-thought est utile pour :
Toutes les tâches, quelle que soit leur complexité
Les raisonnements multi-étapes et analyses complexes
Accélérer les réponses simples
3. Quelle formulation est plus efficace ?
"Ne sois pas vague et ne réponds pas en listes"
"Réponds en 3 paragraphes de prose concise et précise"
Pour en savoir plus — Wei et al., "Chain-of-Thought Prompting" (2022, arXiv) — résultats empiriques sur le raisonnement
Module 03 / 1 sur 6

L'IA en entreprise — état des lieux

Vue d'ensemble+15 XP⏱ 4 min

L'IA en entreprise en 2025 ne ressemble ni aux fantasmes catastrophistes ni aux promesses de productivité illimitée. Un LLM est un outil puissant sur un périmètre bien délimité, avec des limites structurelles que les cas d'usage les plus réussis ont appris à contourner.

Les usages qui fonctionnent réellement sont assez consistants d'une organisation à l'autre : génération de contenu (emails, rapports, documentation), extraction et synthèse d'informations depuis des documents, assistance au développement logiciel, classification et tri de grandes quantités de texte. Les usages encore fragiles sont ceux qui nécessitent des décisions autonomes à fort enjeu, l'accès à des données en temps réel, ou une précision factuelle garantie.

⚔ Le point commun de tous les déploiements réussis : l'IA prend en charge les tâches à fort volume et faible enjeu individuel, et libère du temps humain pour les tâches qui exigent un jugement — pas l'inverse.
Exercice — Viable ou risqué ?
🏢
Classez ces cas d'usage
Touchez une carte, puis la colonne cible
+15 XP
👆 Sélectionnez une carte, puis tapez la colonne.
Résumer des comptes-rendus
Rédiger un contrat final
Premier jet d'un rapport
Décision de financement
FAQ produit automatisée
Diagnostic médical final
✓ Fort potentiel
⚠ Usage risqué seul
Pour en savoir plus — McKinsey, "The State of AI" (rapport annuel) — usages réels en entreprise
Module 03 / 2 sur 6

RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. — connecter l'IA à vos données

Architecture+20 XP

Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. ne connaît pas vos documents internes. Pour y remédier sans réentraîner quoi que ce soit, l'architecture dominante s'appelle RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération., appelé Retrieval-Augmented Generation.

Le principe : avant de générer, le système recherche dans votre base documentaire les passages les plus pertinents pour la question posée, et les injecte dans le contexte du modèle. Le modèle répond alors en s'appuyant sur ces passages réels plutôt que sur sa mémoire générale.

Sans RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. : "Quel est notre SLA pour les clients Premium ?" → le modèle invente un chiffre ou refuse de répondre. Avec RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. : le système récupère la page du contrat concernée, l'injecte dans le contexte, et le modèle cite le vrai chiffre. La différence est fondamentale.

Le RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. est aujourd'hui l'architecture derrière la quasi-totalité des assistants documentaires en entreprise : bases de connaissance RH, support client, analyse contractuelle. Ses deux avantages principaux : les données restent à jour sans réentraînement, et le modèle peut citer ses sources.

Simulation — Visualisez le pipeline RAG
🔗
Suivez une question dans un système RAG
Observez les 4 étapes de la récupération augmentée
+20 XP
QUESTION UTILISATEUR
Module 03 / 3 sur 6

Les agents — l'IA qui agit

Concept avancé+20 XP

Un agent IA n'est pas un chatbot amélioré. C'est un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. capable d'utiliser des outils : chercher sur le web, lire une base de données, envoyer un email, appeler une API, puis de décider lui-même de la séquence d'actions à enchaîner pour atteindre un objectif.

Exemple : "Analyse les ventes de ce trimestre et envoie un résumé au directeur commercial." L'agent lit les données, effectue l'analyse, rédige le résumé, appelle l'API d'envoi. Tout cela sans intervention humaine à chaque étape.

Sous le capot, l'agent tourne en boucle sur cinq étapes. ① Objectif reçu : l'agent reçoit la demande initiale. ② Planification : à partir de sa compréhension de la tâche et des outils disponibles, le LLM décide de la prochaine action à tenter. ③ Appel d'un outil : l'agent exécute une action externe (requête web, lecture de fichier, appel d'API). ④ Observation du résultat : le retour de l'outil est réinjecté dans le contexte pour évaluer ce qui a été obtenu. ⑤ Réponse finale ou action : si l'objectif est atteint, l'agent produit sa réponse ou l'action finale. Sinon, il retourne à l'étape 2 avec un contexte enrichi. Cette boucle s'arrête quand l'objectif est atteint ou qu'une limite est rencontrée.

Les agents sont puissants et fragiles. Une erreur au milieu d'une chaîne d'actions peut se propager et produire des effets difficiles à annuler. La supervision humaine reste indispensable sur toute action irréversible — envoi d'un email, modification d'une base de données, déclenchement d'un paiement.
Exercice — Ordonnez le fonctionnement d'un agent
🤖
Comment fonctionne un agent ?
Reconstituez la séquence de décision
+20 XP
👆 Sélectionnez une carte, puis tapez la case cible.
Objectif reçu
Planification des étapes
Appel d'un outil
Observation du résultat
Réponse finale ou action
Le point de départ…
Le LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. décide…
Action externe…
Retour d'information…
Conclusion…
Pour en savoir plus — Yao et al., "ReAct: Synergizing Reasoning and Acting in LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs." (2022, arXiv) — fondement des agents IA
Module 03 / 4 sur 6

Risques & gouvernance IA

Enjeux managériaux+20 XP

Déployer de l'IA en entreprise, c'est accepter trois types de responsabilités que les organisations sous-estiment souvent.

La première est la responsabilité de qualité : le modèle produit parfois des informations fausses avec une assurance totale. Tout contenu généré par IA qui engage votre organisation doit être vérifié. Définissez explicitement qui vérifie quoi.

La deuxième est la responsabilité sur les données : ce que vous envoyez à un service LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. externe peut potentiellement alimenter des entraînements futurs. Les données confidentielles, les données clients et les secrets commerciaux n'appartiennent pas dans un prompt envoyé à un service non contractualisé.

La troisième est la responsabilité de compétence : une équipe qui délègue trop à l'IA peut perdre ses propres capacités d'analyse. L'outil doit amplifier le jugement humain, pas le remplacer progressivement.

Exercice — Identifiez le risque
⚖️
Quel type de risque ?
Touchez une carte, puis la catégorie
+20 XP
👆 Sélectionnez une situation, puis tapez la bonne catégorie.
Copier-coller un rapport financier confidentiel dans ChatGPT
Publier une analyse de marché sans vérifier les chiffres cités
Laisser un agent IA envoyer des emails clients sans relecture
Risque de données / confidentialité
Risque de qualité / hallucinationPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi.
Risque opérationnel / action irréversible
Pour en savoir plus — ENISA, "Threat Landscape for AI" (Agence UE de cybersécurité) — risques IA en entreprise
Module 03 / 5 sur 6

Évaluer un projet IA — le cadre du manager

Quiz final+35 XP

Face à une proposition de projet IA, un manager avisé pose systématiquement quatre questions, et n'avance pas tant que les réponses ne sont pas claires.

Quel problème résout-on précisément ? Si la réponse est vague, le projet est vague. Quelles sont les données d'entrée, sont-elles disponibles, de qualité suffisante, légalement utilisables ? Comment mesure-t-on le succès, avec quel KPI concret : taux d'erreur, temps économisé, satisfaction client ? Et surtout : qui supervise, et qui est responsable quand le système produit une erreur ? "L'IA" ne peut pas être une réponse à cette dernière question.

⚔ Un projet IA sans réponse nette à ces quatre questions n'est pas prêt. Insister dessus n'est pas du scepticisme — c'est faire votre travail de manager.
Quiz final — Module 03
Module 03 / 6 sur 6

IA par secteur — ce qui marche vraiment

Cas pratiquesClassification+30 XP⏱ 6 min

L'IA ne transforme pas tous les secteurs au même rythme ni de la même façon. Ce qui suit n'est pas une liste de promesses, mais ce qui est effectivement en production ou en déploiement actif dans les entreprises.

En finance et asset management, les usages consolidés sont le résumé automatique de rapports annuels et de documentation réglementaire, l'analyse de sentiment sur les retranscriptions d'earnings calls, et la génération de commentaires de gestion. Les décisions d'investissement restent hors périmètre de toute délégation autonome à l'IA pour des raisons réglementaires.

Dans le juridique, la due diligence documentaire (identifier les clauses à risque dans des volumes importants de contrats) est le cas d'usage le plus mature. La limite est sérieuse : les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. citent parfois des jurisprudences qui n'existent pas. Toute pièce engageante exige une vérification humaine sans exception.

En RH et formation, le pré-screening de CVs, la génération de descriptions de poste et les chatbots FAQ sont répandus. À noter : le tri automatisé de candidatures est classé "risque élevé" par l'EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque., ce qui implique des obligations de documentation et de supervision.

En marketing et communication, c'est le secteur avec le retour sur investissement le plus immédiat et le risque le plus faible : les contenus générés sont relus avant publication. Génération de variantes A/B, personnalisation à grande échelle, analyse de verbatims clients : ces usages sont matures et répandus.

⚔ Le pattern commun à tous les déploiements réussis : l'IA traite le volume, les humains traitent les enjeux. Ce n'est pas une formule — c'est une observation empirique.
Exercice — Quel secteur, quel cas d'usage ?
🏢
Associez cas d'usage et secteur
Touchez un cas, puis le secteur correspondant
+30 XP
👆 Sélectionnez un cas d'usage, puis tapez la case secteur.
Identifier les clauses abusives dans 500 contrats
Analyser le sentiment des earnings calls
Trier des CVs par pertinence
Générer 20 variantes d'un email promotionnel
⚖️ Juridique
📈 Finance
👥 RH
📣 Marketing
Pour en savoir plus — McKinsey, "The State of AI" (rapport annuel) — usages sectoriels documentés
🏆
Validez vos acquis
+35 XP
1. Quelle est la principale limite du RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. ?
Il ne peut traiter que des documents PDF
Si le bon passage n'est pas récupéré, le modèle peut halluciner quand même
C'est une technologie trop récente pour l'entreprise
2. Concernant les données confidentielles et les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. externes :
C'est sans risque si on ne mentionne pas le nom de l'entreprise
Il faut éviter les données confidentielles sans contrat de traitement des données
Les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. effacent toutes les données immédiatement après la réponse
3. Un agent IA peut agir de manière autonome. Dans quel cas la supervision humaine est-elle obligatoire ?
Uniquement si l'agent fait des calculs mathématiques
Pour toute action irréversible : envoi d'emails, paiements, modifications en base
Jamais, un agent bien conçu n'a pas besoin de supervision
Pour en savoir plus — Lewis et al., "Retrieval-Augmented Generation" (2020, arXiv) — architecture RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération. complète
Module 04 / 1 sur 5

L'IA générative — de quoi parle-t-on ?

Vue d'ensemble+15 XP⏱ 4 min

L'IA générative désigne les modèles capables de produire du contenu nouveau (texte, image, son, vidéo, code) qui n'était pas présent tel quel dans leurs données d'entraînement. Il ne s'agit ni de copie ni de collage mais d'une synthèse statistique à partir de patterns appris sur des volumes massifs.

Deux grandes familles coexistent. Les LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. génèrent du texte en prédisant des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. successifs, ce que vous connaissez maintenant. Les modèles de diffusionFamille de modèles génératifs qui apprennent à débruiter progressivement un signal aléatoire pour générer images, sons et vidéos. génèrent des images, des sons et des vidéos selon un mécanisme fondamentalement différent.

Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. prédit le tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens. suivant. Un modèle de diffusion apprend à débruiter progressivement une image. Deux approches distinctes, deux histoires distinctes, mais un même objectif : produire quelque chose de nouveau et de cohérent.
Simulation — Diffusion : du bruit à l'image
🎨
Visualisez le débruitage progressif
C'est ainsi que les modèles génèrent des images
+15 XP
PROMPT
Module 04 / 2 sur 5

La diffusion — du bruit à l'image

Mécanique clé+20 XP

L'idée centrale des modèles de diffusionFamille de modèles génératifs qui apprennent à débruiter progressivement un signal aléatoire pour générer images, sons et vidéos., formalisée par Ho et ses collègues en 2020, est d'apprendre à inverser un processus de destruction progressive.

Lors de l'entraînement, on prend des millions d'images réelles et on leur ajoute du bruit gaussien par étapes successives jusqu'à obtenir du bruit pur. Le modèle apprend à prédire, à chaque étape, quel bruit a été ajouté. Lors de la génération, on part d'un bruit aléatoire et on applique ce processus en sens inverse : le modèle "enlève" progressivement le bruit, guidé à chaque pas par le prompt textuel. Après vingt à mille étapes de débruitage selon les paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris., une image cohérente émerge.

C'est pour cette raison que les mains sont souvent mal rendues : leur topologie est variable d'un individu à l'autre, et le modèle reconstruit ce qui est statistiquement probable plutôt que ce qui est anatomiquement correct. Il n'a aucune représentation de ce qu'est une main — seulement une distribution de pixels apprise.
Conséquence pratique : vous ne pouvez pas demander à un modèle de diffusion de "corriger un détail précis". Chaque génération est un processus stochastique complet qui repart de zéro.
Processus de débruitage (5 étapes sur ~1000)
t=1000
Bruit pur
t=750
Structure émergente
t=500
Forme reconnaissable
t=250
Détails raffinés
t=0
Image finale
Exercice — Ordonnez le processus de diffusion
🌊
Reconstruction du processus
Touchez une carte, puis la case cible
+20 XP
👆 Sélectionnez une carte, puis tapez la case cible.
Bruit gaussien pur
Injection du prompt texte
Débruitage itératif
Image cohérente finale
Point de départ…
Guidage…
Processus central…
Résultat…
Pour en savoir plus — Ho et al., "Denoising Diffusion Probabilistic Models" (2020, arXiv)
Module 04 / 3 sur 5

EmbeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. — comment l'IA "comprend" les images

Concept fondamental+20 XP

Pour qu'un modèle de diffusion soit guidé par une description textuelle, il faut que texte et image "parlent la même langue mathématique". C'est le rôle des embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. : représenter n'importe quel contenu (mot, phrase, image, extrait sonore) sous forme d'un vecteur de nombres dans un espace commun.

Dans cet espace, les concepts proches sémantiquement sont proches géométriquement. "Chien" et "canidé" sont voisins. "Paris" et "capitale de la France" sont voisins. L'image d'un coucher de soleil et les mots "ciel orange au crépuscule" sont voisins.

CLIPModèle d'OpenAI (2021) entraîné sur 400 millions de paires image-texte. Permet la génération d'image guidée par texte., publié par OpenAI en 2021, est le modèle qui a rendu possible la génération image-texte telle qu'on la connaît. Entraîné sur 400 millions de paires (image, description), il a appris un espace de représentation commun aux deux modalités. C'est ce qui permet à DALL-E et Stable Diffusion d'être guidés par un prompt.

Les embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. sont aussi la mécanique sous-jacente du RAGRetrieval-Augmented Generation. Architecture qui récupère les passages pertinents d'une base documentaire et les injecte dans le contexte avant génération., de la recherche sémantique, et de la recommandation musicale : dans tous ces cas, on cherche des éléments "proches" dans un espace de représentation appris.

Exercice — Associez concept et application
🧭
Où les embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. sont-ils utilisés ?
Touchez une application, puis la capacité qu'elle exploite
+20 XP
👆 Sélectionnez une application, puis tapez la case correspondante.
DALL-E génère une image depuis un texte
Recherche sémantique dans des documents
Spotify recommande une chanson similaire
Traduction automatique de qualité
Espace partagé image-texte (CLIPModèle d'OpenAI (2021) entraîné sur 400 millions de paires image-texte. Permet la génération d'image guidée par texte.)
Proximité vectorielle entre requête et passages
Voisinage dans l'espace audio/features
AlignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent. d'espaces multilingues
Pour en savoir plus — Mikolov et al., "Efficient Estimation of Word Representations in Vector Space" (2013, arXiv) — fondements des embeddingsReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace.
Module 04 / 4 sur 5

Usages, limites & enjeux de l'IA générative image

Pratique & éthique+20 XP

En dix-huit mois, l'IA générative image a transformé plusieurs métiers de la création visuelle. Les délais et coûts de production d'un visuel de maquette ont été divisés par dix à cent dans les agences qui l'ont intégrée.

Les cas d'usage où elle excelle sont bien identifiés : maquettage rapide pour présenter une direction créative, variations de visuels publicitaires, rendu architectural, assets de jeu vidéo, illustration éditoriale sous supervision. Ses faiblesses structurelles le sont tout autant : le texte intégré aux images reste souvent illisible, les mains et l'anatomie complexe sont instables, et la cohérence visuelle d'un personnage entre plusieurs images générées séparément est difficile à maintenir.

Deux enjeux de fond accompagnent le déploiement de cette technologie. Le premier est juridique : les données d'entraînement ont inclus des œuvres sans consentement explicite des artistes, et le cadre légal reste en construction. Le second est l'usage malveillant : deepfakes, fausses photos de presse, faux documents — l'EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque. impose des obligations de marquage sur certains de ces contenus depuis 2024.
⚔ En entreprise, la règle est simple : l'IA générative image est utile pour les phases de conception et d'exploration. Elle nécessite une validation humaine pour tout contenu engageant publiquement votre marque.
Exercice — Classez les usages
⚖️
Opportunité ou risque ?
Touchez un usage, puis la colonne appropriée
+20 XP
👆 Sélectionnez un usage, puis tapez la colonne.
Maquette rapide pour client
Deepfake d'un dirigeant
Rendu 3D architectural
Fausse photo de presse
Variations de visuels publicitaires
Faux document officiel
✓ Usage légitime
⚠ Usage problématique
Pour en savoir plus — EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque. (2024) — classification des risques IA, Article 50 sur les deepfakes
🏆
Validez vos acquis
+35 XP
1. Comment un modèle de diffusion génère-t-il une image ?
Il assemble des fragments d'images existantes
Il part de bruit pur et le dénoise progressivement, guidé par le prompt
Il prédit pixel par pixel comme un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. prédit des tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. Les LLMs sont facturés à la consommation de tokens.
2. Pourquoi les mains sont-elles souvent mal rendues par l'IA ?
Les mains sont absentes des données d'entraînement
Leur topologie variable est difficile à modéliser statistiquement — le modèle reconstruit ce qui est probable, pas ce qui est anatomiquement correct
C'est un bug connu qui sera corrigé dans les prochaines versions
3. À quoi sert un embeddingReprésentation d'un contenu sous forme d'une liste de nombres dans un espace partagé. Les concepts sémantiquement proches sont géométriquement proches dans cet espace. dans un système d'IA générative image-texte ?
À compresser les images pour les stocker plus efficacement
À représenter texte et image dans un espace mathématique commun, permettant au modèle d'être guidé par un prompt
À traduire le prompt en instructions de dessin pixel par pixel
Pour en savoir plus — Ho et al., "Denoising Diffusion Probabilistic Models" (2020, arXiv)
Module 05 / 1 sur 5

Les biais dans les modèles d'IA

Éthique & technique+15 XP⏱ 4 min

Un modèle d'IA n'est pas neutre. Il reflète les biais présents dans ses données d'entraînement, et les amplifie parfois. Ces biais ne relèvent pas d'une question éthique abstraite, ils ont des conséquences directes sur les décisions que ces systèmes influencent.

Les exemples documentés sont nombreux. Des systèmes de reconnaissance faciale significativement moins précis sur les peaux foncées (Buolamwini & Gebru, 2018). Des LLMsLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. qui associent systématiquement certains métiers à un genre. Des algorithmes de recrutement entraînés sur des données historiques qui reproduisent les inégalités de ces données.

Un biais dans un modèle peut avoir trois origines : les données (des données historiquement biaisées produisent un modèle biaisé), le design (ce qu'on choisit d'optimiser oriente le comportement), et le déploiement (dans quel contexte et pour quelle population le système est utilisé). Identifier la source permet de choisir la correction appropriée.

En tant que manager, vous portez une responsabilité sur le contexte de déploiement, même si vous n'avez pas conçu le modèle.

Exercice — Identifiez la source du biais
⚖️
D'où vient ce biais ?
Touchez une situation, puis la source du biais
+15 XP
👆 Sélectionnez une carte, puis tapez la case correspondante.
Un modèle de CV déprioritise les candidatures féminines car les données historiques favorisaient les hommes
Un système de scoring de crédit pénalise les habitants de certains quartiers
Un chatbot médical est moins précis pour les symptômes rares car sous-représentés dans le corpus
Biais dans les données d'entraînement (données historiques biaisées)
Biais de déploiement (proxy discriminatoire)
Biais de représentation dans les données (cas rares)
Pour en savoir plus — Buolamwini & Gebru, "Gender Shades" (2018, PMLR) — étude fondatrice sur les biais de reconnaissance faciale
Module 05 / 2 sur 5

AlignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent. — faire en sorte que l'IA se comporte bien

Sécurité & éthique IA+20 XP

Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. entraîné sur Internet brut est capable de produire du contenu dangereux, incohérent, ou simplement inutile. L'alignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent. désigne l'ensemble des techniques qui permettent d'orienter le comportement d'un modèle vers ce que ses concepteurs et utilisateurs souhaitent réellement obtenir.

La technique dominante depuis 2022 est le RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle., appelé Reinforcement Learning from Human Feedback. Des évaluateurs humains comparent des paires de réponses générées par le modèle et sélectionnent la meilleure. Ces préférences entraînent un modèle de récompense, qui guide ensuite le LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. par renforcement. Ce mécanisme a transformé GPT-3, modèle brut capable du meilleur comme du pire, en ChatGPT, un assistant orienté vers l'utilité et la prudence.

L'alignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent. réduit les comportements indésirables mais ne les supprime pas. Il les déplace selon les préférences des évaluateurs — qui reflètent eux-mêmes leur propre culture, leurs angles morts, leurs priorités. Un modèle aligné n'est pas un modèle neutre : c'est un modèle dont les biais ont été orientés délibérément.
Quiz — Vrai / Faux sur l'alignementEnsemble des techniques visant à orienter le comportement d'un LLM vers ce que ses concepteurs et utilisateurs souhaitent.
🎯
3 questions sur le RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle.
+20 XP
1. Le RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle. supprime complètement les biais d'un modèle.
Vrai
Faux
2. Les évaluateurs humains du RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle. peuvent introduire leurs propres biais culturels.
Vrai
Faux
3. ChatGPT utilise le même modèle de base que GPT-3, modifié par RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle..
Vrai
Faux
Pour en savoir plus — Ouyang et al., "Training Language Models to Follow Instructions with Human Feedback" (2022, arXiv) — article InstructGPT / RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle.
Module 05 / 3 sur 5

EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque. — le cadre réglementaire européen

Droit & Conformité+20 XP

L'EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque., entré en vigueur en août 2024, est le premier cadre légal mondial complet sur l'IA. Son principe est la proportionnalité : les obligations imposées aux systèmes d'IA sont calibrées sur leur niveau de risque.

Les systèmes à risque inacceptable sont simplement interdits : notation sociale des citoyens, manipulation subliminale, reconnaissance biométrique en temps réel dans les espaces publics avec quelques exceptions. Les systèmes à risque élevé (IA dans le recrutement, le crédit, la justice, l'éducation, les infrastructures critiques) doivent être documentés, auditables, et soumis à supervision humaine. Les chatbots ont une obligation de transparence : l'utilisateur doit savoir qu'il parle à une IA. Les deepfakes doivent être marqués comme tels.

⚔ En pratique : si votre organisation utilise de l'IA pour des décisions RH, du scoring client ou de l'évaluation de crédit, vous êtes probablement dans la catégorie "risque élevé" avec des obligations de documentation et d'audit qui s'appliquent progressivement entre 2025 et 2026.
La mise en place reste difficile pour beaucoup d\'organisations. Les textes sont dispersés entre règlement principal, actes délégués et codes de conduite sectoriels. Les PME n\'ont souvent ni équipe juridique dédiée ni capacité à tracer l\'historique des décisions de leurs systèmes. Résultat : certains projets sont reportés ou abandonnés, et les fournisseurs américains et chinois progressent plus vite sur leur marché domestique. Un débat réel existe sur l\'équilibre entre protection des citoyens européens et compétitivité de l\'écosystème IA européen. Le législateur a intégré cette tension dans le texte — exemptions pour la recherche, régime allégé pour les modèles open-source en deçà d\'un seuil de calcul — mais la régulation reste plus contraignante qu\'aux États-Unis ou en Chine.
Exercice — Classez selon l'EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque.
📋
Quel niveau de risque ?
Touchez un système, puis son niveau EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque.
+20 XP
👆 Sélectionnez un système IA, puis tapez le niveau de risque approprié.
IA de scoring de crédit bancaire
Filtre anti-spam email
Notation sociale des citoyens
Chatbot service client
Risque inacceptable — interdit
Risque élevé — obligations de documentation
Risque limité — obligation de transparence
Risque minimal — pas d'obligation spécifique
Pour en savoir plus — EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque. (texte officiel consolidé, artificialintelligenceact.eu)
Module 05 / 4 sur 5

Le futur de l'IA — tendances & horizon

Veille stratégique+20 XP

L'IA évolue vite : l'observation est banale, mais les trajectoires sont moins uniformes qu'on ne le dit. Trois tendances paraissent structurantes pour les organisations à horizon trois à cinq ans.

La multimodalité généralisée : les modèles traitent désormais texte, image, audio, vidéo et code dans un même système. GPT-4o, Gemini 1.5 Pro, Claude 3.5 en sont les premières incarnations commerciales. Cela ouvre des cas d'usage qui étaient impossibles quand ces modalités devaient être traitées séparément.

Les agents autonomes : des systèmes capables d'opérer pendant des heures sans supervision : naviguer sur le web, écrire et exécuter du code, gérer des fichiers. Les premiers outils montrent un potentiel réel, assorti de risques réels sur les actions irréversibles.

Les modèles plus petits et locaux : la course aux paramètresPoids ajustables d'un réseau de neurones. Les plus gros modèles en comptent plus de mille milliards. Ils encodent tout ce que le modèle a appris. ralentit. Des modèles bien plus compacts, capables de tourner sur un ordinateur portable ou un téléphone (Llama, Phi, Mistral), redistribuent les cartes : moins de dépendance cloud, meilleure confidentialité des données, usage hors connexion.

La question pertinente n'est plus "l'IA va-t-elle changer mon secteur ?" Elle est "à quelle vitesse, et comment me positionner pour que ce changement soit une amplification de mes compétences plutôt qu'un remplacement ?"
Exercice — Horizon temporel
🔭
Maintenant ou futur ?
Classez ces capacités IA selon leur disponibilité actuelle
+20 XP
👆 Sélectionnez une capacité, puis tapez la colonne.
Chatbot conversationnel multilingue
Intelligence artificielle générale (AGI)
Analyse conjointe texte + image + audio
IA consciente et intentionnelle
Agent IA opérant un ordinateur de façon autonome
Prédiction parfaite du futur
✓ Disponible aujourd'hui
⌛ Pas encore / jamais
Pour en savoir plus — Bubeck et al., "Sparks of AGI: Early Experiments with GPT-4" (2023, arXiv) — analyse fondatrice des capacités émergentes
🏆
Validez vos acquis
+40 XP
1. Un biais dans un modèle d'IA vient principalement de :
Une erreur de programmation à corriger
Les données d'entraînement, le design et le contexte de déploiement
Une intention malveillante des développeurs
2. Sous l'EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. Classe les systèmes par niveau de risque., un système IA utilisé pour évaluer des candidatures à l'emploi est classé :
Risque minimal — pas d'obligation
Risque élevé — exige documentation, audit, supervision humaine
Risque inacceptable — interdit
3. Le RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle. (Reinforcement Learning from Human Feedback) sert à :
Accélérer l'entraînement d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. en réduisant les données nécessaires
Aligner le comportement du modèle sur les préférences humaines via des évaluations comparatives
Supprimer toutes les hallucinationsPhénomène où un LLM produit une information fausse avec autant d'assurance que s'il énonçait un fait établi. d'un modèle
Pour en savoir plus — Ouyang et al., "Training Language Models with Human Feedback" (2022, arXiv) — InstructGPT & RLHFReinforcement Learning from Human Feedback. Technique d'alignement où des évaluateurs humains comparent des paires de réponses, guidant le comportement du modèle.
Module 06 / 1 sur 5

Choisir un modèle — la question que tout le monde finit par poser

Décision+15 XP⏱ 3 min

GPT-5, Claude, Gemini, Llama, Mistral. Le marché des grands modèles de langageRéseau de neurones entraîné sur des centaines de milliards de mots pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des grands modèles de langage. s'est peuplé rapidement, et la question revient dans toutes les organisations qui commencent à travailler sérieusement avec l'IA : lequel choisir, et selon quels critères ?

La réponse honnête est que le "meilleur modèle" n'existe pas en absolu. Il existe le modèle le plus adapté à une tâche, un contexte de déploiement, un budget et un niveau d'exigence sur la confidentialité des données.

Quatre critères structurent tout choix de modèle : capacités (ce qu'il sait faire), coût (ce que ça coûte à l'usage), confidentialité (où vont vos données), contraintes techniques (latence, intégration, disponibilité). Rarement un seul modèle gagne sur les quatre.
Exercice — Quel critère prime ?
🎯
Selon le cas d'usage, quel critère est déterminant ?
Associez chaque situation à son critère prioritaire
+15 XP
👆 Sélectionnez une situation, puis tapez le critère correspondant.
Analyser des contrats clients confidentiels
Générer 10 000 résumés de fiches produit par jour
Répondre à des questions complexes en plusieurs langues
Déployer un assistant sur un appareil sans connexion internet
Confidentialité — les données ne doivent pas quitter votre infrastructure
Coût — le volume d'appels rend le prix par tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. déterminant
Capacités — la qualité de raisonnement et la couverture linguistique priment
Contraintes techniques — un modèle local est indispensable
Pour en savoir plus — Liang et al., "Holistic Evaluation of Language Models" (2023, arXiv) — cadre d'évaluation multi-critères
Module 06 / 2 sur 5

Les benchmarksTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. — ce qu'ils mesurent vraiment

Évaluation+20 XP⏱ 3 min

Les classements de modèles se multiplient : MMLU, HumanEval, HellaSwag, LMSYS Chatbot Arena. Avant d'y accorder du crédit, il faut comprendre ce qu'ils mesurent, et ce qu'ils ne mesurent pas.

Un benchmarkTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. mesure la performance d'un modèle sur un ensemble de questions ou de tâches standardisées. Le problème : les modèles sont souvent entraînés en partie sur ces questions elles-mêmes, ce qui gonfle artificiellement les scores. On appelle ça la contamination des donnéesPhénomène où un modèle a été entraîné sur des données incluant les questions des benchmarks, gonflant artificiellement ses scores. d'évaluation.

Les benchmarksTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. les plus courants testent des capacités précises. MMLU évalue des connaissances factuelles dans 57 domaines. HumanEval mesure la qualité du code généré. LMSYS Chatbot Arena est différent : c'est un tournoi humain, où des utilisateurs réels comparent des réponses à l'aveugle. Ce critère reste le plus difficile à truquer, et souvent le plus utile.

Un modèle en tête des benchmarksTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. n'est pas nécessairement le meilleur pour votre usage. Un modèle excellent en mathématiques peut être médiocre pour reformuler des emails en français. Testez toujours sur vos propres cas.
⚔ La règle Glokus : construisez votre propre mini-benchmarkTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. de 10 à 20 tâches représentatives de votre usage. C'est court, gratuit, et infiniment plus pertinent que n'importe quel classement public.
Quiz — Lire un benchmarkTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives.
📊
Que vaut vraiment un classement ?
+20 XP
Un modèle obtient 92% sur MMLU et dépasse tous ses concurrents. Quelle est la limite principale de cette conclusion ?
Le modèle n'a été testé que sur des questions en anglais
Le score peut être gonflé par contamination des donnéesPhénomène où un modèle a été entraîné sur des données incluant les questions des benchmarks, gonflant artificiellement ses scores., et ne prédit pas les performances sur votre usage spécifique
MMLU ne teste que le code, pas les connaissances générales
Pour en savoir plus — Liang et al., "Holistic Evaluation of Language Models" (2023, arXiv)
Module 06 / 3 sur 5

Propriétaire ou open-source — ce que ça change vraiment

Stratégie+20 XP⏱ 3 min

Les modèles propriétaires (GPT-5, Claude, Gemini) sont accessibles uniquement via des API payantes. Vous n'avez pas accès aux poids du modèle, pas de contrôle sur les mises à jour, et vos données transitent par les serveurs du fournisseur.

Les modèles open-source (Llama, Mistral, Phi) sont téléchargeables et déployables sur votre propre infrastructure. Vous contrôlez tout, mais vous êtes responsable de l'hébergement, de la sécurité et de la maintenance.

En pratique, la distinction s'est nuancée. Des modèles open-source récents comme Llama 3 ou Mistral Large rivalisent avec les modèles propriétaires sur de nombreuses tâches. Et certains fournisseurs propriétaires proposent des offres "données isolées" qui répondent aux exigences de confidentialité.

Le vrai critère n'est pas propriétaire vs open-source — c'est où sont hébergées vos données et qui contrôle les mises à jour. Une organisation qui ne peut pas se permettre qu'un modèle change de comportement sans préavis doit soit fixer la version de l'API, soit héberger elle-même.
Le RGPDRèglement Général sur la Protection des Données. Réglementation européenne sur la protection des données personnelles, en vigueur depuis 2018. et le droit français imposent de savoir où vos données personnelles sont traitées. Avant tout déploiement impliquant des données clients, vérifiez les conditions de traitement du fournisseur et, si nécessaire, signez un DPAData Processing Agreement. Contrat encadrant le traitement de données personnelles par un prestataire, requis par le RGPD. (Data Processing Agreement).
Exercice — Quel modèle pour quel contexte ?
⚖️
Propriétaire ou open-source ?
Associez chaque contrainte à l'approche adaptée
+20 XP
👆 Sélectionnez une contrainte, puis tapez la colonne.
Données médicales — aucun transit externe autorisé
Prototype rapide pour un test interne non sensible
Besoin de modifier le comportement du modèle en profondeur
Accès aux meilleures capacités multimodales du marché
🔒 Open-source auto-hébergé
☁️ Propriétaire via API
Pour en savoir plus — EU AI ActPremier cadre légal mondial complet sur l'IA, entré en vigueur en août 2024. — obligations de transparence et de traçabilité des données
Module 06 / 4 sur 5

Le coût réel d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. en production

Finance+20 XP⏱ 3 min

Les tarifs des API LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. s'expriment en coût pour mille tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. en entrée et en sortie. Les modèles propriétaires haut de gamme coûtent typiquement entre 2 et 15$ par million de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. en entrée et 0,03$ en sortie. Claude 3.5 Sonnet : 0,003$ et 0,015$. Des modèles open-source auto-hébergés peuvent descendre à moins de 0,001$.

Ces chiffres semblent faibles. Ils cessent de l'être à l'échelle. Un chatbot qui traite 10 000 conversations par jour, avec un system promptInstructions envoyées au modèle avant chaque conversation. Définissent le rôle, les règles et le périmètre. de 1 000 tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. et des échanges moyens de 2 000 tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français., consomme 30 millions de tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. par jour, soit plusieurs milliers d'euros par mois sur un modèle haut de gamme.

Le coût d'inférence n'est qu'une partie du coût réel. S'y ajoutent le coût de développement et d'intégration, la maintenance, l'hébergement si vous auto-hébergez, et le coût humain de supervision des sorties.

⚔ Avant tout déploiement à l'échelle, faites le calcul. Volume quotidien × tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. moyens par appel × prix par tokenUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. × 30 = budget mensuel estimé. Ajoutez 30% pour les pics et les tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. de débogage.
Exercice — Estimez un budget
💰
Quel ordre de grandeur ?
+20 XP
Un assistant RH répond à 500 questions par jour. Chaque appel consomme en moyenne 2 000 tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. (prompt + réponse). Le modèle coûte 0,002$ pour 1 000 tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français.. Quel est le coût mensuel estimé ?
Environ 2$ par mois
Environ 60$ par mois
Environ 600$ par mois
Pour en savoir plus — OpenAI Pricing — comparatif des tarifs par modèle
🏆
Validez vos acquis
+35 XP
1. Pourquoi un score élevé sur un benchmarkTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. public est-il insuffisant pour choisir un modèle ?
Les benchmarksTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. ne testent que l'anglais
Les scores peuvent être gonflés et ne prédisent pas les performances sur votre usage spécifique
Les benchmarksTest standardisé qui mesure les performances d'un modèle sur un ensemble de tâches ou de questions représentatives. sont réservés aux chercheurs, pas aux entreprises
2. Une entreprise traite des données médicales confidentielles. Quelle approche s'impose ?
Un modèle propriétaire via API — c'est le plus performant
Un modèle open-source déployé sur une infrastructure interne contrôlée
N'importe quel modèle, à condition d'activer le chiffrement
3. Quel est le principal risque à ignorer lors de la montée en charge d'un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. en production ?
Le modèle peut refuser de répondre au-delà d'un certain volume
Le coût en tokensUnité de base du traitement textuel dans un LLM. Un token correspond en moyenne à trois quarts d'un mot en français. peut devenir significatif à grande échelle, même avec un tarif bas à l'unité
Les modèles deviennent moins précis quand ils traitent beaucoup de requêtes simultanées
Pour en savoir plus — Liang et al., "Holistic Evaluation of Language Models" (2023, arXiv)
Module 07 / 1 sur 5

Identifier où l'IA crée vraiment de la valeur

Stratégie+15 XP⏱ 3 min

Comprendre comment fonctionne un grand modèle de langageRéseau de neurones entraîné sur des centaines de milliards de mots pour prédire le token suivant. GPT-5, Claude, Gemini, Llama et Mistral sont des grands modèles de langage. ne suffit pas pour savoir où l'utiliser. La question la plus difficile n'est pas technique mais organisationnelle : dans quel processus existant l'IA apporte-t-elle vraiment de la valeur, sans créer de nouveaux risques ?

Les projets IA qui échouent ne manquent pas de technologie. Ils manquent d'une définition précise du problème qu'ils cherchent à résoudre. Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. greffé sur un processus mal compris produira des résultats mal compris, avec une assurance déconcertante.

Le cadre le plus utile pour identifier un bon cas d'usage : distinguer les tâches qui demandent du volume (répétitives, codifiables, à faible enjeu individuel) de celles qui demandent du jugement (complexes, contextuelles, à fort enjeu). L'IA excelle sur les premières. Les secondes nécessitent un humain — au moins pour valider.
Exercice — Volume ou jugement ?
⚖️
Classez ces tâches
Tâche de volume ou tâche de jugement ?
+15 XP
👆 Sélectionnez une tâche, puis tapez la colonne.
Résumer 200 retours clients en 5 points clés
Décider d'accorder un crédit à un client
Rédiger un premier jet d'email de relance
Licencier un collaborateur pour insuffisance professionnelle
Classer des tickets support par thème
Choisir la stratégie de prix pour un nouveau marché
⚙ Tâche de volume — IA pertinente
🧠 Tâche de jugement — humain indispensable
Pour en savoir plus — Davenport & Ronanki, "Artificial Intelligence for the Real World" (HBR, 2018)
Module 07 / 2 sur 5

Les cinq questions d'un bon cahier des charges IA

Méthode+20 XP⏱ 3 min

Avant d'écrire une ligne de prompt ou de contacter un fournisseur, cinq questions doivent recevoir une réponse écrite. Pas une réponse verbale dans une réunion mais une réponse écrite, partagée, qui fait consensus dans l'équipe.

Quel problème précis résout-on ? "Améliorer la productivité" n'est pas une réponse. "Réduire de 40% le temps passé à rédiger les comptes-rendus de réunion" en est une.

Quelles données d'entrée ? Sont-elles disponibles, propres, légalement utilisables, représentatives des cas réels ?

Comment mesure-t-on le succès ? Un KPIKey Performance Indicator. Indicateur mesurable utilisé pour évaluer la performance d'un processus ou d'un projet. concret et mesurable avant le lancement, pas après.

Qui supervise et qui est responsable des erreurs ? "L'IA" n'est pas une réponse valide à cette question.

Quelle est la stratégie de sortie ? Que se passe-t-il si le fournisseur augmente ses prix de 300%, ou si le modèle change de comportement ? Un projet IA sans plan B crée une dépendance risquée.

⚔ Ces cinq questions semblent évidentes. Elles le sont. Et pourtant la majorité des projets IA en entreprise démarrent sans réponse claire à au moins trois d'entre elles.
Exercice — Cahier des charges incomplet
📋
Identifiez les lacunes
Quel élément essentiel manque dans ce projet ?
+20 XP
"On va mettre en place un chatbot RH alimenté par notre documentation interne. On utilisera un LLM via l'API. L'objectif est de réduire les sollicitations de l'équipe RH de 30%. On prévoit de lancer en mars."
Parmi les cinq questions du cahier des charges, laquelle est absente ?
Le choix du modèle — un LLM propriétaire n'est peut-être pas le mieux adapté
La stratégie de sortie et la responsabilité en cas d'erreur du chatbot
La date de lancement — mars est trop tôt
Pour en savoir plus — Davenport & Ronanki, "Artificial Intelligence for the Real World" (HBR)
Module 07 / 3 sur 5

Estimer un ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. — sans se mentir

Finance+20 XP⏱ 3 min

Le ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. d'un projet IA est souvent surestimé avant le lancement et décevant après. Deux erreurs récurrentes en sont responsables.

La première est de confondre gain de temps et gain économique. "L'IA économise 2 heures par semaine par collaborateur" sonne bien. Mais si ces 2 heures ne sont pas réallouées à une tâche à plus haute valeur, l'économie réelle est nulle. Le vrai indicateur est ce que font les collaborateurs du temps libéré.

La deuxième est d'oublier les coûts cachés. Intégration technique, formation des utilisateurs, maintenance, supervision des sorties, gestion des erreurs : ces coûts sont réels et rarement anticipés. Les projets IA qui semblent gratuits en phase de test deviennent coûteux en phase de production.

Un ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. IA réaliste ressemble à ceci : gain mesuré (temps, qualité, volume traité) moins coût total (développement + API + maintenance + supervision) sur 12 mois. Si vous ne pouvez pas remplir les deux colonnes avant de démarrer, le projet n'est pas encore prêt.
Méfiez-vous des ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. calculés uniquement sur la phase pilotePhase de test restreinte d'un projet sur un périmètre limité (quelques utilisateurs, quelques semaines) avant déploiement à l'échelle.. Les coûts d'un pilotePhase de test restreinte d'un projet sur un périmètre limité (quelques utilisateurs, quelques semaines) avant déploiement à l'échelle. sur 50 utilisateurs ne se multiplient pas linéairement à 5 000 utilisateurs — mais les problèmes, eux, oui.
Quiz — ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. réaliste ou optimiste ?
📈
Évaluez ce calcul de ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue.
+20 XP
Une équipe de 10 personnes utilise un outil IA qui leur économise 1h par jour. Le DG annonce "10h économisées par jour, soit 2 500h par an, valeur 125 000€ au coût horaire moyen". Quel est le problème ?
Le calcul est juste — 125 000€ est un ROIReturn on Investment. Ratio entre le gain net et le coût d'un projet, exprimé en pourcentage ou en valeur absolue. réaliste
Le calcul ne traduit pas en économie réelle si le temps libéré n'est pas réalloué à une tâche à valeur équivalente
Le calcul devrait inclure les 10 salaires complets, pas seulement le coût horaire
Pour en savoir plus — Davenport & Ronanki, "AI for the Real World" (HBR, 2018)
Module 07 / 4 sur 5

Les pièges classiques du premier projet IA

Cas pratiques+20 XP⏱ 3 min

La plupart des premiers projets IA en entreprise échouent de la même façon. Non pas à cause de la technologie, mais à cause de quatre erreurs organisationnelles récurrentes.

Commencer par le modèle, pas par le problème. "On va faire quelque chose avec un LLM" est une mauvaise amorce. Le modèle doit être la réponse à un problème identifié, pas le point de départ.

Sous-estimer la qualité des données. Un LLMLarge Language Model. Grand modèle de langage entraîné sur des volumes massifs de texte. GPT-5, Claude, Gemini, Llama et Mistral sont des LLMs. est aussi bon que ce qu'on lui donne. Des documents mal structurés, des données incomplètes ou des instructions contradictoires produisent des résultats inutilisables, même avec le meilleur modèle du moment.

Sauter la phase pilotePhase de test restreinte d'un projet sur un périmètre limité (quelques utilisateurs, quelques semaines) avant déploiement à l'échelle.. Déployer directement à l'échelle sans tester sur un périmètre restreint est la façon la plus efficace de créer un incident visible. Un pilotePhase de test restreinte d'un projet sur un périmètre limité (quelques utilisateurs, quelques semaines) avant déploiement à l'échelle. de 4 semaines sur 10 utilisateurs révèle 80% des problèmes.

Oublier l'adoption. Un outil IA non utilisé ne crée aucune valeur. La formation, la communication sur les bénéfices et l'accompagnement au changement sont aussi importants que le développement technique.

⚔ Le premier projet IA d'une organisation doit être choisi pour sa visibilité et sa facilité de mesure, pas pour son ambition. Un succès modeste mais démontrable vaut infiniment mieux qu'un grand projet dont personne ne peut mesurer l'impact.
Exercice — Identifiez le piège
⚠️
Quel piège se cache ici ?
Associez chaque situation à son problème structurel
+20 XP
👆 Sélectionnez une situation, puis tapez le piège correspondant.
Le chatbot est déployé en production le jour du lancement, sans test préalable
Le projet démarre avec "on va utiliser l'IA pour notre service client"
Les réponses du modèle sont bonnes mais les équipes continuent à faire à la main
Les documents sources sont des PDFs scannés non structurés
Commencer par le modèle, pas par le problème
Sous-estimer la qualité des données
Sauter la phase pilotePhase de test restreinte d'un projet sur un périmètre limité (quelques utilisateurs, quelques semaines) avant déploiement à l'échelle.
Oublier l'adoption
Pour en savoir plus — Davenport & Ronanki, "Artificial Intelligence for the Real World" (HBR, 2018)
🏆
Validez vos acquis
+35 XP
1. L'IA crée le plus de valeur sur les tâches qui sont :
Complexes, créatives et à fort enjeu stratégique
Répétitives, à fort volume et à faible enjeu individuel
Réservées aux experts techniques uniquement
2. Une équipe annonce "l'IA nous a fait gagner 1 000 heures cette année". Quelle question poser en premier ?
Quel modèle d'IA avez-vous utilisé ?
Qu'avez-vous fait de ces 1 000 heures ?
Combien de collaborateurs ont participé ?
3. Quel est le premier projet IA idéal pour une organisation qui démarre ?
Le plus ambitieux, pour marquer les esprits
Celui dont l'impact est le plus visible et le plus facile à mesurer
Celui qui implique le plus de données disponibles
Pour en savoir plus — Davenport & Ronanki, "Artificial Intelligence for the Real World" (HBR, 2018)
Continuez votre parcours
Vous avez parcouru les bases. La suite — 7 modules, 35 leçons, tous les exercices interactifs — vous attend.
Abonnement mensuel
5,90 € /mois · résiliable
Accès complet, résiliable à tout moment.
🔒Paiement sécurisé par Stripe
← Revenir au hub sans s'abonner

Révolution IA : c'est le moment de comprendre.

Sortez de l'urgence, sortez du lot.

kAIros : des micro-modules de 5 minutes pour comprendre les rouages derrière la révolution IA.

Connexion
Inscription
Email
Mot de passe
— ou —
Accès aux leçons gratuites · rien n\u2019est enregistré
· · © 2026 Glokus
Contact

Une question, une remarque, un besoin de formation pour votre équipe ? N'hésitez pas à nous écrire ou à nous appeler.

Téléphone