L'IA prédit. Elle ne pense pas.
- Type: Simulateur Interactive
- Programme: AI Crash Course
- Niveau: Débutant à intermédiaire
L'IA prédit.
Elle ne pense pas.
Manipule les paramètres. Observe les effets. Construis l'intuition.
Questions fréquentes
Ce laboratoire interactif traduit en expérience concrète un principe fondamental : l’IA ne pense pas, elle prédit. En manipulant les paramètres — température, structure du prompt, séquence de tokens — tu construis une intuition réelle du mécanisme, pas seulement une compréhension théorique. Trois modules, une seule règle à retenir.
C'est quoi exactement la "température" dans le module Prédicteur ?
La température contrôle à quel point l’IA s’écarte du token le plus probable. À 0.1, elle choisit presque toujours le mot le plus attendu — les réponses sont prévisibles, répétitives. À 1.8, elle pioche dans des tokens peu probables — les réponses deviennent créatives, parfois incohérentes. En pratique, les modèles production tournent entre 0.6 et 1.0. Fais glisser le curseur et observe comment la coloration des tokens change : vert = haute confiance, rouge = prise de risque.
Pourquoi le prompt vague produit-il toujours une réponse générique ?
Parce que l’IA calcule la suite statistiquement la plus probable de ce que tu as écrit. “Aide-moi avec mon travail” est une phrase que des millions de contextes différents ont produite — la continuation la plus fréquente dans le corpus d’entraînement est nécessairement générique. Un prompt structuré encode un contexte précis (rôle, format, contrainte, objectif) : la distribution de probabilité se rétrécit autour de tokens pertinents pour ce contexte spécifique. Même modèle, même paramètres — seul l’input change.
Dans le simulateur mot par mot, pourquoi mes choix modifient-ils les options suivantes ?
C’est précisément le mécanisme autorégressif : chaque token généré devient partie du contexte pour prédire le suivant. En choisissant “difficile” après “Le client est”, tu orientes toutes les prédictions suivantes vers des continuations compatibles avec une friction. En choisissant “satisfait”, tu ouvres un espace de continuations positives. L’IA ne planifie pas la phrase entière — elle recalcule à chaque étape. C’est pourquoi le contexte initial est si déterminant.
L'entropie affichée dans les métriques, ça veut dire quoi concrètement ?
L’entropie mesure l’incertitude de la distribution à chaque étape. Une entropie faible (proche de 0) signifie que l’IA était très sûre de son choix — peu d’alternatives crédibles. Une entropie élevée (proche de 3-4) signifie que plusieurs tokens étaient quasi-équiprobables — la décision était ambiguë. En pratique : entropie faible = contexte bien contraint, réponse prévisible ; entropie haute = contexte flou, réponse variable. Augmente la température pour voir l’entropie grimper.
Ce laboratoire simule vraiment le comportement d'un vrai LLM ?
Il simule le principe, pas les paramètres réels. Un vrai LLM gère des dizaines de milliers de tokens en vocabulaire, des centaines de milliards de paramètres, et une fenêtre de contexte de plusieurs dizaines de milliers de tokens. Ce laboratoire utilise un corpus simplifié pour rendre le mécanisme visible et manipulable. Ce qui est fidèle : la mécanique de température, la prédiction séquentielle, l’impact du contexte sur la distribution. Ce qui est simplifié : la taille du vocabulaire, la profondeur du modèle, les vraies probabilités. L’intuition construite ici est transférable directement aux modèles de production.