Didak'lab : explore, règle, expérimente l'IA

Connaissance & entraînement progressifs

Fais grandir pas à pas la bibliothèque d’une IA éducative. Elle répond avec assurance uniquement dans le rayon sélectionné. En dehors, elle le reconnaît et t’invite à changer d’étagère.

IA : Choisis mon niveau d’étude et pose ta question.

Analogie : imagine une personne qui apprend successivement une recette, puis un dictionnaire, puis une encyclopédie. Tant qu’elle n’a pas lu le bon livre, elle invente comme un élève qui n’a pas révisé. L’entraînement, c’est remplir ses étagères.

Interpolation avec un réseau de neurones

Imaginez que vous apprenez à un chef pâtissier à relier des cerises sur un gâteau : vos points sont les cerises et le réseau de neurones va tracer la crème qui les relie. Chaque commande ci-dessous influence la façon dont le chef apprend et mélange sa crème.

Clic gauche : ajouter un point
Clic gauche maintenu : dessiner en continu

Analogie : pensez à saupoudrer du sucre glace. Plus la densité est basse, plus vous pouvez saupoudrer finement sans faire de grumeaux. Plus elle est haute, plus vous espacerez vos gestes.

Couches cachées

Chaque couche est comme un laboratoire où une équipe de chercheurs affine la recette. Ajouter des couches revient à multiplier les étapes de préparation.

Placez au moins 2 points.
0 points
Analogie : c'est le thermostat d'un four. Si vous montez trop haut d'un coup, le gâteau brûle ; si vous restez trop bas, il ne cuit jamais.
Analogie : imaginez répéter un morceau de musique. Trop peu de répétitions et les fausses notes restent ; trop et vous vous épuisez sans gagner en précision.

Apprentissage, prédiction et génération

Observe comment une IA prédit le mot suivant à partir de probabilités calculées sur son expérience. Elle ne réfléchit pas comme un humain : elle joue aux devinettes statistiques mot après mot.

Analogie : l’IA est comme un·e météorologue des mots. Elle scrute les nuages de phrases qu’elle connaît pour deviner quel mot a le plus de chances de tomber ensuite. Elle ne pense pas au sens profond ; elle suit les statistiques comme on suit la météo.
En attente…

Explication : saisis une amorce de phrase, puis découvre les trois mots les plus probables. Leur pourcentage ressemble à un vote silencieux : le mot gagnant n’est pas forcément juste, mais il reste jugé le plus probable par le modèle.

Tokenization : comment l'IA découpe les mots

Découvre comment une IA divise les mots en petits morceaux appelés tokens. C'est comme découper une phrase en briques : chaque brique est un token que le modèle peut traiter.

Analogie : Imagine que tu dois expliquer une phrase à quelqu'un qui ne comprend que des mots très courts. Tu la découpes en petits morceaux compréhensibles. L'IA fait pareil avec les tokens.
0
Tokens
0
Caractères
0
Mots
0%
Ratio Tokens/Mots

ℹ️ À propos du BPE (Byte Pair Encoding)

Qu'est-ce que le BPE? Le BPE est un algorithme de tokenization utilisé par GPT et d'autres modèles modernes. Il divise les mots en sous-unités (tokens) en fusionnant progressivement les paires de caractères les plus fréquentes.
Comment ça fonctionne?
  • Les mots courants restent entiers (ex: "bonjour")
  • Les mots longs sont divisés en parties (ex: "extraordinaire" → "extra" + "ordinaire")
  • Chaque couleur représente un token différent
  • Les tokens commençant par ## sont des continuations de mots
Pourquoi c'est important? Le BPE réduit le nombre de tokens par rapport à une tokenization par caractères, ce qui économise des ressources et améliore l'efficacité des modèles d'IA.

Les tokens apparaîtront ici...

La salle de contrôle

Installe-toi aux commandes du modèle Mistral Nemo Instruct 2407. Ajuste chaque paramètre et observe l’impact direct sur les réponses. C’est un peu comme régler les curseurs d’un synthétiseur créatif.

Température = thermostat de créativité : à 0, l’IA récite, à 2 elle improvise comme un·e poète.
Top-p = loupe des possibilités : on garde uniquement les mots dans le pourcentage cumulatif choisi.
Comme un professeur vigilant : plus la pénalité est haute, plus il sanctionne les redondances.
Imagine un sablier : plus le nombre de tokens est grand, plus le sable autorisé à couler est abondant.

Réponse de l’IA

Prêt à répondre. Ajuste les curseurs puis envoie ta requête.

Note pédagogique : chaque paramètre agit sur une dimension particulière. Expérimente en gardant la même question, mais en changeant un seul curseur à la fois. Tu constateras que la température influe sur la fantaisie, le top-p sur la diversité, la pénalité sur la sobriété et la longueur max sur la richesse ou la concision.

L’IA, kézako ?

🔹 Découvre les ingrédients indispensables d’une intelligence artificielle moderne. Chaque point associe une définition claire, une analogie concrète et l’impact pédagogique à retenir.

  1. 1️⃣ Données d’entraînement

    Qu’est-ce que c’est ? La matière première de l’IA : textes, images, vidéos, sons… tout ce qu’elle va « lire » pour apprendre.

    Analogie : Comme un étudiant qui apprend l’histoire en lisant des livres. Plus ils sont nombreux, variés et fiables, mieux il maîtrise le sujet.

    Importance : Les erreurs ou biais contenus dans les données seront reproduits. D’où le fameux garbage in, garbage out.

  2. 2️⃣ Modèle (architecture)

    Qu’est-ce que c’est ? La structure du « cerveau » de l’IA, un réseau de neurones artificiels en plusieurs couches.

    Analogie : Comme un filtre à café : chaque couche affine le résultat.

    Exemples : GPT pour générer du texte, ResNet pour reconnaître des images.

  3. 3️⃣ Paramètres (poids)

    Qu’est-ce que c’est ? Les réglages internes ajustés pendant l’entraînement pour relier entrées et sorties.

    Analogie : Comparable aux souvenirs d’une personne : ils influencent ses réactions.

    Nombre : Les grands modèles possèdent des milliards de paramètres, presque autant que d’étoiles dans une galaxie.

  4. 4️⃣ Hyperparamètres

    Qu’est-ce que c’est ? Les réglages définis avant l’entraînement qui contrôlent la manière d’apprendre.

    Analogie : Comme la température et le temps de cuisson d’un gâteau.

    Exemples : Taux d’apprentissage, nombre d’époques, taille de batch. Mal réglés, ils freinent ou déréglent l’IA.

  5. 5️⃣ Fonction de perte

    Qu’est-ce que c’est ? Une mesure de l’erreur : elle indique la distance entre la réponse de l’IA et la bonne réponse.

    Analogie : Un professeur corrigeant une dictée.

    Types : Classification (ex. chat vs chien), régression (ex. prix d’une maison).

  6. 6️⃣ Optimiseur

    Qu’est-ce que c’est ? L’algorithme qui ajuste les paramètres pour réduire l’erreur.

    Analogie : Un GPS qui recalcule la route après chaque détour.

    Exemples : SGD, Adam.

  7. 7️⃣ Température (IA génératives)

    Qu’est-ce que c’est ? Le curseur qui contrôle la créativité ou le hasard des réponses.

    Analogie : Température 0 : copie fidèle. Température 1 : peinture libre et parfois fantasque.

    Impact : Plus la température est élevée, plus l’IA prend des risques.

  8. 8️⃣ Top-k et top-p

    Qu’est-ce que c’est ? Des méthodes qui limitent les choix de mots pour garder un texte cohérent.

    Analogie : Top-k = dictionnaire réduit aux k mots les plus probables. Top-p = mots couvrant un certain pourcentage de probabilité cumulative.

    But : Éviter de devenir monotone ou hors sujet.

  9. 9️⃣ Régularisation

    Qu’est-ce que c’est ? Des techniques pour empêcher l’IA de tout mémoriser et l’aider à généraliser.

    Analogie : Un élève qui apprend à comprendre plutôt qu’à réciter par cœur.

    Exemples : Dropout, pénalités L1/L2.

  10. 1️⃣0️⃣ Architecture spécifique

    Qu’est-ce que c’est ? Le choix du type de réseau selon la tâche.

    Analogie : Choisir le bon outil : pinceau pour peindre, marteau pour clouer.

    Exemples : Transformer pour le texte, CNN pour les images, RNN/LSTM pour les séries temporelles.