From 8e234cf983166cc71c046cbf111a50b63a1f1346 Mon Sep 17 00:00:00 2001 From: spham Date: Wed, 12 Nov 2025 18:56:47 +0100 Subject: [PATCH] =?UTF-8?q?Am=C3=A9lioration=20des=20flashcards=20pour=20p?= =?UTF-8?q?lus=20de=20clart=C3=A9?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Restructuration complète des flashcards avec : - Question/définition explicite - Exemples concrets avec chiffres - Interprétation pratique - Séparation claire formule / signification Avant : "Formule - TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ?" Après : Question claire + formule + exemple concret (spam) + interprétation Cela rend l'apprentissage plus intuitif et moins confus. 🤖 Generated with [Claude Code](https://claude.com/claude-code) --- docs/EXAMEN.md | 124 +++++++++++++++++++++++++++++++++++++++++-------- 1 file changed, 104 insertions(+), 20 deletions(-) diff --git a/docs/EXAMEN.md b/docs/EXAMEN.md index dc2047e..2bf412b 100644 --- a/docs/EXAMEN.md +++ b/docs/EXAMEN.md @@ -561,53 +561,137 @@ Quelles sont les causes possibles et les solutions ? ## Partie 5 : Flashcards (Révision rapide) ### Epoch -
Définition -Une passe complète sur l'ensemble du training set +
Cliquez pour voir la définition + +**Définition :** Une passe complète sur l'ensemble du training set + +**Exemple :** Si vous avez 1000 échantillons et batch_size=100, une epoch = 10 batches
+--- + ### Batch -
Définition -Sous-ensemble de données traité simultanément (ex: 32 échantillons) +
Cliquez pour voir la définition + +**Définition :** Sous-ensemble de données traité simultanément pendant l'entraînement + +**Exemple :** batch_size=32 signifie que le modèle traite 32 échantillons avant de mettre à jour les poids
+--- + ### Loss function -
Rôle -Mesure l'écart entre prédictions et vraies valeurs. Le modèle cherche à la minimiser. +
Cliquez pour voir la définition + +**Définition :** Fonction qui mesure l'écart entre les prédictions du modèle et les vraies valeurs + +**Rôle :** Le modèle cherche à minimiser cette valeur pendant l'entraînement + +**Exemple :** binary_crossentropy pour classification binaire
+--- + ### Backpropagation -
Définition -Méthode de calcul des gradients via la chaîne des dérivées. Permet de mettre à jour les poids. +
Cliquez pour voir la définition + +**Définition :** Méthode de calcul des gradients via la chaîne des dérivées + +**Rôle :** Permet de calculer comment ajuster chaque poids pour réduire la loss + +**Processus :** Forward pass (calcul) → Loss → Backward pass (ajustement des poids)
+--- + ### ReLU -
Formule et rôle -f(x) = max(0, x). Introduit la non-linéarité, évite vanishing gradient. +
Cliquez pour voir la définition + +**Formule :** f(x) = max(0, x) + +**Rôle :** Fonction d'activation qui introduit la non-linéarité + +**Avantages :** +- Évite le vanishing gradient +- Calcul très rapide +- Permet d'apprendre des fonctions complexes
+--- + ### Sigmoid -
Utilisation -Classification binaire. Transforme la sortie en probabilité [0, 1]. +
Cliquez pour voir la définition + +**Formule :** f(x) = 1 / (1 + e^(-x)) + +**Rôle :** Transforme n'importe quelle valeur en probabilité entre 0 et 1 + +**Utilisation :** Classification binaire (couche de sortie) + +**Exemple :** Output = 0.85 signifie 85% de probabilité pour la classe 1
+--- + ### Precision -
Formule -TP / (TP + FP). Parmi les prédictions positives, combien sont correctes ? +
Cliquez pour voir la définition + +**Question :** Parmi toutes mes prédictions positives, combien sont vraiment correctes ? + +**Formule :** Precision = TP / (TP + FP) + +**Exemple concret :** Sur 100 emails que j'ai marqués comme spam, combien sont vraiment des spams ? +- 90 vrais spams (TP) + 10 faux spams (FP) = Precision = 90/100 = 90% + +**Interprétation :** Haute precision = peu de faux positifs
+--- + ### Recall -
Formule -TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ? +
Cliquez pour voir la définition + +**Question :** Parmi tous les vrais positifs qui existent, combien ai-je réussi à détecter ? + +**Formule :** Recall = TP / (TP + FN) + +**Exemple concret :** Il y a 100 spams dans ma boîte mail. Combien en ai-je détectés ? +- 85 spams détectés (TP) + 15 spams ratés (FN) = Recall = 85/100 = 85% + +**Interprétation :** Haut recall = peu de faux négatifs (je rate peu de positifs)
+--- + ### Overfitting -
Signes -Train accuracy >> Test accuracy. Val_loss augmente alors que train_loss diminue. +
Cliquez pour voir la définition + +**Définition :** Le modèle mémorise les données d'entraînement au lieu d'apprendre les patterns généraux + +**Signes à détecter :** +- Train accuracy >> Test accuracy (ex: 99% vs 70%) +- Val_loss augmente alors que train_loss diminue +- Gap important entre performances train et test + +**Causes :** Modèle trop complexe, entraînement trop long, pas assez de données + +**Solutions :** Early stopping, régularisation (L2, Dropout), plus de données
+--- + ### Underfitting -
Signes -Train et test accuracy basses et similaires. Le modèle est trop simple. +
Cliquez pour voir la définition + +**Définition :** Le modèle est trop simple pour capturer les patterns dans les données + +**Signes à détecter :** +- Train accuracy ≈ Test accuracy (mais les deux sont basses) +- Exemple : 65% sur train, 63% sur test + +**Causes :** Modèle trop simple, pas assez d'entraînement, features insuffisantes + +**Solutions :** Modèle plus complexe, plus d'epochs, feature engineering
---