Amélioration des flashcards pour plus de clarté

Restructuration complète des flashcards avec :
- Question/définition explicite
- Exemples concrets avec chiffres
- Interprétation pratique
- Séparation claire formule / signification

Avant : "Formule - TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ?"
Après : Question claire + formule + exemple concret (spam) + interprétation

Cela rend l'apprentissage plus intuitif et moins confus.

🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
spham 2025-11-12 18:56:47 +01:00
parent b4294cdaa1
commit 8e234cf983

View File

@ -561,53 +561,137 @@ Quelles sont les causes possibles et les solutions ?
## Partie 5 : Flashcards (Révision rapide)
### Epoch
<details><summary>Définition</summary>
Une passe complète sur l'ensemble du training set
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Une passe complète sur l'ensemble du training set
**Exemple :** Si vous avez 1000 échantillons et batch_size=100, une epoch = 10 batches
</details>
---
### Batch
<details><summary>Définition</summary>
Sous-ensemble de données traité simultanément (ex: 32 échantillons)
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Sous-ensemble de données traité simultanément pendant l'entraînement
**Exemple :** batch_size=32 signifie que le modèle traite 32 échantillons avant de mettre à jour les poids
</details>
---
### Loss function
<details><summary>Rôle</summary>
Mesure l'écart entre prédictions et vraies valeurs. Le modèle cherche à la minimiser.
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Fonction qui mesure l'écart entre les prédictions du modèle et les vraies valeurs
**Rôle :** Le modèle cherche à minimiser cette valeur pendant l'entraînement
**Exemple :** binary_crossentropy pour classification binaire
</details>
---
### Backpropagation
<details><summary>Définition</summary>
Méthode de calcul des gradients via la chaîne des dérivées. Permet de mettre à jour les poids.
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Méthode de calcul des gradients via la chaîne des dérivées
**Rôle :** Permet de calculer comment ajuster chaque poids pour réduire la loss
**Processus :** Forward pass (calcul) → Loss → Backward pass (ajustement des poids)
</details>
---
### ReLU
<details><summary>Formule et rôle</summary>
f(x) = max(0, x). Introduit la non-linéarité, évite vanishing gradient.
<details><summary>Cliquez pour voir la définition</summary>
**Formule :** f(x) = max(0, x)
**Rôle :** Fonction d'activation qui introduit la non-linéarité
**Avantages :**
- Évite le vanishing gradient
- Calcul très rapide
- Permet d'apprendre des fonctions complexes
</details>
---
### Sigmoid
<details><summary>Utilisation</summary>
Classification binaire. Transforme la sortie en probabilité [0, 1].
<details><summary>Cliquez pour voir la définition</summary>
**Formule :** f(x) = 1 / (1 + e^(-x))
**Rôle :** Transforme n'importe quelle valeur en probabilité entre 0 et 1
**Utilisation :** Classification binaire (couche de sortie)
**Exemple :** Output = 0.85 signifie 85% de probabilité pour la classe 1
</details>
---
### Precision
<details><summary>Formule</summary>
TP / (TP + FP). Parmi les prédictions positives, combien sont correctes ?
<details><summary>Cliquez pour voir la définition</summary>
**Question :** Parmi toutes mes prédictions positives, combien sont vraiment correctes ?
**Formule :** Precision = TP / (TP + FP)
**Exemple concret :** Sur 100 emails que j'ai marqués comme spam, combien sont vraiment des spams ?
- 90 vrais spams (TP) + 10 faux spams (FP) = Precision = 90/100 = 90%
**Interprétation :** Haute precision = peu de faux positifs
</details>
---
### Recall
<details><summary>Formule</summary>
TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ?
<details><summary>Cliquez pour voir la définition</summary>
**Question :** Parmi tous les vrais positifs qui existent, combien ai-je réussi à détecter ?
**Formule :** Recall = TP / (TP + FN)
**Exemple concret :** Il y a 100 spams dans ma boîte mail. Combien en ai-je détectés ?
- 85 spams détectés (TP) + 15 spams ratés (FN) = Recall = 85/100 = 85%
**Interprétation :** Haut recall = peu de faux négatifs (je rate peu de positifs)
</details>
---
### Overfitting
<details><summary>Signes</summary>
Train accuracy >> Test accuracy. Val_loss augmente alors que train_loss diminue.
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Le modèle mémorise les données d'entraînement au lieu d'apprendre les patterns généraux
**Signes à détecter :**
- Train accuracy >> Test accuracy (ex: 99% vs 70%)
- Val_loss augmente alors que train_loss diminue
- Gap important entre performances train et test
**Causes :** Modèle trop complexe, entraînement trop long, pas assez de données
**Solutions :** Early stopping, régularisation (L2, Dropout), plus de données
</details>
---
### Underfitting
<details><summary>Signes</summary>
Train et test accuracy basses et similaires. Le modèle est trop simple.
<details><summary>Cliquez pour voir la définition</summary>
**Définition :** Le modèle est trop simple pour capturer les patterns dans les données
**Signes à détecter :**
- Train accuracy ≈ Test accuracy (mais les deux sont basses)
- Exemple : 65% sur train, 63% sur test
**Causes :** Modèle trop simple, pas assez d'entraînement, features insuffisantes
**Solutions :** Modèle plus complexe, plus d'epochs, feature engineering
</details>
---