Amélioration des flashcards pour plus de clarté
Restructuration complète des flashcards avec : - Question/définition explicite - Exemples concrets avec chiffres - Interprétation pratique - Séparation claire formule / signification Avant : "Formule - TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ?" Après : Question claire + formule + exemple concret (spam) + interprétation Cela rend l'apprentissage plus intuitif et moins confus. 🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
parent
b4294cdaa1
commit
8e234cf983
124
docs/EXAMEN.md
124
docs/EXAMEN.md
@ -561,53 +561,137 @@ Quelles sont les causes possibles et les solutions ?
|
|||||||
## Partie 5 : Flashcards (Révision rapide)
|
## Partie 5 : Flashcards (Révision rapide)
|
||||||
|
|
||||||
### Epoch
|
### Epoch
|
||||||
<details><summary>Définition</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Une passe complète sur l'ensemble du training set
|
|
||||||
|
**Définition :** Une passe complète sur l'ensemble du training set
|
||||||
|
|
||||||
|
**Exemple :** Si vous avez 1000 échantillons et batch_size=100, une epoch = 10 batches
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Batch
|
### Batch
|
||||||
<details><summary>Définition</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Sous-ensemble de données traité simultanément (ex: 32 échantillons)
|
|
||||||
|
**Définition :** Sous-ensemble de données traité simultanément pendant l'entraînement
|
||||||
|
|
||||||
|
**Exemple :** batch_size=32 signifie que le modèle traite 32 échantillons avant de mettre à jour les poids
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Loss function
|
### Loss function
|
||||||
<details><summary>Rôle</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Mesure l'écart entre prédictions et vraies valeurs. Le modèle cherche à la minimiser.
|
|
||||||
|
**Définition :** Fonction qui mesure l'écart entre les prédictions du modèle et les vraies valeurs
|
||||||
|
|
||||||
|
**Rôle :** Le modèle cherche à minimiser cette valeur pendant l'entraînement
|
||||||
|
|
||||||
|
**Exemple :** binary_crossentropy pour classification binaire
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Backpropagation
|
### Backpropagation
|
||||||
<details><summary>Définition</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Méthode de calcul des gradients via la chaîne des dérivées. Permet de mettre à jour les poids.
|
|
||||||
|
**Définition :** Méthode de calcul des gradients via la chaîne des dérivées
|
||||||
|
|
||||||
|
**Rôle :** Permet de calculer comment ajuster chaque poids pour réduire la loss
|
||||||
|
|
||||||
|
**Processus :** Forward pass (calcul) → Loss → Backward pass (ajustement des poids)
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### ReLU
|
### ReLU
|
||||||
<details><summary>Formule et rôle</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
f(x) = max(0, x). Introduit la non-linéarité, évite vanishing gradient.
|
|
||||||
|
**Formule :** f(x) = max(0, x)
|
||||||
|
|
||||||
|
**Rôle :** Fonction d'activation qui introduit la non-linéarité
|
||||||
|
|
||||||
|
**Avantages :**
|
||||||
|
- Évite le vanishing gradient
|
||||||
|
- Calcul très rapide
|
||||||
|
- Permet d'apprendre des fonctions complexes
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Sigmoid
|
### Sigmoid
|
||||||
<details><summary>Utilisation</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Classification binaire. Transforme la sortie en probabilité [0, 1].
|
|
||||||
|
**Formule :** f(x) = 1 / (1 + e^(-x))
|
||||||
|
|
||||||
|
**Rôle :** Transforme n'importe quelle valeur en probabilité entre 0 et 1
|
||||||
|
|
||||||
|
**Utilisation :** Classification binaire (couche de sortie)
|
||||||
|
|
||||||
|
**Exemple :** Output = 0.85 signifie 85% de probabilité pour la classe 1
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Precision
|
### Precision
|
||||||
<details><summary>Formule</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
TP / (TP + FP). Parmi les prédictions positives, combien sont correctes ?
|
|
||||||
|
**Question :** Parmi toutes mes prédictions positives, combien sont vraiment correctes ?
|
||||||
|
|
||||||
|
**Formule :** Precision = TP / (TP + FP)
|
||||||
|
|
||||||
|
**Exemple concret :** Sur 100 emails que j'ai marqués comme spam, combien sont vraiment des spams ?
|
||||||
|
- 90 vrais spams (TP) + 10 faux spams (FP) = Precision = 90/100 = 90%
|
||||||
|
|
||||||
|
**Interprétation :** Haute precision = peu de faux positifs
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Recall
|
### Recall
|
||||||
<details><summary>Formule</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
TP / (TP + FN). Parmi les vrais positifs, combien ont été détectés ?
|
|
||||||
|
**Question :** Parmi tous les vrais positifs qui existent, combien ai-je réussi à détecter ?
|
||||||
|
|
||||||
|
**Formule :** Recall = TP / (TP + FN)
|
||||||
|
|
||||||
|
**Exemple concret :** Il y a 100 spams dans ma boîte mail. Combien en ai-je détectés ?
|
||||||
|
- 85 spams détectés (TP) + 15 spams ratés (FN) = Recall = 85/100 = 85%
|
||||||
|
|
||||||
|
**Interprétation :** Haut recall = peu de faux négatifs (je rate peu de positifs)
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Overfitting
|
### Overfitting
|
||||||
<details><summary>Signes</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Train accuracy >> Test accuracy. Val_loss augmente alors que train_loss diminue.
|
|
||||||
|
**Définition :** Le modèle mémorise les données d'entraînement au lieu d'apprendre les patterns généraux
|
||||||
|
|
||||||
|
**Signes à détecter :**
|
||||||
|
- Train accuracy >> Test accuracy (ex: 99% vs 70%)
|
||||||
|
- Val_loss augmente alors que train_loss diminue
|
||||||
|
- Gap important entre performances train et test
|
||||||
|
|
||||||
|
**Causes :** Modèle trop complexe, entraînement trop long, pas assez de données
|
||||||
|
|
||||||
|
**Solutions :** Early stopping, régularisation (L2, Dropout), plus de données
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
### Underfitting
|
### Underfitting
|
||||||
<details><summary>Signes</summary>
|
<details><summary>Cliquez pour voir la définition</summary>
|
||||||
Train et test accuracy basses et similaires. Le modèle est trop simple.
|
|
||||||
|
**Définition :** Le modèle est trop simple pour capturer les patterns dans les données
|
||||||
|
|
||||||
|
**Signes à détecter :**
|
||||||
|
- Train accuracy ≈ Test accuracy (mais les deux sont basses)
|
||||||
|
- Exemple : 65% sur train, 63% sur test
|
||||||
|
|
||||||
|
**Causes :** Modèle trop simple, pas assez d'entraînement, features insuffisantes
|
||||||
|
|
||||||
|
**Solutions :** Modèle plus complexe, plus d'epochs, feature engineering
|
||||||
</details>
|
</details>
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user