Ajout de diagrammes Mermaid pour améliorer la compréhension du guide

- Diagramme du split Train/Validation/Test avec flux de données
- Flowchart du mécanisme d'Early Stopping avec décisions
- Visualisation de l'évolution du Learning Rate
- Architecture du réseau de neurones en couches
- Phases d'entraînement (underfit → optimal → overfit)

Les diagrammes illustrent les concepts clés de manière visuelle et facilitent la compréhension des débutants.

🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
spham 2025-11-12 17:52:31 +01:00
parent 2b0031d3d5
commit a2b5fed678

View File

@ -103,6 +103,27 @@ Durant l'entraînement, le modèle passe par trois phases :
Early Stopping détecte le début de la phase 3 et revient à la phase 2. Early Stopping détecte le début de la phase 3 et revient à la phase 2.
### Flowchart du Mécanisme
```mermaid
flowchart TD
A[Début Epoch N] --> B[Calculer val_loss]
B --> C{val_loss s'améliore<br/>de min_delta ?}
C -->|Oui| D[Réinitialiser patience]
C -->|Non| E[Incrémenter compteur]
D --> F[Sauvegarder poids]
E --> G{Compteur >= patience ?}
G -->|Non| H[Continuer epoch N+1]
G -->|Oui| I[Arrêter l'entraînement]
I --> J[Restaurer meilleurs poids]
F --> H
H --> A
style D fill:#90EE90
style I fill:#FF6B6B
style J fill:#FFD700
```
--- ---
## Learning Rate Scheduler ## Learning Rate Scheduler
@ -140,6 +161,26 @@ ReduceLROnPlateau(
La stratégie adaptative combine les avantages des deux. La stratégie adaptative combine les avantages des deux.
### Évolution du Learning Rate
```mermaid
graph LR
A[Epoch 1-2<br/>LR = 0.05] --> B[Epoch 3-4<br/>LR = 0.05]
B --> C{val_loss stagne<br/>2 epochs ?}
C -->|Oui| D[Epoch 5-6<br/>LR = 0.025]
C -->|Non| B
D --> E{val_loss stagne<br/>2 epochs ?}
E -->|Oui| F[Epoch 7-8<br/>LR = 0.0125]
E -->|Non| D
F --> G[...]
G --> H[LR minimum<br/>= 0.00001]
style A fill:#FF6B6B
style D fill:#FFD700
style F fill:#90EE90
style H fill:#87CEEB
```
--- ---
## Normalisation des Features ## Normalisation des Features
@ -239,6 +280,22 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
- Extraction de features de haut niveau dans les premières couches - Extraction de features de haut niveau dans les premières couches
- Compression progressive vers la décision finale - Compression progressive vers la décision finale
### Visualisation de l'Architecture
```mermaid
graph LR
A[Input Layer<br/>20 features] --> B[Dense Layer 1<br/>64 neurones<br/>ReLU]
B --> C[Dense Layer 2<br/>32 neurones<br/>ReLU]
C --> D[Output Layer<br/>1 neurone<br/>Sigmoid]
D --> E[Probabilité<br/>[0, 1]]
style A fill:#87CEEB
style B fill:#90EE90
style C fill:#FFD700
style D fill:#FF6B6B
style E fill:#DDA0DD
```
--- ---
## Diagnostic de l'Overfitting ## Diagnostic de l'Overfitting
@ -265,6 +322,24 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
4. **Early stopping** : Réduire patience 4. **Early stopping** : Réduire patience
5. **Data augmentation** : Si applicable (images, texte) 5. **Data augmentation** : Si applicable (images, texte)
### Phases d'entraînement
```mermaid
graph TD
A[Début Entraînement] --> B[Phase 1: Underfitting<br/>Train Loss ↓ Val Loss ↓<br/>Gap faible, Performance basse]
B --> C[Phase 2: Sweet Spot<br/>Train Loss ↓ Val Loss ↓<br/>Gap minimal, Performance haute]
C --> D[Phase 3: Overfitting<br/>Train Loss ↓ Val Loss ↑<br/>Gap important, Mémorisation]
C --> E[Early Stopping<br/>ARRÊT ICI]
D --> F[Continuer = Performance dégradée]
style B fill:#FFD700
style C fill:#90EE90
style D fill:#FF6B6B
style E fill:#87CEEB
style F fill:#FF6B6B
```
--- ---
## Glossaire Technique ## Glossaire Technique