Ajout de diagrammes Mermaid pour améliorer la compréhension du guide
- Diagramme du split Train/Validation/Test avec flux de données - Flowchart du mécanisme d'Early Stopping avec décisions - Visualisation de l'évolution du Learning Rate - Architecture du réseau de neurones en couches - Phases d'entraînement (underfit → optimal → overfit) Les diagrammes illustrent les concepts clés de manière visuelle et facilitent la compréhension des débutants. 🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
parent
2b0031d3d5
commit
a2b5fed678
@ -103,6 +103,27 @@ Durant l'entraînement, le modèle passe par trois phases :
|
||||
|
||||
Early Stopping détecte le début de la phase 3 et revient à la phase 2.
|
||||
|
||||
### Flowchart du Mécanisme
|
||||
|
||||
```mermaid
|
||||
flowchart TD
|
||||
A[Début Epoch N] --> B[Calculer val_loss]
|
||||
B --> C{val_loss s'améliore<br/>de min_delta ?}
|
||||
C -->|Oui| D[Réinitialiser patience]
|
||||
C -->|Non| E[Incrémenter compteur]
|
||||
D --> F[Sauvegarder poids]
|
||||
E --> G{Compteur >= patience ?}
|
||||
G -->|Non| H[Continuer epoch N+1]
|
||||
G -->|Oui| I[Arrêter l'entraînement]
|
||||
I --> J[Restaurer meilleurs poids]
|
||||
F --> H
|
||||
H --> A
|
||||
|
||||
style D fill:#90EE90
|
||||
style I fill:#FF6B6B
|
||||
style J fill:#FFD700
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Learning Rate Scheduler
|
||||
@ -140,6 +161,26 @@ ReduceLROnPlateau(
|
||||
|
||||
La stratégie adaptative combine les avantages des deux.
|
||||
|
||||
### Évolution du Learning Rate
|
||||
|
||||
```mermaid
|
||||
graph LR
|
||||
A[Epoch 1-2<br/>LR = 0.05] --> B[Epoch 3-4<br/>LR = 0.05]
|
||||
B --> C{val_loss stagne<br/>2 epochs ?}
|
||||
C -->|Oui| D[Epoch 5-6<br/>LR = 0.025]
|
||||
C -->|Non| B
|
||||
D --> E{val_loss stagne<br/>2 epochs ?}
|
||||
E -->|Oui| F[Epoch 7-8<br/>LR = 0.0125]
|
||||
E -->|Non| D
|
||||
F --> G[...]
|
||||
G --> H[LR minimum<br/>= 0.00001]
|
||||
|
||||
style A fill:#FF6B6B
|
||||
style D fill:#FFD700
|
||||
style F fill:#90EE90
|
||||
style H fill:#87CEEB
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Normalisation des Features
|
||||
@ -239,6 +280,22 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
|
||||
- Extraction de features de haut niveau dans les premières couches
|
||||
- Compression progressive vers la décision finale
|
||||
|
||||
### Visualisation de l'Architecture
|
||||
|
||||
```mermaid
|
||||
graph LR
|
||||
A[Input Layer<br/>20 features] --> B[Dense Layer 1<br/>64 neurones<br/>ReLU]
|
||||
B --> C[Dense Layer 2<br/>32 neurones<br/>ReLU]
|
||||
C --> D[Output Layer<br/>1 neurone<br/>Sigmoid]
|
||||
D --> E[Probabilité<br/>[0, 1]]
|
||||
|
||||
style A fill:#87CEEB
|
||||
style B fill:#90EE90
|
||||
style C fill:#FFD700
|
||||
style D fill:#FF6B6B
|
||||
style E fill:#DDA0DD
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Diagnostic de l'Overfitting
|
||||
@ -265,6 +322,24 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
|
||||
4. **Early stopping** : Réduire patience
|
||||
5. **Data augmentation** : Si applicable (images, texte)
|
||||
|
||||
### Phases d'entraînement
|
||||
|
||||
```mermaid
|
||||
graph TD
|
||||
A[Début Entraînement] --> B[Phase 1: Underfitting<br/>Train Loss ↓ Val Loss ↓<br/>Gap faible, Performance basse]
|
||||
B --> C[Phase 2: Sweet Spot<br/>Train Loss ↓ Val Loss ↓<br/>Gap minimal, Performance haute]
|
||||
C --> D[Phase 3: Overfitting<br/>Train Loss ↓ Val Loss ↑<br/>Gap important, Mémorisation]
|
||||
|
||||
C --> E[Early Stopping<br/>ARRÊT ICI]
|
||||
D --> F[Continuer = Performance dégradée]
|
||||
|
||||
style B fill:#FFD700
|
||||
style C fill:#90EE90
|
||||
style D fill:#FF6B6B
|
||||
style E fill:#87CEEB
|
||||
style F fill:#FF6B6B
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Glossaire Technique
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user