Ajout de diagrammes Mermaid pour améliorer la compréhension du guide
- Diagramme du split Train/Validation/Test avec flux de données - Flowchart du mécanisme d'Early Stopping avec décisions - Visualisation de l'évolution du Learning Rate - Architecture du réseau de neurones en couches - Phases d'entraînement (underfit → optimal → overfit) Les diagrammes illustrent les concepts clés de manière visuelle et facilitent la compréhension des débutants. 🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
parent
2b0031d3d5
commit
a2b5fed678
@ -103,6 +103,27 @@ Durant l'entraînement, le modèle passe par trois phases :
|
|||||||
|
|
||||||
Early Stopping détecte le début de la phase 3 et revient à la phase 2.
|
Early Stopping détecte le début de la phase 3 et revient à la phase 2.
|
||||||
|
|
||||||
|
### Flowchart du Mécanisme
|
||||||
|
|
||||||
|
```mermaid
|
||||||
|
flowchart TD
|
||||||
|
A[Début Epoch N] --> B[Calculer val_loss]
|
||||||
|
B --> C{val_loss s'améliore<br/>de min_delta ?}
|
||||||
|
C -->|Oui| D[Réinitialiser patience]
|
||||||
|
C -->|Non| E[Incrémenter compteur]
|
||||||
|
D --> F[Sauvegarder poids]
|
||||||
|
E --> G{Compteur >= patience ?}
|
||||||
|
G -->|Non| H[Continuer epoch N+1]
|
||||||
|
G -->|Oui| I[Arrêter l'entraînement]
|
||||||
|
I --> J[Restaurer meilleurs poids]
|
||||||
|
F --> H
|
||||||
|
H --> A
|
||||||
|
|
||||||
|
style D fill:#90EE90
|
||||||
|
style I fill:#FF6B6B
|
||||||
|
style J fill:#FFD700
|
||||||
|
```
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|
||||||
## Learning Rate Scheduler
|
## Learning Rate Scheduler
|
||||||
@ -140,6 +161,26 @@ ReduceLROnPlateau(
|
|||||||
|
|
||||||
La stratégie adaptative combine les avantages des deux.
|
La stratégie adaptative combine les avantages des deux.
|
||||||
|
|
||||||
|
### Évolution du Learning Rate
|
||||||
|
|
||||||
|
```mermaid
|
||||||
|
graph LR
|
||||||
|
A[Epoch 1-2<br/>LR = 0.05] --> B[Epoch 3-4<br/>LR = 0.05]
|
||||||
|
B --> C{val_loss stagne<br/>2 epochs ?}
|
||||||
|
C -->|Oui| D[Epoch 5-6<br/>LR = 0.025]
|
||||||
|
C -->|Non| B
|
||||||
|
D --> E{val_loss stagne<br/>2 epochs ?}
|
||||||
|
E -->|Oui| F[Epoch 7-8<br/>LR = 0.0125]
|
||||||
|
E -->|Non| D
|
||||||
|
F --> G[...]
|
||||||
|
G --> H[LR minimum<br/>= 0.00001]
|
||||||
|
|
||||||
|
style A fill:#FF6B6B
|
||||||
|
style D fill:#FFD700
|
||||||
|
style F fill:#90EE90
|
||||||
|
style H fill:#87CEEB
|
||||||
|
```
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|
||||||
## Normalisation des Features
|
## Normalisation des Features
|
||||||
@ -239,6 +280,22 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
|
|||||||
- Extraction de features de haut niveau dans les premières couches
|
- Extraction de features de haut niveau dans les premières couches
|
||||||
- Compression progressive vers la décision finale
|
- Compression progressive vers la décision finale
|
||||||
|
|
||||||
|
### Visualisation de l'Architecture
|
||||||
|
|
||||||
|
```mermaid
|
||||||
|
graph LR
|
||||||
|
A[Input Layer<br/>20 features] --> B[Dense Layer 1<br/>64 neurones<br/>ReLU]
|
||||||
|
B --> C[Dense Layer 2<br/>32 neurones<br/>ReLU]
|
||||||
|
C --> D[Output Layer<br/>1 neurone<br/>Sigmoid]
|
||||||
|
D --> E[Probabilité<br/>[0, 1]]
|
||||||
|
|
||||||
|
style A fill:#87CEEB
|
||||||
|
style B fill:#90EE90
|
||||||
|
style C fill:#FFD700
|
||||||
|
style D fill:#FF6B6B
|
||||||
|
style E fill:#DDA0DD
|
||||||
|
```
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|
||||||
## Diagnostic de l'Overfitting
|
## Diagnostic de l'Overfitting
|
||||||
@ -265,6 +322,24 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
|
|||||||
4. **Early stopping** : Réduire patience
|
4. **Early stopping** : Réduire patience
|
||||||
5. **Data augmentation** : Si applicable (images, texte)
|
5. **Data augmentation** : Si applicable (images, texte)
|
||||||
|
|
||||||
|
### Phases d'entraînement
|
||||||
|
|
||||||
|
```mermaid
|
||||||
|
graph TD
|
||||||
|
A[Début Entraînement] --> B[Phase 1: Underfitting<br/>Train Loss ↓ Val Loss ↓<br/>Gap faible, Performance basse]
|
||||||
|
B --> C[Phase 2: Sweet Spot<br/>Train Loss ↓ Val Loss ↓<br/>Gap minimal, Performance haute]
|
||||||
|
C --> D[Phase 3: Overfitting<br/>Train Loss ↓ Val Loss ↑<br/>Gap important, Mémorisation]
|
||||||
|
|
||||||
|
C --> E[Early Stopping<br/>ARRÊT ICI]
|
||||||
|
D --> F[Continuer = Performance dégradée]
|
||||||
|
|
||||||
|
style B fill:#FFD700
|
||||||
|
style C fill:#90EE90
|
||||||
|
style D fill:#FF6B6B
|
||||||
|
style E fill:#87CEEB
|
||||||
|
style F fill:#FF6B6B
|
||||||
|
```
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|
||||||
## Glossaire Technique
|
## Glossaire Technique
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user