diff --git a/GUIDE_DEBUTANT.md b/GUIDE_DEBUTANT.md
index 722a94d..87de4df 100644
--- a/GUIDE_DEBUTANT.md
+++ b/GUIDE_DEBUTANT.md
@@ -103,6 +103,27 @@ Durant l'entraînement, le modèle passe par trois phases :
Early Stopping détecte le début de la phase 3 et revient à la phase 2.
+### Flowchart du Mécanisme
+
+```mermaid
+flowchart TD
+ A[Début Epoch N] --> B[Calculer val_loss]
+ B --> C{val_loss s'améliore
de min_delta ?}
+ C -->|Oui| D[Réinitialiser patience]
+ C -->|Non| E[Incrémenter compteur]
+ D --> F[Sauvegarder poids]
+ E --> G{Compteur >= patience ?}
+ G -->|Non| H[Continuer epoch N+1]
+ G -->|Oui| I[Arrêter l'entraînement]
+ I --> J[Restaurer meilleurs poids]
+ F --> H
+ H --> A
+
+ style D fill:#90EE90
+ style I fill:#FF6B6B
+ style J fill:#FFD700
+```
+
---
## Learning Rate Scheduler
@@ -140,6 +161,26 @@ ReduceLROnPlateau(
La stratégie adaptative combine les avantages des deux.
+### Évolution du Learning Rate
+
+```mermaid
+graph LR
+ A[Epoch 1-2
LR = 0.05] --> B[Epoch 3-4
LR = 0.05]
+ B --> C{val_loss stagne
2 epochs ?}
+ C -->|Oui| D[Epoch 5-6
LR = 0.025]
+ C -->|Non| B
+ D --> E{val_loss stagne
2 epochs ?}
+ E -->|Oui| F[Epoch 7-8
LR = 0.0125]
+ E -->|Non| D
+ F --> G[...]
+ G --> H[LR minimum
= 0.00001]
+
+ style A fill:#FF6B6B
+ style D fill:#FFD700
+ style F fill:#90EE90
+ style H fill:#87CEEB
+```
+
---
## Normalisation des Features
@@ -239,6 +280,22 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
- Extraction de features de haut niveau dans les premières couches
- Compression progressive vers la décision finale
+### Visualisation de l'Architecture
+
+```mermaid
+graph LR
+ A[Input Layer
20 features] --> B[Dense Layer 1
64 neurones
ReLU]
+ B --> C[Dense Layer 2
32 neurones
ReLU]
+ C --> D[Output Layer
1 neurone
Sigmoid]
+ D --> E[Probabilité
[0, 1]]
+
+ style A fill:#87CEEB
+ style B fill:#90EE90
+ style C fill:#FFD700
+ style D fill:#FF6B6B
+ style E fill:#DDA0DD
+```
+
---
## Diagnostic de l'Overfitting
@@ -265,6 +322,24 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid)
4. **Early stopping** : Réduire patience
5. **Data augmentation** : Si applicable (images, texte)
+### Phases d'entraînement
+
+```mermaid
+graph TD
+ A[Début Entraînement] --> B[Phase 1: Underfitting
Train Loss ↓ Val Loss ↓
Gap faible, Performance basse]
+ B --> C[Phase 2: Sweet Spot
Train Loss ↓ Val Loss ↓
Gap minimal, Performance haute]
+ C --> D[Phase 3: Overfitting
Train Loss ↓ Val Loss ↑
Gap important, Mémorisation]
+
+ C --> E[Early Stopping
ARRÊT ICI]
+ D --> F[Continuer = Performance dégradée]
+
+ style B fill:#FFD700
+ style C fill:#90EE90
+ style D fill:#FF6B6B
+ style E fill:#87CEEB
+ style F fill:#FF6B6B
+```
+
---
## Glossaire Technique