diff --git a/GUIDE_DEBUTANT.md b/GUIDE_DEBUTANT.md index 722a94d..87de4df 100644 --- a/GUIDE_DEBUTANT.md +++ b/GUIDE_DEBUTANT.md @@ -103,6 +103,27 @@ Durant l'entraînement, le modèle passe par trois phases : Early Stopping détecte le début de la phase 3 et revient à la phase 2. +### Flowchart du Mécanisme + +```mermaid +flowchart TD + A[Début Epoch N] --> B[Calculer val_loss] + B --> C{val_loss s'améliore
de min_delta ?} + C -->|Oui| D[Réinitialiser patience] + C -->|Non| E[Incrémenter compteur] + D --> F[Sauvegarder poids] + E --> G{Compteur >= patience ?} + G -->|Non| H[Continuer epoch N+1] + G -->|Oui| I[Arrêter l'entraînement] + I --> J[Restaurer meilleurs poids] + F --> H + H --> A + + style D fill:#90EE90 + style I fill:#FF6B6B + style J fill:#FFD700 +``` + --- ## Learning Rate Scheduler @@ -140,6 +161,26 @@ ReduceLROnPlateau( La stratégie adaptative combine les avantages des deux. +### Évolution du Learning Rate + +```mermaid +graph LR + A[Epoch 1-2
LR = 0.05] --> B[Epoch 3-4
LR = 0.05] + B --> C{val_loss stagne
2 epochs ?} + C -->|Oui| D[Epoch 5-6
LR = 0.025] + C -->|Non| B + D --> E{val_loss stagne
2 epochs ?} + E -->|Oui| F[Epoch 7-8
LR = 0.0125] + E -->|Non| D + F --> G[...] + G --> H[LR minimum
= 0.00001] + + style A fill:#FF6B6B + style D fill:#FFD700 + style F fill:#90EE90 + style H fill:#87CEEB +``` + --- ## Normalisation des Features @@ -239,6 +280,22 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid) - Extraction de features de haut niveau dans les premières couches - Compression progressive vers la décision finale +### Visualisation de l'Architecture + +```mermaid +graph LR + A[Input Layer
20 features] --> B[Dense Layer 1
64 neurones
ReLU] + B --> C[Dense Layer 2
32 neurones
ReLU] + C --> D[Output Layer
1 neurone
Sigmoid] + D --> E[Probabilité
[0, 1]] + + style A fill:#87CEEB + style B fill:#90EE90 + style C fill:#FFD700 + style D fill:#FF6B6B + style E fill:#DDA0DD +``` + --- ## Diagnostic de l'Overfitting @@ -265,6 +322,24 @@ Input (20) → Dense(64, ReLU) → Dense(32, ReLU) → Dense(1, Sigmoid) 4. **Early stopping** : Réduire patience 5. **Data augmentation** : Si applicable (images, texte) +### Phases d'entraînement + +```mermaid +graph TD + A[Début Entraînement] --> B[Phase 1: Underfitting
Train Loss ↓ Val Loss ↓
Gap faible, Performance basse] + B --> C[Phase 2: Sweet Spot
Train Loss ↓ Val Loss ↓
Gap minimal, Performance haute] + C --> D[Phase 3: Overfitting
Train Loss ↓ Val Loss ↑
Gap important, Mémorisation] + + C --> E[Early Stopping
ARRÊT ICI] + D --> F[Continuer = Performance dégradée] + + style B fill:#FFD700 + style C fill:#90EE90 + style D fill:#FF6B6B + style E fill:#87CEEB + style F fill:#FF6B6B +``` + --- ## Glossaire Technique