diff --git a/docs/EXAMEN.md b/docs/EXAMEN.md index da58e93..f5c354c 100644 --- a/docs/EXAMEN.md +++ b/docs/EXAMEN.md @@ -11,8 +11,11 @@ Ce document contient des questions pour tester et renforcer votre compréhension Qu'est-ce qu'un modèle qui généralise bien ? A) Un modèle avec 100% d'accuracy sur le training set + B) Un modèle qui performe bien sur des données jamais vues + C) Un modèle qui converge rapidement + D) Un modèle avec beaucoup de paramètres
@@ -30,8 +33,11 @@ Un modèle qui généralise bien est capable de prédire correctement sur des do Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ? A) Pour avoir plus de données + B) Le validation set détecte l'overfitting pendant l'entraînement + C) C'est une convention arbitraire + D) Pour ralentir l'entraînement
@@ -49,8 +55,11 @@ Le validation set permet de détecter l'overfitting pendant l'entraînement et d Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ? A) Arrête après 3 epochs + B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs + C) Arrête si train_loss augmente + D) Réduit le learning rate de 0.01
@@ -68,8 +77,11 @@ L'Early Stopping surveille la val_loss. Si elle ne diminue pas d'au moins min_de Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ? A) 0.05 + B) 0.025 + C) 0.0125 + D) 0.01
@@ -87,8 +99,11 @@ Après 2 epochs sans amélioration de val_loss, le LR est multiplié par factor Pourquoi normaliser les features avec StandardScaler ? A) Pour rendre les données plus lisibles + B) Pour accélérer le code + C) Pour que toutes les features contribuent équitablement au gradient + D) Pour réduire la taille des données