fix: Correction du formatage Markdown dans EXAMEN.md
Ajout de lignes vides entre les options A/B/C/D pour un affichage correct. En Markdown, un simple retour à la ligne ne crée pas de saut de ligne visible. Pourquoi cette erreur ? Je génère le texte ligne par ligne mais j'oublie que Markdown nécessite une ligne vide entre chaque paragraphe ou deux espaces à la fin d'une ligne pour créer un saut de ligne. 🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
parent
d481717e2e
commit
320ed709f0
@ -11,8 +11,11 @@ Ce document contient des questions pour tester et renforcer votre compréhension
|
||||
Qu'est-ce qu'un modèle qui généralise bien ?
|
||||
|
||||
A) Un modèle avec 100% d'accuracy sur le training set
|
||||
|
||||
B) Un modèle qui performe bien sur des données jamais vues
|
||||
|
||||
C) Un modèle qui converge rapidement
|
||||
|
||||
D) Un modèle avec beaucoup de paramètres
|
||||
|
||||
<details>
|
||||
@ -30,8 +33,11 @@ Un modèle qui généralise bien est capable de prédire correctement sur des do
|
||||
Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ?
|
||||
|
||||
A) Pour avoir plus de données
|
||||
|
||||
B) Le validation set détecte l'overfitting pendant l'entraînement
|
||||
|
||||
C) C'est une convention arbitraire
|
||||
|
||||
D) Pour ralentir l'entraînement
|
||||
|
||||
<details>
|
||||
@ -49,8 +55,11 @@ Le validation set permet de détecter l'overfitting pendant l'entraînement et d
|
||||
Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ?
|
||||
|
||||
A) Arrête après 3 epochs
|
||||
|
||||
B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs
|
||||
|
||||
C) Arrête si train_loss augmente
|
||||
|
||||
D) Réduit le learning rate de 0.01
|
||||
|
||||
<details>
|
||||
@ -68,8 +77,11 @@ L'Early Stopping surveille la val_loss. Si elle ne diminue pas d'au moins min_de
|
||||
Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ?
|
||||
|
||||
A) 0.05
|
||||
|
||||
B) 0.025
|
||||
|
||||
C) 0.0125
|
||||
|
||||
D) 0.01
|
||||
|
||||
<details>
|
||||
@ -87,8 +99,11 @@ Après 2 epochs sans amélioration de val_loss, le LR est multiplié par factor
|
||||
Pourquoi normaliser les features avec StandardScaler ?
|
||||
|
||||
A) Pour rendre les données plus lisibles
|
||||
|
||||
B) Pour accélérer le code
|
||||
|
||||
C) Pour que toutes les features contribuent équitablement au gradient
|
||||
|
||||
D) Pour réduire la taille des données
|
||||
|
||||
<details>
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user