fix: Correction du formatage Markdown dans EXAMEN.md
Ajout de lignes vides entre les options A/B/C/D pour un affichage correct. En Markdown, un simple retour à la ligne ne crée pas de saut de ligne visible. Pourquoi cette erreur ? Je génère le texte ligne par ligne mais j'oublie que Markdown nécessite une ligne vide entre chaque paragraphe ou deux espaces à la fin d'une ligne pour créer un saut de ligne. 🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
parent
d481717e2e
commit
320ed709f0
@ -11,8 +11,11 @@ Ce document contient des questions pour tester et renforcer votre compréhension
|
|||||||
Qu'est-ce qu'un modèle qui généralise bien ?
|
Qu'est-ce qu'un modèle qui généralise bien ?
|
||||||
|
|
||||||
A) Un modèle avec 100% d'accuracy sur le training set
|
A) Un modèle avec 100% d'accuracy sur le training set
|
||||||
|
|
||||||
B) Un modèle qui performe bien sur des données jamais vues
|
B) Un modèle qui performe bien sur des données jamais vues
|
||||||
|
|
||||||
C) Un modèle qui converge rapidement
|
C) Un modèle qui converge rapidement
|
||||||
|
|
||||||
D) Un modèle avec beaucoup de paramètres
|
D) Un modèle avec beaucoup de paramètres
|
||||||
|
|
||||||
<details>
|
<details>
|
||||||
@ -30,8 +33,11 @@ Un modèle qui généralise bien est capable de prédire correctement sur des do
|
|||||||
Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ?
|
Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ?
|
||||||
|
|
||||||
A) Pour avoir plus de données
|
A) Pour avoir plus de données
|
||||||
|
|
||||||
B) Le validation set détecte l'overfitting pendant l'entraînement
|
B) Le validation set détecte l'overfitting pendant l'entraînement
|
||||||
|
|
||||||
C) C'est une convention arbitraire
|
C) C'est une convention arbitraire
|
||||||
|
|
||||||
D) Pour ralentir l'entraînement
|
D) Pour ralentir l'entraînement
|
||||||
|
|
||||||
<details>
|
<details>
|
||||||
@ -49,8 +55,11 @@ Le validation set permet de détecter l'overfitting pendant l'entraînement et d
|
|||||||
Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ?
|
Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ?
|
||||||
|
|
||||||
A) Arrête après 3 epochs
|
A) Arrête après 3 epochs
|
||||||
|
|
||||||
B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs
|
B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs
|
||||||
|
|
||||||
C) Arrête si train_loss augmente
|
C) Arrête si train_loss augmente
|
||||||
|
|
||||||
D) Réduit le learning rate de 0.01
|
D) Réduit le learning rate de 0.01
|
||||||
|
|
||||||
<details>
|
<details>
|
||||||
@ -68,8 +77,11 @@ L'Early Stopping surveille la val_loss. Si elle ne diminue pas d'au moins min_de
|
|||||||
Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ?
|
Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ?
|
||||||
|
|
||||||
A) 0.05
|
A) 0.05
|
||||||
|
|
||||||
B) 0.025
|
B) 0.025
|
||||||
|
|
||||||
C) 0.0125
|
C) 0.0125
|
||||||
|
|
||||||
D) 0.01
|
D) 0.01
|
||||||
|
|
||||||
<details>
|
<details>
|
||||||
@ -87,8 +99,11 @@ Après 2 epochs sans amélioration de val_loss, le LR est multiplié par factor
|
|||||||
Pourquoi normaliser les features avec StandardScaler ?
|
Pourquoi normaliser les features avec StandardScaler ?
|
||||||
|
|
||||||
A) Pour rendre les données plus lisibles
|
A) Pour rendre les données plus lisibles
|
||||||
|
|
||||||
B) Pour accélérer le code
|
B) Pour accélérer le code
|
||||||
|
|
||||||
C) Pour que toutes les features contribuent équitablement au gradient
|
C) Pour que toutes les features contribuent équitablement au gradient
|
||||||
|
|
||||||
D) Pour réduire la taille des données
|
D) Pour réduire la taille des données
|
||||||
|
|
||||||
<details>
|
<details>
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user