fix: Correction du formatage Markdown dans EXAMEN.md

Ajout de lignes vides entre les options A/B/C/D pour un affichage correct.
En Markdown, un simple retour à la ligne ne crée pas de saut de ligne visible.

Pourquoi cette erreur ? Je génère le texte ligne par ligne mais j'oublie que
Markdown nécessite une ligne vide entre chaque paragraphe ou deux espaces
à la fin d'une ligne pour créer un saut de ligne.

🤖 Generated with [Claude Code](https://claude.com/claude-code)
This commit is contained in:
spham 2025-11-12 18:43:22 +01:00
parent d481717e2e
commit 320ed709f0

View File

@ -11,8 +11,11 @@ Ce document contient des questions pour tester et renforcer votre compréhension
Qu'est-ce qu'un modèle qui généralise bien ?
A) Un modèle avec 100% d'accuracy sur le training set
B) Un modèle qui performe bien sur des données jamais vues
C) Un modèle qui converge rapidement
D) Un modèle avec beaucoup de paramètres
<details>
@ -30,8 +33,11 @@ Un modèle qui généralise bien est capable de prédire correctement sur des do
Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ?
A) Pour avoir plus de données
B) Le validation set détecte l'overfitting pendant l'entraînement
C) C'est une convention arbitraire
D) Pour ralentir l'entraînement
<details>
@ -49,8 +55,11 @@ Le validation set permet de détecter l'overfitting pendant l'entraînement et d
Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ?
A) Arrête après 3 epochs
B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs
C) Arrête si train_loss augmente
D) Réduit le learning rate de 0.01
<details>
@ -68,8 +77,11 @@ L'Early Stopping surveille la val_loss. Si elle ne diminue pas d'au moins min_de
Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ?
A) 0.05
B) 0.025
C) 0.0125
D) 0.01
<details>
@ -87,8 +99,11 @@ Après 2 epochs sans amélioration de val_loss, le LR est multiplié par factor
Pourquoi normaliser les features avec StandardScaler ?
A) Pour rendre les données plus lisibles
B) Pour accélérer le code
C) Pour que toutes les features contribuent équitablement au gradient
D) Pour réduire la taille des données
<details>