From 320ed709f0b41ad5c11c4c34fabdb14992f323b3 Mon Sep 17 00:00:00 2001 From: spham Date: Wed, 12 Nov 2025 18:43:22 +0100 Subject: [PATCH] fix: Correction du formatage Markdown dans EXAMEN.md MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Ajout de lignes vides entre les options A/B/C/D pour un affichage correct. En Markdown, un simple retour à la ligne ne crée pas de saut de ligne visible. Pourquoi cette erreur ? Je génère le texte ligne par ligne mais j'oublie que Markdown nécessite une ligne vide entre chaque paragraphe ou deux espaces à la fin d'une ligne pour créer un saut de ligne. 🤖 Generated with [Claude Code](https://claude.com/claude-code) --- docs/EXAMEN.md | 15 +++++++++++++++ 1 file changed, 15 insertions(+) diff --git a/docs/EXAMEN.md b/docs/EXAMEN.md index da58e93..f5c354c 100644 --- a/docs/EXAMEN.md +++ b/docs/EXAMEN.md @@ -11,8 +11,11 @@ Ce document contient des questions pour tester et renforcer votre compréhension Qu'est-ce qu'un modèle qui généralise bien ? A) Un modèle avec 100% d'accuracy sur le training set + B) Un modèle qui performe bien sur des données jamais vues + C) Un modèle qui converge rapidement + D) Un modèle avec beaucoup de paramètres
@@ -30,8 +33,11 @@ Un modèle qui généralise bien est capable de prédire correctement sur des do Pourquoi utilise-t-on 3 ensembles (Train/Validation/Test) au lieu de 2 ? A) Pour avoir plus de données + B) Le validation set détecte l'overfitting pendant l'entraînement + C) C'est une convention arbitraire + D) Pour ralentir l'entraînement
@@ -49,8 +55,11 @@ Le validation set permet de détecter l'overfitting pendant l'entraînement et d Que fait l'Early Stopping quand `patience=3` et `min_delta=0.01` ? A) Arrête après 3 epochs + B) Arrête si val_loss n'améliore pas de 0.01 pendant 3 epochs consécutifs + C) Arrête si train_loss augmente + D) Réduit le learning rate de 0.01
@@ -68,8 +77,11 @@ L'Early Stopping surveille la val_loss. Si elle ne diminue pas d'au moins min_de Avec `ReduceLROnPlateau(factor=0.5, patience=2)` et LR initial de 0.05, quel sera le LR après 2 epochs sans amélioration ? A) 0.05 + B) 0.025 + C) 0.0125 + D) 0.01
@@ -87,8 +99,11 @@ Après 2 epochs sans amélioration de val_loss, le LR est multiplié par factor Pourquoi normaliser les features avec StandardScaler ? A) Pour rendre les données plus lisibles + B) Pour accélérer le code + C) Pour que toutes les features contribuent équitablement au gradient + D) Pour réduire la taille des données