docs: Mise à jour de la documentation

This commit is contained in:
spham 2025-11-14 12:26:34 +01:00
parent 11d0520d48
commit 315183032f

View File

@ -255,9 +255,10 @@ scaler.transform(X_test) # Transforme seulement
**IMPORTANT** : On apprend les statistiques (moyenne, écart-type) **uniquement** sur les données d'entraînement, puis on applique la **même transformation** aux données de test. **IMPORTANT** : On apprend les statistiques (moyenne, écart-type) **uniquement** sur les données d'entraînement, puis on applique la **même transformation** aux données de test.
#### À Retenir #### À Retenir
✅ Toujours **fit** sur train, **transform** sur test
✅ Évite les **fuites de données** (data leakage) - ✅ Toujours **fit** sur train, **transform** sur test
✅ Améliore les **performances** du modèle - ✅ Évite les **fuites de données** (data leakage)
- ✅ Améliore les **performances** du modèle
--- ---
@ -280,9 +281,9 @@ joblib.dump((X_test, y_test), 'test_data.pkl')
**Format .pkl** : Format de sérialisation Python (pickle) **Format .pkl** : Format de sérialisation Python (pickle)
#### À Retenir #### À Retenir
✅ Sauvegarde **après** la division train/test - ✅ Sauvegarde **après** la division train/test
✅ Permet de recharger les **mêmes données** plus tard - ✅ Permet de recharger les **mêmes données** plus tard
✅ Essentiel pour comparer différents modèles sur les **mêmes données** - ✅ Essentiel pour comparer différents modèles sur les **mêmes données**
--- ---
@ -297,6 +298,30 @@ model = keras.Sequential([
]) ])
``` ```
> **⚠️ Note sur la Dépréciation (Deprecated)**
>
> L'utilisation de `input_shape` directement dans la première couche `Dense` est **dépréciée** dans les versions récentes de Keras/TensorFlow. Vous verrez cet avertissement :
> ```
> UserWarning: Do not pass an `input_shape`/`input_dim` argument to a layer.
> ```
>
> **Méthode Moderne Recommandée** :
> ```python
> model = keras.Sequential([
> keras.layers.Input(shape=(X_train.shape[1],)), # Couche Input séparée
> keras.layers.Dense(32, activation='relu'),
> keras.layers.Dense(16, activation='relu'),
> keras.layers.Dense(1, activation='sigmoid')
> ])
> ```
>
> **Pourquoi ce changement ?**
> - Plus claire : sépare l'entrée de la première couche
> - Plus flexible : facilite les architectures complexes
> - Meilleure pratique : suit les standards modernes de Keras
>
> **Dans ce lab** : Nous utilisons l'ancienne méthode pour la simplicité pédagogique, mais dans vos projets futurs, **utilisez la méthode moderne avec `Input()`**.
#### Architecture du Modèle #### Architecture du Modèle
``` ```
@ -346,9 +371,9 @@ Sigmoid(+∞) = 1
- **Usage** : Couche de sortie pour classification binaire - **Usage** : Couche de sortie pour classification binaire
#### À Retenir #### À Retenir
**Sequential** = couches empilées les unes après les autres - **Sequential** = couches empilées les unes après les autres
**Dense** = couche entièrement connectée - **Dense** = couche entièrement connectée
**ReLU** pour les couches cachées, **Sigmoid** pour la sortie binaire - **ReLU** pour les couches cachées, **Sigmoid** pour la sortie binaire
--- ---
@ -383,9 +408,9 @@ model.compile(
- **Exemple** : 95% d'accuracy = 95 prédictions correctes sur 100 - **Exemple** : 95% d'accuracy = 95 prédictions correctes sur 100
#### À Retenir #### À Retenir
**Adam** est un excellent optimiseur par défaut - **Adam** est un excellent optimiseur par défaut
**binary_crossentropy** pour la classification binaire - **binary_crossentropy** pour la classification binaire
**Compiler** avant d'entraîner le modèle - **Compiler** avant d'entraîner le modèle
--- ---
@ -445,9 +470,9 @@ Epoch 20/20
| `val_accuracy` | Précision sur données de validation | | `val_accuracy` | Précision sur données de validation |
#### À Retenir #### À Retenir
**Loss diminue** = le modèle apprend - **Loss diminue** = le modèle apprend
**val_loss >> loss** = surapprentissage (overfitting) - **val_loss >> loss** = surapprentissage (overfitting)
✅ Surveiller les deux métriques pour détecter les problèmes - ✅ Surveiller les deux métriques pour détecter les problèmes
--- ---