Aller au contenu principal

Régularisation et sélection

Progression

#Régularisation et sélection de modèles

La régularisation pénalise la complexité pour améliorer la généralisation: L2 lisse, L1 raréfie, et l’early stopping arrête l’entraînement avant sur‑apprentissage. La sélection de modèles confronte plusieurs familles et hyperparamètres avec un protocole de validation commun, puis fige les choix avant de mesurer sur le test. La double validation croisée aide à estimer honnêtement la performance quand l’échantillon est limité.

Documenter les choix, les métriques et les ressources utilisées permet de reproduire les résultats et d’éviter les conclusions hâtives. Un bon dossier d’expérience raconte l’itération autant que le résultat final.

#Animation: choisir et régler la pénalisation

Biais/variance
Complexité vs sur‑apprentissage
L2 (ridge)
Coefficients lissés ; tous non‑nuls
L1 (lasso)
Sparsité ; sélection de variables
Early stopping
Arrêter au minimum de validation
Sélection
Validation croisée / double CV

#Playground: pente ridge fermée (1 variable)

Chargement de l’éditeur...