Aller au contenu principal

Apprentissage supervisé

Progression

#Apprentissage supervisé

En régression, on prédit une quantité continue; en classification, une étiquette. Les familles classiques couvrent la régression linéaire et logistique, les k plus proches voisins, les arbres de décision et leurs ensembles. Chaque famille a ses biais inductifs et ses compromis interprétabilité/performance. Les réseaux de neurones généralisent l’approximation de fonctions avec davantage de flexibilité mais exigent plus de données et un réglage fin.

On choisit une fonction de perte adaptée, on optimise un critère régularisé et on contrôle la complexité pour éviter l’overfitting. Le succès vient autant d’un bon encodage des données que du choix du modèle. La calibration des probabilités et la gestion des classes déséquilibrées font partie de l’évaluation, pas d’un post‑traitement optionnel.