Apprentissage profond
Progression
#Apprentissage profond
Les réseaux de neurones empilent des transformations non linéaires pour apprendre des représentations adaptées au problème. Les architectures se spécialisent: perceptrons multicouches pour des tableaux de features, convolutions pour l’image, récurrences et transformeurs pour les séquences.
La réussite tient moins à une « taille » spectaculaire qu’à l’hygiène expérimentale: normalisation des entrées, régularisation, choix d’un optimiseur stable, et protocoles d’évaluation qui évitent les fuites. Une bonne base linéaire et des features bien préparées dominent souvent une architecture plus lourde mal entraînée.