Aller au contenu principal

Apprentissage profond

Progression

#Apprentissage profond

Les réseaux de neurones empilent des transformations non linéaires pour apprendre des représentations adaptées au problème. Les architectures se spécialisent: perceptrons multicouches pour des tableaux de features, convolutions pour l’image, récurrences et transformeurs pour les séquences.

La réussite tient moins à une « taille » spectaculaire qu’à l’hygiène expérimentale: normalisation des entrées, régularisation, choix d’un optimiseur stable, et protocoles d’évaluation qui évitent les fuites. Une bonne base linéaire et des features bien préparées dominent souvent une architecture plus lourde mal entraînée.