Estimation et inférence
Progression
#Estimation et inférence
Estimer un paramètre consiste à construire une règle qui transforme un échantillon en une valeur plausible du paramètre. On évalue un estimateur par son biais (écart systématique à la vérité) et sa variance (sensibilité aux fluctuations). Le maximum de vraisemblance choisit la valeur rendant les données observées les plus probables selon le modèle; sa popularité tient à ses bonnes propriétés asymptotiques quand le modèle est bien spécifié.
Un intervalle de confiance ne garantit pas que le paramètre est « dedans »; il garantit la procédure: sur de nombreuses répétitions indépendantes, la proportion d’intervalles qui contiennent la vraie valeur approche le niveau annoncé. Cette lecture fréquentiste complète des approches bayésiennes qui, elles, fournissent une distribution a posteriori pour le paramètre une fois les données observées.
La p‑value mesure la compatibilité des données avec une hypothèse nulle. Petite, elle signale des données surprenantes sous H0; elle n’est ni la probabilité que H0 soit vraie, ni un indicateur de taille d’effet. Une analyse responsable précise la taille d’effet estimée et un intervalle de confiance, pas seulement un seuil de signification.