Constante de normalisation

En mathématiques, une constante de normalisation ou facteur normalisant est une constante introduite dans la définition d'objets mathématiques pour réduire certains calculs et assurer que le résultat soit égal à 1.

Un exemple courant est en théorie des probabilités, où une constante multiplicatrice est introduit dans la définition de fonction afin qu'elle ait une propriété caractéristique des densités de probabilités, à savoir une masse égale à 1.

Un autre cas d'utilisation est pour les polynômes orthogonaux, où ces constantes sont introduites dans la famille de polynômes de sorte que la famille soit orthonormale.

Définition en probabilités

En théorie des probabilités, une constante de normalisation est une constante par laquelle une fonction positive doit être multipliée afin que son intégrale sur son domaine de définition soit égale à 1, ce qui en fait une densité de probabilité[1],[2].

Il faut remarquer que si la densité de probabilités est caractérisée par un ou plusieurs paramètres, la constante de normalisation peut également dépendre de ces paramètres.

Exemples

Loi gaussienne

En considérant une fonction gaussienne p ( x ) = e x 2 / 2 , x R {\displaystyle p(x)=\mathrm {e} ^{-x^{2}/2},\quad x\in \mathbb {R} } on a la valeur de l'intégrale de Gauss : p ( x ) d x = e x 2 / 2 d x = 2 π , {\displaystyle \int _{-\infty }^{\infty }p(x)\,\mathrm {d} x=\int _{-\infty }^{\infty }\mathrm {e} ^{-x^{2}/2}\,\mathrm {d} x={\sqrt {2\pi \,}},}

Ainsi, afin d'obtenir la densité d'une loi normale (ou loi de Gauss) à partir de φ ( x ) {\displaystyle \varphi (x)} , il faut poser : φ ( x ) = 1 2 π p ( x ) = 1 2 π e x 2 / 2 {\displaystyle \varphi (x)={\frac {1}{\sqrt {2\pi \,}}}p(x)={\frac {1}{\sqrt {2\pi \,}}}\mathrm {e} ^{-x^{2}/2}} afin de bien avoir φ ( x ) d x = 1 {\displaystyle \int _{-\infty }^{\infty }\varphi (x)\,\mathrm {d} x=1} C'est la densité de la loi normale standard ou centrée réduite (l'espérance vaut 0 et sa variance vaut 1)[3].

La constante de normalisation est donc 1 2 π {\textstyle {\frac {1}{\sqrt {2\pi }}}} .

Loi de Poisson

En considérant la somme de série : n = 0 λ n n ! = e λ , {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}=\mathrm {e} ^{\lambda },} on peut définir une densité de probabilités (discrète) sur N par[4] f ( n ) = λ n e λ n ! {\displaystyle f(n)={\frac {\lambda ^{n}\mathrm {e} ^{-\lambda }}{n!}}} On reconnait la densité d'une loi de Poisson d'espérance λ.

Théorème de Bayes

Le théorème de Bayes dit que la probabilité a posteriori est proportionnelle au produit de la probabilité a priori et de la fonction de vraisemblance. Cette proportionnalité implique qu'il faut multiplier cette probabilité par une constante de normalisation pour avoir une mesure égale à 1 sur tout l'espace. Dans un cas discret simple, cela se traduit par :

P ( H 0 | D ) = P ( D | H 0 ) P ( H 0 ) P ( D ) {\displaystyle P(H_{0}|D)={\frac {P(D|H_{0})P(H_{0})}{P(D)}}}

P(H0) est la probabilité a priori que l'hypothèse H0 est vraie ; P(D|H0) est la probabilité conditionnelle des données sachant que l'hypothèse est vraie, mais dans le cas où les données sont connues, cela revient à la vraisemblance de l'hypothèse sachant les données ; P(H0|D) est la probabilité a posteriori que l'hypothèse est vraie connaissant les données. P(D) devrait donc être la probabilité de produire les données, mais cette valeur peut être difficile à calculer, aussi une alternative à cette formule est de la voir sous l'angle de la proportionnalité :

P ( H 0 | D ) P ( D | H 0 ) P ( H 0 ) . {\displaystyle P(H_{0}|D)\propto P(D|H_{0})P(H_{0}).}

Comme P(H|D) est une probabilité, la somme de toutes les hypothèses (exclusives mutuellement) doit être égales à 1, ce qui mène à :

P ( H 0 | D ) = P ( D | H 0 ) P ( H 0 ) i P ( D | H i ) P ( H i ) . {\displaystyle P(H_{0}|D)={\frac {P(D|H_{0})P(H_{0})}{\displaystyle \sum _{i}P(D|H_{i})P(H_{i})}}.}

Dans ce cas, l'inverse de la valeur

P ( D ) = i P ( D | H i ) P ( H i ) {\displaystyle P(D)=\sum _{i}P(D|H_{i})P(H_{i})\;}

est la constante de normalisation[5]. Le cas continu se fait de façon équivalente, la somme discrète devenant alors une intégrale.

Dans la pratique, il existe plusieurs méthodes d'estimation de la constante de normalisation pour des raisons pratiques, comme l'échantillonnage par pont[6], la méthode de Monte-Carlo, l'estimateur de moyenne harmonique généralisée[7], et l'échantillonnage par importance[8].

Polynômes orthogonaux

Une constante de normalisation peut être utilisée pour une famille d'éléments orthogonale (dont le produit scalaire de deux éléments différents de la famille vaut 0) pour la rendre orthonormale (ou orthonormée) (la norme de chaque élément vaut 1).

Exemples

Les polynômes de Legendre (Pn(x)) sont caractérisés par leur orthogonalité pour la mesure 1 1 [ 1 , 1 ] {\displaystyle 1\!\!1_{[-1,1]}} . La constante de normalisation doit donc être définie de sorte que

i , j N , 1 1 P i ( x ) P j ( x ) d x = δ i , j . {\displaystyle \forall i,j\in \mathbb {N} ,\int _{-1}^{1}P_{i}(x)P_{j}(x)\mathrm {d} x=\delta _{i,j}.}

On a en particulier

n N , 1 1 P n ( x ) 2 d x = 2 2 n + 1 . {\displaystyle \forall n\in \mathbb {N} ,\int _{-1}^{1}P_{n}(x)^{2}\mathrm {d} x={\frac {2}{2n+1}}.}

La famille de polynômes n+1/2Pn(x)) est donc bien orthonormale.

Autres applications

Triangle hyperbolique (en jaune) et secteur hyperbolique (en rouge) correspondant à l'angle hyperbolique u, à l'hyperbole équilatère (d'équation y = 1/x). Les branches du triangle mesurent 2 fois les cosinus et sinus hyperboliques de u.

La constante 1/2 est utilisée pour définir les fonctions hyperboliques cosh et sinh à partir des longueurs des côtés adjacent et opposé d'un secteur hyperbolique, de façon à retrouver une similarité avec la définition des cosinus et sinus circulaire dans le cercle trigonométrique.

Notes

  1. Continuous Distributions at University of Alabama.
  2. Feller, 1968, p. 22.
  3. Feller, 1968, p. 174.
  4. Feller, 1968, p. 156.
  5. Feller, 1968, p. 124.
  6. (en) Quentin F. Gronau, Alexandra Sarafoglou, Dora Matzke, Alexander Ly, Udo Boehm, Maarten Marsman, David S. Leslie, Jonathan J. Forster, Eric-Jan Wagenmakers et Helen Steingroever, « A tutorial on bridge sampling », Journal of Mathematical Psychology, vol. 81,‎ , p. 80-97 (DOI 10.1016/j.jmp.2017.09.005)
  7. (en) Michael A. Newton et Adrian E. Raftery, « Approximate Bayesian Inference with the Weighted Likelihood Bootstrap », Journal of the Royal Statistical Society: Series B (Methodological), vol. 56, no 1,‎ , p. 3-26 (DOI 10.1111/j.2517-6161.1994.tb01956.x)
  8. (en) Quentin Gronau, « bridgesampling: An R Package for Estimating Normalizing Constants », sur The Comprehensive R Archive Network, (consulté le )

Liens externes

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Normalizing constant » (voir la liste des auteurs).
  • (en) Continuous Distributions at Department of Mathematical Sciences: University of Alabama in Huntsville
  • William Feller, An Introduction to Probability Theory and its Applications (volume I), John Wiley & Sons, (ISBN 0-471-25708-7)
  • icône décorative Portail des probabilités et de la statistique