Complément de Schur

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Complément.

Page d’aide sur l’homonymie

Ne doit pas être confondu avec la méthode du complément de Schur (en) en analyse numérique.

En algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit. Soit

M = [ A B C D ] {\displaystyle M={\begin{bmatrix}A&B\\C&D\end{bmatrix}}}

une matrice de dimension (p+q)×(p+q), où les blocs A, B, C, D sont des matrices de dimensions respectives p×p, p×q, q×p et q×q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la matrice de dimension p×p suivante :

A B D 1 C . {\displaystyle A-BD^{-1}C.}

Propriétés

  • Lorsque B est la transposée de C, la matrice M est symétrique définie positive si et seulement si D et son complément de Schur dans M le sont.
  • Le complément de Schur apparaît en particulier comme le résultat d'une élimination de Gauss « partielle » en multipliant la matrice M à droite avec la matrice « triangulaire inférieure par blocs » suivante
L T = [ I p 0 D 1 C D 1 ] . {\displaystyle LT={\begin{bmatrix}I_{p}&0\\-D^{-1}C&D^{-1}\end{bmatrix}}.}

Ici, Ip désigne la matrice identité de dimension p×p. Après multiplication par la matrice LT, le complément de Schur apparaît dans le bloc p×p supérieur. La matrice produit est

M L T = [ A B D 1 C B D 1 0 I q ] . {\displaystyle M\cdot LT={\begin{bmatrix}A-BD^{-1}C&BD^{-1}\\0&I_{q}\end{bmatrix}}.}

L'inverse de M peut ainsi être exprimée en termes de D−1 et de l'inverse du complément de Schur

[ A B C D ] 1 = [ ( A B D 1 C ) 1 ( A B D 1 C ) 1 B D 1 D 1 C ( A B D 1 C ) 1 D 1 + D 1 C ( A B D 1 C ) 1 B D 1 ] , {\displaystyle {\begin{bmatrix}A&B\\C&D\end{bmatrix}}^{-1}={\begin{bmatrix}\left(A-BD^{-1}C\right)^{-1}&-\left(A-BD^{-1}C\right)^{-1}BD^{-1}\\-D^{-1}C\left(A-BD^{-1}C\right)^{-1}&D^{-1}+D^{-1}C\left(A-BD^{-1}C\right)^{-1}BD^{-1}\end{bmatrix}},}

ou encore plus simplement,

[ A B C D ] 1 = [ I 0 D 1 C I ] [ ( A B D 1 C ) 1 0 0 D 1 ] [ I B D 1 0 I ] . {\displaystyle {\begin{bmatrix}A&B\\C&D\end{bmatrix}}^{-1}={\begin{bmatrix}I&0\\-D^{-1}C&I\end{bmatrix}}{\begin{bmatrix}(A-BD^{-1}C)^{-1}&0\\0&D^{-1}\end{bmatrix}}{\begin{bmatrix}I&-BD^{-1}\\0&I\end{bmatrix}}.}
  • De même, si A est inversible, son complément de Schur est par définition D – CA−1B, et si ce dernier est également inversible on a :
[ A B C D ] 1 = [ A 1 + A 1 B ( D C A 1 B ) 1 C A 1 A 1 B ( D C A 1 B ) 1 ( D C A 1 B ) 1 C A 1 ( D C A 1 B ) 1 ] . {\displaystyle {\begin{bmatrix}A&B\\C&D\end{bmatrix}}^{-1}={\begin{bmatrix}A^{-1}+A^{-1}B(D-CA^{-1}B)^{-1}CA^{-1}&-A^{-1}B(D-CA^{-1}B)^{-1}\\-(D-CA^{-1}B)^{-1}CA^{-1}&(D-CA^{-1}B)^{-1}\end{bmatrix}}.}

Application à la résolution d'équations linéaires

Le complément de Schur apparaît naturellement lors de la résolution d'un système d'équations linéaires de la forme

A x + B y = a {\displaystyle Ax+By=a}
C x + D y = b {\displaystyle Cx+Dy=b}

  • x et a sont des vecteurs colonne de dimension p,
  • y et b sont des vecteurs colonne de dimension q,
  • A, B, C, D sont comme précédemment.

En multipliant la seconde équation par BD−1 puis en la soustrayant de la première, il vient

( A B D 1 C ) x = a B D 1 b . {\displaystyle (A-BD^{-1}C)x=a-BD^{-1}b.}

Ainsi, la résolution de cette équation en x est possible dès que D et son complément de Schur sont inversibles. Il est ensuite possible d'obtenir y en résolvant l'équation Cx + Dy = b. Cette méthode réduit le problème de l'inversion d'une matrice de dimension (p + q) × (p + q) à celui de l'inversion de deux matrices de dimensions respectives p×p et q×q. En pratique, la matrice D doit être bien conditionnée pour rendre la méthode précise.

Applications aux probabilités et à la statistique

Soit (X, Y) un vecteur gaussien de ℝp+q de matrice de covariance

V = cov ( X , Y ) = [ A B B T C ] . {\displaystyle V=\operatorname {cov} (X,Y)={\begin{bmatrix}A&B\\B^{T}&C\end{bmatrix}}.}

Ici, X (respectivement Y) est un vecteur gaussien de ℝp (respectivement ℝq) de matrice de covariance A (respectivement C), et BT désigne la transposée de B.

La loi conditionnelle de X sachant Y est encore une loi gaussienne multivariée de dimension p. Supposons que la matrice V est inversible (elle est donc symétrique et définie positive). Alors, la matrice de covariance de la loi conditionnelle de X sachant Y ne dépend pas de Y et est donnée par le complément de Schur de C dans V.

cov ( X Y ) = A B C 1 B T . {\displaystyle \operatorname {cov} (X\mid Y)=A-BC^{-1}B^{T}.}

Cela montre en particulier que le complément de Schur d'un bloc diagonal d'une matrice de covariance empirique d'un échantillon gaussien suit une loi de Wishart (tout comme la matrice de covariance empirique elle-même).

Bibliographie

  • (en) Roger A. Horn et Charles R. Johnson, Matrix Analysis, Cambridge University Press, chap. 7
  • (en) Kaare Brandt Petersen et Syskind Pedersen, The Matrix Cookbook, version du 16/02/2008, § 9.1

Articles connexes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Schur complement » (voir la liste des auteurs).
v · m
Famille de vecteurs Mathématiques
Sous-espace
Morphisme et
notions relatives
Dimension finie
Enrichissements
de structure
Développements
  • icône décorative Portail des mathématiques