Invertálható mátrix

A Wikipédiából, a szabad enciklopédiából

A lineáris algebrában egy n x n-es (négyzetes) A mátrix invertálható, reguláris, nemelfajuló vagy nem szinguláris, ha létezik egy olyan n×n -es B mátrix, melyre igaz:

AB = BA = I_n \ ,

ahol I_n az n×n-es egységmátrixot jelöli és a szorzás a szokásos mátrixszorzás. Ebben az esetben a B-t egyértelműen meghatározza az A mátrix, az A mátrix inverzének hívják és A^{-1}-nel jelölik . Igazolható, hogy ha az A és B négyzetes mátrixokra AB = I, akkor BA = I is teljesül.

A nem invertálható négyzetes mátrixot szingulárisnak vagy degeneráltnak nevezik, ekkor a determináns értéke nulla (\det A = 0).

A mátrixban levő elemek többnyire valós, vagy komplex számok, de a definíciók gyűrű fölötti mátrixokra is működnek.

Alapszabályként kimondható, hogy majdnem minden négyzetes mátrix invertálható. A valós számtest esetében ez a következőképpen tehető precízzé: az n x n-es szinguláris mátrixok halmaza, mint R^{n \times n} részhalmaza, nullmértékű halmaz (a Lebesgue-mérték szerint). Ez azért igaz, mert a szinguláris mátrixok a determináns, egy n^2-változós polinom gyökrendszerei.

Ez azt jelenti, hogy ha véletlenszerűen kiválasztunk egy valós elemű négyzetes mátrixot, annak valószínűsége, hogy a mátrix szinguláris, nulla. A gyakorlatban azonban bukkanhatunk nem invertálható mátrixokra. Numerikus módszerek használata esetén azok a mátrixok is problematikusak lehetnek, melyek invertálhatók, de közel esnek a szinguláris mátrixhoz, ezekre a mátrixokra mondják, hogy rosszul kondicionált mátrixok.

Az n x n-es invertálható mátrixok halmaza nyílt és sűrű az n x n-es mátrixok topologikus terében. Ekvivalensen a szinguláris mátrixok halmaza zárt és sehol sem sűrű.

A mátrixinvertálás az A\mapsto A^{-1} művelet neve.

Nem négyzetes mátrixok[szerkesztés | forrásszöveg szerkesztése]

A nem négyzetes mátrixok nem invertálhatóak, de létezhet bal- vagy jobbinverzük. Ha az A n x m-es mátrix rangja n, akkor létezik egy B mátrix, hogy BA=I. Ez a B mátrix A balinverze. Hasonlóan, ha az A n x m-es mátrix rangja m, akkor létezik egy B mátrix, hogy AB=I. Ez a B mátrix A jobbinverze.

A Moore-Penrose pszeudoinverz értelmezhető nem négyzetes mátrixokra és nem teljes rangú esetre is. Ennek néhány tulajdonsága megegyezik az inverz tulajdonságaival, és nem szinguláris négyzetes mátrix pszeudoinverze a mátrix inverze.

Invertálható mátrixok tulajdonságai[szerkesztés | forrásszöveg szerkesztése]

Legyen A egy n x n-es mátrix a K test felett. Ekkor a következő állítások ekvivalensek:

Általában, egy kommutatív gyűrű feletti négyzetes mátrix pontosan akkor invertálható, ha determinánsa a gyűrű egysége.

Invertálható mátrix inverze maga is invertálható és

\left(A^{-1}\right)^{-1} = A .

Egy A invertálható mátrix k nemnulla skalárral vett szorzata szintén invertálható és inverze a skalár inverzének és a mátrix inverzének szorzata:

\left(kA\right)^{-1} = k^{-1}A^{-1}.

Ha az A és B mátrixok invertálhatók, akkor AB szorzatuk is és

\left(AB\right)^{-1} = B^{-1}A^{-1}

(tehát inverzképzésnél a tényezők sorrendje fordított). A transzponálás és az invertálás felcserélhető:

(\mathbf{A}^\mathrm{T})^{-1} = (\mathbf{A}^{-1})^\mathrm{T} \,

A mátrix inverzének determinánsa a mátrix determinánsának inverze:

\det(\mathbf{A}^{-1}) = \det(\mathbf{A})^{-1}

Az invertálható n-szer n-es mátrixok csoportot alkotnak, a GL(n) csoportot.

Ha az A mátrix inverze saját magának, akkor involúciós mátrix:

\mathbf{A} = \mathbf{A}^{-1} and \mathbf{A}^{2} = \mathbf{I}

Hosszabb szorzat inverze[szerkesztés | forrásszöveg szerkesztése]

Legyen A1, A2, …, An test feletti reguláris mátrix. Ekkor

(\mathbf{A}_1 \mathbf{A}_2\cdots \mathbf{A}_n)^{-1} = \mathbf{A}_n^{-1}\mathbf{A}_{n-1}^{-1}\cdots \mathbf{A}_1^{-1}

Ez a szabály teljes indukcióval bizonyítható.

Két tényezőre

\left(AC\right)^{-1} = C^{-1}A^{-1}

Legyen a B mátrix a szorzat inverze. Ekkor

(\mathbf{A}_1\mathbf{A}_2\cdots \mathbf{A}_n)\mathbf{B}=\mathbf{I}.

A1 inverzével balról szorozva

 \mathbf{A}_1^{-1}(\mathbf{A}_1\mathbf{A}_2\cdots \mathbf{A}_n)\mathbf{B}=\mathbf{A}_1^{-1}\mathbf{I}

egyszerűsítve

(\mathbf{A}_2\mathbf{A}_3\cdots \mathbf{A}_n)\mathbf{B}=\mathbf{A}_1^{-1}\mathbf{I}

Így az egyenlet bal oldalán egy tényezővel rövidebb szorzat marad. Az indukciós feltevés szerint

(\mathbf{A}_2 \mathbf{A}_3\cdots \mathbf{A}_n)^{-1} = \mathbf{A}_n^{-1}\mathbf{A}_{n-1}^{-1}\cdots \mathbf{A}_2^{-1}

Ezzel balról szorozva

 \mathbf{B}=\mathbf{A}_n^{-1}\mathbf{A}_{n-1}^{-1}\cdots \mathbf{A}_2^{-1}\mathbf{A}_1^{-1}\mathbf{I}

azaz

 \mathbf{B}=\mathbf{A}_n^{-1}\mathbf{A}_{n-1}^{-1}\cdots \mathbf{A}_2^{-1}\mathbf{A}_1^{-1}

de B az inverz mátrix, így  \mathbf{B} = (\mathbf{A}_1\mathbf{A}_2\cdots \mathbf{A}_n)^{-1}

azaz

(\mathbf{A}_1 \mathbf{A}_2\cdots \mathbf{A}_n)^{-1} = \mathbf{A}_n^{-1}\mathbf{A}_{n-1}^{-1}\cdots \mathbf{A}_1^{-1}

Invertálás[szerkesztés | forrásszöveg szerkesztése]

Gauss-elimináció[szerkesztés | forrásszöveg szerkesztése]

A Gauss-Jordan elimináció egy algoritmus, amely használható az adott mátrix invertálhatóságának vizsgálatára, illetve hogy megtaláljuk az inverzet. Egy alternatíva az LU felbontás, amely létrehoz egy felső és egy alsó háromszögmátrixot, melyeket könnyebb invertálni. Speciális célokra mn×mn-es mátrixokat blokkmátrixként invertálhatunk, ahol a blokkok n×n-es mátrixok. Ehhez rekurzív eljárásokat alkalmaznak. Más méretű mátrixok felduzzaszthatóak új sorokkal és oszlopokkal. Más célokra a Newton-módszer egy fajtája használható (konkrétan amikor kapcsolódó mátrixok családjával foglalkozunk, tehát a korábbi mátrixok inverzeit használhatjuk fel későbbi mátrixok inverzeinek létrehozására.)

Analitikus módszer[szerkesztés | forrásszöveg szerkesztése]

Az adjungált mátrix segíthet kis mátrixok inverzének kiszámolásában, de ez a rekurzív módszer nem hatékony nagy mátrixoknál. Hogy meghatározzuk az inverzet, kiszámoljuk a mátrix adjungáltját:

\mathbf{A}^{-1}={1 \over \begin{vmatrix}\mathbf{A}\end{vmatrix}}\left(\mathbf{C}_{ij}\right)^{\mathrm{T}}={1 \over \begin{vmatrix}\mathbf{A}\end{vmatrix}}\left(\mathbf{C}_{ji}\right)={1 \over \begin{vmatrix}\mathbf{A}\end{vmatrix}}
\begin{pmatrix}
\mathbf{C}_{11} & \mathbf{C}_{21} & \cdots & \mathbf{C}_{n1} \\
\mathbf{C}_{12} & \mathbf{C}_{22} & \cdots & \mathbf{C}_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
\mathbf{C}_{1n} & \mathbf{C}_{2n} & \cdots & \mathbf{C}_{nn} \\
\end{pmatrix}

ahol |A| az A determinánsa, Cij a mátrix adjungáltjának i-edik sorában és j-edik oszlopában levő szám, és AT jelöli a mátrix transzponáltját.

A legtöbb praktikus használathoz nem feltétlenül szükséges invertálni a mátrixot ahhoz, hogy megoldjuk az elsőfokú egyenlet rendszerét; de az egyértelmű megoldáshoz a mátrixnak invertálhatónak kell lennie.

A felbontási technikák, mint például az LU felbontás, sokkal gyorsabbak, mint az invertálás, és a lineáris rendszerek speciális osztályainál különféle gyors algoritmusokat is felfedeztek.

2×2 mátrixok invertálása

A fent említett adjungáltegyenlet a következő eredményt hozza 2×2 mátrixokra: [1]

\mathbf{A}^{-1} = \begin{bmatrix}
a & b \\ c & d \\
\end{bmatrix}^{-1} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\
\end{bmatrix}.

Ez azért lehetséges, mert 1/(ad-bc) a kérdéses mátrix determinánsának reciproka és ugyanez a stratégia használható más méretű mátrixokra is.

3×3 mátrixok invertálása

\mathbf{A}^{-1} = \begin{bmatrix}
a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}
\end{bmatrix}^{-1} =
\frac{1}{det(\mathbf{A})} \begin{bmatrix}
a_{33}a_{22}-a_{32}a_{23} & a_{32}a_{13}-a_{33}a_{12} & a_{23}a_{12}-a_{22}a_{13} \\
a_{31}a_{23}-a_{33}a_{21} & a_{33}a_{11}-a_{31}a_{13} & a_{21}a_{13}-a_{23}a_{11} \\
a_{32}a_{21}-a_{31}a_{22} & a_{31}a_{12}-a_{32}a_{11} & a_{22}a_{11}-a_{21}a_{12} \\
\end{bmatrix}.

ahol


det(\mathbf{A})=a_{11}(a_{33}a_{22}-a_{32}a_{23})-
a_{21}(a_{33}a_{12}-a_{32}a_{13})+
a_{31}(a_{23}a_{12}-a_{22}a_{13})

Blokkos invertálás[szerkesztés | forrásszöveg szerkesztése]

A mátrixok invertálhatóak blokkosan is a következő inverziós formula használatával:


\begin{bmatrix} \mathbf{A} & \mathbf{B} \\ \mathbf{C} & \mathbf{D} \end{bmatrix}^{-1} = \begin{bmatrix} \mathbf{A}^{-1}+\mathbf{A}^{-1}\mathbf{B}(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\mathbf{CA}^{-1} & -\mathbf{A}^{-1}\mathbf{B}(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1} \\ -(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\mathbf{CA}^{-1} & (\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1} \end{bmatrix}
(1)\,

ahol A,B,C és D tetszőleges méretű blokkok. A-nak és D-nek természetesen négyzetes mátrixnak kell lennie, hogy invertálhatóak legyenek. Ez a stratégia különösen hasznos, ha A diagonális és D−CA-IB (az A Schur-komplemense) kis mátrix, mivel ezek azok a mátrixok, melyek könnyen invertálhatók. Ezt a technikát többször is feltalálták, így Hans Bolz (1923), aki geodetikus mátrixok inverziójára használta, illetve Tadeusz Banachiewicz, aki általánosította és bebizonyította helyességét.

Az invertáló algoritmus, amely először C és D–nél működött és az (1) egyenlethez vezetett, blokkosította a mátrixot. Ehelyett ha először A-val és B-vel foglalkozunk, az eredmény


\begin{bmatrix} \mathbf{A} & \mathbf{B} \\ \mathbf{C} & \mathbf{D} \end{bmatrix}^{-1} = \begin{bmatrix} (\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1} & -(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1}\mathbf{BD}^{-1} \\ -\mathbf{D}^{-1}\mathbf{C}(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1} & \mathbf{D}^{-1}+\mathbf{D}^{-1}\mathbf{C}(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1}\mathbf{BD}^{-1}\end{bmatrix}
(2)\,

Az (1) és (2) egyenletrendszert összetéve ez következik:


(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1} = \mathbf{A}^{-1}+\mathbf{A}^{-1}\mathbf{B}(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\mathbf{CA}^{-1}\,
(3)\,

(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1}\mathbf{BD}^{-1} = \mathbf{A}^{-1}\mathbf{B}(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\,

\mathbf{D}^{-1}\mathbf{C}(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1} = (\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\mathbf{CA}^{-1}\,

\mathbf{D}^{-1}+\mathbf{D}^{-1}\mathbf{C}(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C})^{-1}\mathbf{BD}^{-1} = (\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B})^{-1}\,

ahol a (3) egyenlet a mátrixinverziós lemma, amely egyenértékű a binomiális inverzió tételével.

A mátrixinverziós lemma bizonyítása

Először szorozzuk meg a (3) egyenlet RHS-ét az LHS inverzével, hogy megkapjuk

\mathbf{I}=\mathbf{I}-\mathbf{BD}^{-1}\mathbf{CA}^{-1}+\left(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C}\right)\left(\mathbf{A}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}\mathbf{CA}^{-1}

\begin{align}
&\left(\mathbf{A}-\mathbf{BD}^{-1}\mathbf{C}\right)\left(\mathbf{A}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}\mathbf{C}\mathbf{A}^{-1} \\
=&\left(\mathbf{B}-\mathbf{BD}^{-1}\mathbf{CA}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}\mathbf{C}\mathbf{A}^{-1} \\
=&\mathbf{B}\underbrace{\left(\mathbf{I}-\mathbf{D}^{-1}\mathbf{CA}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}}_{\mathbf{P}\mathbf{C}\mathbf{A}^{-1}}
\end{align}

Jegyezzük, hogy ha meg tudjuk mutatni, hogy \mathbf{P}=\mathbf{D}^{-1}, akkor a \mathbf{B}\mathbf{D}^{-1}\mathbf{C}\mathbf{A}^{-1}, term kiesik. Tovább egyszerűsítve

\left(\mathbf{I}-\mathbf{D}^{-1}\mathbf{CA}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}=\mathbf{D}^{-1}\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)\left(\mathbf{D}-\mathbf{CA}^{-1}\mathbf{B}\right)^{-1}=\mathbf{D}^{-1}

Megmutattuk, hogy \mathbf{P} egyenlő \mathbf{D}^{-1}. A \mathbf{B}\mathbf{D}^{-1}\mathbf{C}\mathbf{A}^{-1} term törlése után csak egy identitásmátrix maradt és a bizonyítás befejeződött.

A mátrix inverzének deriváltja[szerkesztés | forrásszöveg szerkesztése]

Függjön az A mátrix a t paramétertől. Ekkor A inverzének t szerinti deriváltja

 \frac{\mathrm{d}\mathbf{A}^{-1}}{\mathrm{d}t} = - \mathbf{A}^{-1} \frac{\mathrm{d}\mathbf{A}}{\mathrm{d}t} \mathbf{A}^{-1}.

Ez a formula az

\mathbf{A}^{-1}\mathbf{A} = \mathbf{I}.\,

azonosság deriválásával bizonyítható.

Mátrixinvertálás valós időben[szerkesztés | forrásszöveg szerkesztése]

A mátrixinvertálás fontos szerepet játszik a komputergrafikában, különösen a háromdimenziós grafikák renderelésében és a háromdimenziós szimulációban. Rendszerint 3×3-as és 4×4 -es mátrixok inverzére van szükség. Az invertálás lassabb, mint a mátrixszorzás és a forgatómátrixok előállítása. Assembly nyelvű rutinok és SIMD processzorkiterjesztések célozzák meg a problémát.

Jegyzetek[szerkesztés | forrásszöveg szerkesztése]

  1. Gilbert Strang: Linear Algebra and Its Applications publisher = Thomson Brooks/Cole, 2006 pages = p. 46 ISBN 0-03-010567-6

Források[szerkesztés | forrásszöveg szerkesztése]

  • Cormen, Thomas H.; Leiserson, Charles E., Rivest, Ronald L., Stein, Clifford (2001). "28.4: Inverting matrices". Introduction to Algorithms (2nd edition ed.), MIT Press and McGraw-Hill. pp. pp. 755–760. ISBN 0-262-03293-7.
  • Horn, Roger A.; Johnson, Charles R. (1985), Matrix Analysis, Cambridge University Press, p. 14, ISBN 978-0-521-38632-6 .
  • Strang, Gilbert (2006). Linear Algebra and Its Applications, Thomson Brooks/Cole. pp. 46. ISBN 0-03-010567-6.