Изменения

Перейти к: навигация, поиск

Обратная матрица

7994 байта добавлено, 22:41, 25 июня 2018
fix typo
|definition='''Обратная матрица''' - такая матрица <tex>A^{-1}</tex>, при умножении на которую, исходная матрица <tex>A</tex> даёт в результате единичную матрицу <tex>E</tex>
: <math>\! AA^{-1} = A^{-1}A = E</math>
}}
==Обратимость в алгебре==
{{Определение
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\forall x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
}}
 
{{Определение
|definition=Пусть в алгебре <tex>X: x*y=e</tex>, тогда <tex>X</tex> называется левым обратным по отношению к <tex>y</tex>, а <tex>y</tex> - правым обратным по отношению к <tex>x</tex>
}}
{{Определение
|definition=Пусть <tex>z \in X</tex>. Левый обратный элементу <tex>z</tex>, являющийся одновременно и правым обратным к нему, называется обратным и обозначается <tex>z^{-1}</tex>. При этом сам элемент называется обратимым.}} {{Лемма|statement=Пусть <tex>x,y,z \in</tex> алгебре <tex>X</tex> <tex>xz=e, \ x</tex> {{---}} левый обратный  <tex>zy=e, \ y</tex> {{---}} правый обратный. Тогда <tex>z</tex> обратим, при этом <tex>z^{-1}=x=y</tex> и <tex>z^{-1} - !</tex>|proof='''Факт 1.''' <tex>x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y</tex>, но <tex>x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y</tex>, тогда по определению <tex>z^{-1}=x=y</tex>. '''Факт 2.''' Пусть <tex>\exists z^{-1}, \ \tilde{z}^{-1}</tex><tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}</tex>, но <tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-!</tex>}} ==Критерий обратимости матрицы''': квадратная =={{Теорема|statement=Квадратная матрица <tex>A</tex> обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть ее определитель НЕ равен нулю<tex>\det A \neq 0</tex>.|proof ='''Шаг 1.''' Если матрица <tex>A</tex> обратима, то <tex>AB = E</tex> для некоторой матрицы <tex>B</tex>. Тогда, если квадратные матрицы одного и того же порядка, то <tex>\det AB = \det A \cdot \det B</tex>: <tex>1 = \det E = \det AB = \det A \cdot \det B</tex>, следовательно, <tex>\det A \neq 0, \det B \neq 0</tex>. '''Шаг 2.''' Докажем обратное утверждение. Пусть <tex>\det A \ne 0</tex>. 1) Докажем существование правой обратной матрицы <tex>B</tex>. Предположим <tex>\exists B: AB=E</tex>, где <tex>A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert</tex> <tex>AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)</tex>, фиксируем <tex>k</tex>, тогда: <tex>(\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T</tex>, тогда получим, что <tex>\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert </tex> {{---}} матрица системы уравнений, так как <tex>\det A \ne 0</tex>, то по Крамеру <tex>\exists! (\xi^1...\xi^n)^T</tex> В итоге для всех <tex>k</tex> получим матрицу <tex>B</tex>, что и требовалось.  2) Докажем существование левой обратной матрицы <tex>C</tex>. Предположим <tex>\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}</tex> Фиксируем <tex>i</tex>, тогда <tex>(\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)</tex>,получаем заполнение по строчкам, аналогично первому пункту показываем <tex>\exists C</tex>. 3) Тогда по лемме <tex>C=B=A^{-1}</tex>, теорема доказана.
}}
==Свойства обратной матрицы==
* <mathdpi = "145">\det A^{-1} = \frac{1}{\det A}</math>* <mathdpi = "145">\ (AB)^{-1} = B^{-1}A^{-1}</math>* <mathdpi = "145">\ (A^T)^{-1} = (A^{-1})^T</math>* <mathdpi = "145">\ (kA)^{-1} = k^{-1}A^{-1}</math> 
== Методы нахождения обратной матрицы ==
=== Метод Гаусса для нахождения обратной матрицы ===
Возьмём две матрицы: саму <tex>A</tex> и <tex>E</tex>. Приведём матрицу <tex>A</tex> к единичной матрице методом Гаусса. После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной <tex>A^-1</tex>.
====Пример====
Найдем обратную матрицу для матрицы
:<mathdpi = "145"> A =
\begin{bmatrix}
2 & -1 & 0 \\
\end{bmatrix}.
</math>
*'''1)''' Для начала убедимся, что ее определитель не равен нулю(она невырожденная).
*'''2)''' Справа от исходной матрицы припишем единичную.:<mathdpi = "145"> [ A | I ] =
\left[ \begin{array}{rrr|rrr}
2 & -1 & 0 & 1 & 0 & 0\\
</math>
*'''3)''' Методом Гаусса приведем левую матрицу к единичной, применяя все операции одновременно и к левой, и к правой матрицам.:<mathdpi = "145"> [ I | B ] =
\left[ \begin{array}{rrr|rrr}
1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt]
</math>
*'''4)''' <texdpi = "145">A^{-1} = B</tex> === Метод присоединенной матрицы ===   <math dpi = "145">A^{-1} = \frac{\widehat{A}^T}{\det A}</math>, где <math> \widehat{A}</math> — присоединенная матрица;{{Определение|definition= '''Присоединенная(союзная, взаимная) матрица''' — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы.}} <math dpi = "145">\widehat{A}= \begin{pmatrix} {A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\{A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\\vdots & \vdots & \ddots & \vdots \\{A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\\end{pmatrix}</math> Исходная матрица: <math dpi = "145">{A}= \begin{pmatrix} {a}_{11} & {a}_{12} & \cdots & {a}_{1n} \\{a}_{21} & {a}_{22} & \cdots & {a}_{2n} \\\vdots & \vdots & \ddots & \vdots \\{a}_{n1} & {a}_{n2} & \cdots & {a}_{nn} \\\end{pmatrix}</math> Где: * <math dpi = "145">\widehat{A}</math> — присоединённая(союзная, взаимная) матрица;* <math dpi = "145">{A}_{ij}</math> — алгебраические дополнения исходной матрицы;* <math dpi = "145">{a}_{ij}</math> — элементы исходной матрицы. '''Алгебраическим дополнением''' элемента <math dpi = "145">\ a_{ij}</math> матрицы <math dpi = "145">\ A</math> называется число <math dpi = "145">\ A_{ij}=(-1)^{i+j}M_{ij}</math>, где <math dpi = "145">\ M_{ij}</math> — дополнительный минор, определитель матрицы, получающейся из исходной матрицы <math dpi = "145">\ A</math> путем вычёркивания ''i'' -й строки и ''j'' -го столбца. <math dpi="145">M_{ij} = det\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\\vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\\vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\\end{pmatrix}</math>====Алгоритм получения обратной матрицы====:*заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица:*разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы. <tex dpi="145">A^{-1} = \widehat{A}^T \times \frac{1}{det A}</tex> ==Ссылки==* [http://neerc.ifmo.ru/wiki/index.php?title=Обратный_оператор Обратный оператор]==Источники==* [http://ru.wikipedia.org/wiki/Обратная_матрица Википедия {{---}} Обратная матрица] * [http://ru.wikipedia.org/wiki/Союзная_матрица Википедия {{---}} Союзная матрица] * [http://ru.wikipedia.org/wiki/Алгебраическое_дополнение Википедия {{---}} Алгебраическое дополнение] * [http://en.wikipedia.org/wiki/Invertible_matrix Wikipedia {{---}} Invertible matrix] * Анин конспект[[Категория: Алгебра и геометрия 1 курс]][[Категория: Линейные операторы]]
Анонимный участник

Навигация