Обратная матрица — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м (rollbackEdits.php mass rollback)
 
(не показано 25 промежуточных версий 11 участников)
Строка 2: Строка 2:
 
|definition='''Обратная матрица''' - такая матрица <tex>A^{-1}</tex>, при умножении на которую, исходная матрица <tex>A</tex> даёт в результате единичную матрицу <tex>E</tex>
 
|definition='''Обратная матрица''' - такая матрица <tex>A^{-1}</tex>, при умножении на которую, исходная матрица <tex>A</tex> даёт в результате единичную матрицу <tex>E</tex>
 
: <math>\! AA^{-1} = A^{-1}A = E</math>
 
: <math>\! AA^{-1} = A^{-1}A = E</math>
 +
}}
 +
==Обратимость в алгебре==
 +
{{Определение
 +
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\forall x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
 
}}
 
}}
  
 
{{Определение
 
{{Определение
|definition='''Критерий обратимости матрицы''': квадратная матрица обратима тогда и только тогда, когда она невырожденная, то есть ее определитель НЕ равен нулю.
+
|definition=Пусть в алгебре <tex>X: x*y=e</tex>, тогда <tex>X</tex> называется левым обратным по отношению к <tex>y</tex>, а <tex>y</tex> - правым обратным по отношению к <tex>x</tex>
 +
}}
 +
 
 +
{{Определение
 +
|definition=Пусть <tex>z \in X</tex>. Левый обратный элементу <tex>z</tex>, являющийся одновременно и правым обратным к нему, называется обратным и обозначается <tex>z^{-1}</tex>. При этом сам элемент называется обратимым.
 +
}}
 +
 
 +
{{Лемма
 +
|statement=
 +
Пусть <tex>x,y,z \in</tex> алгебре <tex>X</tex>
 +
 
 +
<tex>xz=e, \ x</tex> {{---}} левый обратный
 +
 
 +
<tex>zy=e, \ y</tex> {{---}} правый обратный.
 +
 
 +
Тогда <tex>z</tex> обратим, при этом  <tex>z^{-1}=x=y</tex> и <tex>z^{-1} - !</tex>
 +
|proof=
 +
'''Факт 1.''' <tex>x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y</tex>, но <tex>x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y</tex>, тогда по определению <tex>z^{-1}=x=y</tex>.
 +
 
 +
'''Факт 2.''' Пусть <tex>\exists z^{-1}, \ \tilde{z}^{-1}</tex>
 +
<tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}</tex>, но <tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-!</tex>
 +
}}
 +
 
 +
==Критерий обратимости матрицы==
 +
{{Теорема
 +
|statement=
 +
Квадратная матрица <tex>A</tex> обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть <tex>\det A \neq 0</tex>.
 +
|proof =
 +
'''Шаг 1.''' Если матрица <tex>A</tex> обратима, то <tex>AB = E</tex> для некоторой матрицы <tex>B</tex>. Тогда, если квадратные матрицы одного и того же порядка, то <tex>\det AB = \det A \cdot \det B</tex>:
 +
 
 +
<tex>1 = \det E = \det AB = \det A \cdot \det B</tex>, следовательно, <tex>\det A \neq 0, \det B \neq 0</tex>.
 +
 
 +
'''Шаг 2.''' Докажем обратное утверждение. Пусть <tex>\det A \ne 0</tex>.
 +
 +
1) Докажем существование правой обратной матрицы <tex>B</tex>.
 +
 
 +
Предположим <tex>\exists B: AB=E</tex>, где <tex>A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert</tex>
 +
 
 +
<tex>AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)</tex>, фиксируем <tex>k</tex>, тогда:
 +
 
 +
<tex>(\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T</tex>, тогда получим, что <tex>\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert </tex> {{---}} матрица системы уравнений, так как <tex>\det A \ne 0</tex>, то по Крамеру <tex>\exists! (\xi^1...\xi^n)^T</tex>
 +
 
 +
В итоге для всех <tex>k</tex> получим матрицу <tex>B</tex>, что и требовалось.
 +
 
 +
 
 +
2) Докажем существование левой обратной матрицы <tex>C</tex>.
 +
 
 +
Предположим <tex>\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}</tex>
 +
 
 +
Фиксируем <tex>i</tex>, тогда <tex>(\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)</tex>,получаем заполнение по строчкам, аналогично первому пункту показываем <tex>\exists C</tex>.
 +
 
 +
3) Тогда по лемме <tex>C=B=A^{-1}</tex>, теорема доказана.
 
}}
 
}}
  
Строка 51: Строка 106:
 
=== Метод присоединенной матрицы ===  
 
=== Метод присоединенной матрицы ===  
  
  <math dpi = "145">A^{-1} = \frac{1}{\det A}\cdot \mbox{adj}\,A,</math>
+
  <math dpi = "145">A^{-1} = \frac{\widehat{A}^T}{\det A}</math>, где <math> \widehat{A}</math> — присоединенная матрица;
где <math dpi = "145">\mbox{adj}\,A</math> — присоединенная матрица;
 
 
{{Определение
 
{{Определение
|definition= '''Присоединенная(союзная, взаимная) матрица''' — матрица, составленная из алгебраических дополнений для соответствующих элементов транспонированной матрицы.
+
|definition= '''Присоединенная(союзная, взаимная) матрица''' — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы.
 
}}
 
}}
  
<math dpi = "145">{C}^{*}= \begin{pmatrix}  
+
<math dpi = "145">\widehat{A}= \begin{pmatrix}  
{A}_{11} & {A}_{21} & \cdots & {A}_{n1} \\
+
{A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\
{A}_{12} & {A}_{22} & \cdots & {A}_{n2} \\
+
{A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\
 
\vdots & \vdots & \ddots & \vdots \\
 
\vdots & \vdots & \ddots & \vdots \\
{A}_{1n} & {A}_{2n} & \cdots & {A}_{nn} \\
+
{A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\
 
\end{pmatrix}</math>
 
\end{pmatrix}</math>
  
Строка 75: Строка 129:
 
Где:
 
Где:
  
* <math dpi = "145">{C}^{*}</math> — присоединённая(союзная, взаимная) матрица;
+
* <math dpi = "145">\widehat{A}</math> — присоединённая(союзная, взаимная) матрица;
 
* <math dpi = "145">{A}_{ij}</math> — алгебраические дополнения исходной матрицы;
 
* <math dpi = "145">{A}_{ij}</math> — алгебраические дополнения исходной матрицы;
 
* <math dpi = "145">{a}_{ij}</math> — элементы исходной матрицы.
 
* <math dpi = "145">{a}_{ij}</math> — элементы исходной матрицы.
Строка 81: Строка 135:
 
'''Алгебраическим дополнением''' элемента <math dpi = "145">\ a_{ij}</math> матрицы <math dpi = "145">\ A</math> называется число
 
'''Алгебраическим дополнением''' элемента <math dpi = "145">\ a_{ij}</math> матрицы <math dpi = "145">\ A</math> называется число
  
<math dpi = "145">\ A_{ij}=(-1)^{i+j}M_{ij}</math>,  
+
<math dpi = "145">\ A_{ij}=(-1)^{i+j}M_{ij}</math>,
  
 
где <math dpi = "145">\ M_{ij}</math> — дополнительный минор, определитель матрицы, получающейся из исходной матрицы <math dpi = "145">\ A</math> путем вычёркивания ''i'' -й строки и ''j'' -го столбца.
 
где <math dpi = "145">\ M_{ij}</math> — дополнительный минор, определитель матрицы, получающейся из исходной матрицы <math dpi = "145">\ A</math> путем вычёркивания ''i'' -й строки и ''j'' -го столбца.
 +
 +
<math dpi="145">M_{ij} = det\begin{pmatrix}
 +
a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\
 +
\vdots & \vdots & \ddots & \vdots    & \vdots    & \ddots & \vdots \\
 +
a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\
 +
a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\
 +
\vdots & \vdots & \ddots & \vdots    & \vdots    & \ddots & \vdots \\
 +
a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\
 +
\end{pmatrix}</math>
 
====Алгоритм получения обратной матрицы====
 
====Алгоритм получения обратной матрицы====
:*заменить каждый элемент исходной матрицы на его алгебраическое дополнение,
+
:*заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
:*транспонировать полученную матрицу - в результате будет получена союзная матрица,
+
:*разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.
:*разделить каждый элемент союзной матрицы на определитель исходной матрицы.
+
 
 +
<tex dpi="145">A^{-1} = \widehat{A}^T \times \frac{1}{det A}</tex>
  
 
==Ссылки==
 
==Ссылки==
 +
* [http://neerc.ifmo.ru/wiki/index.php?title=Обратный_оператор Обратный оператор]
 +
==Источники==
 
* [http://ru.wikipedia.org/wiki/Обратная_матрица Википедия {{---}} Обратная матрица]
 
* [http://ru.wikipedia.org/wiki/Обратная_матрица Википедия {{---}} Обратная матрица]
  
Строка 97: Строка 163:
  
 
* [http://en.wikipedia.org/wiki/Invertible_matrix Wikipedia {{---}} Invertible matrix]
 
* [http://en.wikipedia.org/wiki/Invertible_matrix Wikipedia {{---}} Invertible matrix]
 +
 +
* Анин конспект
 +
[[Категория: Алгебра и геометрия 1 курс]]
 +
[[Категория: Линейные операторы]]

Текущая версия на 19:39, 4 сентября 2022

Определение:
Обратная матрица - такая матрица [math]A^{-1}[/math], при умножении на которую, исходная матрица [math]A[/math] даёт в результате единичную матрицу [math]E[/math]
[math]\! AA^{-1} = A^{-1}A = E[/math]

Обратимость в алгебре

Определение:
Пусть [math]X[/math] - алгебра над [math]F[/math]. [math]e \in X[/math] называется единицей [math]X[/math], если [math]\forall x \in X: e*x=x*e=x[/math], причем [math]e[/math] единственна


Определение:
Пусть в алгебре [math]X: x*y=e[/math], тогда [math]X[/math] называется левым обратным по отношению к [math]y[/math], а [math]y[/math] - правым обратным по отношению к [math]x[/math]


Определение:
Пусть [math]z \in X[/math]. Левый обратный элементу [math]z[/math], являющийся одновременно и правым обратным к нему, называется обратным и обозначается [math]z^{-1}[/math]. При этом сам элемент называется обратимым.


Лемма:
Пусть [math]x,y,z \in[/math] алгебре [math]X[/math]

[math]xz=e, \ x[/math] — левый обратный

[math]zy=e, \ y[/math] — правый обратный.

Тогда [math]z[/math] обратим, при этом [math]z^{-1}=x=y[/math] и [math]z^{-1} - ![/math]
Доказательство:
[math]\triangleright[/math]

Факт 1. [math]x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y[/math], но [math]x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y[/math], тогда по определению [math]z^{-1}=x=y[/math].

Факт 2. Пусть [math]\exists z^{-1}, \ \tilde{z}^{-1}[/math]

[math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}[/math], но [math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-![/math]
[math]\triangleleft[/math]

Критерий обратимости матрицы

Теорема:
Квадратная матрица [math]A[/math] обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть [math]\det A \neq 0[/math].
Доказательство:
[math]\triangleright[/math]

Шаг 1. Если матрица [math]A[/math] обратима, то [math]AB = E[/math] для некоторой матрицы [math]B[/math]. Тогда, если квадратные матрицы одного и того же порядка, то [math]\det AB = \det A \cdot \det B[/math]:

[math]1 = \det E = \det AB = \det A \cdot \det B[/math], следовательно, [math]\det A \neq 0, \det B \neq 0[/math].

Шаг 2. Докажем обратное утверждение. Пусть [math]\det A \ne 0[/math].

1) Докажем существование правой обратной матрицы [math]B[/math].

Предположим [math]\exists B: AB=E[/math], где [math]A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert[/math]

[math]AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)[/math], фиксируем [math]k[/math], тогда:

[math](\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T[/math], тогда получим, что [math]\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert [/math] — матрица системы уравнений, так как [math]\det A \ne 0[/math], то по Крамеру [math]\exists! (\xi^1...\xi^n)^T[/math]

В итоге для всех [math]k[/math] получим матрицу [math]B[/math], что и требовалось.


2) Докажем существование левой обратной матрицы [math]C[/math].

Предположим [math]\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}[/math]

Фиксируем [math]i[/math], тогда [math](\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)[/math],получаем заполнение по строчкам, аналогично первому пункту показываем [math]\exists C[/math].

3) Тогда по лемме [math]C=B=A^{-1}[/math], теорема доказана.
[math]\triangleleft[/math]

Свойства обратной матрицы

  • [math]\det A^{-1} = \frac{1}{\det A}[/math]
  • [math]\ (AB)^{-1} = B^{-1}A^{-1}[/math]
  • [math]\ (A^T)^{-1} = (A^{-1})^T[/math]
  • [math]\ (kA)^{-1} = k^{-1}A^{-1}[/math]

Методы нахождения обратной матрицы

Метод Гаусса для нахождения обратной матрицы

Возьмём две матрицы: саму [math]A[/math] и [math]E[/math]. Приведём матрицу [math]A[/math] к единичной матрице методом Гаусса. После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной [math]A^-1[/math].

Пример

Найдем обратную матрицу для матрицы

[math] A = \begin{bmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{bmatrix}. [/math]
  • 1) Для начала убедимся, что ее определитель не равен нулю(она невырожденная).
  • 2) Справа от исходной матрицы припишем единичную.
[math] [ A | I ] = \left[ \begin{array}{rrr|rrr} 2 & -1 & 0 & 1 & 0 & 0\\ -1 & 2 & -1 & 0 & 1 & 0\\ 0 & -1 & 2 & 0 & 0 & 1 \end{array} \right]. [/math]
  • 3) Методом Гаусса приведем левую матрицу к единичной, применяя все операции одновременно и к левой, и к правой матрицам.
[math] [ I | B ] = \left[ \begin{array}{rrr|rrr} 1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt] 0 & 1 & 0 & \frac{1}{2} & 1 & \frac{1}{2}\\[3pt] 0 & 0 & 1 & \frac{1}{4} & \frac{1}{2} & \frac{3}{4} \end{array} \right]. [/math]
  • 4) [math]A^{-1} = B[/math]

Метод присоединенной матрицы

[math]A^{-1} = \frac{\widehat{A}^T}{\det A}[/math], где [math] \widehat{A}[/math] — присоединенная матрица;
Определение:
Присоединенная(союзная, взаимная) матрица — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы.


[math]\widehat{A}= \begin{pmatrix} {A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\ {A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\ \end{pmatrix}[/math]

Исходная матрица:

[math]{A}= \begin{pmatrix} {a}_{11} & {a}_{12} & \cdots & {a}_{1n} \\ {a}_{21} & {a}_{22} & \cdots & {a}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {a}_{n1} & {a}_{n2} & \cdots & {a}_{nn} \\ \end{pmatrix}[/math]

Где:

  • [math]\widehat{A}[/math] — присоединённая(союзная, взаимная) матрица;
  • [math]{A}_{ij}[/math] — алгебраические дополнения исходной матрицы;
  • [math]{a}_{ij}[/math] — элементы исходной матрицы.

Алгебраическим дополнением элемента [math]\ a_{ij}[/math] матрицы [math]\ A[/math] называется число

[math]\ A_{ij}=(-1)^{i+j}M_{ij}[/math],

где [math]\ M_{ij}[/math] — дополнительный минор, определитель матрицы, получающейся из исходной матрицы [math]\ A[/math] путем вычёркивания i -й строки и j -го столбца.

[math]M_{ij} = det\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\ a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\ \end{pmatrix}[/math]

Алгоритм получения обратной матрицы

  • заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
  • разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.

[math]A^{-1} = \widehat{A}^T \times \frac{1}{det A}[/math]

Ссылки

Источники

  • Анин конспект