Обратная матрица — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м (rollbackEdits.php mass rollback)
 
(не показано 13 промежуточных версий 7 участников)
Строка 5: Строка 5:
 
==Обратимость в алгебре==
 
==Обратимость в алгебре==
 
{{Определение
 
{{Определение
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e∈X</tex> называется единицей <tex>X</tex>, если <tex>∀x∈X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
+
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\forall x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
 
}}
 
}}
  
Строка 13: Строка 13:
  
 
{{Определение
 
{{Определение
|definition=Пусть <tex>z∈X</tex>. Левый обратный элементу <tex>z</tex>, являющийся одновременно и правым обратным к нему, называется обратным и обозначается <tex>z^{-1}</tex>. При этом сам элемент называется обратимым.
+
|definition=Пусть <tex>z \in X</tex>. Левый обратный элементу <tex>z</tex>, являющийся одновременно и правым обратным к нему, называется обратным и обозначается <tex>z^{-1}</tex>. При этом сам элемент называется обратимым.
 
}}
 
}}
 +
 +
{{Лемма
 +
|statement=
 +
Пусть <tex>x,y,z \in</tex> алгебре <tex>X</tex>
 +
 +
<tex>xz=e, \ x</tex> {{---}} левый обратный
 +
 +
<tex>zy=e, \ y</tex> {{---}} правый обратный.
 +
 +
Тогда <tex>z</tex> обратим, при этом  <tex>z^{-1}=x=y</tex> и <tex>z^{-1} - !</tex>
 +
|proof=
 +
'''Факт 1.''' <tex>x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y</tex>, но <tex>x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y</tex>, тогда по определению <tex>z^{-1}=x=y</tex>.
 +
 +
'''Факт 2.''' Пусть <tex>\exists z^{-1}, \ \tilde{z}^{-1}</tex>
 +
<tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}</tex>, но <tex>z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-!</tex>
 +
}}
 +
 
==Критерий обратимости матрицы==
 
==Критерий обратимости матрицы==
 
{{Теорема
 
{{Теорема
 
|statement=
 
|statement=
 
Квадратная матрица <tex>A</tex> обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть <tex>\det A \neq 0</tex>.
 
Квадратная матрица <tex>A</tex> обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть <tex>\det A \neq 0</tex>.
|proof =определитель НЕ равен нулю
+
|proof =
*Если матрица <tex>A</tex> обратима, то <tex>AB = E</tex> для некоторой матрицы <tex>B</tex>. Тогда, если квадратные матрицы одного и того же порядка, то <tex>\det AB = \det A \cdot \det B</tex>:
+
'''Шаг 1.''' Если матрица <tex>A</tex> обратима, то <tex>AB = E</tex> для некоторой матрицы <tex>B</tex>. Тогда, если квадратные матрицы одного и того же порядка, то <tex>\det AB = \det A \cdot \det B</tex>:
*<tex>1 = \det E = \det AB = \det A \cdot \det B</tex>, следовательно, <tex>\det A \neq 0, \det B \neq 0</tex>.
+
 
*Теперь докажем обратное утверждение. Пусть <tex>\det A \ne 0</tex>. Положим <tex>B = \frac{1}{\det A}A^{*}</tex>
+
<tex>1 = \det E = \det AB = \det A \cdot \det B</tex>, следовательно, <tex>\det A \neq 0, \det B \neq 0</tex>.
Тогда <tex>AB = A(\frac{1}{detA}A^{*}) = \frac{1}{detA}(AA^{*})</tex> то есть, <tex>A</tex> обратима справа.
+
 
*Поскольку для квадратной матрицы одно и двусторонняя обратимость эквивалентны (Квадратная матрица <tex>A</tex> обратима справа тогда и только тогда, когда она обратима слева.), получаем, что <tex>A</tex> обратима и <tex>A^{-1} = B = \frac{1}{detA}A^{*}</tex>
+
'''Шаг 2.''' Докажем обратное утверждение. Пусть <tex>\det A \ne 0</tex>.
''<tex>A^{*}</tex> - присоединенная матрица''
+
 +
1) Докажем существование правой обратной матрицы <tex>B</tex>.
 +
 
 +
Предположим <tex>\exists B: AB=E</tex>, где <tex>A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert</tex>
 +
 
 +
<tex>AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)</tex>, фиксируем <tex>k</tex>, тогда:
 +
 
 +
<tex>(\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T</tex>, тогда получим, что <tex>\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert </tex> {{---}} матрица системы уравнений, так как <tex>\det A \ne 0</tex>, то по Крамеру <tex>\exists! (\xi^1...\xi^n)^T</tex>
 +
 
 +
В итоге для всех <tex>k</tex> получим матрицу <tex>B</tex>, что и требовалось.
 +
 
 +
 
 +
2) Докажем существование левой обратной матрицы <tex>C</tex>.
 +
 
 +
Предположим <tex>\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}</tex>
 +
 
 +
Фиксируем <tex>i</tex>, тогда <tex>(\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)</tex>,получаем заполнение по строчкам, аналогично первому пункту показываем <tex>\exists C</tex>.
 +
 
 +
3) Тогда по лемме <tex>C=B=A^{-1}</tex>, теорема доказана.
 
}}
 
}}
  
Строка 76: Строка 111:
 
}}
 
}}
  
<math dpi = "145">{C}^{*}= \begin{pmatrix}  
+
<math dpi = "145">\widehat{A}= \begin{pmatrix}  
 
{A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\
 
{A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\
 
{A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\
 
{A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\
Строка 94: Строка 129:
 
Где:
 
Где:
  
* <math dpi = "145">{C}^{*}</math> — присоединённая(союзная, взаимная) матрица;
+
* <math dpi = "145">\widehat{A}</math> — присоединённая(союзная, взаимная) матрица;
 
* <math dpi = "145">{A}_{ij}</math> — алгебраические дополнения исходной матрицы;
 
* <math dpi = "145">{A}_{ij}</math> — алгебраические дополнения исходной матрицы;
 
* <math dpi = "145">{a}_{ij}</math> — элементы исходной матрицы.
 
* <math dpi = "145">{a}_{ij}</math> — элементы исходной матрицы.
Строка 113: Строка 148:
 
\end{pmatrix}</math>
 
\end{pmatrix}</math>
 
====Алгоритм получения обратной матрицы====
 
====Алгоритм получения обратной матрицы====
:*заменить каждый элемент исходной матрицы на его алгебраическое дополнение,
+
:*заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
:*транспонировать полученную матрицу - в результате будет получена союзная матрица,
+
:*разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.
:*разделить каждый элемент союзной матрицы на определитель исходной матрицы.
 
  
<tex dpi="145">A^{-1} = (C^*)^T \times \frac{1}{det A}</tex>
+
<tex dpi="145">A^{-1} = \widehat{A}^T \times \frac{1}{det A}</tex>
  
 
==Ссылки==
 
==Ссылки==
Строка 130: Строка 164:
 
* [http://en.wikipedia.org/wiki/Invertible_matrix Wikipedia {{---}} Invertible matrix]
 
* [http://en.wikipedia.org/wiki/Invertible_matrix Wikipedia {{---}} Invertible matrix]
  
 +
* Анин конспект
 
[[Категория: Алгебра и геометрия 1 курс]]
 
[[Категория: Алгебра и геометрия 1 курс]]
 
[[Категория: Линейные операторы]]
 
[[Категория: Линейные операторы]]

Текущая версия на 19:39, 4 сентября 2022

Определение:
Обратная матрица - такая матрица [math]A^{-1}[/math], при умножении на которую, исходная матрица [math]A[/math] даёт в результате единичную матрицу [math]E[/math]
[math]\! AA^{-1} = A^{-1}A = E[/math]

Обратимость в алгебре

Определение:
Пусть [math]X[/math] - алгебра над [math]F[/math]. [math]e \in X[/math] называется единицей [math]X[/math], если [math]\forall x \in X: e*x=x*e=x[/math], причем [math]e[/math] единственна


Определение:
Пусть в алгебре [math]X: x*y=e[/math], тогда [math]X[/math] называется левым обратным по отношению к [math]y[/math], а [math]y[/math] - правым обратным по отношению к [math]x[/math]


Определение:
Пусть [math]z \in X[/math]. Левый обратный элементу [math]z[/math], являющийся одновременно и правым обратным к нему, называется обратным и обозначается [math]z^{-1}[/math]. При этом сам элемент называется обратимым.


Лемма:
Пусть [math]x,y,z \in[/math] алгебре [math]X[/math]

[math]xz=e, \ x[/math] — левый обратный

[math]zy=e, \ y[/math] — правый обратный.

Тогда [math]z[/math] обратим, при этом [math]z^{-1}=x=y[/math] и [math]z^{-1} - ![/math]
Доказательство:
[math]\triangleright[/math]

Факт 1. [math]x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y[/math], но [math]x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y[/math], тогда по определению [math]z^{-1}=x=y[/math].

Факт 2. Пусть [math]\exists z^{-1}, \ \tilde{z}^{-1}[/math]

[math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}[/math], но [math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-![/math]
[math]\triangleleft[/math]

Критерий обратимости матрицы

Теорема:
Квадратная матрица [math]A[/math] обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть [math]\det A \neq 0[/math].
Доказательство:
[math]\triangleright[/math]

Шаг 1. Если матрица [math]A[/math] обратима, то [math]AB = E[/math] для некоторой матрицы [math]B[/math]. Тогда, если квадратные матрицы одного и того же порядка, то [math]\det AB = \det A \cdot \det B[/math]:

[math]1 = \det E = \det AB = \det A \cdot \det B[/math], следовательно, [math]\det A \neq 0, \det B \neq 0[/math].

Шаг 2. Докажем обратное утверждение. Пусть [math]\det A \ne 0[/math].

1) Докажем существование правой обратной матрицы [math]B[/math].

Предположим [math]\exists B: AB=E[/math], где [math]A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert[/math]

[math]AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)[/math], фиксируем [math]k[/math], тогда:

[math](\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T[/math], тогда получим, что [math]\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert [/math] — матрица системы уравнений, так как [math]\det A \ne 0[/math], то по Крамеру [math]\exists! (\xi^1...\xi^n)^T[/math]

В итоге для всех [math]k[/math] получим матрицу [math]B[/math], что и требовалось.


2) Докажем существование левой обратной матрицы [math]C[/math].

Предположим [math]\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}[/math]

Фиксируем [math]i[/math], тогда [math](\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)[/math],получаем заполнение по строчкам, аналогично первому пункту показываем [math]\exists C[/math].

3) Тогда по лемме [math]C=B=A^{-1}[/math], теорема доказана.
[math]\triangleleft[/math]

Свойства обратной матрицы

  • [math]\det A^{-1} = \frac{1}{\det A}[/math]
  • [math]\ (AB)^{-1} = B^{-1}A^{-1}[/math]
  • [math]\ (A^T)^{-1} = (A^{-1})^T[/math]
  • [math]\ (kA)^{-1} = k^{-1}A^{-1}[/math]

Методы нахождения обратной матрицы

Метод Гаусса для нахождения обратной матрицы

Возьмём две матрицы: саму [math]A[/math] и [math]E[/math]. Приведём матрицу [math]A[/math] к единичной матрице методом Гаусса. После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной [math]A^-1[/math].

Пример

Найдем обратную матрицу для матрицы

[math] A = \begin{bmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{bmatrix}. [/math]
  • 1) Для начала убедимся, что ее определитель не равен нулю(она невырожденная).
  • 2) Справа от исходной матрицы припишем единичную.
[math] [ A | I ] = \left[ \begin{array}{rrr|rrr} 2 & -1 & 0 & 1 & 0 & 0\\ -1 & 2 & -1 & 0 & 1 & 0\\ 0 & -1 & 2 & 0 & 0 & 1 \end{array} \right]. [/math]
  • 3) Методом Гаусса приведем левую матрицу к единичной, применяя все операции одновременно и к левой, и к правой матрицам.
[math] [ I | B ] = \left[ \begin{array}{rrr|rrr} 1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt] 0 & 1 & 0 & \frac{1}{2} & 1 & \frac{1}{2}\\[3pt] 0 & 0 & 1 & \frac{1}{4} & \frac{1}{2} & \frac{3}{4} \end{array} \right]. [/math]
  • 4) [math]A^{-1} = B[/math]

Метод присоединенной матрицы

[math]A^{-1} = \frac{\widehat{A}^T}{\det A}[/math], где [math] \widehat{A}[/math] — присоединенная матрица;
Определение:
Присоединенная(союзная, взаимная) матрица — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы.


[math]\widehat{A}= \begin{pmatrix} {A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\ {A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\ \end{pmatrix}[/math]

Исходная матрица:

[math]{A}= \begin{pmatrix} {a}_{11} & {a}_{12} & \cdots & {a}_{1n} \\ {a}_{21} & {a}_{22} & \cdots & {a}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {a}_{n1} & {a}_{n2} & \cdots & {a}_{nn} \\ \end{pmatrix}[/math]

Где:

  • [math]\widehat{A}[/math] — присоединённая(союзная, взаимная) матрица;
  • [math]{A}_{ij}[/math] — алгебраические дополнения исходной матрицы;
  • [math]{a}_{ij}[/math] — элементы исходной матрицы.

Алгебраическим дополнением элемента [math]\ a_{ij}[/math] матрицы [math]\ A[/math] называется число

[math]\ A_{ij}=(-1)^{i+j}M_{ij}[/math],

где [math]\ M_{ij}[/math] — дополнительный минор, определитель матрицы, получающейся из исходной матрицы [math]\ A[/math] путем вычёркивания i -й строки и j -го столбца.

[math]M_{ij} = det\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\ a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\ \end{pmatrix}[/math]

Алгоритм получения обратной матрицы

  • заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
  • разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.

[math]A^{-1} = \widehat{A}^T \times \frac{1}{det A}[/math]

Ссылки

Источники

  • Анин конспект