Обратная матрица — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Обратимость в алгебре)
(fix typo)
Строка 5: Строка 5:
 
==Обратимость в алгебре==
 
==Обратимость в алгебре==
 
{{Определение
 
{{Определение
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\mathcal{8} x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
+
|definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\forall x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна
 
}}
 
}}
  

Версия 22:41, 25 июня 2018

Определение:
Обратная матрица - такая матрица [math]A^{-1}[/math], при умножении на которую, исходная матрица [math]A[/math] даёт в результате единичную матрицу [math]E[/math]
[math]\! AA^{-1} = A^{-1}A = E[/math]

Обратимость в алгебре

Определение:
Пусть [math]X[/math] - алгебра над [math]F[/math]. [math]e \in X[/math] называется единицей [math]X[/math], если [math]\forall x \in X: e*x=x*e=x[/math], причем [math]e[/math] единственна


Определение:
Пусть в алгебре [math]X: x*y=e[/math], тогда [math]X[/math] называется левым обратным по отношению к [math]y[/math], а [math]y[/math] - правым обратным по отношению к [math]x[/math]


Определение:
Пусть [math]z \in X[/math]. Левый обратный элементу [math]z[/math], являющийся одновременно и правым обратным к нему, называется обратным и обозначается [math]z^{-1}[/math]. При этом сам элемент называется обратимым.


Лемма:
Пусть [math]x,y,z \in[/math] алгебре [math]X[/math]

[math]xz=e, \ x[/math] — левый обратный

[math]zy=e, \ y[/math] — правый обратный.

Тогда [math]z[/math] обратим, при этом [math]z^{-1}=x=y[/math] и [math]z^{-1} - ![/math]
Доказательство:
[math]\triangleright[/math]

Факт 1. [math]x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y[/math], но [math]x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y[/math], тогда по определению [math]z^{-1}=x=y[/math].

Факт 2. Пусть [math]\exists z^{-1}, \ \tilde{z}^{-1}[/math]

[math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}[/math], но [math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-![/math]
[math]\triangleleft[/math]

Критерий обратимости матрицы

Теорема:
Квадратная матрица [math]A[/math] обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть [math]\det A \neq 0[/math].
Доказательство:
[math]\triangleright[/math]

Шаг 1. Если матрица [math]A[/math] обратима, то [math]AB = E[/math] для некоторой матрицы [math]B[/math]. Тогда, если квадратные матрицы одного и того же порядка, то [math]\det AB = \det A \cdot \det B[/math]:

[math]1 = \det E = \det AB = \det A \cdot \det B[/math], следовательно, [math]\det A \neq 0, \det B \neq 0[/math].

Шаг 2. Докажем обратное утверждение. Пусть [math]\det A \ne 0[/math].

1) Докажем существование правой обратной матрицы [math]B[/math].

Предположим [math]\exists B: AB=E[/math], где [math]A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert[/math]

[math]AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)[/math], фиксируем [math]k[/math], тогда:

[math](\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T[/math], тогда получим, что [math]\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert [/math] — матрица системы уравнений, так как [math]\det A \ne 0[/math], то по Крамеру [math]\exists! (\xi^1...\xi^n)^T[/math]

В итоге для всех [math]k[/math] получим матрицу [math]B[/math], что и требовалось.


2) Докажем существование левой обратной матрицы [math]C[/math].

Предположим [math]\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}[/math]

Фиксируем [math]i[/math], тогда [math](\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)[/math],получаем заполнение по строчкам, аналогично первому пункту показываем [math]\exists C[/math].

3) Тогда по лемме [math]C=B=A^{-1}[/math], теорема доказана.
[math]\triangleleft[/math]

Свойства обратной матрицы

  • [math]\det A^{-1} = \frac{1}{\det A}[/math]
  • [math]\ (AB)^{-1} = B^{-1}A^{-1}[/math]
  • [math]\ (A^T)^{-1} = (A^{-1})^T[/math]
  • [math]\ (kA)^{-1} = k^{-1}A^{-1}[/math]

Методы нахождения обратной матрицы

Метод Гаусса для нахождения обратной матрицы

Возьмём две матрицы: саму [math]A[/math] и [math]E[/math]. Приведём матрицу [math]A[/math] к единичной матрице методом Гаусса. После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной [math]A^-1[/math].

Пример

Найдем обратную матрицу для матрицы

[math] A = \begin{bmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{bmatrix}. [/math]
  • 1) Для начала убедимся, что ее определитель не равен нулю(она невырожденная).
  • 2) Справа от исходной матрицы припишем единичную.
[math] [ A | I ] = \left[ \begin{array}{rrr|rrr} 2 & -1 & 0 & 1 & 0 & 0\\ -1 & 2 & -1 & 0 & 1 & 0\\ 0 & -1 & 2 & 0 & 0 & 1 \end{array} \right]. [/math]
  • 3) Методом Гаусса приведем левую матрицу к единичной, применяя все операции одновременно и к левой, и к правой матрицам.
[math] [ I | B ] = \left[ \begin{array}{rrr|rrr} 1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt] 0 & 1 & 0 & \frac{1}{2} & 1 & \frac{1}{2}\\[3pt] 0 & 0 & 1 & \frac{1}{4} & \frac{1}{2} & \frac{3}{4} \end{array} \right]. [/math]
  • 4) [math]A^{-1} = B[/math]

Метод присоединенной матрицы

[math]A^{-1} = \frac{\widehat{A}^T}{\det A}[/math], где [math] \widehat{A}[/math] — присоединенная матрица;
Определение:
Присоединенная(союзная, взаимная) матрица — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы.


[math]\widehat{A}= \begin{pmatrix} {A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\ {A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\ \end{pmatrix}[/math]

Исходная матрица:

[math]{A}= \begin{pmatrix} {a}_{11} & {a}_{12} & \cdots & {a}_{1n} \\ {a}_{21} & {a}_{22} & \cdots & {a}_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ {a}_{n1} & {a}_{n2} & \cdots & {a}_{nn} \\ \end{pmatrix}[/math]

Где:

  • [math]\widehat{A}[/math] — присоединённая(союзная, взаимная) матрица;
  • [math]{A}_{ij}[/math] — алгебраические дополнения исходной матрицы;
  • [math]{a}_{ij}[/math] — элементы исходной матрицы.

Алгебраическим дополнением элемента [math]\ a_{ij}[/math] матрицы [math]\ A[/math] называется число

[math]\ A_{ij}=(-1)^{i+j}M_{ij}[/math],

где [math]\ M_{ij}[/math] — дополнительный минор, определитель матрицы, получающейся из исходной матрицы [math]\ A[/math] путем вычёркивания i -й строки и j -го столбца.

[math]M_{ij} = det\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\ a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\ \end{pmatrix}[/math]

Алгоритм получения обратной матрицы

  • заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
  • разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.

[math]A^{-1} = \widehat{A}^T \times \frac{1}{det A}[/math]

Ссылки

Источники

  • Анин конспект