|
|
Строка 5: |
Строка 5: |
| ==Обратимость в алгебре== | | ==Обратимость в алгебре== |
| {{Определение | | {{Определение |
− | |definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\mathcal{8} x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна | + | |definition=Пусть <tex>X</tex> - алгебра над <tex>F</tex>. <tex>e \in X</tex> называется единицей <tex>X</tex>, если <tex>\forall x \in X: e*x=x*e=x</tex>, причем <tex>e</tex> единственна |
| }} | | }} |
| | | |
Версия 22:41, 25 июня 2018
Определение: |
Обратная матрица - такая матрица [math]A^{-1}[/math], при умножении на которую, исходная матрица [math]A[/math] даёт в результате единичную матрицу [math]E[/math]
- [math]\! AA^{-1} = A^{-1}A = E[/math]
|
Обратимость в алгебре
Определение: |
Пусть [math]X[/math] - алгебра над [math]F[/math]. [math]e \in X[/math] называется единицей [math]X[/math], если [math]\forall x \in X: e*x=x*e=x[/math], причем [math]e[/math] единственна |
Определение: |
Пусть в алгебре [math]X: x*y=e[/math], тогда [math]X[/math] называется левым обратным по отношению к [math]y[/math], а [math]y[/math] - правым обратным по отношению к [math]x[/math] |
Определение: |
Пусть [math]z \in X[/math]. Левый обратный элементу [math]z[/math], являющийся одновременно и правым обратным к нему, называется обратным и обозначается [math]z^{-1}[/math]. При этом сам элемент называется обратимым. |
Лемма: |
Пусть [math]x,y,z \in[/math] алгебре [math]X[/math]
[math]xz=e, \ x[/math] — левый обратный
[math]zy=e, \ y[/math] — правый обратный.
Тогда [math]z[/math] обратим, при этом [math]z^{-1}=x=y[/math] и [math]z^{-1} - ![/math] |
Доказательство: |
[math]\triangleright[/math] |
Факт 1. [math]x \cdot z \cdot y=(x \cdot z) \cdot y=e \cdot y=y[/math], но [math]x \cdot z \cdot y=x \cdot (z \cdot y)=x \cdot e=x \Rightarrow x=y[/math], тогда по определению [math]z^{-1}=x=y[/math].
Факт 2. Пусть [math]\exists z^{-1}, \ \tilde{z}^{-1}[/math]
[math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=(z^{-1} \cdot z) \cdot \tilde{z}^{-1}=e \cdot \tilde{z}^{-1}=\tilde{z}^{-1}[/math], но [math]z^{-1} \cdot z \cdot \tilde{z}^{-1}=z^{-1} \cdot (z \cdot \tilde{z}^{-1})=z^{-1} \cdot e=z^{-1} \Rightarrow z^{-1}=\tilde{z}^{-1} \Rightarrow z^{-1}-![/math] |
[math]\triangleleft[/math] |
Критерий обратимости матрицы
Теорема: |
Квадратная матрица [math]A[/math] обратима (имеет обратную матрицу) тогда и только тогда, когда она невырожденная, то есть [math]\det A \neq 0[/math]. |
Доказательство: |
[math]\triangleright[/math] |
Шаг 1. Если матрица [math]A[/math] обратима, то [math]AB = E[/math] для некоторой матрицы [math]B[/math]. Тогда, если квадратные матрицы одного и того же порядка, то [math]\det AB = \det A \cdot \det B[/math]:
[math]1 = \det E = \det AB = \det A \cdot \det B[/math], следовательно, [math]\det A \neq 0, \det B \neq 0[/math].
Шаг 2. Докажем обратное утверждение. Пусть [math]\det A \ne 0[/math].
1) Докажем существование правой обратной матрицы [math]B[/math].
Предположим [math]\exists B: AB=E[/math], где [math]A=\Vert \alpha_{k}^{i} \Vert, \ B=\Vert \beta_{k}^{i} \Vert, \ E=\Vert \delta_{k}^{i} \Vert[/math]
[math]AB=E: \sum\limits_{j=1}^{n} \alpha_{j}^{i} \beta_{k}^{j}=\delta_{k}^{i}, \ (i,k=1..n)[/math], фиксируем [math]k[/math], тогда:
[math](\beta_{k}^{1}...\beta_{k}^{n})^T \rightarrow (\xi^1...\xi^n)^T[/math], тогда получим, что [math]\sum\limits_{j=1}^{n} \alpha_{j}^{i} \xi^{j}=\delta_{k}^{i} \Rightarrow A=\Vert \alpha_{k}^{i} \Vert [/math] — матрица системы уравнений, так как [math]\det A \ne 0[/math], то по Крамеру [math]\exists! (\xi^1...\xi^n)^T[/math]
В итоге для всех [math]k[/math] получим матрицу [math]B[/math], что и требовалось.
2) Докажем существование левой обратной матрицы [math]C[/math].
Предположим [math]\exists C: CA=E \Rightarrow \sum\limits_{j=1}^{n} \gamma_{i}^{j}\alpha_{j}^{k}=\delta_{k}^{i}[/math]
Фиксируем [math]i[/math], тогда [math](\gamma_{1}^{i}...\gamma_{n}^{i}) \rightarrow (\xi_1...\xi_n)[/math],получаем заполнение по строчкам, аналогично первому пункту показываем [math]\exists C[/math].
3) Тогда по лемме [math]C=B=A^{-1}[/math], теорема доказана. |
[math]\triangleleft[/math] |
Свойства обратной матрицы
- [math]\det A^{-1} = \frac{1}{\det A}[/math]
- [math]\ (AB)^{-1} = B^{-1}A^{-1}[/math]
- [math]\ (A^T)^{-1} = (A^{-1})^T[/math]
- [math]\ (kA)^{-1} = k^{-1}A^{-1}[/math]
Методы нахождения обратной матрицы
Метод Гаусса для нахождения обратной матрицы
Возьмём две матрицы: саму [math]A[/math] и [math]E[/math]. Приведём матрицу [math]A[/math] к единичной матрице методом Гаусса. После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной [math]A^-1[/math].
Пример
Найдем обратную матрицу для матрицы
- [math] A =
\begin{bmatrix}
2 & -1 & 0 \\
-1 & 2 & -1 \\
0 & -1 & 2
\end{bmatrix}.
[/math]
- 1) Для начала убедимся, что ее определитель не равен нулю(она невырожденная).
- 2) Справа от исходной матрицы припишем единичную.
- [math] [ A | I ] =
\left[ \begin{array}{rrr|rrr}
2 & -1 & 0 & 1 & 0 & 0\\
-1 & 2 & -1 & 0 & 1 & 0\\
0 & -1 & 2 & 0 & 0 & 1
\end{array} \right].
[/math]
- 3) Методом Гаусса приведем левую матрицу к единичной, применяя все операции одновременно и к левой, и к правой матрицам.
- [math] [ I | B ] =
\left[ \begin{array}{rrr|rrr}
1 & 0 & 0 & \frac{3}{4} & \frac{1}{2} & \frac{1}{4}\\[3pt]
0 & 1 & 0 & \frac{1}{2} & 1 & \frac{1}{2}\\[3pt]
0 & 0 & 1 & \frac{1}{4} & \frac{1}{2} & \frac{3}{4}
\end{array} \right].
[/math]
- 4) [math]A^{-1} = B[/math]
Метод присоединенной матрицы
[math]A^{-1} = \frac{\widehat{A}^T}{\det A}[/math], где [math] \widehat{A}[/math] — присоединенная матрица;
Определение: |
Присоединенная(союзная, взаимная) матрица — матрица, составленная из алгебраических дополнений для соответствующих элементов исходной матрицы. |
[math]\widehat{A}= \begin{pmatrix}
{A}_{11} & {A}_{12} & \cdots & {A}_{1n} \\
{A}_{21} & {A}_{22} & \cdots & {A}_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
{A}_{n1} & {A}_{n2} & \cdots & {A}_{nn} \\
\end{pmatrix}[/math]
Исходная матрица:
[math]{A}= \begin{pmatrix}
{a}_{11} & {a}_{12} & \cdots & {a}_{1n} \\
{a}_{21} & {a}_{22} & \cdots & {a}_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
{a}_{n1} & {a}_{n2} & \cdots & {a}_{nn} \\
\end{pmatrix}[/math]
Где:
- [math]\widehat{A}[/math] — присоединённая(союзная, взаимная) матрица;
- [math]{A}_{ij}[/math] — алгебраические дополнения исходной матрицы;
- [math]{a}_{ij}[/math] — элементы исходной матрицы.
Алгебраическим дополнением элемента [math]\ a_{ij}[/math] матрицы [math]\ A[/math] называется число
[math]\ A_{ij}=(-1)^{i+j}M_{ij}[/math],
где [math]\ M_{ij}[/math] — дополнительный минор, определитель матрицы, получающейся из исходной матрицы [math]\ A[/math] путем вычёркивания i -й строки и j -го столбца.
[math]M_{ij} = det\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1(j-1)} & a_{1(j+1)} & \cdots & a_{1n} \\
\vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{(i-1)1} & a_{(i-1)2} & \cdots & a_{(i-1)(j-1)} & a_{(i-1)(j+1)} & \cdots & a_{(i-1)n} \\
a_{(i+1)1} & a_{(i+1)2} & \cdots & a_{(i+1)(j-1)} & a_{(i+1)(j+1)} & \cdots & a_{(i+1)n} \\
\vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{n(j-1)} & a_{n(j+1)} & \cdots & a_{nn} \\
\end{pmatrix}[/math]
Алгоритм получения обратной матрицы
- заменить каждый элемент исходной матрицы на его алгебраическое дополнение - в результате будет получена присоединенная матрица
- разделить каждый элемент транспонированной присоединенной матрицы на определитель исходной матрицы.
[math]A^{-1} = \widehat{A}^T \times \frac{1}{det A}[/math]
Ссылки
Источники