Cпектральный анализ линейного оператора с простым спектром — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Диагональный вид матрицы)
Строка 81: Строка 81:
  
 
== Диагональный вид матрицы ==
 
== Диагональный вид матрицы ==
<tex>mathcal{A} \Longleftrightarrow</tex> <math dpi = "145">\widehat{A}= \begin{pmatrix}  
+
<tex>\mathcal{A} \Longleftrightarrow</tex> <math dpi = "145">\widehat{A}= \begin{pmatrix}  
 
{\lambda}_{1} & {0} & \cdots & {0} \\
 
{\lambda}_{1} & {0} & \cdots & {0} \\
 
{0} & {\lambda}_{2} & \cdots & {0} \\
 
{0} & {\lambda}_{2} & \cdots & {0} \\

Версия 04:11, 10 июня 2014

Определения

Скалярный оператор(Оператор скалярного типа)

Определение:
[math]\mathcal{A}\colon X \to X[/math] называется скалярным оператором(оператором скалярного типа), если у него существует полный набор собственных векторов. Или, что то же самое, если в пространстве [math]X[/math] можно указать базис, состоящий из собственных векторов оператора [math]\mathcal{A}[/math]



Простое собственное число

Определение:
Собственное число [math]\lambda_{0}[/math] линейного оператора [math]\mathcal{A}[/math] называется простым, если оно является простым корнем характеристического полинома. Т.е. [math]\mathcal{X}(\lambda)/(\lambda - \lambda_{0}) \ne 0 [/math]



Спектр оператора

Определение:
Пусть [math]\mathcal{A}\colon X \to X[/math]. Тогда спектром оператора [math]\sigma(\mathcal{A})[/math] называется множество всех его собственных значений.


Простой спектр

Определение:
Если все собственные числа оператора [math]\mathcal{A}[/math] простые, то оператор называется Л.О. с простым спектром
  • NB Если оператор с простым спектром, то это оператор скалярного типа.


Теоремы унд Леммы

Теорема о матрице оператора в базисе из собственных векторов

Теорема:
В базисе, состоящем из собственных векторов, матрица скалярного оператора имеет диагональный вид.
Доказательство:
[math]\triangleright[/math]
По определению, матрица [math]||\alpha_{i}^{k}||[/math] оператора [math]\mathcal{A}[/math] в базисе [math]\{x_{i}\}_{i=1}^{n}[/math] определяется из условия [math]Ax_{i} = \sum\limits_{k=1}^{n}\alpha_{i}^{k}x_{k}[/math]. Поскольку [math]Ax_{i} = \lambda_{i}x_{i}[/math], имеем [math]\alpha_{i}^{k} = \delta_{i}^{k}\lambda_{i}[/math]
[math]\triangleleft[/math]


Лемма о собственном подпространстве

Лемма:
Для [math]\mathcal{A}\colon X \to X[/math], [math]X_{\lambda_{i}} = ker(A - \lambda_{i}I)[/math]
Доказательство:
[math]\triangleright[/math]

[math]\dim(X_{\lambda_{i}}) = 1[/math]

[math]X_{\lambda_{i}} = \{x \in X : \mathcal{A}x = \lambda_{i}x\} \Rightarrow (A-\lambda_{i}I)x = 0[/math] т.е. [math]X_{\lambda_{i}} = ker(A-\lambda_{i}I)[/math]
[math]\triangleleft[/math]


Теорема о линейной независимости векторов, отвечающих различным собственным значениям

Теорема:
Пусть [math]\{x_{1},x_{2},\cdots,x_{n}\}[/math] - базис [math]X[/math]. Где [math]x_{1}, x_{2}, \cdots, x_{n}[/math] - собственные вектора... И что тут писать дальше??

Диагональный вид матрицы

[math]\mathcal{A} \Longleftrightarrow[/math] [math]\widehat{A}= \begin{pmatrix} {\lambda}_{1} & {0} & \cdots & {0} \\ {0} & {\lambda}_{2} & \cdots & {0} \\ \vdots & \vdots & \ddots & \vdots \\ {0} & {0} & \cdots & {\lambda}_{n} \\ \end{pmatrix}[/math] В базисе [math]\{x_{i}\}[/math]

[math]\widehat{A} = X^{-1}AX \ T=X=(x_{1},x_{2}, \cdots, x_{n})[/math]

[math]\mathcal{X}_{A}(\lambda) = \prod\limits_{i=1}^{n}(\alpha-\alpha_{i})^{1} \ \ \ \ \ \ \ \lambda_{i} \longleftrightarrow X_{\lambda_{i}} = [/math] л.о. {[math]x_{i}[/math]} [math]\lambda_{i} \ne \lambda{j}, i \ne \j[/math], где [math]x_{i} - [/math] с.в. отвечающий с.з. [math]\lambda_{i}[/math], [math]dimX_{\lambda_{i}} = 1[/math]

[math]\{x_{1},x_{2}, \cdots, x_{n}\}[/math] - базис X.

[math]\mathcal{A} \longleftrightarrow A[/math] В базисе [math]\{e_{i}\}_{i=1}^{n}[/math]; [math]\ \ \ \ \mathcal{A} \longleftrightarrow \widehat{A}[/math] В базисе [math]\{x_{i}\}_{i=1}^{n}[/math]

Алгоритм:

1) [math]\{e_{i}\}_{i=1}^{n} \longrightarrow \{x_{i}\}_{i=1}^{n}[/math] (по Т) : [math]T = (x_{1}, x_{2}, \cdots, x_{n})[/math]

[math]X_{i} = (\xi_{1}, \xi_{2}, \cdots, \xi_{n})^{T}[/math] - координаты СВ [math]x_{i}[/math] в [math]\{e_{i}\}_{i=1}^{n}[/math]

2) [math]\widehat{A} = T^{-1}AT = [/math] [math] \begin{pmatrix} {\lambda}_{1} & {0} & \cdots & {0} \\ \vdots & \vdots & \ddots & \vdots \\ {0} & {0} & \cdots & {\lambda}_{n} \\ \end{pmatrix}[/math]

[math]X = \sum\limits_{i=1}^{n}X_{\lambda_{i}} \ X_{\lambda_{i}} : \mathcal{A}x = \lambda_{i}x[/math], где [math]x = \alpha*x_{i}[/math]


hnya