Наилучшее приближение в линейных нормированных пространствах — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м
м (rollbackEdits.php mass rollback)
 
(не показано 14 промежуточных версий 8 участников)
Строка 1: Строка 1:
 
[[Интеграл Фейера|<<]][[Теорема Фейера|>>]]
 
[[Интеграл Фейера|<<]][[Теорема Фейера|>>]]
  
{{В разработке}}
 
 
Пусть <tex>X</tex> {{---}} [[Нормированные_пространства#определение и примеры|нормированное пространство]], к примеру, <tex>L_p</tex>. Пусть <tex>Y</tex> {{---}} линейное множество в <tex>X</tex>, например, <tex>H_n</tex> (тригонометрических полиномов степени не больше <tex>n</tex>).
 
Пусть <tex>X</tex> {{---}} [[Нормированные_пространства#определение и примеры|нормированное пространство]], к примеру, <tex>L_p</tex>. Пусть <tex>Y</tex> {{---}} линейное множество в <tex>X</tex>, например, <tex>H_n</tex> (тригонометрических полиномов степени не больше <tex>n</tex>).
 
{{Определение
 
{{Определение
|definition = Для любого <tex> x \in X</tex> величина <tex>E_y(x) = \inf\limits_{y \in Y}{\|x-y\|}</tex> называется '''наилучшим приближением точки <tex>x</tex> элементами линейного множества <tex>Y</tex>'''.
+
|definition = Для любого <tex> x \in X</tex> величина <tex>E_Y(x) = \inf\limits_{y \in Y}{\|x-y\|}</tex> называется '''наилучшим приближением точки <tex>x</tex> элементами линейного множества <tex>Y</tex>'''.
Если при этом существует <tex>y^* \in Y</tex> такой, что <tex>E_y(x)=\|x-y^*\|</tex>, то этот <tex>y^*</tex> называется '''элементом наилучшего приближения точки <tex>x</tex>'''.
+
Если при этом существует <tex>y^* \in Y</tex> такой, что <tex>E_Y(x)=\|x-y^*\|</tex>, то этот <tex>y^*</tex> называется '''элементом наилучшего приближения точки <tex>x</tex>'''.
 
}}
 
}}
 
Заметим: гарантий, что <tex>y^*</tex> единственный и что он вообще существует, нет.  
 
Заметим: гарантий, что <tex>y^*</tex> единственный и что он вообще существует, нет.  
  
<tex>E_y(x) \ge 0</tex>, если <tex>x \in Y</tex>, то <tex>E_y(x)=0</tex>, таким образом, положительной определенности у этого функционала нет.
+
<tex>E_Y(x) \ge 0</tex>, если <tex>x \in Y</tex>, то <tex>E_Y(x)=0</tex>, таким образом, положительной определенности у этого функционала нет.
  
 
{{Утверждение
 
{{Утверждение
 
|statement= Наилучшее приближение является полунормой, то есть выполняются однородность и неравенство треугольника.
 
|statement= Наилучшее приближение является полунормой, то есть выполняются однородность и неравенство треугольника.
 
|proof=  
 
|proof=  
'''Однородность''': <tex>\forall \varepsilon > 0 </tex>, по определению нижней грани <tex>\|x-y_{\varepsilon}\| < E_y(x)+\varepsilon</tex>, где <tex>y_{\varepsilon} \in Y</tex>.
+
'''Однородность''': <tex>\forall \varepsilon > 0 </tex>, по определению нижней грани <tex>\|x-y_{\varepsilon}\| < E_Y(x)+\varepsilon</tex>, где <tex>y_{\varepsilon} \in Y</tex>.
<tex>|\lambda|\|x-y_{\varepsilon}\|<|\lambda|E_y(x)+|\lambda| \varepsilon </tex>
+
<tex>|\lambda|\|x-y_{\varepsilon}\|<|\lambda|E_Y(x)+|\lambda| \varepsilon </tex>
  
По аксиомам нормы: <tex>|\lambda|\|x-y_{\varepsilon}\|=\|\lambda x-\lambda y\|</tex>.
+
По аксиомам нормы: <tex>|\lambda|\|x-y_{\varepsilon}\|=\|\lambda x-\lambda y_\varepsilon\|</tex>.
  
Так как <tex>Y</tex> {{---}} линейное пространство, то <tex>\lambda y_{\varepsilon} \in Y</tex> и <tex>\| \lambda x - \lambda y_{\varepsilon} \| \ge E_y(\lambda x)</tex>.
+
Так как <tex>Y</tex> {{---}} линейное пространство, то <tex>\lambda y_{\varepsilon} \in Y</tex> и <tex>\| \lambda x - \lambda y_{\varepsilon} \| \ge E_Y(\lambda x)</tex>.
  
Тогда <tex>E_y(\lambda x) < |\lambda|E_y(x)+ |\lambda|\varepsilon</tex>, при <tex>\varepsilon \to 0</tex> получаем <tex>E_y(\lambda x) \le |\lambda|E_y(x)</tex>.
+
Тогда <tex>E_Y(\lambda x) < |\lambda|E_Y(x)+ |\lambda|\varepsilon</tex>, при <tex>\varepsilon \to 0</tex> получаем <tex>E_Y(\lambda x) \le |\lambda|E_Y(x)</tex>.
  
В обратную сторону: <tex>E_y(x)=E_y(\lambda \frac{x}{\lambda}) \le |\lambda|E_y(\frac{x}{\lambda})</tex>, то есть, <tex>\frac{1}{|\lambda|}E_y(x) \le E_y(\frac{x}{\lambda})</tex>.  
+
В обратную сторону: <tex>E_Y(x)=E_Y(\lambda \frac{x}{\lambda}) \le |\lambda|E_Y(\frac{x}{\lambda})</tex>, то есть, <tex>\frac{1}{|\lambda|}E_Y(x) \le E_Y(\frac{x}{\lambda})</tex>.  
  
Пусть <tex>\mu = \frac{1}{\lambda}</tex>, тогда <tex>|\mu|E_y(x) \le E_y(\mu x)</tex>.
+
Пусть <tex>\mu = \frac{1}{\lambda}</tex>, тогда <tex>|\mu|E_Y(x) \le E_Y(\mu x)</tex>.
  
Таким образом, получаем два противоположных неравенства, следовательно, <tex>E_y(\lambda x)=|\lambda|E_y(x)</tex>.
+
Таким образом, получаем два противоположных неравенства, следовательно, <tex>E_Y(\lambda x)=|\lambda|E_Y(x)</tex>.
  
'''Неравенство треугольника''': <tex>\forall \varepsilon > 0</tex>: <tex>\|x_1-y_{\varepsilon}\|< E_y(x_1)+\varepsilon</tex> и <tex>\|x_2-z_{\varepsilon}\|< E_y(x_2)+\varepsilon</tex>.
+
'''Неравенство треугольника''': <tex>\forall \varepsilon > 0</tex>: <tex>\|x_1-y_{\varepsilon}\|< E_Y(x_1)+\varepsilon</tex> и <tex>\|x_2-z_{\varepsilon}\|< E_Y(x_2)+\varepsilon</tex>.
  
Складывая два неравенства, получим <tex>\|x_1+y_{\varepsilon}\|+\|x_2+z_{\varepsilon}\|<E_y(x_1)+E_y(x_2)+2\varepsilon</tex>.
+
Складывая два неравенства, получим <tex>\|x_1-y_{\varepsilon}\|+\|x_2-z_{\varepsilon}\|<E_Y(x_1)+E_Y(x_2)+2\varepsilon</tex>.
  
По свойствам нижней грани, <tex>E_y(x_1+x_2)\le \|(x_1+x_2)-(y_{\varepsilon}+z_{\varepsilon})\| \le \| x_1 - y_{\varepsilon} \| + \| x_2 - z_{\varepsilon} \| < E_y(x_1) + E_y(x_2) </tex>, так как <tex>y_{\varepsilon}+z_{\varepsilon} \in Y</tex>.
+
По свойствам нижней грани, <tex>E_Y(x_1+x_2)\le \|(x_1+x_2)-(y_{\varepsilon}+z_{\varepsilon})\| \le \| x_1 - y_{\varepsilon} \| + \| x_2 - z_{\varepsilon} \| < </tex>
  
При <tex>\varepsilon \to 0</tex> приходим к неравенству треугольника: <tex>E_y(x_1+x_2)\le E_y(x_1)+E_y(y_1)</tex>.
+
<tex> < E_Y(x_1) + E_Y(x_2) + 2\varepsilon</tex>, так как <tex>y_{\varepsilon}+z_{\varepsilon} \in Y</tex>.
 +
 
 +
При <tex>\varepsilon \to 0</tex> приходим к неравенству треугольника: <tex>E_Y(x_1+x_2)\le E_Y(x_1)+E_Y(x_2)</tex>.
 
}}
 
}}
  
Отметим некоторый технический момент: <tex>\forall x \in X</tex>, <tex>\forall y \in Y</tex> выполняется: <tex>E_y(x)=E_y((x+y)-y)\le E_y(x+y)+E(-y)</tex>, <tex>E_y(-y) = 0</tex>, так как <tex>-y \in Y</tex>, следовательно, <tex>E_y(x) \le E_y(x+y) \le E_y(x) + E_y(y) = E_y(x)</tex>.  
+
Отметим некоторый технический момент: <tex>\forall x \in X</tex>, <tex>\forall y \in Y</tex> выполняется: <tex>E_Y(x)=E_Y((x+y)-y)\le E_Y(x+y)+E(-y)</tex>, <tex>E_Y(-y) = 0</tex>, так как <tex>-y \in Y</tex>, следовательно, <tex>E_Y(x) \le E_Y(x+y) \le E_Y(x) + E_Y(y) = E_Y(x)</tex>.  
  
Значит, <tex>\forall y \in Y E_y(x)=E_y(x+y)</tex>.
+
Значит, <tex>\forall y \in Y E_Y(x)=E_Y(x+y)</tex>.
  
Также, так как <tex>0 \in Y</tex>, то <tex>E_y(x) \le \|x-0\|=\|x\|</tex>, следовательно, <tex>E_y(x) \le \|x\|</tex>.
+
Также, так как <tex>0 \in Y</tex>, то <tex>E_Y(x) \le \|x-0\|=\|x\|</tex>, следовательно, <tex>E_Y(x) \le \|x\|</tex>.
  
Отсюда, если <tex>x_n \to x</tex>, то <tex>E_y(x_n) \to E_y(x)</tex>, то есть, <tex> E </tex> непрерывно как функционал в норме <tex> X </tex>.
+
[[%D0%9D%D0%BE%D1%80%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%82%D0%B2%D0%B0#.D0.90.D1.80.D0.B8.D1.84.D0.BC.D0.B5.D1.82.D0.B8.D0.BA.D0.B0_.D0.BF.D1.80.D0.B5.D0.B4.D0.B5.D0.BB.D0.BE.D0.B2|Отсюда]], если <tex>x_n \to x</tex>, то <tex>E_Y(x_n) \to E_Y(x)</tex>, то есть, <tex> E </tex> непрерывно как функционал в норме <tex> X </tex>.
  
 
Основной интерес представляют покрытия <tex> X </tex> элементами конечномерных подпространств.  
 
Основной интерес представляют покрытия <tex> X </tex> элементами конечномерных подпространств.  
Строка 60: Строка 61:
 
Рассмотрим функцию <tex>f(\alpha_1,..,\alpha_n)=\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\|</tex>, тогда ясно, что
 
Рассмотрим функцию <tex>f(\alpha_1,..,\alpha_n)=\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\|</tex>, тогда ясно, что
  
<tex>E_y(x)=\inf\limits_{\overline{\alpha}\in \mathbb{R}^n}f(\alpha_1,..,\alpha_n)</tex>.
+
<tex>E_Y(x)=\inf\limits_{\overline{\alpha}\in \mathbb{R}^n}f(\alpha_1,..,\alpha_n)</tex>.
  
 
Надо доказать, что существует <tex>\overline{\alpha^*}=(\alpha^*_1,..,\alpha^*_n)</tex>, на котором достигается эта нижняя грань, тогда в качестве <tex>y^*</tex> можно взять <tex>y^*=\sum\limits_{k=1}^{n}\alpha^*_k e_k</tex>. Доказательство существования будем вести с помощью [[Предел_отображения_в_метрическом_пространстве#weirstrass|теоремы Вейерштрасса]], утверждающей, что если функция <tex>n</tex> переменных непрерывна на компакте, то она принимает на нем свое минимальное значение.
 
Надо доказать, что существует <tex>\overline{\alpha^*}=(\alpha^*_1,..,\alpha^*_n)</tex>, на котором достигается эта нижняя грань, тогда в качестве <tex>y^*</tex> можно взять <tex>y^*=\sum\limits_{k=1}^{n}\alpha^*_k e_k</tex>. Доказательство существования будем вести с помощью [[Предел_отображения_в_метрическом_пространстве#weirstrass|теоремы Вейерштрасса]], утверждающей, что если функция <tex>n</tex> переменных непрерывна на компакте, то она принимает на нем свое минимальное значение.
Строка 73: Строка 74:
 
Заметим, что <tex>\sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}</tex> {{---}} константа для данного базиса, а <tex>\sqrt{\sum\limits_{k=1}^{n}\Delta\alpha^2_k}</tex> {{---}} норма для <tex>\Delta\overline{\alpha}</tex> в <tex>\mathbb{R}^n</tex>, тогда из полученного неравенства очевидно, что <tex>f</tex> {{---}} непрерывна.
 
Заметим, что <tex>\sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}</tex> {{---}} константа для данного базиса, а <tex>\sqrt{\sum\limits_{k=1}^{n}\Delta\alpha^2_k}</tex> {{---}} норма для <tex>\Delta\overline{\alpha}</tex> в <tex>\mathbb{R}^n</tex>, тогда из полученного неравенства очевидно, что <tex>f</tex> {{---}} непрерывна.
  
Пусть <tex>M=2E_y(x)</tex>. Считаем, что <tex>x \not\in Y</tex>, тогда <tex>E_y(x) > 0</tex> (иначе, если <tex>E_y(x)=0</tex>, то <tex>\forall n</tex> <tex>\exists y_n \in Y</tex> такой, что <tex>\|x-y_n\| < \frac{1}{n}</tex>. Устремляя <tex>n \to \infty</tex>, получаем, что <tex>\|x-y_n\| \to 0</tex>. Так как <tex>y_n \to x</tex> в <tex>X</tex>, а <tex>\dim Y < \infty</tex>, то <tex>Y</tex> замкнуто в <tex>X</tex>, <tex>y_n \in Y</tex>, значит и <tex>x \in Y</tex>, что противоречит нашему предположению).
+
Пусть <tex>M=2E_Y(x)</tex>. Считаем, что <tex>x \not\in Y</tex>, тогда <tex>E_Y(x) > 0</tex> (иначе, если <tex>E_Y(x)=0</tex>, то <tex>\forall n</tex> <tex>\exists y_n \in Y</tex> такой, что <tex>\|x-y_n\| < \frac{1}{n}</tex>. Устремляя <tex>n \to \infty</tex>, получаем, что <tex>\|x-y_n\| \to 0</tex>. Так как <tex>y_n \to x</tex> в <tex>X</tex>, а <tex>\dim Y < \infty</tex>, то <tex>Y</tex> замкнуто в <tex>X</tex>, <tex>y_n \in Y</tex>, значит и <tex>x \in Y</tex>, что противоречит нашему предположению).
 
   
 
   
 
Выясним, на каком множестве гарантированно <tex>f(\overline{\alpha}) > M</tex>, то есть, <tex>\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\| > M</tex>.  
 
Выясним, на каком множестве гарантированно <tex>f(\overline{\alpha}) > M</tex>, то есть, <tex>\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\| > M</tex>.  
Строка 87: Строка 88:
 
Пусть <tex>\overline{\alpha}^{(m)} \to \overline{\alpha}</tex>, <tex>\overline{\alpha}^{(m)} \in T</tex>, так как сходимость покоординатная, то <tex>\alpha^{(m)}_k \to \alpha_k</tex> для <tex>k = \overline{1,n}</tex>.  
 
Пусть <tex>\overline{\alpha}^{(m)} \to \overline{\alpha}</tex>, <tex>\overline{\alpha}^{(m)} \in T</tex>, так как сходимость покоординатная, то <tex>\alpha^{(m)}_k \to \alpha_k</tex> для <tex>k = \overline{1,n}</tex>.  
  
Если <tex>\|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k\| \to \|\sum\limits_{k=1}^{n}\alpha_k e_k\|</tex>, то, так как <tex>\|\sum\limits_{k=1}^{n}\alpha_k e_k\|\le M\|x\|</tex>, предел нормы ограничен этим же значением, тогда <tex>\overline{\alpha}\in T</tex>, и <tex>T</tex> замкнуто.
+
Если <tex>\|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k\| \to \|\sum\limits_{k=1}^{n}\alpha_k e_k\|</tex>, то, так как <tex>\|\sum\limits_{k=1}^{n}\alpha^{(m)}_k e_k\|\le M + \|x\|</tex>, предел нормы ограничен этим же значением, тогда <tex>\overline{\alpha}\in T</tex>, и <tex>T</tex> замкнуто.
  
<tex>|\|\sum\limits_{k=1}^{n}\alpha^{(n)}_ke_k\|-\|\sum\limits_{k=1}^{n}\alpha_k e_k\|| \le \|\sum\limits_{k=1}^{n}\alpha^{(n)}_ke_k-\sum\limits_{k=1}^{n}\alpha_ke_k\|=\|\sum\limits_{k=1}^{n}(\alpha^{(n)}_k-\alpha_k)e_k\| \le </tex>
+
<tex>|\|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k\|-\|\sum\limits_{k=1}^{n}\alpha_k e_k\|| \le \|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k-\sum\limits_{k=1}^{n}\alpha_ke_k\|=\|\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)e_k\| \le </tex>
  
<tex> \le \sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(n)}_k-\alpha_k)}</tex>.  
+
<tex> \le \sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)^2}</tex>.  
  
Так как <tex>\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(n)}_k-\alpha_k)} \to 0</tex>, то <tex>T</tex> {{---}} замкнуто.
+
Так как <tex>\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)^2} \to 0</tex>, то <tex>T</tex> {{---}} замкнуто.
  
 
2) ''Ограниченность''
 
2) ''Ограниченность''
Строка 99: Строка 100:
 
Рассмотрим евклидову норму в <tex> \mathbb{R}^n </tex>: <tex>\|\overline{\alpha}\| = \sqrt{\sum\limits_{k=1}^{n}\alpha_k^2}</tex>.  
 
Рассмотрим евклидову норму в <tex> \mathbb{R}^n </tex>: <tex>\|\overline{\alpha}\| = \sqrt{\sum\limits_{k=1}^{n}\alpha_k^2}</tex>.  
  
<tex>\|\sum\limits_{k=1}^{n}\alpha_k e_k\|=\|\overline{\alpha}\|\|\sum\limits_{k=1}^{n}\frac{\alpha_k}{\|\overline{\alpha}\|}e_k\| \le M + \|x\|</tex>. Обозначим за <tex>\beta_k = \frac{\alpha_k}{\|\overline{\alpha}\|}</tex> и заметим, что <tex>\sum\limits_{k=1}^{n}\beta_k=1</tex>. Будем рассматривать суммы <tex>\|\sum\limits_{k=1}^{n}\beta_k e_k\|</tex>, нам необходимо доказать их ограниченность.  
+
<tex>\|\sum\limits_{k=1}^{n}\alpha_k e_k\|=\|\overline{\alpha}\|\|\sum\limits_{k=1}^{n}\frac{\alpha_k}{\|\overline{\alpha}\|}e_k\| \le M + \|x\|</tex>. Обозначим за <tex>\beta_k = \frac{\alpha_k}{\|\overline{\alpha}\|}</tex> и заметим, что <tex>\sum\limits_{k=1}^{n}\beta_k^2=1</tex>. Будем рассматривать суммы <tex>\|\sum\limits_{k=1}^{n}\beta_k e_k\|</tex>, нам необходимо доказать их ограниченность.  
  
 
Обозначим <tex>m = \inf\limits_{\|\beta\|=1}\|\sum\limits_{k=1}^{n}\beta_k e_k\|</tex>.
 
Обозначим <tex>m = \inf\limits_{\|\beta\|=1}\|\sum\limits_{k=1}^{n}\beta_k e_k\|</tex>.
  
Нижняя грань берется по единичной сфере в <tex>\mathbb{R}^n</tex> (компакт в <tex>\mathbb{R}^n</tex>), по непрерывной функции, значит, по теореме Вейерштрасса, найдется <tex>\beta^*</tex> такая, что <tex>\|\beta^*\|=1</tex>.
+
Нижняя грань(инфимум) берется по единичной сфере в <tex>\mathbb{R}^n</tex> (компакт в <tex>\mathbb{R}^n</tex>), по непрерывной функции, значит, по теореме Вейерштрасса, найдется <tex>\beta^*</tex> такая, что <tex>\|\beta^*\|=1</tex> и <tex>m = \|\sum\limits_{k=1}^{n}\beta_k^* e_k\|</tex>.
  
Если предположить, что <tex>m = 0</tex>, то <tex>\sum\limits_{k=1}^{n}\beta^*_k e_k = 0</tex>, так как <tex>e_k</tex> {{---}} независимы, то <tex>\beta^*=0</tex>, следовательно, <tex>\sum\limits_{k=1}^{n}\beta^*_k=0</tex>, но этого быть не может, так как <tex>\sum\limits_{k=1}^{n}\beta^*_k=1</tex> по сказанному выше. Значит, <tex>m>0</tex>.
+
Если предположить, что <tex>m = 0</tex>, то <tex>\sum\limits_{k=1}^{n}\beta^*_k e_k = 0</tex>, но так как <tex>e_k</tex> {{---}} линейно независимы, то <tex>\beta^*=0</tex> и <tex>\sum\limits_{k=1}^{n}(\beta^*_k)^2=0</tex>. Но этого быть не может, ведь <tex>\sum\limits_{k=1}^{n}(\beta^*_k)^2 = \|\beta^*\|^2 =  1</tex>, откуда противоречие. Значит, <tex>m>0</tex>.
  
 
Тогда <tex>\|\overline{\alpha}\| \le \frac{M+\|x\|}{m}</tex>, <tex>T</tex> ограниченно, <tex>T</tex> {{---}} компакт, теорема доказана.
 
Тогда <tex>\|\overline{\alpha}\| \le \frac{M+\|x\|}{m}</tex>, <tex>T</tex> ограниченно, <tex>T</tex> {{---}} компакт, теорема доказана.
Строка 112: Строка 113:
 
Можно рассмотреть <tex>C[0,1]</tex>, <tex>\|f\|=\max\limits_{x \in [0,1]}|f(x)|</tex>. Если в качестве <tex>A_n = \{\sum\limits_{k=1}^{n}\alpha_k t^k, \alpha_k \in \mathbb{R}\}</tex> взять конечномерное подмножество <tex>C[0,1]</tex>, далее начинать рассматривать <tex>E_n(f)</tex>, то, по доказанной теореме, существует <tex> T_n(f) \in A_n</tex>, такое, что <tex>E_n(f)=|f-T_n(f)|</tex>.
 
Можно рассмотреть <tex>C[0,1]</tex>, <tex>\|f\|=\max\limits_{x \in [0,1]}|f(x)|</tex>. Если в качестве <tex>A_n = \{\sum\limits_{k=1}^{n}\alpha_k t^k, \alpha_k \in \mathbb{R}\}</tex> взять конечномерное подмножество <tex>C[0,1]</tex>, далее начинать рассматривать <tex>E_n(f)</tex>, то, по доказанной теореме, существует <tex> T_n(f) \in A_n</tex>, такое, что <tex>E_n(f)=|f-T_n(f)|</tex>.
  
Так как <tex>A_n \subset A_{n+1}</tex>, то <tex>E_n(f) \ge E_{n+1}(f)</tex>, то есть, <tex>E_n(f)</tex> {{---}} убывает. Тогда, по [[Приближение_непрерывной_функции_полиномами_на_отрезке#weirstrasscont|теореме Вейерштрасса]], любая непрерывная функция сколь угодно точно приближается полиномом, а значит, <tex>E_n(f) \to 0</tex>.
+
Так как <tex>A_n \subset A_{n+1}</tex>, то <tex>E_n(f) \ge E_{n+1}(f)</tex>, то есть, <tex>E_n(f)</tex> {{---}} не возрастает и по [[Приближение_непрерывной_функции_полиномами_на_отрезке#weirstrasscont|теореме Вейерштрасса]], любая непрерывная функция сколь угодно точно приближается полиномом, а значит, <tex>E_n(f) \to 0</tex>.
  
 
[[Интеграл Фейера|<<]][[Теорема Фейера|>>]]
 
[[Интеграл Фейера|<<]][[Теорема Фейера|>>]]
  
 
[[Категория:Математический анализ 2 курс]]
 
[[Категория:Математический анализ 2 курс]]

Текущая версия на 19:25, 4 сентября 2022

<<>>

Пусть [math]X[/math]нормированное пространство, к примеру, [math]L_p[/math]. Пусть [math]Y[/math] — линейное множество в [math]X[/math], например, [math]H_n[/math] (тригонометрических полиномов степени не больше [math]n[/math]).

Определение:
Для любого [math] x \in X[/math] величина [math]E_Y(x) = \inf\limits_{y \in Y}{\|x-y\|}[/math] называется наилучшим приближением точки [math]x[/math] элементами линейного множества [math]Y[/math]. Если при этом существует [math]y^* \in Y[/math] такой, что [math]E_Y(x)=\|x-y^*\|[/math], то этот [math]y^*[/math] называется элементом наилучшего приближения точки [math]x[/math].

Заметим: гарантий, что [math]y^*[/math] единственный и что он вообще существует, нет.

[math]E_Y(x) \ge 0[/math], если [math]x \in Y[/math], то [math]E_Y(x)=0[/math], таким образом, положительной определенности у этого функционала нет.

Утверждение:
Наилучшее приближение является полунормой, то есть выполняются однородность и неравенство треугольника.
[math]\triangleright[/math]

Однородность: [math]\forall \varepsilon \gt 0 [/math], по определению нижней грани [math]\|x-y_{\varepsilon}\| \lt E_Y(x)+\varepsilon[/math], где [math]y_{\varepsilon} \in Y[/math]. [math]|\lambda|\|x-y_{\varepsilon}\|\lt |\lambda|E_Y(x)+|\lambda| \varepsilon [/math]

По аксиомам нормы: [math]|\lambda|\|x-y_{\varepsilon}\|=\|\lambda x-\lambda y_\varepsilon\|[/math].

Так как [math]Y[/math] — линейное пространство, то [math]\lambda y_{\varepsilon} \in Y[/math] и [math]\| \lambda x - \lambda y_{\varepsilon} \| \ge E_Y(\lambda x)[/math].

Тогда [math]E_Y(\lambda x) \lt |\lambda|E_Y(x)+ |\lambda|\varepsilon[/math], при [math]\varepsilon \to 0[/math] получаем [math]E_Y(\lambda x) \le |\lambda|E_Y(x)[/math].

В обратную сторону: [math]E_Y(x)=E_Y(\lambda \frac{x}{\lambda}) \le |\lambda|E_Y(\frac{x}{\lambda})[/math], то есть, [math]\frac{1}{|\lambda|}E_Y(x) \le E_Y(\frac{x}{\lambda})[/math].

Пусть [math]\mu = \frac{1}{\lambda}[/math], тогда [math]|\mu|E_Y(x) \le E_Y(\mu x)[/math].

Таким образом, получаем два противоположных неравенства, следовательно, [math]E_Y(\lambda x)=|\lambda|E_Y(x)[/math].

Неравенство треугольника: [math]\forall \varepsilon \gt 0[/math]: [math]\|x_1-y_{\varepsilon}\|\lt E_Y(x_1)+\varepsilon[/math] и [math]\|x_2-z_{\varepsilon}\|\lt E_Y(x_2)+\varepsilon[/math].

Складывая два неравенства, получим [math]\|x_1-y_{\varepsilon}\|+\|x_2-z_{\varepsilon}\|\lt E_Y(x_1)+E_Y(x_2)+2\varepsilon[/math].

По свойствам нижней грани, [math]E_Y(x_1+x_2)\le \|(x_1+x_2)-(y_{\varepsilon}+z_{\varepsilon})\| \le \| x_1 - y_{\varepsilon} \| + \| x_2 - z_{\varepsilon} \| \lt [/math]

[math] \lt E_Y(x_1) + E_Y(x_2) + 2\varepsilon[/math], так как [math]y_{\varepsilon}+z_{\varepsilon} \in Y[/math].

При [math]\varepsilon \to 0[/math] приходим к неравенству треугольника: [math]E_Y(x_1+x_2)\le E_Y(x_1)+E_Y(x_2)[/math].
[math]\triangleleft[/math]

Отметим некоторый технический момент: [math]\forall x \in X[/math], [math]\forall y \in Y[/math] выполняется: [math]E_Y(x)=E_Y((x+y)-y)\le E_Y(x+y)+E(-y)[/math], [math]E_Y(-y) = 0[/math], так как [math]-y \in Y[/math], следовательно, [math]E_Y(x) \le E_Y(x+y) \le E_Y(x) + E_Y(y) = E_Y(x)[/math].

Значит, [math]\forall y \in Y E_Y(x)=E_Y(x+y)[/math].

Также, так как [math]0 \in Y[/math], то [math]E_Y(x) \le \|x-0\|=\|x\|[/math], следовательно, [math]E_Y(x) \le \|x\|[/math].

Отсюда, если [math]x_n \to x[/math], то [math]E_Y(x_n) \to E_Y(x)[/math], то есть, [math] E [/math] непрерывно как функционал в норме [math] X [/math].

Основной интерес представляют покрытия [math] X [/math] элементами конечномерных подпространств.

Пусть [math]\dim Y \lt +\infty[/math], [math]Y=\mathcal L(e_1,..,e_p)[/math] ([math] \mathcal L [/math] - линейная оболочка множества), тогда [math]\dim Y = p[/math].

К примеру, [math]\dim H_n = 2n+1[/math], [math]H_n = \mathcal L(1, \cos{x}, \sin{x},..,\cos{nx}, \sin{nx})[/math].

Теорема:
Пусть [math]X[/math] — нормированное пространство, [math]\dim Y \lt +\infty[/math], тогда [math]\forall x \in X[/math] существует элемент наилучшего приближения [math]x[/math].
Доказательство:
[math]\triangleright[/math]

Пусть [math]e_1, \ldots, e_n[/math] — базис [math]Y[/math], то есть, [math]Y = \mathcal L(e_1,..,e_n)[/math].

Рассмотрим функцию [math]f(\alpha_1,..,\alpha_n)=\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\|[/math], тогда ясно, что

[math]E_Y(x)=\inf\limits_{\overline{\alpha}\in \mathbb{R}^n}f(\alpha_1,..,\alpha_n)[/math].

Надо доказать, что существует [math]\overline{\alpha^*}=(\alpha^*_1,..,\alpha^*_n)[/math], на котором достигается эта нижняя грань, тогда в качестве [math]y^*[/math] можно взять [math]y^*=\sum\limits_{k=1}^{n}\alpha^*_k e_k[/math]. Доказательство существования будем вести с помощью теоремы Вейерштрасса, утверждающей, что если функция [math]n[/math] переменных непрерывна на компакте, то она принимает на нем свое минимальное значение.

Проверим непрерывность: [math]|f(\overline{\alpha}+\Delta \overline{\alpha})-f(\overline{\alpha})| = |\|x-\sum\limits_{k=1}^{n}(\alpha_k+\Delta\alpha_k)e_k\|-\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\|| \le [/math]

[math]\le |\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\| + \|\sum\limits_{k=1}^{n} \Delta\alpha_k e_k\| - \|x-\sum\limits_{k=1}^{n}\alpha_k e_k\|| = [/math]

[math] = \|\sum\limits_{k=1}^{n} \Delta \alpha_k e_k\| \le \sum\limits_{k=1}^{n}|\Delta\alpha_k\||e_k\| \le \sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}\sqrt{\sum\limits_{k=1}^{n}\Delta\alpha^2_k}[/math] (по неравенству Коши).

Заметим, что [math]\sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}[/math] — константа для данного базиса, а [math]\sqrt{\sum\limits_{k=1}^{n}\Delta\alpha^2_k}[/math] — норма для [math]\Delta\overline{\alpha}[/math] в [math]\mathbb{R}^n[/math], тогда из полученного неравенства очевидно, что [math]f[/math] — непрерывна.

Пусть [math]M=2E_Y(x)[/math]. Считаем, что [math]x \not\in Y[/math], тогда [math]E_Y(x) \gt 0[/math] (иначе, если [math]E_Y(x)=0[/math], то [math]\forall n[/math] [math]\exists y_n \in Y[/math] такой, что [math]\|x-y_n\| \lt \frac{1}{n}[/math]. Устремляя [math]n \to \infty[/math], получаем, что [math]\|x-y_n\| \to 0[/math]. Так как [math]y_n \to x[/math] в [math]X[/math], а [math]\dim Y \lt \infty[/math], то [math]Y[/math] замкнуто в [math]X[/math], [math]y_n \in Y[/math], значит и [math]x \in Y[/math], что противоречит нашему предположению).

Выясним, на каком множестве гарантированно [math]f(\overline{\alpha}) \gt M[/math], то есть, [math]\|x-\sum\limits_{k=1}^{n}\alpha_k e_k\| \gt M[/math].

[math]\|x - \sum\limits_{k=1}^{n}\alpha_k e_k\| \ge \|\sum\limits_{k=1}^{n}\alpha_k e_k\| - \|x\|[/math], то есть, надо смотреть такие [math]\overline{\alpha}[/math], для которых выполнено условие: [math]\|\sum\limits_{k=1}^{n}\alpha_k e_k\| \gt M + \|x\|[/math]. Если выполнено это неравенство, то в силу предыдущих выкладок, необходимое нам неравенство тоже выполнено. Тогда на совокупности точек [math]\overline{\alpha} \in \mathbb{R}^n[/math] таких, что [math]\|\sum\limits_{k=1}^{n}\alpha_k e_k\| \gt M + \|x\|[/math] функция минимума достигать не может, так как [math]M[/math] само в два раза больше этого минимума.

Значит, минимум может достигаться только на [math]T = \{\overline{\alpha} \in \mathbb{R}^n : \|\sum\limits_{k=1}^{n}\alpha_k e_k\| \le M + \|x\|\}[/math]. Если убедиться, что это множество — компакт в [math]\mathbb{R}^n[/math], то, по теореме Вейерштрасса, [math]f[/math] примет на нем свое минимальное значение, которое является наилучшим приближением.

Компактом в [math]\mathbb{R}^n[/math] называют множество, которое содержит в себе пределы всех своих сходящихся подпоследовательностей, что равносильно ограниченности и замкнутости множества.

1) Замкнутость

Пусть [math]\overline{\alpha}^{(m)} \to \overline{\alpha}[/math], [math]\overline{\alpha}^{(m)} \in T[/math], так как сходимость покоординатная, то [math]\alpha^{(m)}_k \to \alpha_k[/math] для [math]k = \overline{1,n}[/math].

Если [math]\|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k\| \to \|\sum\limits_{k=1}^{n}\alpha_k e_k\|[/math], то, так как [math]\|\sum\limits_{k=1}^{n}\alpha^{(m)}_k e_k\|\le M + \|x\|[/math], предел нормы ограничен этим же значением, тогда [math]\overline{\alpha}\in T[/math], и [math]T[/math] замкнуто.

[math]|\|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k\|-\|\sum\limits_{k=1}^{n}\alpha_k e_k\|| \le \|\sum\limits_{k=1}^{n}\alpha^{(m)}_ke_k-\sum\limits_{k=1}^{n}\alpha_ke_k\|=\|\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)e_k\| \le [/math]

[math] \le \sqrt{\sum\limits_{k=1}^{n}\|e_k\|^2}\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)^2}[/math].

Так как [math]\sqrt{\sum\limits_{k=1}^{n}(\alpha^{(m)}_k-\alpha_k)^2} \to 0[/math], то [math]T[/math] — замкнуто.

2) Ограниченность

Рассмотрим евклидову норму в [math] \mathbb{R}^n [/math]: [math]\|\overline{\alpha}\| = \sqrt{\sum\limits_{k=1}^{n}\alpha_k^2}[/math].

[math]\|\sum\limits_{k=1}^{n}\alpha_k e_k\|=\|\overline{\alpha}\|\|\sum\limits_{k=1}^{n}\frac{\alpha_k}{\|\overline{\alpha}\|}e_k\| \le M + \|x\|[/math]. Обозначим за [math]\beta_k = \frac{\alpha_k}{\|\overline{\alpha}\|}[/math] и заметим, что [math]\sum\limits_{k=1}^{n}\beta_k^2=1[/math]. Будем рассматривать суммы [math]\|\sum\limits_{k=1}^{n}\beta_k e_k\|[/math], нам необходимо доказать их ограниченность.

Обозначим [math]m = \inf\limits_{\|\beta\|=1}\|\sum\limits_{k=1}^{n}\beta_k e_k\|[/math].

Нижняя грань(инфимум) берется по единичной сфере в [math]\mathbb{R}^n[/math] (компакт в [math]\mathbb{R}^n[/math]), по непрерывной функции, значит, по теореме Вейерштрасса, найдется [math]\beta^*[/math] такая, что [math]\|\beta^*\|=1[/math] и [math]m = \|\sum\limits_{k=1}^{n}\beta_k^* e_k\|[/math].

Если предположить, что [math]m = 0[/math], то [math]\sum\limits_{k=1}^{n}\beta^*_k e_k = 0[/math], но так как [math]e_k[/math] — линейно независимы, то [math]\beta^*=0[/math] и [math]\sum\limits_{k=1}^{n}(\beta^*_k)^2=0[/math]. Но этого быть не может, ведь [math]\sum\limits_{k=1}^{n}(\beta^*_k)^2 = \|\beta^*\|^2 = 1[/math], откуда противоречие. Значит, [math]m\gt 0[/math].

Тогда [math]\|\overline{\alpha}\| \le \frac{M+\|x\|}{m}[/math], [math]T[/math] ограниченно, [math]T[/math] — компакт, теорема доказана.
[math]\triangleleft[/math]

Можно рассмотреть [math]C[0,1][/math], [math]\|f\|=\max\limits_{x \in [0,1]}|f(x)|[/math]. Если в качестве [math]A_n = \{\sum\limits_{k=1}^{n}\alpha_k t^k, \alpha_k \in \mathbb{R}\}[/math] взять конечномерное подмножество [math]C[0,1][/math], далее начинать рассматривать [math]E_n(f)[/math], то, по доказанной теореме, существует [math] T_n(f) \in A_n[/math], такое, что [math]E_n(f)=|f-T_n(f)|[/math].

Так как [math]A_n \subset A_{n+1}[/math], то [math]E_n(f) \ge E_{n+1}(f)[/math], то есть, [math]E_n(f)[/math] — не возрастает и по теореме Вейерштрасса, любая непрерывная функция сколь угодно точно приближается полиномом, а значит, [math]E_n(f) \to 0[/math].

<<>>