Дифференцируемые отображения в нормированных пространствах

Материал из Викиконспекты
Версия от 22:12, 12 июня 2011; Smolcoder (обсуждение | вклад) (Производная Фреше)
Перейти к: навигация, поиск

<< >>

Производная Фреше

Определение:
Пусть [math]V_{r}(x)[/math] —шар в [math]X, \quad \mathcal{F} : V_r(x) \to Y [/math]. [math]\mathcal{F}[/math]дифференцируема в точке [math]x[/math], если существует зависящий от [math] x [/math] ограниченный линейный оператор [math]\mathcal{A} : X \to Y[/math], такой, что если [math]\left \| \Delta x \right \| \lt r (x + \Delta x \in V_r(x))[/math], то:

[math] \mathcal{F}(x + \Delta x) - \mathcal{F}(x) = \mathcal{A}(\Delta x) + \alpha(\Delta x) \left \| \Delta x \right \| [/math], причем [math] \alpha(\Delta x) \rightarrow 0[/math] при [math]\Delta x \rightarrow 0[/math]

Тогда [math]\mathcal{A}(x) = \mathcal{F}'(x)[/math]производная Фреше отображения [math]\mathcal{F}[/math] в точке [math]x[/math].


При [math] X = Y = \mathcal{R} [/math] получаем определение дифференциала и производной функции одной переменной.

Установим теорему, обобщающую классическое правило дифференцирования сложной функции :

Теорема:
Композиция дифференцируемых отображений дифференцируема. Производная Фреше равна композиции производных Фреше отображений. Пусть [math]\mathcal{F} : V_r(x) \to Y, y = \mathcal{F}(x), \mathcal{G} : V_{r_1}(y) \to Z \quad \exists \mathcal{F}'(x), \mathcal{G}'(y), \mathcal{T} = \mathcal{G} \circ \mathcal{F}[/math], тогда [math]\exists \mathcal{T}'(x) = \mathcal{G}'(y)\mathcal{F}'(x)[/math]
Доказательство:
[math]\triangleright[/math]

Доказательство копирует классическое доказательство, с заменой знака модуля на знак нормы (лень менять. Сами допишете).

По определению дифференциала [math]\Delta z = g(y_0 + \Delta y) - g(y_0) = g'(y_0)\Delta y + o(\Delta y)[/math] и [math]\Delta y = f(x_0 + \Delta x) - f(x_0) = f'(x_0)\Delta x + o(\Delta x)[/math]

[math]g[/math] определена в окрестности точки [math]y_0[/math]. Так как [math]\Delta y \to 0[/math] при [math]\Delta x \to 0[/math] и [math]y_0 = f(x_0)[/math], то при [math]\Delta x \to 0[/math], [math]f(x_0 + \Delta x)[/math] принадлежит окрестности точки [math]y_0[/math].

Тогда функция [math]z = g(f(x))[/math] при [math]x = x_0 + \Delta x, \ \Delta x \to 0[/math] корректно определена.

[math]\Delta y = f(x_0 + \Delta x) - f(x_0)[/math]

[math]\Delta g = g(f(x_0) + (f(x_0 + \Delta x) - f(x_0))) - g(f(x_0)) = [/math] [math]g(f(x_0 + \Delta x)) - g(f(x_0)) = [/math] (по определению дифференциала для [math]g(y)[/math]) [math]g'(y_0)(f(x_0 + \Delta x) - f(x_0)) + o(\Delta y) =[/math] (по определению дифференциала для [math]f(x)[/math]) [math]g'(y_0)f'(x_0)\Delta x+ g'(y_0) o(\Delta x) + o(\Delta y)[/math]

Итого получаем: [math]\Delta g = g'(y_0)f'(x_0)\Delta x + g'(y_0)o(\Delta x) + o(\Delta y)[/math]

Устремляя [math]\Delta x \to 0[/math], получаем [math]dz = g'(y_0)f'(x_0)\Delta x[/math]

Для полного счастья осталось доказать, что [math]o(\Delta x) = o(\Delta y)[/math].

Утверждение:
[math]o(\Delta x) = o(\Delta y)[/math]
[math]\triangleright[/math]

По определению [math]o(\Delta y)[/math], получаем: [math]\forall \varepsilon \gt 0 \ \exists \delta \gt 0 : \ |\Delta y| \lt \delta \Rightarrow \left|\frac{o(\Delta y)}{\Delta y}\right| \leq \varepsilon[/math]

Последнее неравенство равносильно следующему: [math]|o(\Delta y)| \leq \varepsilon |\Delta y|[/math]

[math]\Delta y = f(x_0 + \Delta x) - f(x_0) = f'(x_0)\Delta x + o(\Delta x) = \Delta x(f'(x_0) + o(1)) [/math], где [math]o(1) = \frac{o(\Delta x)}{\Delta x}[/math], что стремится к [math]0[/math].

Из всего этого следует, что при [math]\Delta x \to 0[/math], [math]\Delta y \to 0[/math] для имеющегося [math]\delta \gt 0[/math].

Так как [math]f(x)[/math] — непрерывна, то существует [math]\delta_1 \gt 0: \ |\Delta x| \lt \delta_1 \Rightarrow |\Delta y| \lt \delta \Rightarrow |o(\Delta y)| \lt \varepsilon |\Delta y| = \varepsilon \Delta x |f'(x_0) + o(1)| [/math].

Тогда получаем, что

[math]\forall \varepsilon \gt 0 \ \exists \delta_1 \gt 0: \ |\Delta x| \lt \delta_1 \Rightarrow o(\Delta y) \leq M \varepsilon |\Delta x| \Rightarrow o(\Delta y) = o(\Delta x) [/math], где [math]M = |f'(x_0) + o(1)|[/math].
[math]\triangleleft[/math]
[math]\triangleleft[/math]

Вот же оно!

Теорема (Дифференцирование сложной функции):
Пусть [math]y = f(x)[/math] дифференцируема в точке [math]x_0[/math], [math]y_0 = f(x_0)[/math]. Пусть [math]z = g(y)[/math] дифференцируема в [math]y_0[/math]. Тогда в некоторой окрестности [math]x_0[/math] корректно определена сложная функция [math]z = g(f(x))[/math] и её производная равна [math]z' = g'(y_0)f'(x_0)[/math].
Доказательство:
[math]\triangleright[/math]

По определению дифференциала [math]\Delta z = g(y_0 + \Delta y) - g(y_0) = g'(y_0)\Delta y + o(\Delta y)[/math] и [math]\Delta y = f(x_0 + \Delta x) - f(x_0) = f'(x_0)\Delta x + o(\Delta x)[/math]

[math]g[/math] определена в окрестности точки [math]y_0[/math]. Так как [math]\Delta y \to 0[/math] при [math]\Delta x \to 0[/math] и [math]y_0 = f(x_0)[/math], то при [math]\Delta x \to 0[/math], [math]f(x_0 + \Delta x)[/math] принадлежит окрестности точки [math]y_0[/math].

Тогда функция [math]z = g(f(x))[/math] при [math]x = x_0 + \Delta x, \ \Delta x \to 0[/math] корректно определена.

[math]\Delta y = f(x_0 + \Delta x) - f(x_0)[/math]

[math]\Delta g = g(f(x_0) + (f(x_0 + \Delta x) - f(x_0))) - g(f(x_0)) = [/math] [math]g(f(x_0 + \Delta x)) - g(f(x_0)) = [/math] (по определению дифференциала для [math]g(y)[/math]) [math]g'(y_0)(f(x_0 + \Delta x) - f(x_0)) + o(\Delta y) =[/math] (по определению дифференциала для [math]f(x)[/math]) [math]g'(y_0)f'(x_0)\Delta x+ g'(y_0) o(\Delta x) + o(\Delta y)[/math]

Итого получаем: [math]\Delta g = g'(y_0)f'(x_0)\Delta x + g'(y_0)o(\Delta x) + o(\Delta y)[/math]

Устремляя [math]\Delta x \to 0[/math], получаем [math]dz = g'(y_0)f'(x_0)\Delta x[/math]

Для полного счастья осталось доказать, что [math]o(\Delta x) = o(\Delta y)[/math].

Утверждение:
[math]o(\Delta x) = o(\Delta y)[/math]
[math]\triangleright[/math]

По определению [math]o(\Delta y)[/math], получаем: [math]\forall \varepsilon \gt 0 \ \exists \delta \gt 0 : \ |\Delta y| \lt \delta \Rightarrow \left|\frac{o(\Delta y)}{\Delta y}\right| \leq \varepsilon[/math]

Последнее неравенство равносильно следующему: [math]|o(\Delta y)| \leq \varepsilon |\Delta y|[/math]

[math]\Delta y = f(x_0 + \Delta x) - f(x_0) = f'(x_0)\Delta x + o(\Delta x) = \Delta x(f'(x_0) + o(1)) [/math], где [math]o(1) = \frac{o(\Delta x)}{\Delta x}[/math], что стремится к [math]0[/math].

Из всего этого следует, что при [math]\Delta x \to 0[/math], [math]\Delta y \to 0[/math] для имеющегося [math]\delta \gt 0[/math].

Так как [math]f(x)[/math] — непрерывна, то существует [math]\delta_1 \gt 0: \ |\Delta x| \lt \delta_1 \Rightarrow |\Delta y| \lt \delta \Rightarrow |o(\Delta y)| \lt \varepsilon |\Delta y| = \varepsilon \Delta x |f'(x_0) + o(1)| [/math].

Тогда получаем, что

[math]\forall \varepsilon \gt 0 \ \exists \delta_1 \gt 0: \ |\Delta x| \lt \delta_1 \Rightarrow o(\Delta y) \leq M \varepsilon |\Delta x| \Rightarrow o(\Delta y) = o(\Delta x) [/math], где [math]M = |f'(x_0) + o(1)|[/math].
[math]\triangleleft[/math]
[math]\triangleleft[/math]


Из дифференцируемости следует непрерывность :

[math]\left|| \mathcal{F}'(x)\Delta x |\right| \le \left|| \mathcal{F}'(x)|\right| \left|| \Delta x |\right|[/math].

Исходя из неравенства треугольника и определения производной,

[math] \| \mathcal{F}(x + \Delta x) - \mathcal{F}(x) \| = \| \mathcal{A}(\Delta x) + \alpha(\Delta x) \| \Delta x \|\| \le \| \mathcal{F}'(x) \| \|\Delta x \| + \| \alpha(\Delta x)\| \|\Delta x\|[/math]

Правая часть этого выражения стремится к нулю при [math] \Delta x \rightarrow 0 [/math], следовательно, [math]\mathcal{F}[/math] — непрерывна в точке [math] x [/math].

Найдем вид матрицы производной Фреше при [math]\mathcal{F} : V_r(x) \subset \mathbb{R}^n \to \mathbb{R}^m[/math]. Пусть [math]\mathcal{F}'(\overline{x}) = A_{ij}[/math]

По условию [math]\mathcal{F}(\overline{x} + \Delta\overline{x}) - \mathcal{F}(\overline{x}) = \mathcal{F}'(\overline{x})\Delta\overline{x} + \alpha(\Delta\overline{x})\left||\Delta\overline{x}|\right|[/math]

[math]\mathcal{F} = (\mathcal{F}_1,...,\mathcal{F}_n), \quad \mathcal{F}_i(\overline{x} + \Delta\overline{x}) - \mathcal{F}_i(\overline{x}) = \sum\limits_{j = 1}^{n}A_{ij} \Delta x_j + \alpha_i(\Delta\overline{x})\left||\Delta\overline{x}|\right|[/math]

[math] \Delta x = h \cdot e_j = (0, 0,..,h,..,0), \quad \forall h \in \mathbb{R}[/math]

[math]\mathcal{F}_i(\overline{x} + h\overline{e_j}) - \mathcal{F}_i(\overline{x}) = A_{ij}h + \alpha_i(h\overline{e_j})|h|[/math]

[math]\frac{\mathcal{F}_i(\overline{x} + h\overline{e_j}) - \mathcal{F}_i(x)}{h} = A_{ij} + \alpha_i(h e_j) \frac{|h|}{h}[/math]

У дроби справа будет предел, т.к [math]\alpha_i(h e_j) \to 0[/math] при [math]h \to 0[/math] и [math]\left| \frac{|h|}{h} \right | \le 1[/math]

[math]A_{ij} = \lim\limits_{h \to 0} \frac{\mathcal{F}_i(\overline{x} + h\overline{e_j}) - \mathcal{F}_i(x)}{h}[/math]


Определение:
Данный предел называется частной производной первого порядка функции [math]\mathcal{F}_i[/math] по переменной [math]x_j[/math]. [math]A_{ij} = \lim\limits_{h \to 0} \frac{\mathcal{F}_i(\overline{x} + h\overline{e_j}) - \mathcal{F}_i(x)}{h} = \frac{\partial \mathcal{F}_i}{\partial x_j}[/math]


Определение:
Матрица, составленная из элементов [math]A_{ij}[/math]матрица Якоби отображения [math]\mathcal{F} \quad[/math] . [math] A = (\mathcal{F}'(x)) = \begin{pmatrix} \frac{\partial \mathcal{F}_1}{\partial x_1} & \frac{\partial \mathcal{F}_1}{\partial x_2} &\ldots&\frac{\partial \mathcal{F}_1}{\partial x_n}\\ \frac{\partial \mathcal{F}_2}{\partial x_1} & \frac{\partial \mathcal{F}_2}{\partial x_2} &\ldots&\frac{\partial \mathcal{F}_2}{\partial x_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\partial \mathcal{F}_m}{\partial x_1} & \frac{\partial \mathcal{F}_m}{\partial x_1} &\ldots&\frac{\partial \mathcal{F}_m}{\partial x_n} \end{pmatrix} [/math]


Определение:
При [math]n = m[/math] определитель этой матрицы — якобиан.

Пример : [math] \mathcal{F} : \mathbb{R}^2 \to \mathbb{R}^3 \quad \mathcal{F} = \left\{ \begin{aligned} y_1 &= x_1 + x_2 \\ y_2 &= x_1x_2 \\ y_3 &= x_1 - x_2 \end{aligned} \right. [/math]

[math] \mathcal{F}' = \begin{pmatrix} 1 & 1\\ x_2 & x_1 \\ 1 & -1 \end{pmatrix} [/math]

Дифференциирование композиции функций

Существование всех частных производных координатных функции отнюдь не гарантирует дифференцируемость [math]\mathcal{F}[/math]. Для указания достаточных условий предварительно рассмотрим один частный случай — дифференцирование композиций.

Пусть [math]f : \mathbb{R}^n \to \mathbb{R}[/math] —функция [math]n[/math] переменных, [math]y = f(x_1, x_2,...,x_n) [/math].

Пусть также [math]x_j = \varphi_j(t), \quad t \in \mathbb{R}[/math].

[math]y = g(t) = f(\varphi_1(t), \varphi_2(t),...,\varphi_n(t))[/math]

Пусть существует [math]f'(\overline{x}), \quad \varphi_j'(t)[/math]

[math] (f'(\overline{x})) = (\frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2},...,\frac{\partial f}{\partial x_n})[/math]

[math] (\overline{\varphi}(t)) = \begin{pmatrix} \varphi_1(t) \\ \varphi_2(t) \\ \dots \\ \varphi_n(t) \end{pmatrix} [/math]

[math] (\overline{\varphi'}(t)) = \begin{pmatrix} \varphi_{1}'(t) \\ \varphi_{2}'(t) \\ \dots \\ \varphi_{n}'(t) \\ \end{pmatrix} [/math]

[math](\mathcal{BA}) = (\mathcal{B})(\mathcal{A})[/math], поэтому:

[math]g'(t) = (f'(\overline{x}))(\overline{\varphi}'(t)) = \sum\limits_{j = 1}^{n} \frac{\partial f}{\partial x_j}(\overline{x})\cdot \varphi'_{j}(t)[/math].


Теперь, пусть [math]V[/math] — шар в [math]\mathbb{R}^n, \quad f : V \to \mathbb{R}[/math]. Пусть [math]\forall x \in V \quad f(x)[/math] — дифференцируема.

Так как шар — выпуклое множество, то для [math]\overline{a}, \overline{b} \in V[/math] выполняется [math] \forall t \in [0,1] \quad t\overline{a}+(1-t)\overline{b} \in V[/math];

[math]g(t) = f(t\overline{a}+(1-t)\overline{b}), \quad g'(t) = \sum\limits_{j = 1}^{n}(a_j - b_j)\frac{\partial f}{\partial x_j}(t\overline{a} + (1-t)\overline{b})[/math]

[math]\varphi_j(t) = ta_j + (1-t)b_j, \quad \varphi'_{j}(t) = a_j - b_j[/math]

[math]g[/math] —непрерывна на [math][0,1][/math] и дифференцируема на нем. Значит, к ней применима формула Лагранжа конечных приращений : [math]g(1) - g(0) = g'(\Theta), \quad \Theta \in [0,1][/math]

Заменяя [math]g[/math] и [math]g'[/math] по найденным формулам, получаем :

[math]f(\overline{a}) - f(\overline{b}) = \sum\limits_{j = 1}^{n}(a_j-b_j)\frac{\partial f}{\partial x_j}(\Theta\overline{a} + (1-\Theta)\overline{b}) = f'(\Theta\overline{a}+(1-\Theta)\overline{b})(\overline{a} -\overline{b})[/math]

Обобщение формулы Лагранжа конечных приращений

пусть [math]f[/math] —дифференцируема в [math]V[/math]. Тогда [math]\forall a, b \in V : f(\overline{a}) - f(\overline{b}) = f'(\Theta\overline{a}+(1-\Theta)\overline{b})(\overline{a}-\overline{b}),\quad \Theta \in (0,1)[/math]

Для [math]\mathcal{F} : V \to \mathbb{R}^m, \quad V \in \mathbb{R}^n, m \gt 1[/math] —формула Лагранжа становится неверной. Невозможно подобрать [math]\Theta[/math], обслуживающее все координатные функции сразу.

[math]\mathcal{F} = (\mathcal{F}_1,...,\mathcal{F}_n)[/math]

[math]\mathcal{F}_i(\overline{a}) - \mathcal{F}_i(\overline{b}) = \mathcal{F}'_i(\Theta_i\overline{a}+(1-\Theta_i)\overline{b})(\overline{a}-\overline{b})[/math].

Для разных [math]i[/math] —разные [math]\Theta_i[/math]. Впрочем, для отдельных координат формулу писать все равно можно. Однако формула Лагранжа допускает распространение и на абстрактную ситуацию, но в несколько другом виде.

Теорема (Неравенство Лагранжа):
Пусть [math]V[/math] — шар в [math]\mathbb{R}^n, \quad \mathcal{F} : V \to \mathbb{R}^m, \quad \mathcal{F}[/math] —дифференцируема в каждой точке шара, тогда:
[math]\forall \overline{a},\overline{b} \in V : \left|\left| \mathcal{F}(\overline{b}) - \mathcal{F}(\overline{a})\right|\right| \le M\left|\left|\overline{b}-\overline{a}\right|\right|[/math], где [math]M = \sup\limits_{x \in [\overline{a},\overline{b}]} \left|\left|\mathcal{F}'(\overline{x})\right|\right| [/math]
Доказательство:
[math]\triangleright[/math]

По доказанному ранее, для [math]\mathcal{F}(\overline{b}) - \mathcal{F}(\overline{a}) \in \mathbb{R}^m [/math] существует линейный непрерывный функционал [math]\varphi : \varphi(\mathcal{F}(\overline{a}) - \mathcal{F}(\overline{b})) = \left|\left|\mathcal{F}(\overline{a}) - \mathcal{F}(\overline{b})\right|\right|, \quad ||\varphi|| = 1[/math]

[math] \varphi' = \varphi [/math]

[math]g(t) = \varphi(\mathcal{F}(\overline{a} + t(\overline{b} - \overline{a})), \quad t \in [0, 1][/math]

Так как шар — выпуклый, то всё корректно определено.

Значит, [math]g[/math] на [math][0,1][/math] удовлетворяет классической формуле Лагранжа конечных приращений : [math]g(1) - g(0) = g'(\Theta), \quad \Theta \in (0,1)[/math]

По построению, [math]g(1) - g(0) = \varphi(\mathcal{F}(\overline{b})) - \varphi(\mathcal{F}(\overline{a})) = \varphi(\mathcal{F}(\overline{b}) - \mathcal{F}(\overline{a})) = \left|\left|\mathcal{F}(\overline{b}) - \mathcal{F}(\overline{a})\right|\right|[/math]

Тогда [math]\left|\left|\mathcal{F}(\overline{b}) - \mathcal{F}(\overline{a}) \right|\right| = g'(\Theta)[/math]

По правилу дифференцирования сложной функции, [math]g'(t) = \varphi'\mathcal{F}'(\overline{a}+t(\overline{b}-\overline{a}))(\overline{b}-\overline{a})[/math]

[math]||g'(t)|| \le ||\varphi'||\cdot ||\mathcal{F}'(\overline{a} + t(\overline{b} - \overline{a}))||\cdot ||\overline{b} - \overline{a}|| \le 1 \cdot M \cdot ||\overline{b}-\overline{a}||[/math]

Подставляя это в формулу конечных приращений Лагранжа: [math]g(1) - g(0) = g'(\Theta)[/math], приходим к неравенству Лагранжа.
[math]\triangleleft[/math]

Достаточное условие дифференцируемости функций многих переменных

Базируясь на соотношениях конечных приращений, установим достаточное условие для дифференцируемости функций многих переменных.

Теорема:
Пусть [math]V(a) \subset \mathbb{R}^n[/math] [math]y = f(x_1,...,x_n)[/math], [math]y : V \to \mathbb{R}[/math]

[math]\forall x \in V: \ \exists \frac{\partial f}{\partial x_j}[/math], каждая из которых, как функция [math]n[/math] переменных, непрерывна в [math]\overline{a} :\lim\limits_{\overline{x} \to \overline{a}}\frac{\partial f}{\partial x_j}(\overline{x}) = \frac{\partial f}{\partial x_j}(\overline{a})[/math].

Тогда существует дифференциал этой функции в точке [math]a[/math].
Доказательство:
[math]\triangleright[/math]

Рассмотрим [math]\overline{a}, \quad \overline{a} + \Delta\overline{a} \in V(\overline{a})[/math]

[math]\overline{x}(t) = \overline{a} + \Delta\overline{a}t, \quad t \in [0, 1], \quad \overline{x}(t) \in V[/math]

Для этого отрезка применим формулу Лагранжа конечных приращений, доказанную ранее :

[math]f(\overline{a} + \Delta\overline{a}) - f(\overline{a}) = \sum\limits_{j = 1}^{n}\frac{\partial f}{\partial x_j}(\overline{a} + \Theta \Delta\overline{a}) \Delta a_j, \ \Theta \in (0,1) [/math]

[math]\frac{\partial f}{\partial x_j}(\overline{a} + \Theta \Delta\overline{a}) = \frac{\partial f}{\partial x_j}(\overline{a}) + \alpha_j(\Delta\overline{a})[/math], все [math]\alpha_j(\overline a) \to 0[/math] при [math]\Delta\overline{a} \to 0[/math] - из непрерывности [math] f' [/math]

[math]f(\overline{a} + \Delta\overline{a}) - f(\overline{a}) = \sum\limits_{j = 1}^{n}\frac{\partial f}{\partial x_j}(\overline{x})\Delta a_j + \sum\limits_{j = 1}^{n}\alpha_j(\Delta \overline{a})\cdot\Delta a_j[/math]

Нужно доказать, что вторая сумма — [math]o(\Delta a)[/math], ибо первая сумма и есть формально записанный дифференциал. По неравенству Коши для сумм :

[math]\left|\sum\limits_{j = 1}^{n}\alpha_j(\Delta\overline{a})\cdot\Delta a_j\right| \le \sqrt{\sum\limits_{j = 1}^{n}\alpha_j^2(\Delta \overline{a})}||\Delta \overline{a}_j||[/math]

Выражение под корнем стремится к нулю, таким образом, получаем требуемое.
[math]\triangleleft[/math]

<< >>