Линейная регрессия — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(Сингулярное разложение)
Строка 86: Строка 86:
  
 
=== Сингулярное разложение ===
 
=== Сингулярное разложение ===
 +
 +
Воспользуемся понятием [https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%BE%D0%B5_%D1%80%D0%B0%D0%B7%D0%BB%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5/ сингулярного разложения ], которое позволяет произвольную прямоугольную матрицу представить в виде произведения трех матриц:
 +
 +
<tex> F = V D U^T </tex>.
 +
 +
Основные свойства сингулярного разложения:
 +
 +
* <tex> l \times n </tex>-матрица <tex> V = (v_1, \dots, v_n) </tex> ортогональна, <tex> V^T V = I_n </tex>,  <br> столбцы <tex> v_j </tex> — собственные векторы матрицы <tex> F F^T </tex>;
 +
* <tex> n \times n </tex>-матрица <tex> U = (u_1, \dots, u_n) </tex> ортогональна, <tex> U^T U = I_n </tex>, <br> столбцы <tex> u_j </tex> — собственные векторы матриц <tex> F^T F </tex>;
 +
* <tex> n \times n </tex>-матрица <tex> D </tex> диагональна, <tex> D = diag(\sqrt{\lambda_1}, \dots, \sqrt{\lambda_n}) </tex>, <br> <tex> \lambda_j \geq 0 </tex> — собственные значения матриц <tex> F^T F </tex> и <tex> F F^T </tex>, <br> <tex> \sqrt{ \lambda_j } </tex> — сингулярные числа матрицы <tex> F </tex>.
 +
 +
=== Решение МНК через сингулярное разложение ===

Версия 18:11, 11 марта 2019

Линейная регрессия (англ. linear regression) — метод восстановления зависимости одной (объясняемой, зависимой) переменной [math] y [/math] от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) [math] x [/math] с линейной функцией зависимости. Данный метод позволяет предсказывать значения зависимой переменной [math] y [/math] по значениям независимой переменной [math] x [/math].

Задача

Дано

  • [math] f_1(x), \dots ,f_n(x) [/math] - числовые признаки
  • модель многомерной линейной регрессии:
[math] f(x,\alpha) = \sum\limits_{j=1}^n \alpha_j f_j(x) [/math],

где [math] a \in R^n [/math]

  • обучающая выборка: множество из пар [math](x_i, y_i)_{i=1 \dots n}[/math]
  • [math] x_i [/math] - объекты из множества [math] X = R^n [/math]
  • [math] y_i [/math] - объекты из множества [math] X = R [/math]

Матричные обозначения

Перейдем к матричным обозначениям:

[math] \underset{l \times n}{F} = \begin{pmatrix} f_1(x_1) & \dots & f_n(x_1) \\ \dots & \dots & \dots \\ f_n(x_1) & \dots & f_n(x_l) \end{pmatrix} , \underset{l \times 1}{y} = \begin{pmatrix} y_1 \\ \dots \\ y_l \end{pmatrix}, \underset{n \times 1}{\alpha} = \begin{pmatrix} \alpha_1 \\ \dots \\ \alpha_l \end{pmatrix} [/math]

, где

  • [math] F [/math] - матрица объектов-признаков, где строки соответствуют объектам а столбцы - признакам
  • [math] y [/math] - вектор ответов, или целевой вектор
  • [math] \alpha [/math] - вектор коэффициентов

Постановка задачи

В этих трех векторно-матричных обозначениях очень удобно расписать постановку задачи наименьших квадратов:

[math] Q(\alpha, X^l) = \sum\limits_{i=1}^n (f(x_i, \alpha) - y_i)^2 = || F\alpha - y ||^2 \rightarrow \underset{\alpha}{min} [/math]

Необходимо найти вектор [math] \alpha [/math] при известной матрице [math] F [/math] и известном вектор-столбце [math] y [/math].

Решение

Нормальная система уравнений

Запишем необходимые условия минимума в матричном виде.

[math] \frac{\partial Q }{\partial \alpha } (\alpha) = 2F^T (F\alpha - y) = 0 [/math]

Отсюда следует нормальная система задачи МНК:

[math] F^T F \alpha = F^T y [/math],

где [math] F^T F - n \times n [/math] матрица

Мы получили систему уравнений, откуда можем выразить искомый вектор [math] \alpha [/math].

Решение системы

[math] \alpha^* = (F^T F)^{-1} F^T y = F^+ y [/math].

Значение функционала: [math] Q(\alpha^*) = ||P_F y - y||^2 [/math],

где [math] P_F = F F^+ = F (F^T F)^{-1} F^T [/math] - проекционная матрица

Проблемы

В случае мультиколлинеарности (столбцы матрицы [math] F [/math] линейно-зависимы) нам не удастся найти обратную матрицу к [math] F^T F [/math] (она будет вырождена).

Если же столбцы матрицы [math] F [/math] почти линейно-зависимы, то у нас возникнет масса вычислительных проблем с обращением этой матрицы.

Сингулярное разложение

Воспользуемся понятием сингулярного разложения , которое позволяет произвольную прямоугольную матрицу представить в виде произведения трех матриц:

[math] F = V D U^T [/math].

Основные свойства сингулярного разложения:

  • [math] l \times n [/math]-матрица [math] V = (v_1, \dots, v_n) [/math] ортогональна, [math] V^T V = I_n [/math],
    столбцы [math] v_j [/math] — собственные векторы матрицы [math] F F^T [/math];
  • [math] n \times n [/math]-матрица [math] U = (u_1, \dots, u_n) [/math] ортогональна, [math] U^T U = I_n [/math],
    столбцы [math] u_j [/math] — собственные векторы матриц [math] F^T F [/math];
  • [math] n \times n [/math]-матрица [math] D [/math] диагональна, [math] D = diag(\sqrt{\lambda_1}, \dots, \sqrt{\lambda_n}) [/math],
    [math] \lambda_j \geq 0 [/math] — собственные значения матриц [math] F^T F [/math] и [math] F F^T [/math],
    [math] \sqrt{ \lambda_j } [/math] — сингулярные числа матрицы [math] F [/math].

Решение МНК через сингулярное разложение