Изменения

Перейти к: навигация, поиск

Линейная регрессия

1382 байта добавлено, 13:44, 11 марта 2019
Нет описания правки
== Решение ==
===Нормальная система уравнений === Запишем необходимые условия минимума в матричном виде. <tex> \frac{\partial Q }{\partial \alpha } (\alpha) = 2F^T (F\alpha - y) = Нормальная 0 </tex> Отсюда следует нормальная система задачи МНК: <tex> F^T F \alpha = F^T y </tex>, где <tex> F^T F - n \times n </tex> матрица Мы получили систему уравнений , откуда можем выразить искомый вектор <tex> \alpha </tex>. ==== Решение системы ====<tex> \alpha^* = (F^T F)^{-1} F^T y = F^+ y </tex>. Значение функционала: <tex> Q(\alpha^*) = ||P_F y - y||^2 </tex>, где <tex> P_F = F F^+ = F (F^T F)^{-1} F^T </tex> - ''проекционная матрица'' ==== Проблемы ==== В случае мультиколлинеарности (столбцы матрицы <tex> F </tex> линейно-зависимы) нам не удастся найти обратную матрицу к <tex> F^T F </tex> (она будет вырождена). Если же столбцы матрицы <tex> F </tex> почти линейно-зависимы, то у нас возникнет масса вычислительных проблем с обращением этой матрицы. ===Сингулярное разложение ===
Анонимный участник

Навигация