Линейная регрессия — различия между версиями
| Строка 40: | Строка 40: | ||
</tex> | </tex> | ||
| + | |||
| + | , где | ||
| + | * <tex> F </tex> - матрица объектов-признаков, где строки соответствуют объектам а столбцы - признакам | ||
| + | * <tex> y </tex> - вектор ответов, или целевой вектор | ||
| + | * <tex> \alpha </tex> - вектор коэффициентов | ||
| + | |||
| + | В этих трех векторно-матричных обозначениях очень удобно расписать постановку задачи наименьших квадратов: | ||
| + | |||
| + | <tex> Q(\alpha, X^l) = \sum\limits_{i=1}^n (f(x_i, \alpha) - y_i)^2 = || F\alpha - y ||^2 \rightarrow \underset{\alpha}{min} </tex> | ||
Версия 15:56, 5 марта 2019
Линейная регрессия (англ. linear regression) — метод восстановления зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) с линейной функцией зависимости. Данный метод позволяет предсказывать значения зависимой переменной по значениям независимой переменной .
Задача
Дано
- - числовые признаки
- модель многомерной линейной регрессии:
где
- обучающая выборка: множество из пар
- - объекты из множества
- - объекты из множества
Перейдем к матричным обозначениям:
, где
- - матрица объектов-признаков, где строки соответствуют объектам а столбцы - признакам
- - вектор ответов, или целевой вектор
- - вектор коэффициентов
В этих трех векторно-матричных обозначениях очень удобно расписать постановку задачи наименьших квадратов: