<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
		<id>http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.170.80.236&amp;*</id>
		<title>Викиконспекты - Вклад участника [ru]</title>
		<link rel="self" type="application/atom+xml" href="http://neerc.ifmo.ru/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=188.170.80.236&amp;*"/>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/188.170.80.236"/>
		<updated>2026-04-23T09:23:09Z</updated>
		<subtitle>Вклад участника</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%B8_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%B8&amp;diff=69146</id>
		<title>Вариации регрессии</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%B8_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%B8&amp;diff=69146"/>
				<updated>2019-01-24T08:33:50Z</updated>
		
		<summary type="html">&lt;p&gt;188.170.80.236: /* Источники информации */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Регрессия''' (англ. ''Regression'') {{---}} метод моделирования зависимости между зависимой переменной &amp;lt;tex&amp;gt;y&amp;lt;/tex&amp;gt; и одной или несколькими независимыми переменными &amp;lt;tex&amp;gt;x_1, x_2, \dots, x_n&amp;lt;/tex&amp;gt;. В случае нескольких независимых переменных регрессия называется '''множественной''' (англ. ''multivariate regression''). Цель регрессионного анализа состоит в том, чтобы оценить значение непрерывной выходной переменной по значениям входных переменных.&lt;br /&gt;
&lt;br /&gt;
==Линейная регрессия==&lt;br /&gt;
{{main|Линейная регрессия}}&lt;br /&gt;
&lt;br /&gt;
'''Линейная регрессия''' (англ. ''Linear regression'') {{---}} разновидность регрессии для моделирования линейной зависимости между зависимой и независимой переменными.&lt;br /&gt;
&lt;br /&gt;
==Логистическая регрессия==&lt;br /&gt;
{{main|Логистическая регрессия}}&lt;br /&gt;
'''Логистическая регрессия''' (англ. ''Logistic regression'') {{---}} разновидность регрессии для моделирования зависимости между зависимой и независимой переменными в случае, когда зависимая переменная &amp;lt;tex&amp;gt;y&amp;lt;/tex&amp;gt; принимает значения в диапазоне от &amp;lt;tex&amp;gt;0&amp;lt;/tex&amp;gt; до &amp;lt;tex&amp;gt;1&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Гребневая регрессия (ридж-регрессия)==&lt;br /&gt;
'''Гребневая регрессия или ридж-регрессия''' (англ. ''ridge regression'') {{---}} один из методов [[Уменьшение размерности|понижения размерности]]. Применяется для борьбы с избыточностью данных, когда независимые переменные коррелируют друг с другом, вследствие чего проявляется неустойчивость оценок коэффициентов многомерной линейной регрессии. &lt;br /&gt;
&lt;br /&gt;
===Мотивация===&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition =&lt;br /&gt;
'''Мультиколлинеарность''' ''(англ. multicollinearity)'' {{---}} наличие линейной зависимости между независимыми переменными регрессионной модели. Различают ''полную коллинеарность'' и ''частичную'' или просто ''мультиколлинеарность'' {{---}} наличие сильной корреляции между факторами.&lt;br /&gt;
}}&lt;br /&gt;
Рассмотрим пример линейной модели: &amp;lt;tex&amp;gt;y = b_1 x_1 + b_2 x_2 + b_3 x_3 + \varepsilon&amp;lt;/tex&amp;gt;.&lt;br /&gt;
Пусть имеет место зависимость &amp;lt;tex&amp;gt;x_1 = x_2 + x_ 3&amp;lt;/tex&amp;gt;. Добавим к первому коэффициенту произвольное число &amp;lt;tex&amp;gt;a&amp;lt;/tex&amp;gt;, а из двух других коэффициентов это же число вычтем.&lt;br /&gt;
Получаем (без случайной ошибки):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;y = (b_1 + a)x_1 + (b_2 - a)x_2 + (b_3 - a)x_3 = b_1 x_1 + b_2 x_2 + b_3 x_3 + a(x_1 - x_2 - x_3) = b_1 x_1 + b_2 x_2 + b_3 x_3&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Несмотря на относительно произвольное изменение коэффициентов модели мы получили исходную модель, то есть такая модель неидентифицируема.&lt;br /&gt;
&lt;br /&gt;
На практике чаще встречается проблема сильной корреляции между независимыми переменными. В этом случае оценки параметров модели получить можно, но они будут неустойчивыми.&lt;br /&gt;
&lt;br /&gt;
===Описание===&lt;br /&gt;
Напомним задачу многомерной линейной регрессии:&lt;br /&gt;
Рассматривается линейная зависимость &amp;lt;tex&amp;gt;f(x, \beta) = \langle \beta, x \rangle&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Находим вектор &amp;lt;tex&amp;gt;\beta^*&amp;lt;/tex&amp;gt;, при котором достигается минимум среднего квадрата ошибки:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q(\beta) = ||F \beta - y||^2&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^*=\arg \min\limits_\beta Q(\beta)&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Методом наименьших квадратов находим решение:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^* = (F^T F)^{-1} F^T y&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В условиях мультиколлинеарности матрица &amp;lt;tex&amp;gt;F^T F&amp;lt;/tex&amp;gt; становится плохо обусловленной.&lt;br /&gt;
&lt;br /&gt;
Для решения этой проблемы добавим к функционалу &amp;lt;tex&amp;gt;Q&amp;lt;/tex&amp;gt; регуляризационное слагаемое:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q_{\lambda}(\beta) = ||F \beta - y||^2 + \lambda ||\beta||^2&amp;lt;/tex&amp;gt;,&amp;lt;/center&amp;gt; &lt;br /&gt;
где &amp;lt;tex&amp;gt;\lambda&amp;lt;/tex&amp;gt; {{---}} неотрицательный параметр.&lt;br /&gt;
&lt;br /&gt;
Решением в этом случае будет&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^* = (F^T F + \lambda I_n)^{-1} F^T y&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Это изменение увеличивает собственные значения матрицы &amp;lt;tex&amp;gt;F^T F&amp;lt;/tex&amp;gt;, но не изменяет ее собственные вектора. В результате имеем хорошо обусловленную матрицу.&lt;br /&gt;
&lt;br /&gt;
Диагональная матрица &amp;lt;tex&amp;gt;\lambda I_n&amp;lt;/tex&amp;gt; называется '''гребнем'''.&lt;br /&gt;
&lt;br /&gt;
===Пример кода для Scikit-learn===&lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# Импорт библиотек&amp;lt;/font&amp;gt;&lt;br /&gt;
 '''from''' sklearn.linear_model '''import''' Ridge&lt;br /&gt;
 '''from''' sklearn.model_selection '''import''' train_test_split&lt;br /&gt;
 &lt;br /&gt;
 X = ... &amp;lt;font color = green&amp;gt;# загрузка X&amp;lt;/font&amp;gt;&lt;br /&gt;
 y = ... &amp;lt;font color = green&amp;gt;# загрузка y&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# разделение данных на train и test&amp;lt;/font&amp;gt;&lt;br /&gt;
 train_X, test_X, train_y, test_y = train_test_split(X, y)&lt;br /&gt;
 &lt;br /&gt;
 ridge_regression = Ridge(alpha=0.1) &amp;lt;font color = green&amp;gt;# alpha {{---}} величина регуляризации&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# обучение&amp;lt;/font&amp;gt;&lt;br /&gt;
 ridge_regression.fit(train_X, train_y)&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# предсказание результата&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(ridge_regression.predict(test_X))&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# вывод точности предсказания&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(ridge_regression.score(test_X, test_y))&lt;br /&gt;
&lt;br /&gt;
==Лассо-регрессия==&lt;br /&gt;
===Описание===&lt;br /&gt;
Метод регрессии лассо (англ. ''LASSO, Least Absolute Shrinkage and Selection Operator'') похож на гребневую регрессию:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q_{\lambda}(\beta) = ||F \beta - y||^2 + \lambda ||\beta||&amp;lt;/tex&amp;gt;,&amp;lt;/center&amp;gt; &lt;br /&gt;
В ходе минимизации некоторые коэффициенты становятся равными нулю, что определяет отбор информативных признаков.&lt;br /&gt;
&lt;br /&gt;
===Пример кода для Scikit-learn===&lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# Импорт библиотек&amp;lt;/font&amp;gt;&lt;br /&gt;
 '''from''' sklearn.linear_model '''import''' Lasso&lt;br /&gt;
 '''from''' sklearn.model_selection '''import''' train_test_split&lt;br /&gt;
 &lt;br /&gt;
 X = ... &amp;lt;font color = green&amp;gt;# загрузка X&amp;lt;/font&amp;gt;&lt;br /&gt;
 y = ... &amp;lt;font color = green&amp;gt;# загрузка y&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# разделение данных на train и test&amp;lt;/font&amp;gt;&lt;br /&gt;
 train_X, test_X, train_y, test_y = train_test_split(X, y)&lt;br /&gt;
 &lt;br /&gt;
 lasso_regression = Lasso(alpha=0.1) &amp;lt;font color = green&amp;gt;# alpha {{---}} величина регуляризации&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# обучение&amp;lt;/font&amp;gt;&lt;br /&gt;
 lasso_regression.fit(train_X, train_y)&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# предсказание результата&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(lasso_regression.predict(test_X))&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# вывод точности предсказания&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(lasso_regression.score(test_X, test_y))&lt;br /&gt;
&lt;br /&gt;
==Байесовская регрессия==&lt;br /&gt;
'''Байесовская линейная регрессия''' (англ. ''Bayesian linear regression'') {{---}} подход в линейной регрессии, в котором предполагается что шум распределен нормально.&lt;br /&gt;
&lt;br /&gt;
Рассмотрим задачу линейной регрессии &amp;lt;tex&amp;gt;y = \overrightarrow{\beta}^T\overrightarrow{x} + \varepsilon&amp;lt;/tex&amp;gt;, где &amp;lt;tex&amp;gt;\varepsilon_i \sim N(0, \sigma^2)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
В терминах вероятностей можно записать следующее:&lt;br /&gt;
&amp;lt;tex&amp;gt;p(y|\overrightarrow{x}, \overrightarrow{\beta}, \sigma^2) = N(y|\overrightarrow{\beta}^T \overrightarrow{x}), \sigma^2)&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Будем предполагать, что данные независимы:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;p(Y|X, \overrightarrow{\beta}, \sigma^2) = \prod\limits_{i=1}^n N(y_i|\overrightarrow{\beta}^T \overrightarrow{x}_i, \sigma^2)&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Пролоарифмируем это выражение:&lt;br /&gt;
&amp;lt;tex&amp;gt;\ln p(Y|X, \overrightarrow{\beta}, \sigma^2) \\ = \ln \prod\limits_{i=1}^n N(y_i|\overrightarrow{\beta}^T \overrightarrow{x}_i, \sigma^2) \\ = \ln {\left( \frac{1}{(\sigma \sqrt{2 \pi})^n} \exp{(-\frac{1}{2 \sigma^2} \sum\limits_{i-1}^n (y_i - \overrightarrow{\beta}^T \overrightarrow{x_i})^2)}\right )} \\ = -\frac{n}{2} \ln{2 \pi \sigma^2} - \frac{1}{2\sigma^2} \sum\limits_{i=1}^n (y_i-\overrightarrow{\beta}^T \overrightarrow{x}_i)^2&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Из оценки макимального правдоподобия мы получили оценку по методу наименьших квадратов.&lt;br /&gt;
&lt;br /&gt;
==Логическая регрессия==&lt;br /&gt;
Частный случай логистической регрессии, когда все переменные имеют двоичную природу.&lt;br /&gt;
&lt;br /&gt;
==См. также==&lt;br /&gt;
* [[Общие понятия]]&lt;br /&gt;
* [[Линейная регрессия]]&lt;br /&gt;
* [[Логистическая регрессия]]&lt;br /&gt;
* [[Обзор библиотек для машинного обучения на Python]]&lt;br /&gt;
* [[Байесовская классификация]]&lt;br /&gt;
* [[Уменьшение размерности]]&lt;br /&gt;
&lt;br /&gt;
==Источники информации==&lt;br /&gt;
* [http://datareview.info/article/10-tipov-regressii-kakoy-vyibrat/ 10 типов регрессии {{---}} какой выбрать?]&lt;br /&gt;
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D0%B0%D1%8F_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F_%28%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%29 machinelearning.ru {{---}} Линейная регрессия (пример)]&lt;br /&gt;
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B8%D0%B4%D0%B6-%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F machinelearning.ru {{---}} Ридж-регрессия]&lt;br /&gt;
* [https://ru.wikipedia.org/wiki/%D0%9C%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BA%D0%BE%D0%BB%D0%BB%D0%B8%D0%BD%D0%B5%D0%B0%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C Wikipedia {{---}} Мультиколлинеарность]&lt;br /&gt;
* [http://www.ccas.ru/voron/download/Regression.pdf Лекции по алгоритмам восстановления регрессии К. В. Воронцов]&lt;br /&gt;
* [https://habr.com/ru/company/ods/blog/322076/ Habr {{---}} Базовые принципы машинного обучения на примере линейной регрессии]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Категория: Машинное обучение]]&lt;br /&gt;
[[Категория: Регрессия]]&lt;/div&gt;</summary>
		<author><name>188.170.80.236</name></author>	</entry>

	<entry>
		<id>http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%B8_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%B8&amp;diff=69145</id>
		<title>Вариации регрессии</title>
		<link rel="alternate" type="text/html" href="http://neerc.ifmo.ru/wiki/index.php?title=%D0%92%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%B8_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%B8&amp;diff=69145"/>
				<updated>2019-01-24T08:33:21Z</updated>
		
		<summary type="html">&lt;p&gt;188.170.80.236: /* Источники информации */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Регрессия''' (англ. ''Regression'') {{---}} метод моделирования зависимости между зависимой переменной &amp;lt;tex&amp;gt;y&amp;lt;/tex&amp;gt; и одной или несколькими независимыми переменными &amp;lt;tex&amp;gt;x_1, x_2, \dots, x_n&amp;lt;/tex&amp;gt;. В случае нескольких независимых переменных регрессия называется '''множественной''' (англ. ''multivariate regression''). Цель регрессионного анализа состоит в том, чтобы оценить значение непрерывной выходной переменной по значениям входных переменных.&lt;br /&gt;
&lt;br /&gt;
==Линейная регрессия==&lt;br /&gt;
{{main|Линейная регрессия}}&lt;br /&gt;
&lt;br /&gt;
'''Линейная регрессия''' (англ. ''Linear regression'') {{---}} разновидность регрессии для моделирования линейной зависимости между зависимой и независимой переменными.&lt;br /&gt;
&lt;br /&gt;
==Логистическая регрессия==&lt;br /&gt;
{{main|Логистическая регрессия}}&lt;br /&gt;
'''Логистическая регрессия''' (англ. ''Logistic regression'') {{---}} разновидность регрессии для моделирования зависимости между зависимой и независимой переменными в случае, когда зависимая переменная &amp;lt;tex&amp;gt;y&amp;lt;/tex&amp;gt; принимает значения в диапазоне от &amp;lt;tex&amp;gt;0&amp;lt;/tex&amp;gt; до &amp;lt;tex&amp;gt;1&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Гребневая регрессия (ридж-регрессия)==&lt;br /&gt;
'''Гребневая регрессия или ридж-регрессия''' (англ. ''ridge regression'') {{---}} один из методов [[Уменьшение размерности|понижения размерности]]. Применяется для борьбы с избыточностью данных, когда независимые переменные коррелируют друг с другом, вследствие чего проявляется неустойчивость оценок коэффициентов многомерной линейной регрессии. &lt;br /&gt;
&lt;br /&gt;
===Мотивация===&lt;br /&gt;
{{Определение&lt;br /&gt;
|definition =&lt;br /&gt;
'''Мультиколлинеарность''' ''(англ. multicollinearity)'' {{---}} наличие линейной зависимости между независимыми переменными регрессионной модели. Различают ''полную коллинеарность'' и ''частичную'' или просто ''мультиколлинеарность'' {{---}} наличие сильной корреляции между факторами.&lt;br /&gt;
}}&lt;br /&gt;
Рассмотрим пример линейной модели: &amp;lt;tex&amp;gt;y = b_1 x_1 + b_2 x_2 + b_3 x_3 + \varepsilon&amp;lt;/tex&amp;gt;.&lt;br /&gt;
Пусть имеет место зависимость &amp;lt;tex&amp;gt;x_1 = x_2 + x_ 3&amp;lt;/tex&amp;gt;. Добавим к первому коэффициенту произвольное число &amp;lt;tex&amp;gt;a&amp;lt;/tex&amp;gt;, а из двух других коэффициентов это же число вычтем.&lt;br /&gt;
Получаем (без случайной ошибки):&lt;br /&gt;
&lt;br /&gt;
&amp;lt;tex&amp;gt;y = (b_1 + a)x_1 + (b_2 - a)x_2 + (b_3 - a)x_3 = b_1 x_1 + b_2 x_2 + b_3 x_3 + a(x_1 - x_2 - x_3) = b_1 x_1 + b_2 x_2 + b_3 x_3&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Несмотря на относительно произвольное изменение коэффициентов модели мы получили исходную модель, то есть такая модель неидентифицируема.&lt;br /&gt;
&lt;br /&gt;
На практике чаще встречается проблема сильной корреляции между независимыми переменными. В этом случае оценки параметров модели получить можно, но они будут неустойчивыми.&lt;br /&gt;
&lt;br /&gt;
===Описание===&lt;br /&gt;
Напомним задачу многомерной линейной регрессии:&lt;br /&gt;
Рассматривается линейная зависимость &amp;lt;tex&amp;gt;f(x, \beta) = \langle \beta, x \rangle&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Находим вектор &amp;lt;tex&amp;gt;\beta^*&amp;lt;/tex&amp;gt;, при котором достигается минимум среднего квадрата ошибки:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q(\beta) = ||F \beta - y||^2&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^*=\arg \min\limits_\beta Q(\beta)&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Методом наименьших квадратов находим решение:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^* = (F^T F)^{-1} F^T y&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
В условиях мультиколлинеарности матрица &amp;lt;tex&amp;gt;F^T F&amp;lt;/tex&amp;gt; становится плохо обусловленной.&lt;br /&gt;
&lt;br /&gt;
Для решения этой проблемы добавим к функционалу &amp;lt;tex&amp;gt;Q&amp;lt;/tex&amp;gt; регуляризационное слагаемое:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q_{\lambda}(\beta) = ||F \beta - y||^2 + \lambda ||\beta||^2&amp;lt;/tex&amp;gt;,&amp;lt;/center&amp;gt; &lt;br /&gt;
где &amp;lt;tex&amp;gt;\lambda&amp;lt;/tex&amp;gt; {{---}} неотрицательный параметр.&lt;br /&gt;
&lt;br /&gt;
Решением в этом случае будет&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;\beta^* = (F^T F + \lambda I_n)^{-1} F^T y&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Это изменение увеличивает собственные значения матрицы &amp;lt;tex&amp;gt;F^T F&amp;lt;/tex&amp;gt;, но не изменяет ее собственные вектора. В результате имеем хорошо обусловленную матрицу.&lt;br /&gt;
&lt;br /&gt;
Диагональная матрица &amp;lt;tex&amp;gt;\lambda I_n&amp;lt;/tex&amp;gt; называется '''гребнем'''.&lt;br /&gt;
&lt;br /&gt;
===Пример кода для Scikit-learn===&lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# Импорт библиотек&amp;lt;/font&amp;gt;&lt;br /&gt;
 '''from''' sklearn.linear_model '''import''' Ridge&lt;br /&gt;
 '''from''' sklearn.model_selection '''import''' train_test_split&lt;br /&gt;
 &lt;br /&gt;
 X = ... &amp;lt;font color = green&amp;gt;# загрузка X&amp;lt;/font&amp;gt;&lt;br /&gt;
 y = ... &amp;lt;font color = green&amp;gt;# загрузка y&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# разделение данных на train и test&amp;lt;/font&amp;gt;&lt;br /&gt;
 train_X, test_X, train_y, test_y = train_test_split(X, y)&lt;br /&gt;
 &lt;br /&gt;
 ridge_regression = Ridge(alpha=0.1) &amp;lt;font color = green&amp;gt;# alpha {{---}} величина регуляризации&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# обучение&amp;lt;/font&amp;gt;&lt;br /&gt;
 ridge_regression.fit(train_X, train_y)&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# предсказание результата&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(ridge_regression.predict(test_X))&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# вывод точности предсказания&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(ridge_regression.score(test_X, test_y))&lt;br /&gt;
&lt;br /&gt;
==Лассо-регрессия==&lt;br /&gt;
===Описание===&lt;br /&gt;
Метод регрессии лассо (англ. ''LASSO, Least Absolute Shrinkage and Selection Operator'') похож на гребневую регрессию:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;Q_{\lambda}(\beta) = ||F \beta - y||^2 + \lambda ||\beta||&amp;lt;/tex&amp;gt;,&amp;lt;/center&amp;gt; &lt;br /&gt;
В ходе минимизации некоторые коэффициенты становятся равными нулю, что определяет отбор информативных признаков.&lt;br /&gt;
&lt;br /&gt;
===Пример кода для Scikit-learn===&lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# Импорт библиотек&amp;lt;/font&amp;gt;&lt;br /&gt;
 '''from''' sklearn.linear_model '''import''' Lasso&lt;br /&gt;
 '''from''' sklearn.model_selection '''import''' train_test_split&lt;br /&gt;
 &lt;br /&gt;
 X = ... &amp;lt;font color = green&amp;gt;# загрузка X&amp;lt;/font&amp;gt;&lt;br /&gt;
 y = ... &amp;lt;font color = green&amp;gt;# загрузка y&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# разделение данных на train и test&amp;lt;/font&amp;gt;&lt;br /&gt;
 train_X, test_X, train_y, test_y = train_test_split(X, y)&lt;br /&gt;
 &lt;br /&gt;
 lasso_regression = Lasso(alpha=0.1) &amp;lt;font color = green&amp;gt;# alpha {{---}} величина регуляризации&amp;lt;/font&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# обучение&amp;lt;/font&amp;gt;&lt;br /&gt;
 lasso_regression.fit(train_X, train_y)&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# предсказание результата&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(lasso_regression.predict(test_X))&lt;br /&gt;
 &lt;br /&gt;
 &amp;lt;font color = green&amp;gt;# вывод точности предсказания&amp;lt;/font&amp;gt;&lt;br /&gt;
 ''print''(lasso_regression.score(test_X, test_y))&lt;br /&gt;
&lt;br /&gt;
==Байесовская регрессия==&lt;br /&gt;
'''Байесовская линейная регрессия''' (англ. ''Bayesian linear regression'') {{---}} подход в линейной регрессии, в котором предполагается что шум распределен нормально.&lt;br /&gt;
&lt;br /&gt;
Рассмотрим задачу линейной регрессии &amp;lt;tex&amp;gt;y = \overrightarrow{\beta}^T\overrightarrow{x} + \varepsilon&amp;lt;/tex&amp;gt;, где &amp;lt;tex&amp;gt;\varepsilon_i \sim N(0, \sigma^2)&amp;lt;/tex&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
В терминах вероятностей можно записать следующее:&lt;br /&gt;
&amp;lt;tex&amp;gt;p(y|\overrightarrow{x}, \overrightarrow{\beta}, \sigma^2) = N(y|\overrightarrow{\beta}^T \overrightarrow{x}), \sigma^2)&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Будем предполагать, что данные независимы:&lt;br /&gt;
&amp;lt;center&amp;gt;&amp;lt;tex&amp;gt;p(Y|X, \overrightarrow{\beta}, \sigma^2) = \prod\limits_{i=1}^n N(y_i|\overrightarrow{\beta}^T \overrightarrow{x}_i, \sigma^2)&amp;lt;/tex&amp;gt;&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Пролоарифмируем это выражение:&lt;br /&gt;
&amp;lt;tex&amp;gt;\ln p(Y|X, \overrightarrow{\beta}, \sigma^2) \\ = \ln \prod\limits_{i=1}^n N(y_i|\overrightarrow{\beta}^T \overrightarrow{x}_i, \sigma^2) \\ = \ln {\left( \frac{1}{(\sigma \sqrt{2 \pi})^n} \exp{(-\frac{1}{2 \sigma^2} \sum\limits_{i-1}^n (y_i - \overrightarrow{\beta}^T \overrightarrow{x_i})^2)}\right )} \\ = -\frac{n}{2} \ln{2 \pi \sigma^2} - \frac{1}{2\sigma^2} \sum\limits_{i=1}^n (y_i-\overrightarrow{\beta}^T \overrightarrow{x}_i)^2&amp;lt;/tex&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Из оценки макимального правдоподобия мы получили оценку по методу наименьших квадратов.&lt;br /&gt;
&lt;br /&gt;
==Логическая регрессия==&lt;br /&gt;
Частный случай логистической регрессии, когда все переменные имеют двоичную природу.&lt;br /&gt;
&lt;br /&gt;
==См. также==&lt;br /&gt;
* [[Общие понятия]]&lt;br /&gt;
* [[Линейная регрессия]]&lt;br /&gt;
* [[Логистическая регрессия]]&lt;br /&gt;
* [[Обзор библиотек для машинного обучения на Python]]&lt;br /&gt;
* [[Байесовская классификация]]&lt;br /&gt;
* [[Уменьшение размерности]]&lt;br /&gt;
&lt;br /&gt;
==Источники информации==&lt;br /&gt;
* [http://datareview.info/article/10-tipov-regressii-kakoy-vyibrat/ 10 типов регрессии {{---}} какой выбрать?]&lt;br /&gt;
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%9B%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D0%B0%D1%8F_%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F_%28%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%29 machinelearning.ru {{---}} Линейная регрессия (пример)]&lt;br /&gt;
* [http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B8%D0%B4%D0%B6-%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F machinelearning.ru {{---}} Ридж-регрессия]&lt;br /&gt;
* [https://ru.wikipedia.org/wiki/%D0%9C%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BA%D0%BE%D0%BB%D0%BB%D0%B8%D0%BD%D0%B5%D0%B0%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C Wikipedia {{---}} Мультиколлинеарность]&lt;br /&gt;
* [http://www.ccas.ru/voron/download/Regression.pdf Лекции по алгоритмам восстановления регрессии К. В. Воронцов]&lt;br /&gt;
# [https://habr.com/ru/company/ods/blog/322076/ Habr {{---}} Базовые принципы машинного обучения на примере линейной регрессии]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Категория: Машинное обучение]]&lt;br /&gt;
[[Категория: Регрессия]]&lt;/div&gt;</summary>
		<author><name>188.170.80.236</name></author>	</entry>

	</feed>