Изменения

Перейти к: навигация, поиск

Регуляризация

1059 байт добавлено, 07:18, 20 января 2020
L_{1}-регуляризация
Запишем задачу настройки вектора параметров <tex>\beta</tex>:
:<tex>Q(\beta) = \sum_{i=1}^l\mathcal{L}_{i}(\beta) + \lambda \sum _{j=1}^n{|\beta_{j}|}</tex>,
где <tex>\mathcal{L}_{i}(\beta) = \mathcal{L}(y_{i}, g(x_{i}, \beta)) </tex> - некоторая ограниченная гладкая функция потерь. Сделаем замену переменных, чтобы функционал стал гладким. Каждой переменной <tex>\beta_{j}</tex> поставим в соответствие две новые неотрицательные переменные:
:<tex>u_{j}=\frac{1}{2}(|\beta_{j}| + \beta_{j})</tex>
:<tex>v_{j}=\frac{1}{2}(|\beta_{j}| - \beta_{j})</tex>
:<tex>|\beta_{j}| = u_{j} + v_{j}</tex>
В новых переменных функционал становится гладким, но добавляется ограничения-неравенства:
:<tex>Q(u, v) = \sum_{i=1}^l\mathcal{L}_{Ii}(u - v) + \lambda \sum_{j=1}^n(u_{j} + v_{j}) \rightarrow min_{u,v}</tex>:<tex>u_{j} \geq 0, v_{j} \geq 0</tex>Для любого <tex>j</tex> хотя бы одно из ограничений <tex>u_{j} \geq 􏰧0</tex> и <tex>v_{j} 􏰧\geq 0</tex> обращается в равенство, иначе второе слагаемое в <tex>Q(u, v)</tex> можно было бы уменьшить, не изменив первое. Если гиперпараметр <tex>\lambda</tex> устремить к <tex>\infty</tex>, в какой-то момент <tex>2n</tex> ограничений обратятся в равенство. Постепенное увеличение гиперпараметра <tex>\lambda</tex> приводит к увеличению числа таких <tex>j</tex>, для которых <tex>u_{j} = v_{j } = 10</tex>, откуда следует,что <tex>w_{j} = 0</tex>...Как говорилось ранее, в линейных моделях это означает,nчто значения <tex>j</tex>-го признака игнорируются, и его можно исключить из модели.
===Эластичная сеть===
193
правки

Навигация