174
правки
Изменения
м
One way of resolving the trade-off is to use mixture models and ensemble learningДля устранения high variance и high bias можно использовать смеси и ансамбли.[13][14] For exampleНапример, можно составить ансамбль (boosting combines many "weak" (high ) из нескольких моделей с высоким bias и получить модель с небольшим bias) models in an ensemble that has lower . В другом случае при bagging соединяются несколько моделей с низким bias than the individual models, while bagging combines "strong" learners in a way that reduces their а результирующая модель позволяет уменьшить variance.
→High variance и high bias
== High variance и high bias ==
'''Bias''' {{- --}} ошибка неверных предположений в алгоритме обучения. Высокий bias может привести к недообучению.
'''Variance''' {{- --}} это ошибка, вызванная большой чувствительностью к небольшим отклонениям в тренировочном наборе. Высокая дисперсия может привести к переобучению.The variance is an error from sensitivity to small fluctuations in the training set. High variance can cause an algorithm to model the random noise in the training data, rather than the intended outputs (overfitting).
[[Файл:High_bias.jpg|border|300px|High variance и high bias]]
При использовании нейронных сетей variance увеличивается, а bias уменьшается с увеличением количества скрытых юнитов.
== Возможные решения ==