302
правки
Изменения
→Дополнительные
Такая модификация алгоритма ''SMOTE'' делает его более адаптивным к различным наборам данных с несбалансированными классами. Общее представление идеи алгоритма показано на рис. <math>6</math>.
==== Дополнительные ====
* SMOTENC - SMOTE for Nominal Continuous<ref>N. V. Chawla, K. W. Bowyer, L. O. Hall, W. P. Kegelmeyer, “SMOTE: Synthetic minority over-sampling technique,” Journal of Artificial Intelligence Research, vol. 16, pp. 321-357, 2002.</ref> {{---}} в отличие от ''SMOTE'', работает с непрерывными признаками у объектов примеров обучающей выборки.
* Borderline-SMOTE <math>(1 \And 2)</math><ref>H. Han, W.-Y. Wang, B.-H. Mao, “Borderline-SMOTE: A new over-sampling method in imbalanced data sets learning,” In Proceedings of the 1st International Conference on Intelligent Computing, pp. 878-887, 2005.</ref> {{---}} в отличие от ''SMOTE'', для создания новых синтетических примеров используются только примеры на границе классов.
* SVM SMOTE - Support Vectors SMOTE<ref> [https://enH. M. Nguyen, E. W.wikipediaCooper, K.org Sampling_(statistics)]</ref> {{---}}* ADASYN Kamei, “Borderline over- Adaptive synthetic sampling approach for imbalanced learning<ref> [https://en.wikipediadata classification,” In Proceedings of the 5th International Workshop on computational Intelligence and Applications, pp.org Sampling_(statistics)]</ref> {{-24--}}* Repeated Edited Nearest Neighbours<ref> [https://en29, 2009.wikipedia.org Sampling_(statistics)]</ref> {{---}}* KMeans-вариант алгоритма ''SMOTE<ref> '', который использует алгоритм [[https://en.wikipedia.org Sampling_Метод_опорных_векторов_(statisticsSVM)|SVM]</ref> {{---}}] для обнаружения примеров, рядом с которыми будут создаваться новые синтетические примеры.
=== Комбинирование ===