192
правки
Изменения
→Совместное обучение (Co-training)
Совместное обучение является расширением самообучения, при котором несколько классификаторов прорабатывают разные (в идеале, непересекающиеся) множества признаков и генерируют размеченные примеры друг для друга.
'''Разделение признаков (feature split)''' <br>
Метод совместного обучение предполагает, что каждый объект имеет два множества признаков $x = [x^{(1)}; x^{(2)}]$, разделение между которыми может быть как естественным, так и искусственным. Примером объекта с естественным разделением признаков может послужить веб-страница, содержащая текст и изображения. Два независимых классификатора обучаются по двум множествам признаков: первый анализирует текст, второй {{---}} изображения.
'''Предположения, используемые в совместном обучении'''
* Естественное разделение признаков $x = [x^{(1)}; x^{(2)}]$ существует
* $x^{(1)}$ и $x^{(2)}$ таковы, что по-отдельности могут обучить хороший классификатор
* множества $x^{(1)}$ и $x^{(2)}$ являются условно независимыми при фиксированном классе
'''Алгоритм''' <br>