Обучение с частичным привлечением учителя — различия между версиями
Romanosov (обсуждение | вклад) (initial) |
Romanosov (обсуждение | вклад) (Вводные разделы + план) |
||
Строка 1: | Строка 1: | ||
+ | == Понятие машинного обучения в искусственном интеллекте == | ||
+ | |||
+ | {{Определение | ||
+ | |definition= | ||
'''Обучение с частичным привлечением учителя''' (англ. semi-supervised learning) {{---}} разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки {{---}} обычно небольшое количество размеченных данных и большое количество неразмеченных данных. | '''Обучение с частичным привлечением учителя''' (англ. semi-supervised learning) {{---}} разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки {{---}} обычно небольшое количество размеченных данных и большое количество неразмеченных данных. | ||
+ | }} | ||
+ | == Основная идея == | ||
+ | |||
+ | Обучение с частичным привлечением учителя занимает промежуточное положение между обучением с учителем и без учителя. Когда получение достаточного количества размеченных данных затруднено (например, когда при разметке данных используются дорогостоящие устройства или специально обученные люди), помимо размеченных данных можно также задействовать и неразмеченные данные для построения более эффективных моделей, по-сравнению с моделями, построенными с полным участием учителя или без него вовсе. | ||
+ | |||
+ | == Постановка задачи обучения == | ||
+ | |||
+ | '''Дано''' <br /> | ||
+ | * Множество данных $X = \{x_1, x_2, ... , x_m\}$ и множество меток $Y = \{y_1, y_2, ... , y_m\}$ | ||
+ | * Размеченные данные вида $(X_l, Y_l) = \{(x_{1:l}, y_{1:l})\}$ | ||
+ | * Множество неразмеченных данных $X_u = \{x_{l+1:n}\}$, используемых в обучении | ||
+ | * Как правило, $l \ll n$ | ||
+ | * Множество неразмеченных данных $X_{test} = \{x_{n+1:m}\}$, не используемых в обучении (тестовая выборка) | ||
+ | |||
+ | '''Найти''' <br /> | ||
+ | * Найти решающую функцию $a: X → Y$, где при нахождении функции подразумевается применение как $(X_l, Y_l)$, так и $X_u$. | ||
+ | |||
+ | == Подходы к решению задачи == | ||
+ | |||
+ | === Самообучение === | ||
+ | === Генеративные модели === | ||
+ | === Полуавтоматические SVM === | ||
+ | === Алгоритмы на основе графов === | ||
+ | === Multiview Learning === | ||
+ | |||
+ | == Применение == | ||
+ | |||
+ | == См. также == | ||
+ | |||
+ | == Примечания == | ||
+ | |||
+ | == Источники информации == |
Версия 01:33, 13 февраля 2019
Содержание
Понятие машинного обучения в искусственном интеллекте
Определение: |
Обучение с частичным привлечением учителя (англ. semi-supervised learning) — разновидность обучения с учителем, которое также использует неразмеченные данные для тренировки — обычно небольшое количество размеченных данных и большое количество неразмеченных данных. |
Основная идея
Обучение с частичным привлечением учителя занимает промежуточное положение между обучением с учителем и без учителя. Когда получение достаточного количества размеченных данных затруднено (например, когда при разметке данных используются дорогостоящие устройства или специально обученные люди), помимо размеченных данных можно также задействовать и неразмеченные данные для построения более эффективных моделей, по-сравнению с моделями, построенными с полным участием учителя или без него вовсе.
Постановка задачи обучения
Дано
- Множество данных $X = \{x_1, x_2, ... , x_m\}$ и множество меток $Y = \{y_1, y_2, ... , y_m\}$
- Размеченные данные вида $(X_l, Y_l) = \{(x_{1:l}, y_{1:l})\}$
- Множество неразмеченных данных $X_u = \{x_{l+1:n}\}$, используемых в обучении
- Как правило, $l \ll n$
- Множество неразмеченных данных $X_{test} = \{x_{n+1:m}\}$, не используемых в обучении (тестовая выборка)
Найти
- Найти решающую функцию $a: X → Y$, где при нахождении функции подразумевается применение как $(X_l, Y_l)$, так и $X_u$.