Машинное обучение — различия между версиями
(→Глубокое обучение) |
(→Автоматическое машинное обучение) |
||
Строка 76: | Строка 76: | ||
*[[Модель алгоритма и ее выбор]] | *[[Модель алгоритма и ее выбор]] | ||
*[[Мета-обучение]] | *[[Мета-обучение]] | ||
+ | *[[Поиск архитектуры нейронной сети]] | ||
=Работа с данными= | =Работа с данными= |
Версия 10:15, 13 апреля 2020
Содержание
Общие понятия
- Общие понятия
- Переобучение
- Кросс-валидация
- Стохастический градиентный спуск
- Регуляризация
- Ранжирование
- Обучение с частичным привлечением учителя
- Жизненный цикл модели машинного обучения
Классификация и регрессия
- Метрический классификатор и метод ближайших соседей
- Дерево решений и случайный лес
- Вариации регрессии
- Линейная регрессия
- Логистическая регрессия
- Метод опорных векторов (SVM)
- Ядра
- Оценка качества в задачах классификации и регрессии
- Байесовская классификация
- Байесовские сети
- Поиск ближайших соседей с помощью иерархического маленького мира
Кластеризация
- Кластеризация
- EM-алгоритм
- Иерархическая кластеризация
- Оценка качества в задаче кластеризации
- Эволюционные алгоритмы кластеризации
Ансамбли
Нейронные сети
Глубокое обучение
- Глубокое обучение
- Настройка глубокой сети
- Batch-normalization
- Рекуррентные нейронные сети
- Долгая краткосрочная память
Сверточные сети
Компьютерное зрение
Порождающие модели
Обработка естественного языка
- Распознавание речи
- Обработка естественного языка
- Векторное представление слов
- Классификация текстов и анализ тональности
- Долгая краткосрочная память
- Механизм внимания
Автоматическое машинное обучение
- Автоматическое машинное обучение
- Модель алгоритма и ее выбор
- Мета-обучение
- Поиск архитектуры нейронной сети
Работа с данными
- Уменьшение размерности
- Выброс
- Алгоритмы сэмплирования
- Известные наборы данных
- Метод главных компонент (PCA)
- Стохастическое вложение соседей с t-распределением