Машинное обучение — различия между версиями
Evaleria (обсуждение | вклад) м |
Evaleria (обсуждение | вклад) м |
||
Строка 9: | Строка 9: | ||
*[[Ранжирование]] | *[[Ранжирование]] | ||
*[[Рекомендательные системы]] | *[[Рекомендательные системы]] | ||
− | |||
*[[Жизненный цикл модели машинного обучения]]<tex>^\star</tex> | *[[Жизненный цикл модели машинного обучения]]<tex>^\star</tex> | ||
*[[Многопоточность в машинном обучении]]<tex>^\star</tex> | *[[Многопоточность в машинном обучении]]<tex>^\star</tex> | ||
Строка 77: | Строка 76: | ||
*[[Долгая краткосрочная память]] | *[[Долгая краткосрочная память]] | ||
*[[Механизм внимания]] | *[[Механизм внимания]] | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
=Работа с данными= | =Работа с данными= | ||
Строка 93: | Строка 85: | ||
*[[Стохастическое вложение соседей с t-распределением]] | *[[Стохастическое вложение соседей с t-распределением]] | ||
− | =Обучение с подкреплением= | + | =Виды обучения= |
+ | *[[Активное обучение]]<tex>^\star</tex> | ||
+ | *[[Обучение с частичным привлечением учителя]]<tex>^\star</tex> | ||
+ | *[[Обучение в реальном времени]]<tex>^\star</tex> | ||
+ | |||
+ | ==Автоматическое машинное обучение== | ||
+ | *[[Автоматическое машинное обучение]] | ||
+ | *[[Настройка гиперпараметров]] | ||
+ | *[[Модель алгоритма и ее выбор]] | ||
+ | *[[Мета-обучение]] | ||
+ | *[[Поиск архитектуры нейронной сети]] | ||
+ | |||
+ | ==Обучение с подкреплением== | ||
*[[Обучение с подкреплением]]<tex>^\star</tex> | *[[Обучение с подкреплением]]<tex>^\star</tex> | ||
*[[Методы policy gradient и алгоритм асинхронного актора-критика]]<tex>^\star</tex> | *[[Методы policy gradient и алгоритм асинхронного актора-критика]]<tex>^\star</tex> | ||
− | |||
− | |||
− | |||
=Примеры кода= | =Примеры кода= | ||
Строка 111: | Строка 112: | ||
*[[Генерация объектов]] | *[[Генерация объектов]] | ||
*[[Распознавание текста на изображении]] | *[[Распознавание текста на изображении]] | ||
− | |||
*[[Примеры кода на Kotlin]] | *[[Примеры кода на Kotlin]] | ||
*[[Примеры кода на Kotlin в Jupyter Notebook]] | *[[Примеры кода на Kotlin в Jupyter Notebook]] | ||
*[[Анализ видео]] | *[[Анализ видео]] |
Версия 20:28, 4 сентября 2020
Содержание
Общие понятия
- Общие понятия
- Переобучение
- Кросс-валидация
- Стохастический градиентный спуск
- Регуляризация
- Ранжирование
- Рекомендательные системы
- Жизненный цикл модели машинного обучения
- Многопоточность в машинном обучении
Классификация и регрессия
- Метрический классификатор и метод ближайших соседей
- Дерево решений и случайный лес
- Вариации регрессии
- Линейная регрессия
- Логистическая регрессия
- Метод опорных векторов (SVM)
- Ядра
- Оценка качества в задачах классификации и регрессии
- Байесовская классификация
- Байесовские сети
- Поиск ближайших соседей с помощью иерархического маленького мира
Кластеризация
- Кластеризация
- EM-алгоритм
- Иерархическая кластеризация
- Оценка качества в задаче кластеризации
- Эволюционные алгоритмы кластеризации
Ансамбли
Нейронные сети
- Нейронные сети, перцептрон
- Обратное распространение ошибки
- Практики реализации нейронных сетей
- Графовые нейронные сети
- Рекурсивные нейронные сети
Глубокое обучение
- Глубокое обучение
- Настройка глубокой сети
- Batch-normalization
- Рекуррентные нейронные сети
- Сети глубокого доверия
Сверточные сети
Компьютерное зрение
- Компьютерное зрение
- Оценка положения
- Задача нахождения объектов на изображении
- Сегментация изображений
- PixelRNN и PixelCNN
Порождающие модели
Обработка естественного языка
- Распознавание речи
- Обработка естественного языка
- Векторное представление слов
- Классификация текстов и анализ тональности
- Долгая краткосрочная память
- Механизм внимания
Работа с данными
- Уменьшение размерности
- Выброс
- Алгоритмы сэмплирования
- Известные наборы данных
- Метод главных компонент (PCA)
- Стохастическое вложение соседей с t-распределением
Виды обучения
Автоматическое машинное обучение
- Автоматическое машинное обучение
- Настройка гиперпараметров
- Модель алгоритма и ее выбор
- Мета-обучение
- Поиск архитектуры нейронной сети