Машинное обучение — различия между версиями
Evaleria (обсуждение | вклад) |
Evaleria (обсуждение | вклад) м |
||
(не показано 38 промежуточных версий 10 участников) | |||
Строка 2: | Строка 2: | ||
=Общие понятия= | =Общие понятия= | ||
+ | *[[Общие понятия]] | ||
+ | *[[Модель алгоритма и ее выбор]] | ||
*[[Переобучение]] | *[[Переобучение]] | ||
+ | *[[Кросс-валидация]] | ||
+ | *[[Выброс]] | ||
+ | *[[Ранжирование]] | ||
+ | *[[Стохастический градиентный спуск]] | ||
+ | *[[Обучение с частичным привлечением учителя]] | ||
− | =Классификация= | + | =Классификация и регрессия= |
− | + | *[[Метрический классификатор и метод ближайших соседей]] | |
− | + | *[[Нейронные сети, перцептрон]] | |
+ | *[[Дерево решений и случайный лес]] | ||
+ | *[[Вариации регрессии]] | ||
+ | *[[Линейная регрессия]] | ||
+ | *[[Логистическая регрессия]] | ||
+ | *[[Поиск ближайших соседей с помощью иерархического маленького мира]]<tex>^\star</tex> | ||
=Кластеризация= | =Кластеризация= | ||
*[[Кластеризация]] | *[[Кластеризация]] | ||
*[[Иерархическая кластеризация]] | *[[Иерархическая кластеризация]] | ||
+ | *[[Оценка качества в задаче кластеризации]]<tex>^\star</tex> | ||
+ | |||
+ | =Ансамбли= | ||
+ | *[[Виды ансамблей]] | ||
+ | *[[Бустинг, AdaBoost]] | ||
+ | *[[XGBoost]] | ||
+ | *[[CatBoost]] | ||
=Глубокое обучение= | =Глубокое обучение= | ||
Строка 17: | Строка 36: | ||
*[[Batch-normalization]] | *[[Batch-normalization]] | ||
*[[Практики реализации нейронных сетей]] | *[[Практики реализации нейронных сетей]] | ||
+ | *[[Рекуррентные нейронные сети]] | ||
+ | *[[Сегментация изображений]] | ||
+ | ==Сверточные сети== | ||
*[[Сверточные нейронные сети]] | *[[Сверточные нейронные сети]] | ||
+ | ==Порождающие модели== | ||
*[[Generative Adversarial Nets (GAN)]]<tex>^\star</tex> | *[[Generative Adversarial Nets (GAN)]]<tex>^\star</tex> | ||
+ | *[[Автокодировщик]] | ||
+ | *[[Вариационный автокодировщик]] | ||
+ | |||
+ | ==Обработка естественного языка== | ||
+ | *[[Распознавание речи]] | ||
+ | *[[Обработка естественного языка]] | ||
+ | *[[Векторное представление слов]] | ||
+ | |||
+ | =Уменьшение размерности= | ||
+ | *[[Уменьшение размерности]] | ||
+ | |||
+ | =Обучение с подкреплением= | ||
+ | *[[Обучение с подкреплением]] | ||
+ | *[[Методы policy gradient и алгоритм асинхронного актора-критика]] | ||
=Примеры кода= | =Примеры кода= | ||
+ | *[[Обзор библиотек для машинного обучения на Python]] | ||
+ | *[[Примеры кода на Scala]] | ||
=В разработке= | =В разработке= | ||
− | |||
− | |||
*[[Мета-обучение]] | *[[Мета-обучение]] | ||
*[[Оценка качества в задачах классификации и регрессии]] | *[[Оценка качества в задачах классификации и регрессии]] | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
*[[Задача нахождения объектов на изображении]]<tex>^\star</tex> | *[[Задача нахождения объектов на изображении]]<tex>^\star</tex> | ||
*[[Neural Style Transfer]]<tex>^\star</tex> | *[[Neural Style Transfer]]<tex>^\star</tex> | ||
− | *[[ | + | *[[Долгая краткосрочная память]] |
− | |||
*[[Метод опорных векторов (SVM)]] | *[[Метод опорных векторов (SVM)]] | ||
− | |||
*[[Байесовская классификация]] | *[[Байесовская классификация]] | ||
*[[EM-алгоритм]] | *[[EM-алгоритм]] | ||
− | |||
− | |||
*[[Рекомендательные системы]] | *[[Рекомендательные системы]] | ||
*[[Настройка гиперпараметров]] | *[[Настройка гиперпараметров]] | ||
− | |||
− | |||
− | |||
*[[Активное обучение]] | *[[Активное обучение]] | ||
*[[Примеры кода на R]] | *[[Примеры кода на R]] | ||
*[[Примеры кода на Java]] | *[[Примеры кода на Java]] | ||
− | *[[ | + | *[[Регуляризация]] |
− | *[[ | + | *[[Обратное распространение ошибки]] |
− | *[[ | + | *[[Порождающие модели]] |
+ | *[[Ядра]] | ||
+ | *[[Известные наборы данных]] |
Версия 23:02, 24 марта 2019
Содержание
Общие понятия
- Общие понятия
- Модель алгоритма и ее выбор
- Переобучение
- Кросс-валидация
- Выброс
- Ранжирование
- Стохастический градиентный спуск
- Обучение с частичным привлечением учителя
Классификация и регрессия
- Метрический классификатор и метод ближайших соседей
- Нейронные сети, перцептрон
- Дерево решений и случайный лес
- Вариации регрессии
- Линейная регрессия
- Логистическая регрессия
- Поиск ближайших соседей с помощью иерархического маленького мира
Кластеризация
Ансамбли
Глубокое обучение
- Глубокое обучение
- Настройка глубокой сети
- Batch-normalization
- Практики реализации нейронных сетей
- Рекуррентные нейронные сети
- Сегментация изображений
Сверточные сети
Порождающие модели
Обработка естественного языка
Уменьшение размерности
Обучение с подкреплением
Примеры кода
В разработке
- Мета-обучение
- Оценка качества в задачах классификации и регрессии
- Задача нахождения объектов на изображении
- Neural Style Transfer
- Долгая краткосрочная память
- Метод опорных векторов (SVM)
- Байесовская классификация
- EM-алгоритм
- Рекомендательные системы
- Настройка гиперпараметров
- Активное обучение
- Примеры кода на R
- Примеры кода на Java
- Регуляризация
- Обратное распространение ошибки
- Порождающие модели
- Ядра
- Известные наборы данных