Изменения

Перейти к: навигация, поиск

Определение положения человека

70 байт добавлено, 20:18, 21 января 2021
Нет описания правки
{|align="left"
|-valign="top"
|[[file:InputSingle.jpg|200px|thumb| [http://sysu-hcp.net/lip/posechallenge.php Рис. Рисунок 1 Исходная картинка]]]|[[file:outputSingle.jpg|200px|thumb| [http://sysu-hcp.net/lip/posechallenge.php Рис. Рисунок 2 Результат работы алгоритма для одного человека]]]
|}
<br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br>
{|align="left"
|-valign="top"
|[[file:InputMulti.png|200px|thumb| [https://medium.com/beyondminds/an-overview-of-human-pose-estimation-with-deep-learning-d49eb656739b Рис. Рисунок 3 Исходная картинка с несколькими людьми]]]|[[file:InnerMulti.png|200px|thumb| [https://medium.com/beyondminds/an-overview-of-human-pose-estimation-with-deep-learning-d49eb656739b Рис. Рисунок 4 Промежуточный этап разделения людей]]]|[[file:OutputMulti.png|200px|thumb| [https://medium.com/beyondminds/an-overview-of-human-pose-estimation-with-deep-learning-d49eb656739b Рис. Рисунок 5 Итоговый результат работы алгоритма]]]
|}
{|align="left"
|-valign="top"
|[[file:challenging.png|300px|thumb| [https://arxiv.org/pdf/1312.4659.pdf Рис. Рисунок 6 Примеры результатов работы алгоритма]]]|[[file:Deepposeschema.PNG|800px|thumb| [https://arxiv.org/pdf/1312.4659.pdf Рис. Рисунок 7 Слева: схематичное изображение глубокой нейронной сети для регрессии. Мы визуализируем слои сети с соответствующими размерами, где сверточные слои {{---}} голубые, а полностью связные {{---}} зеленые. Параметр свободных слоёв не показан. <br>Справа: на шаге s, a уточняющий регрессор применяется на фрагменте изображения чтобы улучшить результат предыдущего шага]]]
|}
<br><br><br><br><br><br><br><br><br><br><br><br><br><br><br>
{|align="left"
|-valign="top"
|[[file:Deepcutexamle.png|400px|thumb| [https://arxiv.org/pdf/1511.06645.pdf Рис. Рисунок 8 (a) начальное определение возможных частей и попарных связей между всеми обнаруженными частями, которые (b) кластеризуются по принадлежности одному человеку (один цвет - один человек) и каждая часть помечается меткой соответствующего этой части класса (разные цвета и символы относятся к разным частям тела); (c) демонстрация результата.]]]
|}
<br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br><br>
{|align="left"
|-valign="top"
|[[file:Openpose.jpg|400px|thumb| [https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/README.md Рис. Рисунок 9 Примеры результатов работы алгоритма]]]|[[file:Openpose vs competition.png|400px|thumb| [https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/README.md Рис. Рисунок 10 Сравнение времени работы трех доступных библиотек, решающих задачу определения положения человека (в одинаковых условиях на одинаковом аппаратном обеспечении): OpenPose, Alpha-Pose (fast Pytorch version), и Mask R-CNN. Время исполнения OpenPose является константным, в то время как у Alpha-Pose и Mask R-CNN линейно растет с числом людей на исходных данных.]]]
|[[file:Openposeschema.png|400px|thumb| [https://arxiv.org/pdf/1611.08050.pdf Рис. 11 Архитектура многослойной CNN с двумя ветвями. Каждый слой в первой ветви предсказывает карту уверенности S^t, и каждый слой второй ветви предсказывает сходство фрагментов (англ. ''PAFs'') L^t. После каждого слоя, результаты каждой ветви, вместе с признаками изображения, объединяются для следующего слоя]]]
|}
Анонимный участник

Навигация