Изменения

Перейти к: навигация, поиск

Машинное обучение на мобильных телефонах

72 байта добавлено, 10:23, 20 января 2021
Запуск машинного обучения на мобильных телефонах
большие, они являются приемлемым вариантом для обучения или адаптации моделей к небольшим объемам данных, а также для развертывания предварительно построенных моделей глубокого обучения. Очевидным преимуществом развертывания глубокого обучения на CPU является то, в отличие от других типов вычислительных устройств ими оснащен любой современный телефон или планшет. Кроме того, эти устройства часто поставляются с мощными процессорами и имеют широкий выбор встроенных датчиков. Это означает отсутствие дополнительных затрат на аппаратное обеспечение и таким образом обеспечение большего количества приложений ИИ для потенциально огромного рынка. Real-time приложения быть развернуты могут быть развернуты на стандартном процессоре с минимальными затратами или без дополнительных усилий. Кроме того CPU в современных мобильных устройвах столь же мощны как и в компьютерах, что позволяет эффективно использовать их для данных целей.
[[Файл:CPU.jpeg|800px|thumb|center| Рисунок 1. CPU. [https://habr.com/ru/post/455353/ Источник]]]
=== GPU ===
[[Файл:GPU.jpeg|800px|thumb|center| Рисунок 2. GPU. [https://habr.com/ru/post/455353/ Источник]]]
=== FPGA ===
на GPU, DSP и FPGA. OpenCL можно рассматривать как open source версию [https://ru.wikipedia.org/wiki/CUDA CUDA].
[[Файл:FPGA.jpeg|800px|thumb|center| Рисунок 3. FPGA. [https://habr.com/ru/post/455353/ Источник]]]
=== ASIC и [https://en.wikipedia.org/wiki/Tensor_Processing_Unit TPU] ===
ASIC (Application-Specific Integrated Circuit) - интегральная схема конкретно под поставленную задачу. Примером можем служить интегральная схема реализующая необходимую нейросеть. За счёт этого, энергопотребление становится меньше, а скорость работы операций выше по сравнению с CPU, GPU и FPGA.Также, большинство вычислительных узлов может работать параллельно, только зависимости по данным и неравномерность вычислений на разных уровнях сети могут помешать постоянно задействовать все [https://en.wikipedia.org/wiki/Arithmetic_logic_unit ALU]. Самым большим недостатком является потеря настраиваемости сети, так как настрока параметров будет связана с изменением интегральной схемы. На текущее время, существует множество ASIC, разработанных для нейронных сетей, например TPU разработанная специально для нейросетевого машинного обучения Google.
[[Файл:ASIC.jpeg|800px|thumb|center| Рисунок 4. ASIC. [https://habr.com/ru/post/455353/ Источник]]]
=== Сравнение ===
Анонимный участник

Навигация