Машинное обучение на мобильных телефонах — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
м (Процессоры)
м (rollbackEdits.php mass rollback)
 
(не показано 189 промежуточных версий 7 участников)
Строка 1: Строка 1:
Задача Машинного обучения на мобильных телефонах {{---}} очень популярная область машинного обучения. Огромное количество мобильных приложений каким либо образом используют машинное обучение.
+
Машинное обучение, как известно, очень тесно связано с нашей жизнью, и во многих областях используются разные модели машинного обучения. Эти модели нужно где-то запускать и сохранять. Самый простой выход из ситуации {{---}} сервер, на котором будет находиться наша модель, и который будет принимать запросы. Однако, что, если мы находимся в глухом лесу и у нас нет доступа к Интернету? Что, если мы не хотим хранить свои данные на чужих серверах? У нас нет своих серверов для машинного обучения, но мобильные телефоны есть почти у каждого. Давайте рассмотрим машинное обучение на телефонах.
  
Соцсети, редакторы фото и видео, карты, игры и даже ваш плеер {{---}} все это использует машинное обучение.
+
== Задачи машинного обучения на телефонах ==
 +
 
 +
=== Кастомизация ===
 +
 
 +
{{main|Рекомендательные_системы}}
  
 +
Конечно же, самое первое, что может прийти в голову про применение машинного обучения на телефонах {{---}} это кастомизация. Подбор музыки, новостей, любого контента {{---}} все это достигается с помощью машинного обучения. Приложение получает ваши персональные данные и, используя данные старых пользователей, показывает вам то, что понравилось людям с наиболее подходящими данными. Однако такая работа связана с очень большими вычислениями, и, чаще всего, выполняется на сторонних серверах. Самая частая модель для классификации изображений {{---}} [[Сверточные нейронные сети|CNN]], однако порой такая классификация является излишней.
  
== Задачи машинного обучения на телефонах ==
+
Пример приложения:
 +
*Spotify
 +
*TikTok
  
=== Лаунчеры и кастомизации ===
+
=== Распознавание фото, текста и видео ===
  
Конечно же, самое первое, что может прийти в голову про применения машинного обучения на телефонах {{---}} это кастомизация. Подбор музыки, новостей, любого контента {{---}} все это достигается путем обучения машинного обучения. Приложение получает ваши персональные данные и, используя данные старых пользователей, показывает вам то, что понравилось людям с наиболее подходящими данными. Однако такая работа связана с очень большими вычислениями, и, чаще всего, выполняется на сторонних серверах.
+
{{main|Распознавание текста на изображении}}
 +
{{main|Компьютерное зрение}}
  
=== Распознавание фото и видео ===
+
Распознавание фото и видео на мобильных телефонах мало чем отличается от обычных компьютерных методов, только цели немного другие. Например, некоторые мобильные телефоны распознают владельца через Face ID с помощью фронтальной камеры. Есть приложения для определения возраста, пола.
  
 +
Если же рассмотреть распознавание текста, то и у него тоже есть большое количество применений {{---}} сканирование чеков, кредитные карты, документы, переводить в реальном времени иностранные слова.
  
 +
Существует несколько известных библиотек для работы с изображениями в мобильных приложениях: Tesseract<ref>[https://github.com/tesseract-ocr/tesseract Tesseract]</ref>, OpenCV<ref>[https://opencv.org/ OpenCV]</ref>, Mobile Vision Google<ref>[https://developers.google.com/vision Mobile Vision Google]</ref>, ML Kit<ref>[https://developers.google.com/ml-kit ML Kit]</ref>. Изображения легко передавать через сеть, так что можно обрабатывать их и на веб-серверах.
  
=== Распознавание текста ===
+
Пример приложения:
 +
*Google Lens
 +
*Pinterest
  
 
=== Распознавание звука ===
 
=== Распознавание звука ===
 +
 +
{{main|Распознавание речи}}
 +
 +
Распознавание звука и его парсинг тоже очень важная задача машинного обучения. Голосовые помощники, голосовой ввод, умные дома {{---}} все это нужно для нашей жизни.
 +
 +
Для распознавания речи есть библиотека pocketsphinx<ref>[https://github.com/cmusphinx/pocketsphinx pocketsphinx]</ref>
 +
 +
Пример приложения:
 +
*Shazam
 +
*Google Assistant
  
 
=== Анализ данных с сенсоров ===
 
=== Анализ данных с сенсоров ===
  
== Навигация ==
+
{| class="wikitable" style="width:50%;"
 +
! Приложение !! Датчик
 +
|-
 +
| rowspan="4" | Распознавание человеческой активности || Акселерометр
 +
|-
 +
| Гироскоп
 +
|-
 +
| Магнитометр
 +
|-
 +
| Монитор сердечного ритма
 +
|-
 +
| rowspan="2" | Распознавание жестов || Акселерометр
 +
|-
 +
| Гироскоп
 +
|-
 +
| rowspan="3" | Распознавание падений || Акселерометр
 +
|-
 +
| Гироскоп
 +
|-
 +
| Датчики близости
 +
|-
 +
| rowspan="2" | Распознавание аварий || Акселерометр
 +
|-
 +
| Приемник GPS
 +
|-
 +
| rowspan="5" | Распознавание условий окружающей среды || Датчик окружающего света
 +
|-
 +
| Датчик влажности
 +
|-
 +
| Термометр
 +
|-
 +
| Датчик давления
 +
|-
 +
| Приемник GPS
 +
|-
 +
| rowspan="4" | Распознавание стресса || Микрофон
 +
|-
 +
| Электрокардиограф
 +
|-
 +
| Монитор сердечного ритма
 +
|-
 +
| Датчик проводимости кожи
 +
|-
 +
| rowspan="5" | Распознавание эмоций || Микрофон
 +
|-
 +
| Камера
 +
|-
 +
| Электрокардиограф
 +
|-
 +
| Монитор сердечного ритма
 +
|-
 +
| Датчик проводимости кожи
 +
|}
 +
 
 +
Телефон получает данные об окружающем мире с помощью специальных датчиков и сенсоров. В мире их существует огромное количество, и, к сожалению, большинство из них работает недостаточно точно. Но это исправляет машинное обучение, уточняя данные с сенсоров. Это важно для людей с опасными для жизни болезнями, например, может произойти сердечный приступ, и процессор лучше любого человека скажет, что это он, и, считав местоположение с навигатора, вызовет скорую помощь в тот же момент.
 +
 
 +
Пример приложения:
 +
*Карты Google
 +
*Gravity Screen
 +
 
 +
=== Навигация ===
 +
 
 +
Навигационные приложения можно значительно улучшить, если интегрировать в них алгоритмы по распознаванию фото и видео. К примеру, если приложение подключается к камере в автомобиле, оно может анализировать ситуацию на дороге и предупреждать водителя в случае возможной опасности. Так можно распознавать пробки, дорожные знаки по ограничению скорости, агрессивное поведение окружающих водителей и другие характеристики дорожного движения.
 +
 
 +
Пример приложения:
 +
*Карты Google
 +
 
 +
== Запуск моделей машинного обучения на мобильных телефонах ==
 +
 
 +
Для запуска [[Глубокое_обучение|глубоких моделей]] необходимо наличием мощных вычислительных ресурсов и большого объема учебных данных. Поэтому построение модели может осуществляться с помощью высокопроизводительных центральных (англ. central processing unit, CPU<ref>[https://en.wikipedia.org/wiki/Central_processing_unit Central processing unit]</ref>) и графических (англ. graphics processing unit, GPU<ref>[https://en.wikipedia.org/wiki/Graphics_processing_unit Graphics processing unit]</ref>) процессоров, а после построения ее можно запустить на мобильном устройстве с гораздо меньшей вычислительной мощностью на CPU, интегральных схемах специального назначения (англ.  [https://en.wikipedia.org/wiki/Application-specific_integrated_circuit Application specific integrated circuit, ASIC]), программируемых пользователем вентильных матриц (англ. [https://en.wikipedia.org/wiki/Field-programmable_gate_array Field programmable gate array, FPGA]) или мобильных GPU. На рисунках 1-4 представлены модели взаимодействия с соответcтвующими вычислительными устройствами.
 +
 
 +
 
 +
=== CPU ===
 +
 
 +
Хотя процессоры могут быть неудачным решением для построения современных моделей глубокого обучения, когда учебные данные очень
 +
большие, они являются приемлемым вариантом для обучения или адаптации моделей к небольшим объемам данных, а также для развертывания предварительно построенных моделей глубокого обучения. Очевидным преимуществом развертывания глубокого обучения на CPU является то, в отличие от других типов вычислительных устройств ими оснащен любой современный телефон или планшет. Кроме того, мобильные устройства часто поставляются с мощными процессорами и имеют широкий выбор встроенных датчиков.  Это означает отсутствие дополнительных затрат на аппаратное обеспечение и таким образом обеспечение большего количества приложений ИИ для потенциально огромного рынка. Real-time приложения могут быть развернуты на стандартном процессоре с минимальными затратами или без дополнительных усилий. Кроме того CPU в современных мобильных устройствах столь же мощны, как и в компьютерах, что позволяет эффективно использовать их для данных целей.
 +
 
 +
[[Файл:CPU.jpeg|800px|thumb|center| Рисунок 1. CPU. [https://habr.com/ru/post/455353/ Источник]]]
 +
 
 +
=== GPU ===
 +
GPU {{---}} графический процессор, который по своему устройству является процессором с несколькими тысячами маленьких ядер. За счет этого достигается большая степень параллельности, что позволяет производить на GPU более эффективные вычисления с матрицами и тензорами, нежели на CPU. На данный момент существует множество мобильных GPU от разных производителей, например одной из самых заметных систем смартфонов на чипе (SoC) является чип Qualcomm Snapdragon.
 +
 
 +
 
 +
[[Файл:GPU.jpeg|800px|thumb|center| Рисунок 2. GPU. [https://habr.com/ru/post/455353/ Источник]]]
 +
 
 +
=== FPGA ===
 +
В то время как CPU создан для вычислений общего назначения, а ASIC сделана исключительно для
 +
специфических вычислений, FPGA находится между ними. FPGA могут быть (повторно) запрограммированы ("перепрошиты") для эффективного выполнения многих специфических задач. На базовом уровне FPGA используют [https://en.wikipedia.org/wiki/Flip-flop_(electronics) схемы flip-flop] для реализации последовательных логических функций и поиска таблиц. Логические функции реализуются посредством программируемой памяти,
 +
которая также контролирует соединения коммутационных цепей, таким образом, FPGA не нужно явно выполнять логическую операцию после того, как она
 +
запрограммирована.  Современные FPGA, как правило, используют SoC подход для интеграции ядра процесса, коммуникационного ядра, и
 +
память на одной микросхеме. FPGA вендоры, такие как [https://en.wikipedia.org/wiki/Xilinx Xilinx] и [https://en.wikipedia.org/wiki/Altera Altera], создали множество программного обеспечения для облегчения программирования на FPGA. В то время как
 +
традиционное программирование для FPGA требует знаний о цифровых схемах и языка описания оборудования (HDL), сейчас оно движется в сторону создания схем высокого уровня (HLS). Существует пять основных категорий инструментов HLS,
 +
но для мобильного глубокого обучения наиболее актуален фреймворк параллельных вычислений [https://ru.wikipedia.org/wiki/OpenCL OpenCL]. OpenCL {{---}} это язык основанный на C
 +
и являющийся открытой, стандартизированной основой для ускорения алгоритмов. Программы, написанные на OpenCL, могут быть выполнены
 +
на GPU, DSP и FPGA. OpenCL можно рассматривать как open source версию [https://ru.wikipedia.org/wiki/CUDA CUDA].
 +
 
 +
[[Файл:FPGA.jpeg|800px|thumb|center| Рисунок 3. FPGA. [https://habr.com/ru/post/455353/ Источник]]]
 +
 
 +
=== ASIC и TPU ===
 +
 
 +
 
 +
ASIC {{---}} интегральная схема конкретно под поставленную задачу. Примером можем служить интегральная схема реализующая необходимую нейросеть. За счёт этого, энергопотребление становится меньше, а скорость работы операций выше по сравнению с CPU, GPU и FPGA. Также, большинство вычислительных узлов может работать параллельно, только зависимости по данным и неравномерность вычислений на разных уровнях сети могут помешать постоянно задействовать все [https://en.wikipedia.org/wiki/Arithmetic_logic_unit ALU]. Самым большим недостатком является потеря настраиваемости сети, так как настрока параметров будет связана с изменением интегральной схемы. На текущее время, существует множество ASIC, разработанных для нейронных сетей, например [https://en.wikipedia.org/wiki/Tensor_Processing_Unit TPU] разработанная Google специально для нейросетевого машинного обучения.
 +
 
 +
[[Файл:ASIC.jpeg|800px|thumb|center| Рисунок 4. ASIC. [https://habr.com/ru/post/455353/ Источник]]]
 +
 
 +
=== Сравнение ===
 +
 
 +
Как упоминалось в предыдущих подразделах, CPU и GPU являются вычислительными платформами общего назначения, предлагая таким образом
 +
большую гибкость. Начальное алгоритмическое обучение модели должно использовать CPU и
 +
GPU для получения предварительного представления о достижимой производительности. CPU и GPU поддерживают вычисления с полной точностью и могут
 +
быть использованы для моделей с интенсивными вычислениями, что часто означает более высокую точность прогнозирования. Однако, GPU и
 +
CPU более энергозатратны. ASIC могут быть гораздо более энергоэффективными, так как аппаратное обеспечение изготовлено специально для
 +
некоторых вычислений. Тем не менее, проектирование и разработка микросхем ASIC может занять очень много времени. Таким образом, ASIC используется только тогда, когда модель фиксирована и требуются низкие затраты энергии. FPGA предлагает компромисс между энергопотреблением, точностью прогнозирования и скоростью разработки системы.
 +
 
 +
== Вес современных нейронных сетей ==
 +
 
 +
В нынешних реалиях глубокие нейронные сети могут весить порядка сотен мегабайт, в то же время современные фреймворки, например, MobileNet позволяют строить нейросети значительно меньшего размера при небольшой потере точности, такие сети отлично подходят для мобильных устройств. Результаты использования MobileNet приведены в сравнении с другими нейросетями приведены в таблице ниже.
 +
 
 +
{| class="wikitable" style="width=50%"
 +
! Модель || Размер входа || Размер параметров || Размер признаков || Метод || Флопс || Тип модели || Набор данных
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/rfcn-res50-pascal.md rfcn-res50-pascal] || 600 x 850 || 122 MB || 1 GB || [https://arxiv.org/abs/1605.06409 r-fcn] || 79 GFLOPS || [https://arxiv.org/abs/1512.03385 resnet50] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/rfcn-res101-pascal.md rfcn-res101-pascal] || 600 x 850 || 194 MB || 2 GB || [https://arxiv.org/abs/1605.06409 r-fcn] || 117 GFLOPS || [https://arxiv.org/abs/1512.03385 resnet101] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/ssd-pascal-vggvd-300.md ssd-pascal-vggvd-300] || 300 x 300 || 100 MB || 116 MB || [https://link.springer.com/chapter/10.1007%2F978-3-319-46448-0_2 ssd] || 31 GFLOPS || [https://arxiv.org/abs/1409.1556 vvgd] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/ssd-pascal-vggvd-512.md ssd-pascal-vggvd-512] || 512 x 512 || 104 MB || 337 MB || [https://link.springer.com/chapter/10.1007%2F978-3-319-46448-0_2 ssd] || 91 GFLOPS || [https://arxiv.org/abs/1409.1556 vvgd] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/ssd-pascal-mobilenet-ft.md ssd-pascal-mobilenet-ft] || 300 x 300 || 22 MB || 37 MB || [https://link.springer.com/chapter/10.1007%2F978-3-319-46448-0_2 ssd] || 1 GFLOPS ||  [https://arxiv.org/abs/1704.04861 mobilenets] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
| [https://github.com/albanie/convnet-burden/blob/master/reports/faster-rcnn-vggvd-pascal.md aster-rcnn-vggvd-pascal] || 600 x 850 || 523 MB || 600 MB || [http://papers.nips.cc/paper/5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks faster-rcnn] || 172 GFLOPS || [https://arxiv.org/abs/1409.1556 vvgd] || [http://host.robots.ox.ac.uk/pascal/VOC/ pascal VOC]
 +
|-
 +
|}
  
 
== Процессоры ==
 
== Процессоры ==
  
  
Из-за медлительности телефонов развитие машинного обучения на телефонах началось совсем недавно. Раньше все данные хранились на серверах компаний, и, с точки зрения безопасности, это было плохо. Однако теперь IT-гиганты, такие, как Google, переходят на модель [https://ai.googleblog.com/2017/04/federated-learning-collaborative.html федеративное обучение]. Понятно, что обычный телефон не может себе позволить обучаться на тяжелых моделях, таких как, например, нейронные сети. Однако существуют модели, которые потребляют очень малое количество памяти и времени на обучение. В основном именно они используются, когда нет соединения с сервером.
+
Из-за медлительности телефонов развитие машинного обучения на них началось совсем недавно. Раньше все данные хранились на серверах компаний, [[Модель_алгоритма_и_её_выбор|выбор модели]] был очень широк, и, с точки зрения безопасности, это было плохо. Однако теперь IT-гиганты, такие, как Google, переходят на модель федеративного обучения<ref>[https://ai.googleblog.com/2017/04/federated-learning-collaborative.html Федеративное обучение]</ref>. Понятно, что обычный телефон не может себе позволить обучаться на моделях, которые потребляют много ресурсов, таких как, например, нейронные сети. Однако существуют модели, которые потребляют очень малое количество памяти и времени на обучение. В основном именно они используются, когда нет соединения с сервером.
  
 
Однако машинное обучение стало настолько актуальным, что производители процессоров задумались о том, что бы создавать процессоры, некоторые чипы которых заточены под задачи машинного обучения.
 
Однако машинное обучение стало настолько актуальным, что производители процессоров задумались о том, что бы создавать процессоры, некоторые чипы которых заточены под задачи машинного обучения.
  
Примерами являются такие процессоры как:
+
[http://ai-benchmark.com/ranking_processors.html Существует огромное число] процессоров для огромного числа задач, начиная от [[Линейная_регрессия|задачи линейной регрессии]] до [[Глубокое_обучение|задач глубокого обучения]].
 +
 
 +
Вот примеры таких процессоров {{---}} Qualcomm Neural Processing SDK<ref>[https://developer.qualcomm.com/software/qualcomm-neural-processing-sdk Qualcomm Neural Processing SDK]</ref>, Huawei Ai<ref>[https://developer.huawei.com/consumer/en/doc/2020314 Huawei Ai]</ref>, NeuroPilot SDK<ref>[https://www.mediatek.com/innovations/artificial-intelligence NeuroPilot SDK]</ref>, CoreML SDK<ref>[https://developer.apple.com/documentation/coreml CoreML SDK]</ref>
 +
 
 +
=== Qualcomm Neural Processing SDK ===
 +
 
 +
Этот процессор заточен под работу с аудио и видео: [[Распознавание_речи|распознавание речи]], обработку изображений, очистку картинки от шума и подобное.
 +
 
 +
{| class="wikitable" style="float:right; margin-left:0.8em; clear:right;"
 +
! Область применения || Пример использования
 +
|-
 +
| Генератор текста || Преобразование данных в текст
 +
|-
 +
| Распознавание речи || Голосовые системы
 +
|-
 +
| Чат-боты || Программы, способные общаться с людьми
 +
|-
 +
| Биометрика || Идентификация и анализ здоровья людей
 +
|-
 +
| Обработка естественного языка || Понимание структуры и значения фраз
 +
|-
 +
| Распознавание эмоций || Считывание информации с лица
 +
|-
 +
| Распознавание изображений || Подсчет числа обьектов на картинке
 +
|-
 +
|}
 +
 
 +
Разработчики данного процессора делают упор на сверточные сети, однако там встречаются почти все известные модели машинного обучения. Обеспечивает аппаратное ускорение ML-моделей на связке DSP + GPU + CPU для Snapdragon чипов. Далее приведен листинг на языке C++, который принимает объект класса выборки, преобразует их в модель и сохраняет их в файл:
 +
#include "zdl.h"
 +
 +
void executeNetwork(std::unique_ptr<zdl::SNPE::SNPE>& snpe,
 +
                    std::unique_ptr<zdl::DlSystem::ITensor>& input,
 +
                    std::string OutputDir,
 +
                    int num)
 +
  {
 +
      static zdl::DlSystem::TensorMap outputTensorMap;
 +
      snpe->execute(input.get(), outputTensorMap);
 +
      zdl::DlSystem::StringList tensorNames = outputTensorMap.getTensorNames();
 +
      <font color="green">//Проходимся по всем объектам и выводим их имена</font>
 +
      std::for_each( tensorNames.begin(), tensorNames.end(), [&](const char* name)
 +
      {
 +
          std::ostringstream path;
 +
          path << OutputDir << "/"
 +
          << "Result_" << num << "/"
 +
          << name << ".raw";
 +
          auto tensorPtr = outputTensorMap.getTensor(name);
 +
          SaveITensor(path.str(), tensorPtr);
 +
      });
 +
  }
 +
  void SaveITensor(const std::string& path, const zdl::DlSystem::ITensor* tensor)
 +
  {
 +
    ...
 +
    std::ofstream os(path, std::ofstream::binary);
 +
    if (!os)
 +
    {
 +
        std::cerr << "Failed to open output file for writing: " << path << "\n";
 +
        std::exit(EXIT_FAILURE);
 +
    }
 +
    for ( auto it = tensor->cbegin(); it != tensor->cend(); ++it )
 +
    {
 +
        float f = *it;
 +
        if (!os.write(reinterpret_cast<char*>(&f), sizeof(float)))
 +
        {
 +
          std::cerr << "Failed to write data to: " << path << "\n";
 +
          std::exit(EXIT_FAILURE);
 +
        }
 +
    }
 +
  }
 +
 
 +
===Huawei Ai===
 +
 
 +
Этот процессор заточен под [[Компьютерное_зрение|компьютерное зрение]], распознавание речи и [[Обработка_естественного_языка|интерпретацию естественного языка]].
 +
 
 +
Как можно заметить по картинке, здесь нет никакого обучения, мы берем уже обученную модель и пользуемся ею. Огромное количество классов, предназначенных для различных задач. HiAI SDK дает доступ к заточенному под операции над матрицами NPU. Таким образом, оптимизируются нейронные сети, которые используют матрицы.
 +
 
 +
Пример кода на Java, распознающего, одинаковые ли люди изображены на картинке.
 +
 
 +
import com.huawei.hiai.vision.face.FaceComparator;// Класс для сравнивания лиц
 +
import com.huawei.hiai.vision.visionkit.face.FaceCompareResult;// Класс результата сравнивания лиц
 +
 +
if (!AiEngineMgr.isAsync) {
 +
    resultCode = mFaceComparator.faceCompare(image1, image2, mFaceCompareResult, null);
 +
} else {
 +
    mFaceComparator.faceCompare(image1, image2, null,
 +
        new VisionCallback<FaceCompareResult>() {
 +
            @Override
 +
            public void onResult(FaceCompareResult faceCompareResult){
 +
                mFaceCompareResult = faceCompareResult;
 +
                resultCode = 0;
 +
            }
 +
 
 +
            @Override
 +
            public void onError(int i){
 +
                resultCode = i;
 +
                HopeCVLog.d(temp_Log,"onError: "+i);
 +
            }
 +
 
 +
            @Override
 +
            public void onProcessing(float v){
 +
            }
 +
        });
 +
}
 +
try {
 +
    Float confidence = mFaceCompareResult.isSamePerson();
 +
    boolean samePerson = mFaceCompareResult.getSocre();
 +
} catch (Exception e) {
 +
    e.printStackTrace();
 +
}
 +
 
 +
===NeuroPilot SDK===
 +
 
 +
Процессор заточен под [[Определение_положения_человека|отслеживание поз множества людей]], [[Задача_нахождения_объектов_на_изображении|идентификацию множества объектов]], [https://www.kdnuggets.com/2018/10/semantic-segmentation-wiki-applications-resources.html семантическую сегментацию], [[Сегментация_изображений|обработку изображений]]. NeuroPilot SDK позволяет решать ML-задачи с помощью APU + GPU. APU заточен под модели глубоких нейронных сетей. Обеспечивает аппаратное ускорение для [[Сверточные_нейронные_сети|свертки]], полносвязных нейронных сетей (то есть [[Практики_реализации_нейронных_сетей|нейронных сетей без дропаута]]), функции активации.
 +
 
 +
У данной разработки есть три пути развития:
 +
* чип NeuroPilot Micro, представляющий собой микрокомпьютер, оптимизированный под задачи машинного обучения. Его возможности ограничены $10^6$ операциями, мегабайтами памяти. В качестве такого чипа так же можно использовать обычные схематические конструкторы, такие как Arduino<ref>[https://www.arduino.cc Arduino]</ref> (конечно же, их скорость будет ниже на порядок).
 +
* телефон или телефонный чип, на который загружено специальное ПО. Возможности ограничены примерно $10^8 - 10^9$ операциями и гигабайтами памяти.
 +
* удаленное серверное управление. [https://neuropilot.mediatek.com/resources/public/2.0/en/docs/npu_introduction По словам авторов], количество операций и памяти почти безграничны.
 +
 
 +
В своем основании использует TFLite модели, лучше всего подходит TensorFlow и Keras. Можно писать программы прямо на нем, они будут успешно оптимизироваться.
 +
 
 +
===CoreML SDK===
 +
 
 +
[[Файл:Mobile_Phone_Machine_learning_MLModel_Training.png|300px|thumb|left|Рисунок 5. MLModel. [https://developer.apple.com/documentation/createml/creating_an_image_classifier_model Источник]]]
 +
[[Файл:Mobile_Phone_Machine_learning_MLModel_Training_Program.png|600px|thumb|right|Рисунок 6. Работа в программе. [https://developer.apple.com/documentation/createml/creating_an_image_classifier_model Источник]]]
 +
 
 +
Создан для [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F#:~:text=%D0%9A%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F%20%E2%80%94%20%D0%BE%D0%B4%D0%B8%D0%BD%20%D0%B8%D0%B7%20%D1%80%D0%B0%D0%B7%D0%B4%D0%B5%D0%BB%D0%BE%D0%B2%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE,%D0%AD%D1%82%D0%BE%20%D0%BC%D0%BD%D0%BE%D0%B6%D0%B5%D1%81%D1%82%D0%B2%D0%BE%20%D0%BD%D0%B0%D0%B7%D1%8B%D0%B2%D0%B0%D0%B5%D1%82%D1%81%D1%8F%20%D0%BE%D0%B1%D1%83%D1%87%D0%B0%D1%8E%D1%89%D0%B5%D0%B9%20%D0%B2%D1%8B%D0%B1%D0%BE%D1%80%D0%BA%D0%BE%D0%B9 классификации объектов], звуков, движений, текста, табличных данных, обладает [http://neerc.ifmo.ru/wiki/index.php?title=%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B рекомендательной системой]. Работает на NPU. [https://developer.apple.com/documentation/createml/creating_an_image_classifier_model Пример использования для картинок].
 +
 
 +
Данное программное обеспечение сильно разделено. У нас есть специальная MLModel, которая изначально принимает изображения, и сохраняет их в компактном виде, сохраняя там же уже натренированную сеть (см. рисунок 5).
 +
Затем данный пакет передается уже программе, и она обрабатывает его. Пример кода на Swift:
 +
 
 +
 
 +
 
 +
 
 +
import UIKit
 +
import CoreML
 +
import Vision
 +
import ImageIO
 +
DispatchQueue.main.async {
 +
    guard let results = request.results else {
 +
        self.classificationLabel.text = "Unable to classify image.\n\(error!.localizedDescription)"
 +
        return
 +
    }
 +
    let classifications = results as! [VNClassificationObservation]
 +
    if classifications.isEmpty {
 +
        self.classificationLabel.text = "Nothing recognized."
 +
    } else {
 +
        <font color="green">// Display top classifications ranked by confidence in the UI.</font>
 +
        let topClassifications = classifications.prefix(2)
 +
        let descriptions = topClassifications.map { classification in
 +
            // Formats the classification for display; e.g. "(0.37) cliff, drop, drop-off".
 +
          return String(format: "  (%.2f) %@", classification.confidence, classification.identifier)
 +
        }
 +
        self.classificationLabel.text = "Classification:\n" + descriptions.joined(separator: "\n")
 +
    }
 +
}
 +
 
 +
Для работы с кодом и результатами у Apple есть рекомендуется программа XCode (пример работы см. рисунок 6)
 +
 
 +
==См. также==
 +
 
 +
* [[Машинное_обучение_в_медицине|Машинное обучение в медицине]]
 +
* [[Модель_алгоритма_и_её_выбор|Модель алгоритма и её выбор]]
 +
* [[Глубокое_обучение|Глубокое обучение]]
 +
* [[Распознавание_речи|Распознавание речи]]
 +
* [[Компьютерное_зрение|Компьютерное зрение]]
 +
 
 +
==Примечания==
 +
 
 +
[[Категория: Машинное обучение]] [[Категория: Мобильная разработка]]
  
* [https://developer.qualcomm.com/software/qualcomm-neural-processing-sdk Qualcomm Neural Processing SDK]. Этот процессор заточен под работу с аудио и видео: распознавание речи, умная камера, отчистка картинки от шума и подобное
+
==Источники информации==
* [https://developer.huawei.com/consumer/en/doc/2020314 Huawei Ai]. Этот процессор заточен под компьютерное зрение, распознавание речи и интерпретацию естественного языка
+
# [https://www.azoft.ru/blog/primenenie-mashinnogo-obucheniya-v-mobilnyh-prilozheniyah/ azoft.ru] - о применении машинного обучения.
 +
# [https://habr.com/ru/company/dataart/blog/500956/ habr.com] - железо и процессоры.
 +
# [https://www.researchgate.net/publication/331533064_Deep_Learning_on_Mobile_Devices-A_Review researchgate.net] - Deep Learning on Mobile Devices, Yunbin Deng
 +
# [https://habr.com/ru/post/455353/ habr.com] - аппаратное ускорение нейронных сетей
 +
# [https://habr.com/ru/company/mobileup/blog/332500/ habr.com] - краткий обзор и пример на CoreML.
 +
# [https://habr.com/ru/post/345268/ habr.com] - распознавание изображений.
 +
# [https://habr.com/ru/company/yoomoney/blog/461867/ habr.com] - использование ML Kit.
 +
# [https://habr.com/ru/post/237589/ habr.com] - использование Pocketsphinx.
 +
# [https://www.osp.ru/os/2017/03/13052701 osp.ru] - глубинный анализ данных с сенсоров.

Текущая версия на 19:43, 4 сентября 2022

Машинное обучение, как известно, очень тесно связано с нашей жизнью, и во многих областях используются разные модели машинного обучения. Эти модели нужно где-то запускать и сохранять. Самый простой выход из ситуации — сервер, на котором будет находиться наша модель, и который будет принимать запросы. Однако, что, если мы находимся в глухом лесу и у нас нет доступа к Интернету? Что, если мы не хотим хранить свои данные на чужих серверах? У нас нет своих серверов для машинного обучения, но мобильные телефоны есть почти у каждого. Давайте рассмотрим машинное обучение на телефонах.

Задачи машинного обучения на телефонах

Кастомизация

Конечно же, самое первое, что может прийти в голову про применение машинного обучения на телефонах — это кастомизация. Подбор музыки, новостей, любого контента — все это достигается с помощью машинного обучения. Приложение получает ваши персональные данные и, используя данные старых пользователей, показывает вам то, что понравилось людям с наиболее подходящими данными. Однако такая работа связана с очень большими вычислениями, и, чаще всего, выполняется на сторонних серверах. Самая частая модель для классификации изображений — CNN, однако порой такая классификация является излишней.

Пример приложения:

  • Spotify
  • TikTok

Распознавание фото, текста и видео

Основная статья: Компьютерное зрение

Распознавание фото и видео на мобильных телефонах мало чем отличается от обычных компьютерных методов, только цели немного другие. Например, некоторые мобильные телефоны распознают владельца через Face ID с помощью фронтальной камеры. Есть приложения для определения возраста, пола.

Если же рассмотреть распознавание текста, то и у него тоже есть большое количество применений — сканирование чеков, кредитные карты, документы, переводить в реальном времени иностранные слова.

Существует несколько известных библиотек для работы с изображениями в мобильных приложениях: Tesseract[1], OpenCV[2], Mobile Vision Google[3], ML Kit[4]. Изображения легко передавать через сеть, так что можно обрабатывать их и на веб-серверах.

Пример приложения:

  • Google Lens
  • Pinterest

Распознавание звука

Основная статья: Распознавание речи

Распознавание звука и его парсинг тоже очень важная задача машинного обучения. Голосовые помощники, голосовой ввод, умные дома — все это нужно для нашей жизни.

Для распознавания речи есть библиотека pocketsphinx[5]

Пример приложения:

  • Shazam
  • Google Assistant

Анализ данных с сенсоров

Приложение Датчик
Распознавание человеческой активности Акселерометр
Гироскоп
Магнитометр
Монитор сердечного ритма
Распознавание жестов Акселерометр
Гироскоп
Распознавание падений Акселерометр
Гироскоп
Датчики близости
Распознавание аварий Акселерометр
Приемник GPS
Распознавание условий окружающей среды Датчик окружающего света
Датчик влажности
Термометр
Датчик давления
Приемник GPS
Распознавание стресса Микрофон
Электрокардиограф
Монитор сердечного ритма
Датчик проводимости кожи
Распознавание эмоций Микрофон
Камера
Электрокардиограф
Монитор сердечного ритма
Датчик проводимости кожи

Телефон получает данные об окружающем мире с помощью специальных датчиков и сенсоров. В мире их существует огромное количество, и, к сожалению, большинство из них работает недостаточно точно. Но это исправляет машинное обучение, уточняя данные с сенсоров. Это важно для людей с опасными для жизни болезнями, например, может произойти сердечный приступ, и процессор лучше любого человека скажет, что это он, и, считав местоположение с навигатора, вызовет скорую помощь в тот же момент.

Пример приложения:

  • Карты Google
  • Gravity Screen

Навигация

Навигационные приложения можно значительно улучшить, если интегрировать в них алгоритмы по распознаванию фото и видео. К примеру, если приложение подключается к камере в автомобиле, оно может анализировать ситуацию на дороге и предупреждать водителя в случае возможной опасности. Так можно распознавать пробки, дорожные знаки по ограничению скорости, агрессивное поведение окружающих водителей и другие характеристики дорожного движения.

Пример приложения:

  • Карты Google

Запуск моделей машинного обучения на мобильных телефонах

Для запуска глубоких моделей необходимо наличием мощных вычислительных ресурсов и большого объема учебных данных. Поэтому построение модели может осуществляться с помощью высокопроизводительных центральных (англ. central processing unit, CPU[6]) и графических (англ. graphics processing unit, GPU[7]) процессоров, а после построения ее можно запустить на мобильном устройстве с гораздо меньшей вычислительной мощностью на CPU, интегральных схемах специального назначения (англ. Application specific integrated circuit, ASIC), программируемых пользователем вентильных матриц (англ. Field programmable gate array, FPGA) или мобильных GPU. На рисунках 1-4 представлены модели взаимодействия с соответcтвующими вычислительными устройствами.


CPU

Хотя процессоры могут быть неудачным решением для построения современных моделей глубокого обучения, когда учебные данные очень большие, они являются приемлемым вариантом для обучения или адаптации моделей к небольшим объемам данных, а также для развертывания предварительно построенных моделей глубокого обучения. Очевидным преимуществом развертывания глубокого обучения на CPU является то, в отличие от других типов вычислительных устройств ими оснащен любой современный телефон или планшет. Кроме того, мобильные устройства часто поставляются с мощными процессорами и имеют широкий выбор встроенных датчиков. Это означает отсутствие дополнительных затрат на аппаратное обеспечение и таким образом обеспечение большего количества приложений ИИ для потенциально огромного рынка. Real-time приложения могут быть развернуты на стандартном процессоре с минимальными затратами или без дополнительных усилий. Кроме того CPU в современных мобильных устройствах столь же мощны, как и в компьютерах, что позволяет эффективно использовать их для данных целей.

Рисунок 1. CPU. Источник

GPU

GPU — графический процессор, который по своему устройству является процессором с несколькими тысячами маленьких ядер. За счет этого достигается большая степень параллельности, что позволяет производить на GPU более эффективные вычисления с матрицами и тензорами, нежели на CPU. На данный момент существует множество мобильных GPU от разных производителей, например одной из самых заметных систем смартфонов на чипе (SoC) является чип Qualcomm Snapdragon.


Рисунок 2. GPU. Источник

FPGA

В то время как CPU создан для вычислений общего назначения, а ASIC сделана исключительно для специфических вычислений, FPGA находится между ними. FPGA могут быть (повторно) запрограммированы ("перепрошиты") для эффективного выполнения многих специфических задач. На базовом уровне FPGA используют схемы flip-flop для реализации последовательных логических функций и поиска таблиц. Логические функции реализуются посредством программируемой памяти, которая также контролирует соединения коммутационных цепей, таким образом, FPGA не нужно явно выполнять логическую операцию после того, как она запрограммирована. Современные FPGA, как правило, используют SoC подход для интеграции ядра процесса, коммуникационного ядра, и память на одной микросхеме. FPGA вендоры, такие как Xilinx и Altera, создали множество программного обеспечения для облегчения программирования на FPGA. В то время как традиционное программирование для FPGA требует знаний о цифровых схемах и языка описания оборудования (HDL), сейчас оно движется в сторону создания схем высокого уровня (HLS). Существует пять основных категорий инструментов HLS, но для мобильного глубокого обучения наиболее актуален фреймворк параллельных вычислений OpenCL. OpenCL — это язык основанный на C и являющийся открытой, стандартизированной основой для ускорения алгоритмов. Программы, написанные на OpenCL, могут быть выполнены на GPU, DSP и FPGA. OpenCL можно рассматривать как open source версию CUDA.

Рисунок 3. FPGA. Источник

ASIC и TPU

ASIC — интегральная схема конкретно под поставленную задачу. Примером можем служить интегральная схема реализующая необходимую нейросеть. За счёт этого, энергопотребление становится меньше, а скорость работы операций выше по сравнению с CPU, GPU и FPGA. Также, большинство вычислительных узлов может работать параллельно, только зависимости по данным и неравномерность вычислений на разных уровнях сети могут помешать постоянно задействовать все ALU. Самым большим недостатком является потеря настраиваемости сети, так как настрока параметров будет связана с изменением интегральной схемы. На текущее время, существует множество ASIC, разработанных для нейронных сетей, например TPU разработанная Google специально для нейросетевого машинного обучения.

Рисунок 4. ASIC. Источник

Сравнение

Как упоминалось в предыдущих подразделах, CPU и GPU являются вычислительными платформами общего назначения, предлагая таким образом большую гибкость. Начальное алгоритмическое обучение модели должно использовать CPU и GPU для получения предварительного представления о достижимой производительности. CPU и GPU поддерживают вычисления с полной точностью и могут быть использованы для моделей с интенсивными вычислениями, что часто означает более высокую точность прогнозирования. Однако, GPU и CPU более энергозатратны. ASIC могут быть гораздо более энергоэффективными, так как аппаратное обеспечение изготовлено специально для некоторых вычислений. Тем не менее, проектирование и разработка микросхем ASIC может занять очень много времени. Таким образом, ASIC используется только тогда, когда модель фиксирована и требуются низкие затраты энергии. FPGA предлагает компромисс между энергопотреблением, точностью прогнозирования и скоростью разработки системы.

Вес современных нейронных сетей

В нынешних реалиях глубокие нейронные сети могут весить порядка сотен мегабайт, в то же время современные фреймворки, например, MobileNet позволяют строить нейросети значительно меньшего размера при небольшой потере точности, такие сети отлично подходят для мобильных устройств. Результаты использования MobileNet приведены в сравнении с другими нейросетями приведены в таблице ниже.

Модель Размер входа Размер параметров Размер признаков Метод Флопс Тип модели Набор данных
rfcn-res50-pascal 600 x 850 122 MB 1 GB r-fcn 79 GFLOPS resnet50 pascal VOC
rfcn-res101-pascal 600 x 850 194 MB 2 GB r-fcn 117 GFLOPS resnet101 pascal VOC
ssd-pascal-vggvd-300 300 x 300 100 MB 116 MB ssd 31 GFLOPS vvgd pascal VOC
ssd-pascal-vggvd-512 512 x 512 104 MB 337 MB ssd 91 GFLOPS vvgd pascal VOC
ssd-pascal-mobilenet-ft 300 x 300 22 MB 37 MB ssd 1 GFLOPS mobilenets pascal VOC
aster-rcnn-vggvd-pascal 600 x 850 523 MB 600 MB faster-rcnn 172 GFLOPS vvgd pascal VOC

Процессоры

Из-за медлительности телефонов развитие машинного обучения на них началось совсем недавно. Раньше все данные хранились на серверах компаний, выбор модели был очень широк, и, с точки зрения безопасности, это было плохо. Однако теперь IT-гиганты, такие, как Google, переходят на модель федеративного обучения[8]. Понятно, что обычный телефон не может себе позволить обучаться на моделях, которые потребляют много ресурсов, таких как, например, нейронные сети. Однако существуют модели, которые потребляют очень малое количество памяти и времени на обучение. В основном именно они используются, когда нет соединения с сервером.

Однако машинное обучение стало настолько актуальным, что производители процессоров задумались о том, что бы создавать процессоры, некоторые чипы которых заточены под задачи машинного обучения.

Существует огромное число процессоров для огромного числа задач, начиная от задачи линейной регрессии до задач глубокого обучения.

Вот примеры таких процессоров — Qualcomm Neural Processing SDK[9], Huawei Ai[10], NeuroPilot SDK[11], CoreML SDK[12]

Qualcomm Neural Processing SDK

Этот процессор заточен под работу с аудио и видео: распознавание речи, обработку изображений, очистку картинки от шума и подобное.

Область применения Пример использования
Генератор текста Преобразование данных в текст
Распознавание речи Голосовые системы
Чат-боты Программы, способные общаться с людьми
Биометрика Идентификация и анализ здоровья людей
Обработка естественного языка Понимание структуры и значения фраз
Распознавание эмоций Считывание информации с лица
Распознавание изображений Подсчет числа обьектов на картинке

Разработчики данного процессора делают упор на сверточные сети, однако там встречаются почти все известные модели машинного обучения. Обеспечивает аппаратное ускорение ML-моделей на связке DSP + GPU + CPU для Snapdragon чипов. Далее приведен листинг на языке C++, который принимает объект класса выборки, преобразует их в модель и сохраняет их в файл:

#include "zdl.h"

void executeNetwork(std::unique_ptr<zdl::SNPE::SNPE>& snpe,
                   std::unique_ptr<zdl::DlSystem::ITensor>& input,
                   std::string OutputDir,
                   int num)
  {
     static zdl::DlSystem::TensorMap outputTensorMap;
     snpe->execute(input.get(), outputTensorMap);
     zdl::DlSystem::StringList tensorNames = outputTensorMap.getTensorNames();
     //Проходимся по всем объектам и выводим их имена
     std::for_each( tensorNames.begin(), tensorNames.end(), [&](const char* name)
     {
         std::ostringstream path;
         path << OutputDir << "/"
         << "Result_" << num << "/"
         << name << ".raw";
         auto tensorPtr = outputTensorMap.getTensor(name);
         SaveITensor(path.str(), tensorPtr);
     });
 }
 void SaveITensor(const std::string& path, const zdl::DlSystem::ITensor* tensor)
 {
    ...
    std::ofstream os(path, std::ofstream::binary);
    if (!os)
    {
       std::cerr << "Failed to open output file for writing: " << path << "\n";
       std::exit(EXIT_FAILURE);
    }
    for ( auto it = tensor->cbegin(); it != tensor->cend(); ++it )
    {
       float f = *it;
       if (!os.write(reinterpret_cast<char*>(&f), sizeof(float)))
       {
          std::cerr << "Failed to write data to: " << path << "\n";
          std::exit(EXIT_FAILURE);
       }
    }
 }

Huawei Ai

Этот процессор заточен под компьютерное зрение, распознавание речи и интерпретацию естественного языка.

Как можно заметить по картинке, здесь нет никакого обучения, мы берем уже обученную модель и пользуемся ею. Огромное количество классов, предназначенных для различных задач. HiAI SDK дает доступ к заточенному под операции над матрицами NPU. Таким образом, оптимизируются нейронные сети, которые используют матрицы.

Пример кода на Java, распознающего, одинаковые ли люди изображены на картинке.

import com.huawei.hiai.vision.face.FaceComparator;// Класс для сравнивания лиц
import com.huawei.hiai.vision.visionkit.face.FaceCompareResult;// Класс результата сравнивания лиц

if (!AiEngineMgr.isAsync) {
    resultCode = mFaceComparator.faceCompare(image1, image2, mFaceCompareResult, null);
} else {
    mFaceComparator.faceCompare(image1, image2, null,
        new VisionCallback<FaceCompareResult>() {
            @Override
            public void onResult(FaceCompareResult faceCompareResult){
                mFaceCompareResult = faceCompareResult;
                resultCode = 0;
            }
 
            @Override
            public void onError(int i){
                resultCode = i;
                HopeCVLog.d(temp_Log,"onError: "+i);
            }
 
            @Override
            public void onProcessing(float v){
            }
        });
}
try {
    Float confidence = mFaceCompareResult.isSamePerson();
    boolean samePerson = mFaceCompareResult.getSocre();
} catch (Exception e) {
    e.printStackTrace();
}

NeuroPilot SDK

Процессор заточен под отслеживание поз множества людей, идентификацию множества объектов, семантическую сегментацию, обработку изображений. NeuroPilot SDK позволяет решать ML-задачи с помощью APU + GPU. APU заточен под модели глубоких нейронных сетей. Обеспечивает аппаратное ускорение для свертки, полносвязных нейронных сетей (то есть нейронных сетей без дропаута), функции активации.

У данной разработки есть три пути развития:

  • чип NeuroPilot Micro, представляющий собой микрокомпьютер, оптимизированный под задачи машинного обучения. Его возможности ограничены $10^6$ операциями, мегабайтами памяти. В качестве такого чипа так же можно использовать обычные схематические конструкторы, такие как Arduino[13] (конечно же, их скорость будет ниже на порядок).
  • телефон или телефонный чип, на который загружено специальное ПО. Возможности ограничены примерно $10^8 - 10^9$ операциями и гигабайтами памяти.
  • удаленное серверное управление. По словам авторов, количество операций и памяти почти безграничны.

В своем основании использует TFLite модели, лучше всего подходит TensorFlow и Keras. Можно писать программы прямо на нем, они будут успешно оптимизироваться.

CoreML SDK

Рисунок 5. MLModel. Источник
Рисунок 6. Работа в программе. Источник

Создан для классификации объектов, звуков, движений, текста, табличных данных, обладает рекомендательной системой. Работает на NPU. Пример использования для картинок.

Данное программное обеспечение сильно разделено. У нас есть специальная MLModel, которая изначально принимает изображения, и сохраняет их в компактном виде, сохраняя там же уже натренированную сеть (см. рисунок 5). Затем данный пакет передается уже программе, и она обрабатывает его. Пример кода на Swift:



import UIKit
import CoreML
import Vision
import ImageIO
DispatchQueue.main.async {
   guard let results = request.results else {
       self.classificationLabel.text = "Unable to classify image.\n\(error!.localizedDescription)"
       return
   }
   let classifications = results as! [VNClassificationObservation]
   if classifications.isEmpty {
       self.classificationLabel.text = "Nothing recognized."
   } else {
       // Display top classifications ranked by confidence in the UI.
       let topClassifications = classifications.prefix(2)
       let descriptions = topClassifications.map { classification in
           // Formats the classification for display; e.g. "(0.37) cliff, drop, drop-off".
          return String(format: "  (%.2f) %@", classification.confidence, classification.identifier)
       }
       self.classificationLabel.text = "Classification:\n" + descriptions.joined(separator: "\n")
   }
}

Для работы с кодом и результатами у Apple есть рекомендуется программа XCode (пример работы см. рисунок 6)

См. также

Примечания

Источники информации

  1. azoft.ru - о применении машинного обучения.
  2. habr.com - железо и процессоры.
  3. researchgate.net - Deep Learning on Mobile Devices, Yunbin Deng
  4. habr.com - аппаратное ускорение нейронных сетей
  5. habr.com - краткий обзор и пример на CoreML.
  6. habr.com - распознавание изображений.
  7. habr.com - использование ML Kit.
  8. habr.com - использование Pocketsphinx.
  9. osp.ru - глубинный анализ данных с сенсоров.
    1. Tesseract
    2. OpenCV
    3. Mobile Vision Google
    4. ML Kit
    5. pocketsphinx
    6. Central processing unit
    7. Graphics processing unit
    8. Федеративное обучение
    9. Qualcomm Neural Processing SDK
    10. Huawei Ai
    11. NeuroPilot SDK
    12. CoreML SDK
    13. Arduino
    Источник — «http://neerc.ifmo.ru/wiki/index.php?title=Машинное_обучение_на_мобильных_телефонах&oldid=85889»