Компания Amazon перенесла сервисы с ИИ на чипы собственной разработки
Вычислительные мощности, отвечающие за обработку некоторых функций голосового помощника Alexa, перенесены с видеопроцессоров NVIDIA на нейропроцессоры собственной разработки компанией Amazon, 12 ноября сообщил австралийский портал ИТ-новостей ITNews.
О разработке Amazon чипов AWS Inferentia стало известно в 2018 году. Теперь они начинают выполнять задачу, для которой и проектировались. На серверы, оборудованные ими, перемещена обработка таких функций Alexa, как распознавание речи и лиц, а также перевод текста в речь.
AWS Inferentia — это нейропроцессоры, то есть процессоры, оптимизированные для работы с алгоритмами глубокого обучения. В отличие от серверных видеокарт NVIDIA, на которых ранее работали данные функции, для задач глубокого обучения Inferentia эффективнее.
Согласно заявлению Amazon, внедрение собственных нейропроцессоров позволило уменьшить время обработки запросов на 25% при снижении затрат на 30%.
Стоит отметить, что вышеперечисленные функции голосового помощника не обрабатываются прямо на устройстве, таком как «умная» колонка Echo. Устройство делает запрос на удаленный сервис, а уже он занимается обработкой данных.