1. За рубежом: реальный мир
  2. Электроника в мире
Сиэтл, / ИА Красная Весна

Компания Amazon перенесла сервисы с ИИ на чипы собственной разработки

Изображение: v2killer7603, pixabay, cc0
Чип
Чип

Вычислительные мощности, отвечающие за обработку некоторых функций голосового помощника Alexa, перенесены с видеопроцессоров NVIDIA на нейропроцессоры собственной разработки компанией Amazon, 12 ноября сообщил австралийский портал ИТ-новостей ITNews.

О разработке Amazon чипов AWS Inferentia стало известно в 2018 году. Теперь они начинают выполнять задачу, для которой и проектировались. На серверы, оборудованные ими, перемещена обработка таких функций Alexa, как распознавание речи и лиц, а также перевод текста в речь.

AWS Inferentia — это нейропроцессоры, то есть процессоры, оптимизированные для работы с алгоритмами глубокого обучения. В отличие от серверных видеокарт NVIDIA, на которых ранее работали данные функции, для задач глубокого обучения Inferentia эффективнее.

Согласно заявлению Amazon, внедрение собственных нейропроцессоров позволило уменьшить время обработки запросов на 25% при снижении затрат на 30%.

Стоит отметить, что вышеперечисленные функции голосового помощника не обрабатываются прямо на устройстве, таком как «умная» колонка Echo. Устройство делает запрос на удаленный сервис, а уже он занимается обработкой данных.