Китайские чипмейкеры решили адаптироваться под ИИ DeepSeek

Китайские производители полупроводников решили адаптировать свои чипы под открытую языковую модель (LLM) искусственного интеллекта DeepSeek, сообщает 13 февраля издание Yicai.
Компании ожидают, что недавний успех DeepSeek вызовет спрос на большую вычислительную мощность, и концентрируют свои усилия на модификации своих чипов в соответствии со структурой чатбота, чтобы обеспечить эффективную работу ИИ-помощника на их оборудовании. Такие производители чипов, как Ascend, MetaX, Biren Technology и Loongson Technology, заявили, что их чипы теперь совместимы с LLM от DeepSeek.
После того как в прошлом месяце чатбот DeepSeek захватил мир технологий, китайская платформа хостинга моделей ИИ с открытым исходным кодом Gitee AI тесно сотрудничает с национальными производителями чипов, чтобы помочь им обновить свои чипы для обеспечения бесперебойной работы ИИ-помощника, сообщил председатель совета директоров Ма Юэ.
DeepSeek использует алгоритмы оптимизации самоподдерживающегося обучения, сообщил источник из Iluvatar CoreX. Чтобы соответствовать этим уникальным алгоритмам, производители чипов оптимизируют аппаратные архитектуры, совершенствуют наборы инструкций, повышают эффективность чипов в обработке сложных вычислений, а также улучшают управление памятью и передачу данных.
«DeepSeek сокращает неэффективное обучение на 60% благодаря механизму обучения с подкреплением и снижает потребность в параллельных вычислениях на 40% по сравнению с традиционными архитектурами», — говорит Юй Цинъян, старший консультант исследовательского центра цифровой экономики Шанхайского института исследований искусственного интеллекта.
«Это позволяет отечественным чипам достигать коэффициента энергоэффективности до 75% по сравнению с графическими процессорами американского чип-гиганта Nvidia в конкретных вычислительных задачах».
Инновационный LLM DeepSeek показал, что алгоритмические инновации могут преодолеть узкие места в вычислительной мощности, хотя проблемы, связанные с зависимостью вычислительной мощности и возможностями обобщения, сохраняются, добавил Юй. Благодаря постоянной оптимизации производительности и энергоэффективности отечественных чипов, таких как Huawei Ascend 910B, китайские предприятия могут значительно снизить зависимость от импортных чипов.
По словам Ма Юэ, адаптация отечественных чипов к моделям с открытым исходным кодом все еще отстает от Nvidia, хотя некоторые из них уже внедрили ИИ-ассистент DeepSeek. «Сообщество Hugging Face с открытым исходным кодом насчитывает более миллиона моделей ИИ с открытым исходным кодом. Платформа Gitee AI насчитывает более 10 000, и эти LLM могут без проблем работать на графических процессорах Nvidia. Однако китайский производитель чипов, который сотрудничает с Gitee AI больше всех и дольше всех, пока адаптировал только около 500 моделей».
Совместимость чипов с большими моделями, разработанными с помощью графических процессоров Nvidia, включая DeepSeek, тесно связана с тем, поддерживают ли чипы архитектуру Compute Unified Device Architecture (CUDA, Nvidia). Некоторые производители чипов с более низкой совместимостью с CUDA имеют специальные команды из более чем 100 человек и потратили более месяца на модификацию своих чипов, чтобы сделать их совместимыми с DeepSeek-V3, узнал от инсайдеров в отрасли.
Скорость завершения адаптации и оптимизации имеет решающее значение для своевременного запуска и коммерциализации моделей. Но китайским чипмейкерам не стоит ожидать, что такие задачи, как запуск самых горячих моделей с открытым исходным кодом или захват большей доли рынка ИИ, будут решены в одночасье.
«Как правило, чат-боты проходят итерации каждые три-четыре месяца. Если на адаптацию к экосистеме или модели уходит много времени, значит, вы не сможете заработать», — говорит Ян Цзянь, главный технический директор MetaX. 98% глобального обучения LLM опирается на вычислительные мощности Nvidia из Санта-Клары, и обучение невозможно без графических процессоров Nvidia, говорит Ян.
Несмотря на то, что в этом году на этап посттренингового обучения могут выйти и другие карты, не принадлежащие Nvidia, в краткосрочной перспективе их доля будет относительно небольшой.
Более того, некоторые эксперты отрасли считают, что команда DeepSeek из Ханчжоу почти достигла потолка в плане оптимизации базовой вычислительной мощности, и соответствующие технологии трудно перенести. По словам Чена Вэя, генерального директора Memory Compute, путь «выжимания» вычислительной мощности GPU, как это наблюдается в таких моделях, как DeepSeek, действительно может продолжаться, но потенциал для дальнейших значительных улучшений ограничен.
В то время как продолжаются споры о том, снижается ли спрос на вычислительную мощность в обучении, существует более широкий консенсус относительно растущего спроса на вычислительную мощность в выводах. После того как DeepSeek-R1 вызвал широкое обсуждение, будущее ИИ, похоже, переходит от обучения к выводам, сообщает TechInsights.
Nvidia также отметила, что процесс вывода в DeepSeek требует большого количества графических процессоров Nvidia и высокопроизводительных сетей, и успех DeepSeek демонстрирует, что рыночный спрос на чипы Nvidia остается высоким.
(теги пока скрыты для внешних читателей)