Эксперты Китая высказались о возможностях развития ИИ

Изображение: (cc) mikemacmarketing
Искусственный интеллект
Искусственный интеллект

Большие языковые модели (LLM) искуственного интеллекта еще не подошли к своему технологическому потолку, и у них еще много возможностей для дальнейшего развития, заявили эксперты на недавней Глобальной конференции разработчиков (GDC) в Шанхае, сообщает 25 февраля издание Yicai.

LLM находятся на стадии быстрого развития, сказал Лю Хуа, вице-президент шанхайской компании MiniMax, занимающейся разработкой искусственного интеллекта, во время GDC, которая завершилась 23 февраля в восточном городе.

Запуск ChatGPT-o1 компанией OpenAI в конце прошлого года и выход DeepSeek с открытым исходным кодом DeepSeek R1 в январе являются примерами этого прогресса, сказал Лю. В ближайшие два-три года технологический прогресс, сравнимый с переходом от GPT-3.5 к GPT-4, вероятно, произойдет еще дважды, добавил он.

Инсайдеры отрасли рассуждают о том, насколько близки разработчики LLM к достижению предела закона масштабирования. Этот предел означает переломный момент, когда увеличение параметров модели, размера набора данных или вычислительных ресурсов уже не повышает производительность модели, а наоборот, приводит к снижению отдачи и нерациональному распределению ресурсов.

Разработчикам требуется больше корпусных данных: текстов, написанных или озвученных носителями языка или диалекта. Один из практиков отрасли рассказал, что количество фундаментального сырья не увеличивается пропорционально росту масштабов LLM, что мешает моделям усваивать новые знания.

Однако Хэ Конгуй, ученый из Шанхайской лаборатории искусственного интеллекта, утверждает, что имеющиеся данные еще не исчерпаны и есть возможности для улучшения их качества. Более того, повышение качества данных может повысить эффективность, а значит, будущим моделям может потребоваться меньше данных. Это может привести к дальнейшему снижению вычислительных затрат и стимулировать более широкое участие в оптимизации моделей.

Цяо Ю, помощник директора Шанхайской лаборатории искусственного интеллекта, отметил на конференции, что LLM по-прежнему сталкиваются с многочисленными проблемами при промышленном внедрении, включая стоимость, эффективность, надежность, стабильность и безопасность.

По словам Цяо, начиная с этого года, LLM вступят в следующую фазу, где инновации и применение станут решающим фактором для преодоления узких мест в развитии. DeepSeek добилась значительного прогресса благодаря систематическим инновациям в архитектуре моделей, методах обучения и высокоскоростных параллельных фреймворках. Это значительно повысило эффективность и снизило затраты, что позволило получить ценные сведения, добавил эксперт. Заглядывая в будущее, Цяо считает, что этот год принесет прогресс в области мультимодального интеллекта и научных открытий с помощью ИИ.