Искусственный интеллект раскроет потенциал с грамотным оператором — мнение
Максимально свой потенциал искуственный интеллект (ИИ) раскроет только после широкого распространения «обучения с учителем», заявил Эндрю Ын — сооснователь проекта в сфере массового онлайн-образования Coursera и основатель проекта Google Brain — 22 февраля в интервью для VentureBeat.
Большие языковые модели, такие как Bing компании Microsoft и ChatGPT компании OpenAI, переполнили новостные заголовки в феврале 2023 года. Эти системы относятся к так называемому генеративному самообучающемуся искусственному интеллекту. Однако один из ведущих специалистов в области ИИ Эндрю Ын считает, что будущее больших языковых моделей за контролируемым обучением.
В данный момент его научная группа занимается разработкой инструментов, которые должны упростить отбор данных и обучение моделей другим разработчикам ИИ. Ученый объясняет: «Правильная маркировка данных очень ценна. Растущее внимание к отбору данных говорит мне о том, что в ближайшие пару лет контролируемое обучение принесет больше пользы, чем генеративный ИИ»,
«Рассматривая историю усилий множества организаций по созданию этих систем с большими языковыми моделями, я замечаю, что методы очистки данных были сложными и многогранными», — отметил Эндрю Ын.
Ученый считает, что даже единичная фактологическая ошибка или токсичное высказывание не приемлемо для языковой модели, поэтому маркировка данных начинает играть важную роль в создании ИИ. Правильная выборка при обучении позволяет получать более качественные и непротиворечивые ответы от обученной модели.
Также он отмечает, что языковые модели сейчас часто обучаются на больших массивах данных, которые не отображают все разнообразие человеческого опыта.
«Проблема предвзятых данных, приводящих к предвзятым алгоритмам, сейчас широко обсуждается и осмысливается в сообществе разработчиков ИИ. Таким образом, из каждой исследовательской работы (…) ясно, что различные группы, создающие эти системы, очень серьезно относятся к репрезентативности и чистоте данных и знают, что модели далеки от совершенства».
Таким образом, ученый считает источником ошибок и токсичных высказываний ИИ плохую выборку данных для обучения.
Читайте также: Чат-бот Bing AI часто ошибается в вопросах о новостях — профессор