Главные угрозы со стороны нейросетей и чат-ботов определили специалисты

Изображение: (cc) geralt
Искусственный интеллект
Искусственный интеллект

Нейросети и чат-боты могут выдавать на запросы пользователей естественные, а не достоверные ответы, так как они не отличают правду от неправды, то есть выдавать вымышленные факты за реальные, заявил директор технического департамента российской консалтинговой компании в области информационной безопасности RTM Group Федор Музалевский, 13 июня пишет газета Известия.

«Проверено на практике, что на вопросы по бухгалтерии и финансовой отчетности нейросеть дает некорректные ответы. Такие же — по технике безопасности, проектировании зданий и сооружений. … А чат-боты, как правило, хранят полную историю обращений — и тут уже рассчитывать на анонимность не приходится», — заявил Музалевский.

Музалевский подчеркнул свою надежду на то, что специалисты перепроверяют данные чат-ботов и нейросетей, прежде чем считать на их основе дивиденды или создавать чертеж несущей конструкции здания.

При этом эксперт Центра искусственного интеллекта «СКБ Контур», член АРПП «Отечественный софт» Дмитрий Иванков считает, что сегодня все технологические решения по генерации текста или изображений, включая чат-бот с искусственным интеллектом ChatGPT или нейросеть Midjourney, представляют собой сервисы, созданные «поверх» нейросетей. Данные технологии широко распространены и доступны, в этом то и есть источник потенциальных уязвимостей, подчеркнул эксперт.

Весь в объем данных, которые пользователь передает сторонним сервисам, могут быть использованы не по назначению или «слиты» третьим лицам, подчеркивает Иванков. Многие эксперты советуют быть осторожными в формировании запросов в закрытые модели такие, как ChatGPT и его аналоги, так как сами запросы могут содержать информацию, разглашение которой может принести вред как частным лицам, так и организациям.

Сообщается, что недавно эксперты в области искусственного интеллекта и информационной безопасности выявили новый тип угрозы, связанный с развитием ChatGPT как продукта, — плагины. Через плагины пользователи встраивают функционал чат-бота в свои личные аккаунты в разных сервисах.

При этом плагины отвечают за некоторые запросы к нейросети, подключенной к какому-нибудь сервису, которые сформулированы определенным образом, и создают критические уязвимости в контуре безопасности, считают эксперты. Также существуют определенные риски в самом алгоритме работы нейросетей.

Информация из нейросетей может быть использована в мошеннических целях. Например, в Китае был случай распространения фейковых новостей, сгенерированных ChatGPT.

Искусственный интеллект могут использовать для информационных атак, генерируя правдоподобные сообщения, например, о катастрофах, военных действиях, выдавая вместе с текстами искусственно созданные изображения.

Арт-нейросети уже сегодня позволяют генерировать фейки, которые практически неотличимые от реальности, например, нейросеть Midjourney. При этом ChatGPT имеет уже доказанную специалистами склонность к «галлюцинациям», то есть когда не знает, что ответить, он вынужденно врет. Все то же самое, к сожалению, касается и банковских нейросетей, считают специалисты.

Комментарии
АП

Александра Пахмутова 12:49 13.06.23

А как может быть по-другому, если "ии" ориентируется не на качество источника информации, а на универсально-приемлемый ответ для абсолютного большинства, для которого он и обрабатывает предельно большое количество относительно бессмысленных данных, не учитывающих ни уровень образования людей, ни их мотивацию, ни интеллектуальные способности, ни статус (генератор мыслей или передатчик), ни много чего ещё, претендующего на бесконечное восполнение неполноты)? "ИИ" интересен, как продвинутый "арифмометр"... инструмент, помогающий в формировании приемлемых моделей-конструктов, приближенных к реальности, и их прогнозов, для решения задач профессионалов, которые на практике подтвердят или опровергнут (на базе сигнальной системы живого, её обратной связи) приемлемость того или иного решения.

Обсудить в комментариях