В Петербурге разработали метод выявления ботов в социальных сетях

Изображение: (cc) geralt
Информационные технологии
Информационные технологии

Метод выявления в социальных сетях группы вредоносных ботов с помощью искусственного интеллекта разработали сотрудники Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН), сообщает 23 августа сетевое издание Научно-информационный портал «Поиск»

Для выявления ботов используется анализ публичных данных о них, независимо от того, на каком языке боты пишут посты и комментарии. Результаты исследования опубликованы в международном журнале JoWUA. Разработанный подход может использоваться для обнаружения информационных атак и противодействия им.

Отмечается, что боты важны для функционирования соцсетей, поскольку участвуют в работе чатов поддержки или распространении рекламы, автоматически распространяя информацию. Вместе с тем они могут применяются для неэтичной деятельности, например для накрутки рейтингов или дезинформации. Некоторые виды ботов могут успешно копировать поведение настоящих людей, поэтому их крайне сложно распознать.

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля за групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», — сообщил ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН (входит в СПб ФИЦ РАН) Андрей Чечулин.

Входными данными для искусственного интеллекта являются открытые сведения о неявных социальных связях между аккаунтами. Активность аккаунтов в соцсетях и то, как они взаимодействуют с прочими пользователями, позволяют с большой долей вероятности понять, какие аккаунты принадлежат людям, а какие являются ботами.

Для обучения нейросети ученые создали специальные группы в социальных сетях, в которые ввели ботов разного качества — как простых, так и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа исследователи оценили, насколько разработанная методика правильно определяет ботов и справляется с их маскировкой.

«Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — отметил Чечулин.

Младший научный сотрудник СПб ФИЦ РАН Максим Коломеец пояснил, что эффективность системы оценивали по анализу различных групп ботов и контрольным группам пользователей. Группы ботов включали созданных и управляемых автоматически ботов, а также тех, которые созданы и находятся под контролем реальных пользователей. Кроме того, были боты, созданные из взломанных и заброшенных аккаунтов, пользователи которых выполняют действия за деньги, а также обычные пользователи соцсетей.

«Обмануть систему можно, создав очень реалистичный аккаунт. Однако со временем в нем все равно накопится достаточно аномалий, которое наше средство сможет обнаружить. Точность распознавания варьируется в зависимости от качества ботов — от 60 до 90% при 5–10% ложных срабатываниях», — пояснил Коломеец.

Отмечается, что разработанная система способна оценить качество ботов и примерно рассчитать стоимость атаки. Эти данные могут использоваться для расследования инцидентов безопасности, например атаки ботов, оставляющих негативные комментарии. Подчеркивается, что эти данные помогут бизнесу эффективно ответить на атаку.