Нейросеть научили вычислять вредных ботов

Российские ученые создали приложение, которое умеет выявлять ботов, причастных к кибератакам. Для того чтобы поднатаскать искусственный интеллект, они сделали для него «песочницу» в соцсетях, где тот мог изучать повадки вредоносных программ.

Боты — важный инструмент для эффективной работы социальных сетей. Они консультируют пользователей и помогают распространять рекламу. Однако их же используют для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации. Программы в этом преуспели. Они хорошо научились копировать поведение людей и составлять убедительные текстовые сообщения, отличить которые от написанных человеком непросто. Но можно.

Для этого сотрудники Санкт-Петербургского федерального исследовательского центра (СПб ФИЦ) РАН использовали нейросеть. Она учитывает больше тысячи метрик, благодаря которым можно дифференцировать «виртуального человека»: время создания аккаунта, описание профиля, фото- и видеоконтент, количество друзей и связи с ними.

«Например, аккаунт пользователя может существовать много лет, в то время как бот создается быстро и под конкретную задачу. Как правило, у бота нет оригинальных фотографий. Аккаунт человека последовательно развивается в соцсетях: он учится, работает, женится, заводит друзей. Динамика развития этих характеристик у бота иная, а количество друзей и связи с ними носят более хаотичный порядок», — объясняет ведущий научный сотрудник лаборатории проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин.

Для обучения нейросети ученые создали экспериментальные группы в соцсетях со специально подготовленными ботами различных типов. Искусственный интеллект успешно справился с поставленной задачей. 

«Результаты эксперимента показали, что новый подход действительно работает и позволяет извлекать метрики, необходимые для более качественного выявления свойств целенаправленных воздействий в социальных сетях и анализа эволюции вредоносных ботов. В перспективе наше приложение может стать основой для перехода от простого обнаружения кибератаки с помощью ботов к более глубокому анализу атакующего и его возможностей», — рассказывает Андрей Чечулин.

Оцените статью
Поделись знанием

Рекомендуем

1
Почему даже нейросеть не может точно предсказывать погоду? #ИИ #погода #машинное обучение 15 марта 2023 07:09
2
Билл Гейтс объявил о начале эпохи искусственного интеллекта #будущее #ИИ #искусственный интеллект 28 марта 2023 09:12
3
Нейросеть не позволит украсть деньги с вашей карты #ИИ #банк #мошенники 30 мая 2023 12:37