Применение систем машинного обучения на 93% снижает эффективность фишинговых атак
Rubaitul-Azad@unsplash
В мессенджере Telegram зафиксировано появление искусственного интеллекта (ИИ), имитирующего поведение реальных пользователей с целью мошенничества. Фейковые аккаунты, управляемые ИИ, объединяются в группы для проведения масштабных фишинговых кампаний, создавая иллюзию естественного общения в комментариях. Это повышает доверие к мошенническим сообщениям, так как жертва видит, казалось бы, обычный диалог между пользователями.
Злоумышленники размещают фишинговые ссылки в профилях ботов или используют тактику замаскированных рекламных объявлений с заниженными ценами, перенаправляя пользователей на поддельные сайты для оплаты. Активно используются подражания популярным онлайн-площадкам, с обещаниями скидок и розыгрышей, целью которых является хищение личных данных: логинов, паролей и банковских реквизитов.
Схема мошенничества часто разворачивается поэтапно: один бот задаёт, например, вопрос о выборе поставщика услуг, а другой незамедлительно предоставляет «рекомендацию», создавая видимость легитимности. Возросла также распространённость использования ботами голосовых сообщений, ещё более повышающих уровень доверия.
Для придания большей убедительности мошенники используют реальные фотографии людей, а не изображения, созданные нейросетями. Хотя существуют системы распознавания ИИ-генерированного текста, их эффективность пока ограничена.
Применение систем машинного обучения способно значительно снизить эффективность фишинговых атак (до 93%), уменьшив при этом нагрузку на службы безопасности. Однако предотвращение подобных атак в значительной степени зависит от бдительности пользователей и соблюдения правил цифровой безопасности: тщательная проверка информации, недоверие к подозрительным предложениям и категорический отказ от передачи конфиденциальных данных (паролей, кодов доступа и т.д.) в общении с незнакомцами.
Поделиться
Поделиться