Экстремистские и террористические организации всё активнее используют интернет и социальные сети для пропаганды своей идеологии, вербовки новых сторонников и координации деятельности. В этих условиях технологии искусственного интеллекта (ИИ) становятся важным инструментом для выявления угроз на ранней стадии и предотвращения трагических последствий.
Мониторинг контента в интернете
Одним из ключевых применений ИИ является автоматический анализ текстов, изображений, аудио- и видеоматериалов в интернете и социальных сетях. Алгоритмы машинного обучения обучаются распознавать признаки экстремистского или террористического контента, такие как призывы к насилию, оскорбления по национальному или религиозному признаку, символику запрещённых организаций. Благодаря огромным вычислительным мощностям ИИ может обрабатывать колоссальные объёмы информации, что было бы невозможно для человека.
Крупные платформы социальных сетей, такие как Meta (Facebook) и TikTok, активно внедряют системы ИИ для автоматического обнаружения и удаления вредоносного, незаконного и опасного контента. Meta использует новую технологию “Обучение с несколькими задачами” (Few-Shot Learning), которая позволяет быстро адаптировать системы ИИ для выявления новых видов вредоносного контента, используя лишь небольшой объём размеченных данных.
Правительства также активно используют технологии ИИ для мониторинга и анализа контента с целью выявления террористической пропаганды и угроз в интернете. Например, в 2017-2020 гг. Европейский Союз инвестировал более 5 млн евро в разработку системы RED-Alert, использующей ИИ для обнаружения террористического контента онлайн.
Прогнозирование угроз
ИИ также способен предсказывать потенциальные угрозы на основе больших массивов разнородных данных, от сообщений в социальных сетях до финансовых транзакций. Выявляя аномалии и связывая разрозненные сигналы в единую картину, системы ИИ помогают своевременно распознать подготовку к терактам или экстремистской деятельности.
Распознавание личностей
Технологии компьютерного зрения позволяют идентифицировать личности на видео и фотографиях, распознавая лица и сверяя их с базами данных разыскиваемых экстремистов и террористов. Такие системы помогают отслеживать их перемещения и контакты.
Противодействие пропаганде
ИИ играет важную роль в противодействии экстремистской и террористической пропаганде в интернете. Методы обработки естественного языка (NLP) используются для автоматического выявления и блокировки контрпропагандистского контента. Алгоритмы NLP анализируют текстовые данные, выявляя ключевые слова, фразы и контексты, которые указывают на пропаганду ненависти или призывы к насилию.
Кроме того, ИИ может быть использован для создания и распространения “антиэкстремистских” сообщений, направленных на нейтрализацию экстремистской риторики. Например, специальные алгоритмы могут генерировать контент, который контраргументирует экстремистские утверждения или предлагает альтернативные точки зрения, способствуя тем самым снижению уровня радикализации среди пользователей.
Киберзащита
ИИ также задействован в обеспечении кибербезопасности для защиты от хакерских атак со стороны экстремистов и террористов. Системы ИИ способны анализировать сетевой трафик в режиме реального времени, выявляя подозрительную активность и возможные кибератаки. Алгоритмы машинного обучения обучаются на огромных массивах данных, что позволяет им эффективно выявлять аномалии и угрозы.
Одна из важнейших задач ИИ в области киберзащиты – это предотвращение атак на критическую инфраструктуру, такую как энергетические сети, транспортные системы и государственные учреждения. Используя методы машинного обучения и анализа больших данных, системы ИИ могут предсказывать и предотвращать попытки взлома, защищая таким образом национальную безопасность.
Кроме того, ИИ используется для автоматического выявления и блокировки вредоносного программного обеспечения, включая вирусы, трояны и другие виды киберугроз. Современные антивирусные программы, оснащённые ИИ, способны быстро адаптироваться к новым видам вредоносного ПО, что значительно повышает уровень защиты.
Важным аспектом киберзащиты является также обучение и подготовка специалистов по кибербезопасности. ИИ может использоваться для создания симуляций кибератак, что позволяет экспертам отрабатывать стратегии защиты в условиях, максимально приближенных к реальным. Такие тренировки помогают улучшить навыки реагирования на инциденты и повысить общую устойчивость киберсистем к атакам.
Вызовы и этические вопросы
Нарушение прав человека. Применение ИИ вызывает серьёзные опасения по поводу возможного нарушения прав человека и гражданских свобод. Например, предвзятые алгоритмы распознавания лиц могут приводить к ошибочным арестам и дискриминации этнических меньшинств. В отчёте ООН отмечается, что алгоритмы машинного обучения могут усиливать предвзятость и дискриминацию при использовании необъективных данных. Это может подрывать демократические ценности и гражданские свободы.
Использование ИИ террористами
Террористические группы также начинают использовать возможности ИИ. Например, по данным Tech Against Terrorism, с 2023 года было зафиксировано более 5000 единиц контента, созданного террористами с помощью ИИ.
Гонка вооружений
Постоянное совершенствование технологий deepfake создаёт необходимость разработки более совершенных систем ИИ для их обнаружения. Создатели deepfakes применяют методы “контробнаружения”, чтобы обойти системы ИИ по их выявлению. Поэтому алгоритмы обнаружения должны постоянно совершенствоваться. Для повышения устойчивости к обходу системы обнаружения deepfakes должны уделять особое внимание сжатию видео, обработке в соцсетях и другим типам последующей обработки контента.
ИИ становится незаменимым инструментом в борьбе с экстремизмом и терроризмом, обеспечивая мониторинг контента, прогнозирование угроз и киберзащиту. Однако важно соблюдать баланс между обеспечением безопасности и защитой демократических прав и свобод граждан. Это требует тщательной проверки алгоритмов на предвзятость и разработки правовых и этических норм использования ИИ в этой области.
Правительства и технологические компании должны работать вместе над созданием прозрачных и подотчётных систем, которые будут эффективно противостоять угрозам, не нарушая при этом фундаментальные права и свободы человека. Только таким образом можно добиться устойчивых результатов в борьбе с экстремизмом и терроризмом, используя передовые достижения ИИ.
АСХАТ АХМЕДИЯР, эксперт по вопросам экстремизма и терроризма