После начала боевых действий на Ближнем Востоке американская социальная сеть Х* превратилась в арену информационной войны. Платформу захлестнула волна дезинформации: старые видео, кадры из других конфликтов и откровенно сгенерированные нейросетями изображения набирают миллионы просмотров, маскируясь под актуальные репортажи с места событий. Пользователи также выдают сцены из видеоигр за реальные боевые действия. Примеры включают фейковые видео сбитых израильских истребителей, якобы успешных ударов ЦАХАЛ по иранской военной технике, удары по портам и фото дворца Хаменеи.
Кто и зачем зарабатывает на ложных постах о конфликте на Ближнем Востоке
Один из последних примеров — сбитие истребителя в небе над пустыней. СМИ обеих сторон, как США, так и Ирана, показали эти кадры, приписав удачную работу ПВО себе. Чей это был самолёт (и был ли он вообще), доподлинно неизвестно.
«На таком видео никаких деталей увидеть нельзя», — сказал aif.ru авиаблогер Fighterbomber.
Особую тревогу у экспертов вызывает тот факт, что большинство вирусных публикаций исходит от верифицированных аккаунтов с «голубой галочкой». Такие блогеры получают монетизацию за вовлеченность, и погоня за охватами часто оказывается важнее правды. Несмотря на систему фактчекинга и примечания сообщества, ложная информация продолжает собирать многомиллионную аудиторию, оставаясь в топе.
Специалист по кибербезопасности Павел Мясоедов в беседе с aif.ru объяснил, почему отличить подделку от реальности сегодня практически невозможно. Главная причина кроется в простоте современных инструментов и особенностях военной съёмки.
«Создать фейковые видео и фотографии с помощью нейросетей несложно, потому что любая нейросеть учится на старых массивах информации. Работы военных корреспондентов оцифровываются, и вся информация оседает в Сети», — отмечает Мясоедов.
По словам эксперта, ключевую роль играет контрастность. Реальные боевые действия, дым, взрывы и вспышки создают идеальные условия для генерации подделок.
«Контрастные объекты создавать проще с точки зрения реалистичности: что-то темно, что-то ярко, что-то где-то в дыму... Когда фотография контрастная, переходы на глаз определить почти невозможно. А если публикация осуществляется в маленьком разрешении, то будет практически стопроцентное попадание в яблочко», — добавил эксперт.
Изготовить профессиональное видео может кто угодно
Мясоедов подчеркивает, что сейчас для работы с нейросетями не нужны навыки программирования или сложные промты. Языковые модели сами помогают пользователю сформулировать запрос, что делает производство фейков массовым. Цель таких вбросов — манипуляция общественным мнением, попытка выставить противника виновным, а свою сторону — защитником.
В этих условиях обычным пользователям остается полагаться только на собственное критическое мышление.
«Нужно все перепроверять, смотреть информацию в альтернативных источниках. Не стоит спешить делиться «горячими кадрами» — можно невольно стать распространителем фейка», — предупреждает специалист.
При этом единого международного акта, регулирующего создание и распространение контента с помощью нейросетей в контексте военных конфликтов, до сих пор не существует. Это означает, что фабрика дипфейков продолжит штамповать ложь, пока зрители не научатся подвергать сомнению даже самые зрелищные кадры из соцсетей.
* Соцсеть X (бывшая Twitter) заблокирована на территории России по требованию Генпрокуратуры