Deepfake-технологии против Азербайджана Глобальная угроза уже рядом
В последние дни в азербайджанском сегменте социальных сетей активно обсуждаются случаи стремительного распространения оскорбительных фото- и видеоматериалов, созданных с помощью технологии deepfake и с использованием изображений студентов Бакинского государственного университета. Речь идёт о смонтированных изображениях и видеороликах, не имеющих никакого отношения к реальности.
Анализ ситуации показывает, что подобные аккаунты, как правило, появляются в ночное время — на страницах размещаются фальсифицированные материалы, после чего к утру профили удаляются или становятся недоступными. Таких страниц было несколько, создавались они последовательно, что существенно осложняет их выявление и отслеживание. Основной мишенью злоумышленников стали студенты, чьи личные страницы в социальных сетях находились в открытом доступе, — это позволило использовать их фотографии и видеоматериалы для создания фейкового контента. В ряде случаев публикации сопровождались оскорбительными подписями и носили характер психологического давления.

В пресс-службе МВД Азербайджана подтвердили, что ситуация находится в поле зрения правоохранительных органов.
Инцидент со студентами БГУ — тревожный, но далеко не уникальный случай. Deepfake давно перестал быть экзотикой и превратился в полноценный инструмент манипуляции и дискредитации. Технология позволяет менять лица, мимику и голоса, создавая иллюзию, что человек говорит или делает что-то, чего в реальности, конечно, никогда не было. Когда в 2020 году в TikTok появился аккаунт с фейковым, но довольно убедительным «Томом Крузом», его создатель успокаивал публику: мол, такое невозможно повторить одним нажатием кнопки.

Прошло несколько лет — и deepfake вошёл в арсенал большой политики.
Так, например, на третий день российско-украинской войны по сети разлетелось видео, в котором президент Украины Владимир Зеленский якобы призывал ВСУ сложить оружие. Подделка оказалась грубой, и её разоблачили в тот же день. Вскоре появился зеркальный фейк — Путин, «признающий» подписание мира с Украиной. С тех пор технология совершила качественный скачок.
В июле 2025 года газета The Guardian сообщила о случае, который всерьёз встревожил Вашингтон. Неизвестный мошенник с помощью deepfake выдал себя за государственного секретаря Марко Рубио и сумел выйти на связь как минимум с пятью высокопоставленными чиновниками. Целью было получение доступа к закрытым правительственным отчётам. Лишь случайность предотвратила утечку. Дэвид Аксельрод, в прошлом советник Барака Обамы, прокомментировал инцидент лаконично: «Это был лишь вопрос времени. Мы живём в новом мире и нам лучше научиться от него защищаться». Научиться, однако, пока не удалось.
В декабре 2025 года авторитетное британское издание PoliticsHome отмечало, что у членов парламента Великобритании нет защиты от создания дипфейков с их участием. Поводом для этого заключения стала история консервативного депутата Джорджа Фримана, ставшего жертвой deepfake-кампании двумя месяцами ранее. В октябре 2025-го в сети массово распространились фейковые ролики, в которых Фриман якобы объявлял о переходе в партию Reform UK. Сам депутат выразился так: «Я стал жертвой дипфейка, но закон не смог меня защитить». В этой фразе — приговор всей существующей системе противодействия цифровым фальсификациям.

К 2026 году цифровая среда научилась генерировать поддельные видео практически любого содержания и качества, но при этом мировому сообществу нечего противопоставить анонимным кампаниям очернения. Публика зачастую просто не способна отличить реальное видео от сфабрикованного — особенно когда за производством фейка стоит не одиночка-энтузиаст, а государственная машина.
Ситуация вокруг студентов БГУ наглядно показывает, что Азербайджан не остался в стороне от глобальной угрозы. Если подобные технологии уже применяются против политиков в других государствах, было бы наивно считать, что они обойдут стороной нашу страну. Само появление deepfake в азербайджанском информационном пространстве формирует новую реальность — и игнорировать её опасно.
Впрочем, если мировой опыт чему-то и учит, так это тому, что осведомлённость — единственное реальное оружие против deepfake. Ни один алгоритм не способен гарантированно отфильтровать подделку. Ни один закон не успевает за развитием технологий. Остаётся только способность общества задавать правильные вопросы: Кому выгодно? Кто распространяет? Почему именно сейчас? Азербайджанское общество уже не раз демонстрировало эту способность







