Валдай под ударом ИИ: почему не стоит верить видео с атакой на «резиденцию Путина»

Комментарии:

В сети распространяется фейковое видео атаки дронов на резиденцию Путина на Валдае

Ролик явно сгенерирован искусственным интеллектом (ИИ). Паблики-расследователи сообщают, что здание на видео даже не является резиденцией Путина на Валдае.

Читайте НН в Telegram: только важные новости

В сети видео появилось 31 декабря на анонимных ресурсах. Кто является первоисточником этих публикаций, пока неизвестно. В большинстве своем оно распространяется в украинских телеграмм-каналах с примечанием, что это фейк.

Напомним, ранее Служба внешней разведки Украины предупреждала, что Кремль может использовать подобные фальсификации для подготовки почвы к масштабным провокациям.

Как распознать видео, созданное искусственным интеллектом?

Технологии ИИ становятся все более совершенными, однако у большинства фейковых видео все еще есть характерные «ошибки». На что следует обращать внимание:

Неестественные движения и «умиления»: Внимательно смотрите на мелкие детали – волосы, пальцы рук или границы объектов. ИИ часто создает эффект размытости или «дрожания» вокруг них.

Проблемы с освещением и тенями: ИИ часто ошибается в физике света. Тени могут падать не в ту сторону, куда направлен источник света, или быть слишком резкими или, наоборот, отсутствовать.

Удивительная архитектура и фон: Внимательно просмотреть здания на заднем плане. Нейросети часто «долюбовывают» лишние окна, искривленные линии или несуществующие детали конструкций.

Синхронизация звука и изображения: Если кто-то говорит на видео, обратите внимание на движение губ. В дипфейках мимика часто опаздывает или выглядит «резиновой».

Первоисточник: Если сенсационное видео публикуют только анонимные каналы, а официальные медиа или мировые агентства молчат, это первый признак манипуляции.