Валдай под ударом ИИ: почему не стоит верить видео с атакой на «резиденцию Путина»
В сети распространяется фейковое видео атаки дронов на резиденцию Путина на Валдае
Ролик явно сгенерирован искусственным интеллектом (ИИ). Паблики-расследователи сообщают, что здание на видео даже не является резиденцией Путина на Валдае.
Читайте НН в Telegram: только важные новости
В сети видео появилось 31 декабря на анонимных ресурсах. Кто является первоисточником этих публикаций, пока неизвестно. В большинстве своем оно распространяется в украинских телеграмм-каналах с примечанием, что это фейк.
Напомним, ранее Служба внешней разведки Украины предупреждала, что Кремль может использовать подобные фальсификации для подготовки почвы к масштабным провокациям.
Как распознать видео, созданное искусственным интеллектом?
Технологии ИИ становятся все более совершенными, однако у большинства фейковых видео все еще есть характерные «ошибки». На что следует обращать внимание:
Неестественные движения и «умиления»: Внимательно смотрите на мелкие детали – волосы, пальцы рук или границы объектов. ИИ часто создает эффект размытости или «дрожания» вокруг них.
Проблемы с освещением и тенями: ИИ часто ошибается в физике света. Тени могут падать не в ту сторону, куда направлен источник света, или быть слишком резкими или, наоборот, отсутствовать.
Удивительная архитектура и фон: Внимательно просмотреть здания на заднем плане. Нейросети часто «долюбовывают» лишние окна, искривленные линии или несуществующие детали конструкций.
Синхронизация звука и изображения: Если кто-то говорит на видео, обратите внимание на движение губ. В дипфейках мимика часто опаздывает или выглядит «резиновой».
Первоисточник: Если сенсационное видео публикуют только анонимные каналы, а официальные медиа или мировые агентства молчат, это первый признак манипуляции.