Дипфейки эволюционировали из развлечения в серьёзный инструмент для совершения преступлений, рассказал в беседе с RT директор центра компетенций ИИ в АНО «Цифровые платформы» Алексей Маркелов.

«Отличить сгенерированное мошенниками дипфейк-видео от живого человека становится сложнее, но пока это всё ещё возможно благодаря техническим артефактам, которые оставляет нейросеть на материале», — поделился он.
Однако, по его словам, в 2025 году появились качественно новые модели, которые создают полностью синтезированный контент без исходного видео, что требует комплексного подхода — технического, правового и организационного.
«Дипфейки стали серьёзным инструментом для совершения преступлений. Как с этим работать? Визуально проблемы обычно проявляются в мимике и динамике: лицо выглядит слишком «приглаженным», эмоции — упрощёнными, моргание неестественным», — отметил он.
По словам собеседника, у дипфейка при поворотах головы или резких движениях могут появляться искажения по краям лица в зоне глаз, рта, волос или подбородка.
«Особенно показательно замедление видео: на низкой скорости заметны микросбои синхронизации речи и движений губ, которые почти не встречаются в живом видео. Даже если видео выглядит идеально, голос может быть роботоподобным, с неестественными паузами, с нарушением ритма речи», — пояснил он.
Чтобы распознать мошенника, нужно попросить собеседника произнести фразу со сложной интонацией, добавил Маркелов.
Ранее IT-эксперт Владимир Зыков пояснил, что для создания дипфейк-видео мошенникам достаточно одной фотографии.









