За последние годы технологии дипфейков вышли за рамки развлечений и всё чаще применяются в мошеннических схемах. Современные алгоритмы позволяют создавать крайне правдоподобные видео и аудиозаписи, из-за чего отличить подделку от реального человека становится всё труднее.
При этом у искусственно сгенерированного контента всё ещё остаются характерные особенности. Чаще всего они заметны в выражении лица и пластике движений: изображение может выглядеть излишне глянцевым, эмоциональные реакции — схематичными, а частота моргания — странной или несинхронной. Во время резких движений головы либо активной жестикуляции иногда проявляются дефекты по контуру лица — в зоне глаз, рта, линии волос или подбородка.

Дополнительные признаки подделки выявляются при просмотре записи на пониженной скорости. В таком формате нередко обнаруживаются сбои между речью и артикуляцией, что практически не характерно для живых видеозаписей. Даже при визуально идеальной картинке голос может вызывать сомнения — встречаются неуместные паузы, нарушенная интонация или механическое звучание. Специалисты советуют в таких случаях попросить собеседника произнести фразу с нестандартной интонацией или выраженной эмоцией — подобные элементы сложнее всего корректно воспроизвести нейросетям.
Эксперты также указывают, что активное распространение дипфейков связано с большим количеством архивных фото и видео, которые пользователи размещали в открытом доступе много лет назад. Эти материалы легко собираются и используются для создания убедительных подделок, что требует более осторожного подхода к цифровой безопасности и внимательной проверки любого видеоконтента.
Технологии не стоят на месте. Как бы там ни было, Илон Маск заявляет, что ИИ станет через 5 лет умнее всего человечества и к этому тоже надо быть готовым.