Эксперты предсказали увеличение атак с использованием дипфейков к концу 2025 года.

Каждый второй россиянин в конце текущего года может оказаться жертвой дипфейк-атаки, сообщает «Известия», ссылаясь на экспертов в области искусственного интеллекта.

Дипфейками называют изображения или видеозаписи, в которых голос или внешность человека воспроизводятся с помощью нейросетей. Специалисты утверждают, что злоумышленники смогут в реальном времени имитировать беседу с «другом, просящим о деньгах», или «коллегой, срочно нуждающимся в переводе средств».

Эксперты отметили, что к 2025 году технологии создания и редактирования видео, а также голосового клонирования значительно улучшатся, что усложнит распознавание современных дипфейков.

В конце апреля Министерство внутренних дел России сообщило, что признаки дипфейка включают неестественную интонацию, редкое моргание и несоответствие движений губ произносимым словам. Если возникает подозрение на «роботизированный» тон речи, рекомендуется проверить личность собеседника иным способом, чтобы подтвердить его подлинность.

Ранее исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может возрасти до десятков миллионов в ближайшие три года из-за упрощения доступа к данной технологии. По его словам, в это время любой сможет клонировать голос или накладывать чужие лица на фото и видео.

Кроме того, стало известно, что цифровые двойники людей уже способны имитировать сердцебиение.