Top.Mail.Ru

Lifestyle

ИИ заговорил голосами близких — ученые объяснили, как это работает

12 января 2026, 10:23

ИИ заговорил голосами близких — ученые объяснили, как это работает

Злоумышленники начали использовать ИИ для подделки голосов близких и знакомых. Реалистичность таких аудиозаписей часто вводит людей в заблуждение, из-за чего они теряют деньги и раскрывают личные данные, сообщает Sports.kz со ссылкой на ТАСС.

Как работает схема

По словам официального представителя МВД РФ Ирины Волк, основой таких афер являются генеративные модели ИИ, способные создавать правдоподобный текстовый, аудиовизуальный и визуальный контент.

«Такие технологии позволяют злоумышленникам подделывать личности, что воспринимается потерпевшими как настоящее», — отметила Волк.

Кого подделывают мошенники

Чаще всего жертвами становятся люди, которым звонят, представляясь родственниками. Однако, по информации МВД, аферисты также используют поддельные голоса сотрудников банков, представителей государственных органов и даже известных публичных фигур.

Цель мошенников

Главная задача мошенников — вызвать доверие у жертвы. Используя синтезированные голоса или видеозаписи, они побуждают людей переводить деньги или раскрывать конфиденциальную информацию. Волк подчеркнула, что именно эта психологическая манипуляция делает такие схемы особенно опасными, поскольку жертвы действуют, не сомневаясь в подлинности услышанного.

Почему это становится угрозой

Развитие генеративного ИИ делает подобные мошеннические схемы более доступными и сложными для распознавания. Любой пользователь смартфона или компьютера может столкнуться с угрозой подделки голоса близкого человека, что требует повышенной бдительности при получении неожиданных звонков или сообщений. 

Подписывайтесь на главные новости
казахстанского спорта в Telegram

t.me/allsportskz
Наверх