Мошенничество нового уровня: ваш голос может обернуться против вас

Фотобанк — freepik.com

Фотобанк — freepik.com
Защититься от кражи голоса не получится — мошенники научили его брать из видео.
Мошенники начали использовать голосовые технологии, чтобы выманивать деньги у родственников своих жертв. Им достаточно короткого видео или аудио с открытого профиля в соцсетях — и голос человека можно синтезировать с высокой точностью.
Как работает схема
По словам члена комитета Госдумы по информационной политике Антона Немкина, преступники применяют искусственный интеллект, чтобы создать копию голоса. Далее жертве звонит якобы знакомый человек — «родственник», «сотрудник банка» или «начальник» — с просьбой срочно перевести деньги, подтвердить операцию или выполнить неотложное поручение.
Подделка звучит убедительно, а мошенники подкрепляют её реальными деталями из жизни человека, чтобы вызвать панику и подтолкнуть к спешным действиям.
Почему это опасно
Главная угроза — в доверии. Узнаваемый голос отключает бдительность, и человек действует автоматически. Чем эмоциональнее звучит просьба, тем выше риск, что человек не подумает перепроверить информацию.
Как защититься
Антон Немкин советует:
- Не публиковать длинные видео и аудио с собственным голосом.
- Всегда перезванивать по известным номерам.
- Задавать вопросы, на которые может ответить только настоящий человек.
- Включить двухфакторную аутентификацию в банковских сервисах.
Голос может быть поддельным — особенно если вы слышите его по телефону, предупреждает РИА Новости.
Кстати, согласно данным Центробанка, в 2023 году россияне потеряли более 15 млрд рублей из-за мошенников. Почти половина всех случаев обмана — результат так называемой социальной инженерии, когда людей уговаривают перевести деньги добровольно.