Перейти к основному контенту
04.07.2023 15:25

Преступники научились использовать клон голоса

Образцы речи отбирают в социальных сетях

Преступники научились использовать клон голоса
Фото: pxhere
Фото: pxhere

В России преступники могут использовать клон голоса человека для вымогательства денег. О новой мошеннической схеме с использованием искусственного интеллекта предупредило Роскачество.

- Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота, - акцентировали внимание специалисты.

Схема обмана та же, но инструменты более прогрессивные. Искуственный интеллект звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП.

Сейчас нейросеть можно обучить языкам, и она с легкостью осваивает любые акценты, чтобы умело вести диалог. «Нужно срочно расплатиться! Вот номер продавца, скинь ему деньги», - теперь сможет услышать ни о чем не подозревающий человек на том конце провода.

Эксперты рекомендуют не поддаваться эмоциям, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше придумайте кодовое слово, для своих. Прямо как в банке. И таким образом, вы будете знать, что звонят действительно родные и близкие, а не мошенники с нейросетью.

- Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные, - рассказали специалисты.

Технология именуется «дипфейк» (от англ. deepfake - подделка). Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей.

За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны пока еще выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.

Новейшие технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. По оценке специалистов, до России технология тоже непременно дойдет в ближайшее время. Она будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

В Роскачестве объяснили, как распознать дипфейк:

  •  Неестественная мимика - движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
  •  Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой - брови, уголки рта.
  • Звук опережает картинку или не успевает за движениями персонажа.

Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. В целом, для обычного пользователя лучший способ защититься от дипфейков - быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.

В России телефонные мошенники обзванивают целые семьи, чтобы выудить деньги, сообщала ранее «Живая Кубань».

Самые важные новости теперь в нашем Telegram-канале. Подписывайтесь, чтобы не пропустить: https://t.me/live_kuban.

Другие актуальные новости