5 июля 2023 09:08
834

Искусственный интеллект начал обманывать россиян

Искусственный интеллект начал обманывать россиян
ИИ звонит и просит перевести деньги
Фото: pixabay.com

Мошенники начали использовать нейросети и дипфейки для обмана россиян. Они взяли на вооружение искусственный интеллект в телефонных разговорах, рассказал агентству «Прайм» эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко.

«Благодаря имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота», — сказал эксперт.

Схема обмана та же: ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники.

Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется «дипфейк» («подделка». — Прим. ред.).

За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.

Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков от «родственников», например, пожилым людям, предупредил эксперт Роскачества.

Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. По словам Кузьменко, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.

Источник: TLT.ru

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите левый Ctrl+Enter.

Для комментирования войдите через любую соц-сеть:

Оцените работу нового мусорного регоператора?

Просмотреть результаты

Загрузка ... Загрузка ...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: