Мошенники адаптируются к эволюции технологий и уже активно используют дипфейки и научились применять нейросети. Об этом рассказал Владислав Тушканов – ведущий исследователь данных в «Лаборатории Касперского».
"Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров — это использование образа Илона Маска", — сказал он.
Эксперт предупреждает, что мошенники постоянно эволюционируют. Понимая, что люди уже научились не доверять картинкам, злоумышленники стали создавать дипфейковые видео, которые отличить уже сложнее.
"И дело не в том, что дипфейки — плохая технология. Они могут применяться в обучающих видео, позволяют делать их качественными, синхронизировать губы с речью при переводе на разные языки при переозвучке, они уже широко применяются в кинематографе. Но для мошенников это в том числе возможность заставить поверить в свое сообщение", — полагает Тушканов.
На руку мошенникам играет и ажиотаж вокруг нейросетей, отметил эксперт.
"Тот же ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны, они даже на какое-то время останавливали регистрации. Мошенники этим активно пользуются. Недавно у нас было исследование: в интернете появились ресурсы якобы для скачивания клиента ChatGPT и еще сразу получить 50 долларов. Конечно, это был не клиент, а троян, и таких случаев сейчас достаточно", — рассказал он.
Д. Игнатьев