Новый уровень обмана. Теперь нейросети помогают обкрадывать доверчивых граждан. Полиция предупреждает, что злоумышленники научились генерировать голоса и лица. Так что не только аудиовызов, но и видеозвонок от ваших родственников или друзей может оказаться фальшивкой.

Под угрозой, как говорят эксперты, в первую очередь публичные люди — их изображения и голос широко доступны. Впрочем, они, как и все мы, подвергаются и уже хорошо проверенным способам обмана. На этой неделе депутат Госдумы Сергей Боярский опубликовал в своём телеграм-канале обращение, в котором рассказал, что с его поддельного аккаунта в мессенджере мошенники рассылали его подчинённым сообщения с требованием перевести деньги. Один человек послушался фальшивого начальника и потерял чувствительную сумму, более того, влез в кредит.

«Я вам могу сказать, что за последнюю неделю в моём ближнем круге друзей и знакомых таких случаев уже три. И каждый из них закончился в пользу мошенников. Люди лишились денег. Очень жалко людей. Давайте поговорим с родителями, со знакомыми, с родственниками, чтобы сработал принцип — «предупреждён — вооружён»», — рассказал Сергей Боярский, депутат Государственной Думы Российской Федерации.

Теперь вооружайтесь новыми знаниями. Так, популярные «кружки» из мессенджеров и соцсетей могут оказаться подлогом. При этом помните, как бы не усложнялись методы мошенников, им от нас нужны только деньги. Так что главное правило — не действовать сразу, по указке, второпях.

Сохраняйте трезвость мышления даже, если вопреки здравому смыслу придётся заставить себя не верить тому, что видят глаза и слышат уши.

Фото: телеканал «Санкт-Петербург»

Со времён афериста Жоржа Милославского технологии подмены личности или, говоря современным языком, дипфейки шагнули в заоблачные дали. И хуже всего, что их активно стали использовать реальные коллеги гайдаевского жулика.

«Началось это в принципе с того, что с мошенниками продолжали разговор под разными предлогами. Думали повеселиться, при этом понимая, что мошенники и продолжали разговор. Мошенник голос пишет, а дальше нейросети на базе этого голоса генерируют какие-то другие фразы. Нейросети генеративные позволяют не полностью копировать, но очень близко имитировать голос того, кого в качестве примера ей подают», — сказал Никита Голобов, научный сотрудник Политехнического университета Петра Великого.

Они воруют наши голоса, чтобы воровать наши деньги. Поймать такого преступника крайне сложно, если вообще возможно. В этом… в смысле — в поимке нечестных на руку IT-жуликов, более других преуспел Игорь Бедеров, которого называют Шерлоком Холмсом цифрового мира. Сам он себя называет IT-хантером и говорит, что только за последний год количество кибер-преступлений с применением технологий подмены голоса выросло в 8 раз.

«Как правило, сейчас касается руководителей предприятий, которые звонят якобы с подменённого номера телефона, со своим подменённым голосом, своим секретарям, помощникам, бухгалтерам со словами: «Дайте денег, такой-то человек подъедет — надо отдать ему сумку, конверт с деньгами»», — рассказал Игорь Бедеров, специалист по кибербезопасности.

Фото: телеканал «Санкт-Петербург»

И таких историй становится всё больше. Стремительный рост киберпреступлений объясняют несовершенством законодательства в цифровом пространстве, а также тем фактом, что орудия преступления находятся в открытом доступе.

Для того, чтобы проиллюстрировать доступность технологий, мы попробуем воспроизвести процесс создания голосового дипфейка. Мы нашли в интернете программу на основе искусственного интеллекта, взяли из разных сюжетов образцы твоего голоса и загрузили всё в компьютер.

Украденный голос — лишь цветочки. А вот ягодки. Вместо Юрия Никулина в роли Балбеса Сильвестр Сталлоне, у которого авторы дипфейка украли внешность. Да, это забавно, но представьте, что внешность взяли вашу и вставили не в эпизод фильма, а в видео-звонок от вашего имени. Скажете, кто на это купится? Примеров огромное количество. При этом, чем больше в руках мошенников образцов голоса, внешности, тем реалистичнее подлог. Понятное дело, что чаще других жертвами становятся те, кто на всегда на виду.

«Подготовить такую демонстрацию, чтобы сымитировать публичное лицо. Ещё раз — это лицо публичное, оно постоянно в кадре, постоянно на съёмках, материала очень много, сделать такие вот копии — это не проблематично. Как показывает практика, с этим справится даже школьник», — сказал Никита Голобов, научный сотрудник Политехнического университета Петра Великого.

Технологии ещё сырые и создать идеального цифрового двойника под силу пока только суперкомпьютерам. Но это, говорят специалисты, лишь вопрос времени.

«Через пару лет дипфейк будет неотличим от реального изображения, реального человека и идентифицировать его можно будет при помощи таких же искусственных интеллектов, которые будут реверсить саму технологию создания дипфейка и дальше выявлять, является ли изображение сгенерированным, или нет», — пояснил Игорь Бедеров.

В том, что это происходит есть доля и нашей с вами вины. Мы уж слишком выставляем себя напоказ, снимаем сториз, выкладываем фотографии, рассказываем о себе и своих увлечениях и, как следствие — получаем реальные оплеухи из мира виртуального, лишь в этот момент понимая, что попали в глобальную сеть. И она не умеет хранить секреты.