Осторожно — дипфейк! Центробанк предупреждает — кибермошенники вышли на новый уровень. Они не просто взламывают аккаунты, воруют базы данных, пишут сообщения и звонят по телефону, а активно используют нейросети. Создают точные цифровые копии людей. Аудио и видео рассылают их знакомым с просьбой перечислить деньги. На помощь пришли петербургские ученые, которые разработали свою технологию — она позволяет разоблачить виртуального двойника.

В XXI веке доверять нельзя даже знакомому голосу и изображению.

Всем кто путается — на помощь спешат ученые из Федерального исследовательского центра Российской академии наук. Новый метод автоматического распознавания так называемых дипфейков они называют уникальным. Проделки нейросети в видоизменении контента определяет другая нейросеть. Причем, всего за несколько секунд с погрешностью до сотой доли процента.

Мы считываем изображение этого лица и отправляем его в нашу модель. Наш метод определил, что изображение с вероятностью 99% является обработанным методами «супер резолюшн».

Отредактированные видеофайлы распознают по особенностям движений. Поэтому коллектив ученых с берегов Невы сконцентрировался на самом сложном: разоблачении фото-дипфейков. Как работает технология? Простыми словами, любой отредактированный снимок «шумит», то есть имеет дополнительные наслоения, почти как живописный пейзаж в музее. Этот «шум» и выдает модификацию.

Фото: телеканал «Санкт-Петербург»

«Если на оригинальном изображении был какой-то однотонный цвет, на модифицированном изображении появляются цвета, отличающиеся на пару значений RGB. Небольшое изменение в яркости цвета нельзя заметить невооруженным глазом. Особенно на дешевых мониторах. Но можно использовать нейронные сети и методы машинного обучения», — рассказал младший научный сотрудник Санкт-Петербургского федерального исследовательского центра Российской академии наук Дмитрий Веснин.

Дипфейки — это методики синтеза изображений и голоса с помощью искусственного интеллекта. Не всегда это зло. Они используются, например, в развлекательных целях.

Так, недавно в нашей стране сняли первый в мире дипфейк-сериал, где известные европейские и заокеанские актеры, такие как Джейсон Стетхем и Киану Ривз, якобы, веселятся в российской деревне. 

Дипфейки все чаще можно встретить и на сайтах знакомств. Но скрыть недостатки внешности в этом случае, как известно, удается лишь до первого реального свидания.

Куда более опасен искусственный интеллект в руках мошенников. При помощи замены лиц и генерации голосов злоумышленники выманивают деньги у своих жертв или могут создавать политические провокационные видео. Причем, сегодня можно подделать и использовать внешность любого человека. 

Фото: эфир телеканала «Санкт-Петербург»

Еще одно применение дипфейки нашли в судах. Все чаще подозреваемые в том или ином преступлении в прямом смысле «рисуют» себе алиби при помощи искусственного интеллекта. Либо пытаются подделать документы. Тем полезнее разработка петербургских ученых.

«Такая технология лет через пять будет полезна абсолютно всем. Потому что уже сейчас мы сталкиваемся с мошенниками, которые подделывают голос, где-то подделывают фотографии. Скажем, было преступление. Там был человек, который отчасти был на вас похож, но не очень. С помощью дипфейка сделали что-то среднее между вашим лицом и тем, что было в оригинальном видео. Все, скорее всего, реальные люди, судья, прокуроры, полиция уже не будут отличать», — рассказал руководитель Международного центра цифровой криминалистики Санкт-Петербургского федерального исследовательского центра Российской академии наук Андрей Чечулин.

Свои исследования разработчики начали после получения гранта от Фонда содействия инновациям. По условиям проекта, уже через полтора года они создадут открытую базу данных, библиотеку интеллектуальных методов распознавания поддельных или измененных изображений человеческих лиц.