Как распознать дипфейки мошенников с родными и знакомыми

Мошенники стали чаще применять технологии реалистичного создания изображений с помощью искусственного интеллекта — так называемые дипфейки, предупредил Банк России. Чтобы создать дипфейк, злоумышленники используют фото, видео и записи голоса, которые чаще всего получают через взлом аккаунтов россиян в социальных сетях или мессенджерах. Отличить такие записи от настоящих непросто, но есть правила, соблюдения которых поможет вывести мошенников на чистую воду, рассказали эксперты.

#Общество

«Сгенерированный образ человека рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва», — сообщили в ЦБ.

Чтобы защитить себя от подобных схем, не нужно спешить переводить деньги, рекомендует Центробанк. В ответ на просьбу знакомого о финансовой помощи лучше перезвонить ему и уточнить обстоятельства. Писать текстовые сообщения не стоит — иногда для рассылки своих сообщений злоумышленники создают поддельные страницы с именем и фото человека.

«Обязательно позвоните тому, от чьего лица просят деньги, и перепроверьте информацию. Если возможности позвонить нет, то задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый. Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка», — посоветовали в ЦБ.

Неспециалисты действительно могут отличить поддельное изображение от настоящего даже без применения специальных технических средств, если будут внимательны, говорят эксперты.

«Можно постараться рассмотреть, как выстраивается картинка по краям лица: меняется ли она, есть ли на записи какие-то сдвиги, блики, неестественные перепады контраста и яркости. Еще один интересный способ «вычислить» дипфейк — обратить внимание на блики на глазах и зубы. В большинстве случаев у людей во время разговора зубы видны, а на дипфейках — далеко не всегда. Такие подсказки сложно заметить, если качество записи плохое, в том числе из-за этого дипфейк-видео часто публикуются в искусственно заниженном разрешении», — объяснил директор лаборатории FusionBrain научно-исследовательского Института искусственного интеллекта AIRI Андрей Кузнецов.

Заметные невооруженным взглядом огрехи изображения будут исчезать по мере улучшения технологий, предупреждает генеральный директор Smart Engines, доктор технических наук Владимир Арлазаров.

«Сейчас дипфейк можно вычислить по таким признакам, как чрезмерно плавные движения, дрожание и прочие аномалии. Однако есть опасения, что по мере совершенствования технологий такие признаки будут постепенно исчезать. Уже сейчас, если происходит подмена только лица, то человек без глубокого анализа светотени и других особенностей с большим трудом сможет этот дипфейк обнаружить и распознать», — отметил эксперт.

Аудио злоумышленники научились подделывать настолько хорошо, что отличить записи по техническим деталям неподготовленные люди не могут, сходятся во мнении Андрей Кузнецов и Владимир Арлазаров. Получив аудиосообщение с просьбой перечислить деньги, стоит обязательно вступить в диалог, чтобы проверить отправителя. Для этого следует задавать вопросы, ответы на которые знает только этот человек. Еще лучше постараться выйти с ним на прямую связь, например, обычным звонком.

Правда даже общение по видеосвязи в режиме реального времени больше не может служить 100% гарантией защиты от подделки. «Существуют технологии, которые позволяют генерировать видеодипфейки в реальном времени. Однако для подключения такой технологии к видеоконференцсвязи, мошенникам все равно нужно предварительно найти ролик с лицом человека, которым они хотят представиться. С помощью такого ролика создаются «маски», которые накладывают на фигуру в кадре», — рассказал Андрей Кузнецов.

Наглядно пример работы такой технологии был продемонстрирован на всю Россию в декабре 2023 года, когда студент СПбГУ записал видеообращение президенту Владимиру Путину, используя изображение и голос самого главы государства. При этом дипфейк оказался поразительно реалистичным. Это стало возможно, в том числе, благодаря большому числу загруженных в интернет видеозаписей с Путиным.

Чем больше своих фотографий, видео- и аудиозаписей человек загрузит в социальные сети и другие общедоступные интернет-ресурсы, тем легче злоумышленникам будет создать реалистичный дипфейк. «Есть огромный класс программ автопарсинга, которые могут скачивать изображения из соцсетей. Используя такие базы данных, можно создать нейросеть, которая по фотографиям человека сможет воспроизвести его внешний вид с очень высокой детализацией», — подтверждает Владимир Арлазаров.

Защититься от этого можно либо путем отказа от публичной активности, либо повысив бдительность. Надеяться на чисто технические средства защиты пока, к сожалению, не приходится, потому что алгоритмы распознавания дипфейков пока еще не превратились в «коробочные» решения для рядовых пользователей.

«Чем больше данных о человеке есть в свободном доступе — тем легче его «сымитировать». Если профессия обязывает регулярно появляется в публичном поле, то главная надежда — это хорошие способы распознавания и правильная законодательная база. Например, в Евросоюзе любое изображение, созданное с использованием искусственного интеллекта, должно быть соответственным образом помечено», — добавил Арлазаров.

Что касается обычных людей, то они уже выложили достаточно информации о себе, чтобы подавляющему большинству создали дипфейки. Однако мошенникам они не интересны, пока не обеспечили доступ по своей биометрии к деньгам или другим ценностям. Поэтому к применению биометрии следует относиться осторожно, советует эксперт.

«Мошенников привлекают попытки повсеместного использования биометрических технологий, причем даже там, где это не всегда это оправдано. И эту тревожную тенденцию стали замечать крупнейшие производители. Например, Microsoft на днях анонсировал технологию небиометрической сверки лиц, аналогичную нашей, где верификация по лицу происходит с использованием удостоверяющих личность документов. К тому же склоняются и ведущие банки. Желая предотвратить инциденты с дипфейками, рынок будет двигаться от биометрической идентификации в сторону верификации по документу», — спрогнозировал он.

Источник: rg.ru

Изображение создано при помощи нейросети Kandinsky. Все совпадения с реальными людьми случайны


Звезда Гуково