Использование дипфейка для ограбления банка. В каких ситуациях это возможно, и как от этого защититься
В февраля 2024 года российские СМИ распространили информацию о случае якобы использования дипфейков для обхода аутентификации в банке «Тинькофф». В первоисточнике[1] высказывалось предположение, что мошенники якобы с помощью дипфейка смогли вывести со счетов пользователя 200 тыс. руб. TAdviser обсудил с экспертами, насколько велик риск обхода банковской аутентификации и кражи средств с помощью дипфейков.
Содержание |
Дипфейки против биометрии
Технология биометрической идентификации все активнее используется при дистанционной идентификации и аутентификации пользователей, что и позволяет развиваться технологиям дипфейков для их обхода. Уже появляются сервисы, которые могут генерировать фейковые фотографии документов, используемые мошенниками для того, чтобы доказать свою личность в онлайн-общении с сотрудниками банков.
Учитывая развитие технологий, использование дипфейков может обойти системы, основанные на распознавании лиц, голосовых характеристик и других биометрических данных, – пояснила TAdviser Анастасия Федорова, директор по развитию центра мониторинга кибербезопасности «К2 Кибербезопасность». – Пока злоумышленники используют их в основном для обмана людей, а не взлома систем. Например, недавно финансист из Гонконга перевел мошенникам более $25 млн после созвона с топ-менеджерами своей компании[2]. После звонка выяснилось, что разговаривал он с дипфейками коллег. Однако, вероятно скоро дипфейки начнут массово применяться мошенниками по всему миру. |
Особенно опасна в связи с дипфейками может оказаться ситуация с Единой биометрической системой (ЕБС), которая сейчас поддержана на уровне законодательства и активно продвигается государством. Впрочем, есть и более опасные проекты, типа WorldCoin, который организован Сэмом Альтманом, генеральным директором OpenAI. Проект собирает с помощью специального устройства Orb сканы сетчатки глаз. В проекте участвует уже более 5 млн человек, отпечатки сетчаток которых загружены в систему. Можно ли с помощью такой базы сканов и технологий искусственного интеллекта, разработанного компанией Альтмана, генерировать фейковые изображения сетчатки для обмана соответствующих биометрических систем защиты, пока не понятно.
С моей точки зрения дипфейки – это атомная бомба, – заявил TAdviser Александр Егоркин, первый вице-президент Газпромбанка. – Идея сбора биометрических данных после появления дипфейков должна быть забыта навсегда. Несколько секунд дурацкого разговора жулика с жертвой позволяют потом с помощью искусственного интеллекта построить любой текст устной речи голосом этой жертвы. И не так много секунд разговора надо – достаточно грамотно построить исходный разговор, чтобы там были все правильные звуки и эмоции. После этого искусственным интеллектом можно собрать любой заранее написанный текст. А далее в банк для аутентификации приходит какой-то оцифрованный код – цифры какие-то – и эти цифры должны при определенной обработке преобразоваться в звуки, изображение или видео. Цифры, которые рождает искусственный интеллект, и цифры, которые рождает видеокамера, одни и те же. |
Тем не менее, пока генеративный искусственный интеллект создает произведения с определенными дефектами – эксперты уверяют, что в любом дипфейковом изображении остаются артефакты, которые позволяют выявить обработку с помощью искусственного интеллекта. Собственно, пока публичные примеры дипфейковых изображений и видео сильно отличаются от реальных – их может распознать даже человек. Скорее всего, специальный нейросетевой анализатор всегда сможет обнаружить признаки использования обработки изображений и видео с помощью ИИ. Поэтому тем, кто строит системы биометрической идентификации сейчас, стоит предусмотреть соответствующий элемент защиты в них.
Фейковые коммуникации
Если же вернуться к ситуации с банком «Тинькофф», то по результатам расследования было выяснено, что никакого дипфейка в том случае не было. Сам автор поста после расследования ситуации написал в своем блоге следующее:
Банк провёл расследование и связался со мной. По словам представителя мошенник ввёл сотрудников в заблуждение. Была заведена новая учётная запись, затем он добился её слияния с моей и получил доступ… Официально не зарегистрировано случаев мошенничества через deepfake. Но это не означает, что подобное невозможно в будущем. Желаю службе безопасности «Тинькофф» оставаться на шаг впереди. |
Также от имени банка в переписке есть закрепленное сообщение такого содержания:
Мы детально проверили вашу ситуацию — она не имеет никакого отношения к дипфейкам, они здесь не применялись. В «Тинькофф» есть технология liveness, которая исключает возможность прохождения проверок с помощью дипфейков. В вашем случае сотрудник допустил техническую ошибку, и мошенник смог получить доступ в личный кабинет. Мошенник при этом не проходил видеоидентификацию и не пользовался дипфейками. Сейчас ошибка исправлена, с сотрудником проведена дополнительная работа, к нему применены дисциплинарные меры, он отправлен на переподготовку. Все средства будут возмещены в полном объеме, приносим наши глубочайшие извинения. |
Собственно, банки не проводят процедуру аутентификации своих клиентов через видеоконференцию – в лучшем случае по фотографии, однако и это не всегда верно. Нельзя просто так взять и передать фотографию для аутентификации. Необходимо, чтобы фотография была снята приложением банка, а клиент должен предварительно пройти аутентификацию сначала в операционной системе, а затем в приложении. Причем, скорее всего, для только что установленного на устройство приложения такой метод аутентификации вообще не будет применяться.
Рекомендации по защите
Сейчас дипфейки могут быть использованы только для обмана людей, как в приведенном выше случае с введением финансиста из Гонконга в заблуждение. Действительно, он, не проводя полноценную процедуру аутентификации по биометрии, перевел деньги мошенникам. Подобные атаки получили распространение под названием «фейк босс». Они предполагают рассылку голосовых сообщений в мессенджерах якобы от имени руководителей компаний, где они просят сотрудничать со `службами безопасности` или `следователями МВД`. Такие фейки могут генерироваться по публичным выступлениям соответствующих должностных лиц. Однако обманываются таким способом люди, выполняющие ответственные операции, а не системы аутентификации.
Если злоумышленники собрали определенную информацию о жертве и знают ее предпочтения, то голосовые фейки могут сработать, – прокомментировал ситуацию Алексей Лукацкий, бизнес-консультант по информационной безопасности Positive Technologies. – У нас есть руководитель, который постоянно пользуется голосовыми сообщениями, поэтому атака с использованием его дипфейка может сработать. Есть еще варианты, когда вначале прилетает голосовое сообщение или создается фейковая видеоконференция с плохим качеством, чтобы нельзя было определить, что это подделка, и уже ссылаясь на низкое качество предлагают перейти в текстовую переписку через тот же самый мессенджер. |
Таким образом, меры по защите от дипфейков должны быть направлены на людей, которые занимаются в самих финансовых организациях проверкой мультимедийной составляющей коммуникаций. Эксперты рекомендуют обучать их отличать дипфейки – картинки, видео и звуковые, для чего организовывать специальные тренинги, чтобы они могли самостоятельно определять признаки использования дипфейка. TAdviser выпустил новую Карту «Цифровизация ритейла»: 280 разработчиков и поставщиков услуг
При выборе инструментов для биометрической идентификации также стоит использовать технологии, которые сложно обмануть с помощью дипфейка. Например, идентификация по рисунку вен на ладонях ориентируется на термический рисунок, создаваемый венами ладони, и повторить его искусственно очень затруднительно.
Как ни странно, биометрические устройства с голосовой активацией сложнее обмануть, – добавила Анастасия Федорова. – Они часто сочетают голосовую активацию с уникальными вопросами, на которые должен знать ответ пользователь. Их злоумышленникам сложнее узнать. Более продвинутые системы безопасности могут также прослушивать колебания звука, которые производят только голосовые связки. Дипфейком также сложно подделать отпечатки пальцев. В сканерах содержится не только информация о верифицированных отпечатках, которую в целом можно взломать. Устройства также ориентируются на тепло, чтобы убедиться, что палец находится на их поверхности. |
В целом, можно заключить, что появление дипфейков сильно ухудшило надежность биометрической идентификации, однако не свело ее к нулю. В некоторых случаях биометрию можно использовать достаточно удобно и эффективно, однако важно так выстраивать систему защиты, чтобы она не зависела полностью от биометрической аутентификации – нужно проверять и другие факторы, такие как секретная информации или одноразовые пароли.