28.03.2024
Подписывайтесь на Telegram-канал по ссылке

Deepfake наступает. Как себя вести, чтоб защититься от обмана

Deepfake наступает

Мошенники из Китая 2 года водили за нос государственную систему распознавания лиц. С помощью нейросетей они украли 76 миллионов долларов. Дипфейк (deepfake) «оживляла» фото высокого качества, купленные в даркнете, а биометрическая система подтверждения личности открывала доступ к совершению платежей. Несмотря на то, что дипфейк существует уже несколько лет, многие до сих пор не знают, что это такое.

Как работает deepfake?

Дипфейк (deepfake) — это технология, которая может на фото или видео заменить лицо одного человека другим. Она даже может имитировать голос. Своё название «глубокая подделка» получила за использование глубоких нейронных сетей. Искусственный интеллект анализирует входящие данные, например, изображение человека. Он изучает мимику, особенности лица. И в итоге воспроизводит это лицо в движении.

Если это так опасно, то зачем придумали?

Неверно считать, что дипфейк можно использовать только во вред. Например, крупная китайская компания Tencent считает, что технология имеет ряд значимых плюсов.

1. Использование в кинопроизводстве

Дипфейк воскресила Пола Уокера в «Форсаж 7». Причём, многие отмечают, что выглядело здорово. А «Сбер» создал дипфейк-копию Жоржа Милославского из фильма «Иван Васильевич меняет профессию». Также с помощью нейросети можно делать каскадёров более похожими на актёров.

2. В коммерческой сфере дипфейк также неплохо справляется

При покупке одежды онлайн нередко появляется проблема выбора модели конкретно под фигуру покупателя. В итоге некоторые отдают предпочтение оффлайн-магазинам. Но это не так удобно, как создать модель самого себя и примерить на неё одежду, не вставая со стула.

3. Цифровые развлечения с дипфейк тоже выходят на новый уровень

В качестве примера Tencent привела приложение Zao. В нём можно заменить лицо актёра на любое другое. Сайт «Новая наука» составил список из 6 лучших дипфейк приложений 2021 года. С ними можно весело провести время, но важно помнить о неприкосновенности частной жизни других людей.

Предупреждён — значит вооружён

Технология дипфейк рассчитана на то, чтобы оставаться незамеченной. Искусственный интеллект подделывает реальность, что полезно для мошенников и других нечистых на руку людей. Они монетизируют технологию несколькими способами.

1. Финансовое вымогательство

Люди выкладывают в интернет фото, чтоб просто поделиться с друзьями. Никто не думает, нажимая кнопку «опубликовать», что именно это фото с курорта может быть использовано против них. Мошенники создают нелицеприятный контент и требуют выкуп. В противном случае человек может оказаться в неудобной ситуации, когда фальшивые фото разошлют его близким. Также фотография может послужить для обхода распознавания по Face ID. И открыть доступ к конфиденциальной информации и реквизитам банковской карты.

Дипфейк может имитировать не только изображение. Например, сотруднику звонит генеральный директор компании, на которую он работает, и отдаёт чёткие инструкции, куда перевести деньги. Не каждый задумается, что ему звонит вовсе не человек. Именно так британская компания лишилась 243 тысяч долларов. Мошенники не просто сгенерировали голос руководителя, но и научили его самостоятельно отвечать на вопросы.

2. Deepnudes — изображение обнажённых

Использовать изображения обнажённых людей можно не только ради денег, но и для психологического давления. Безопасность не гарантирована даже тем, кто никогда не выкладывал в интернет подобные фотографии. Нейросеть способна «раздеть» человека очень реалистично. Потом и не докажешь родственникам, что одежда все-таки была.

В 2017 году жертвами Deepnudes стали известные актрисы Галь Гадот, Скарлетт Йоханссон, Тейлор Свифт, Мейси Уильямс. Их лица поучаствовали в порнографических роликах. Видео были далёкими от совершенства, и, конечно, не нанесли урона репутации звёзд. Но то было 4 года назад.

3. Политические манипуляции

Дипфейк легко может сказать или сделать что-то за известного политика. Поддельный контент разлетится через социальные сети с помощью ботов очень быстро. Конечно, информацию можно опровергнуть. Но скандала не избежать. Особенно опасно для предвыборных периодов, когда очернить оппонента — залог собственного успеха.

Японская компания Trend Micro специализируется на кибербезопасности. В исследовании «Изменения на подпольных рынках: прошлое, настоящее и будущее» она проанализировала изменение спроса и предложения на услуги киберпреступников. Всё чаще их интересует технология дипфейк. Причём, цены не вызывают шока, а вот услуги — вполне. Занятный факт: Trend Micro отметили, что подпольные рынки в России остаются самыми дешёвыми с 2017 года.

Спасения нет?

Не так давно появился инструмент для распознавания дипфейк-фотографий. Он определяет фальшивку по световому отражению в глазах. Эксперимент проводили учёные из Университета Буффало и доказали эффективность технологии на 94%. Правда, пока она работает только для портретных фотографий.

А в Калифорнии уже приняли два закона. Один из них запретил использование фотографий для создания порнографического контента без согласия изображённых. Второй — подделывать изображения кандидатов на государственные посты в течение 60 дней перед выборами.

Каждый пользователь интернета может и сам принять следующие меры:

  • рассказать членам семьи, коллегам и друзьям, что такое дипфейк;
  • повышать свою медиаграмотность и пользоваться достоверными источниками;
  • критически относиться к голосовой почте и видеозвонкам;
  • использовать разные пароли для разных аккаунтов. Если взломают одну учётную запись, то не получат автоматический доступ к остальным аккаунтам.

Таким образом, пока адекватной защиты от неправомерного дипфейк-контента нет. Как только разработают приложение по распознаванию, будет разработана и нейросеть, которая сможет его обмануть. Законодательство лишь встаёт на путь урегулирования проблемы. Остаются лишь эти простые правила. Они не гарантируют безопасность, но повышают шансы не стать жертвой слишком умного искусственного интеллекта.