Журналисты издания MIT Technology Review обнаружили в Сети приложение, которое может создавать дипфейк-порно с любым человеком. Как отмечается, на сайте приложения находится большая кнопка для загрузки фотографии лица, которая впоследствии будет использована для создания порноролика с применением дипфейк-технологий.
По словам журналистов, это один из первых примеров полноценного приложения для подобной задачи. Авторы статьи три раза пытались связаться с создателями приложения, но не получили ответа. Спустя три дня после выхода материала, сервис временно приостановил работу.
Приложение предлагает загрузить любое фото или выбрать одно из предложенных, а затем выбрать порно-ролик из библиотеки. После чего показывается демо-версия результата, чтобы получить полную версию видео — необходимо заплатить.
Отмечается, что результат работы приложения далёк от совершенства. Большинство сцен с замененным лицом явно выглядят фальшиво, картинка мерцает и искажается по углам, когда голова поворачивается. Однако, как считают эксперты, качество дипфейка не имеет большого значения, потому что психологический удар для жертвы будет в любом случае одинаковым. Кроме того, многие люди не знают о существовании подобных технологий, поэтому даже некачественная замена лица может их обмануть.
Напомним, в 2021 году жители Индии гораздо чаще стали сталкиваться с мошенничеством, когда у них вымогают деньги после откровенных видеозвонков. Ярким примером стала ситуация, произошедшая в начале августа. Тогда 54-летний житель Ченнаи ответил на видеозвонок в WhatsApp, поступивший с незнакомого номера. Ему звонила обнажённая женщина, которая в процессе общения вынудила его раздеться. В тот момент он не знал, что видеозвонок записывается.
Читать первым в Telegram-канале «Код Дурова»