Искусственный интеллект все активнее входит в нашу жизнь, с каждым годом охватывая новые индустрии. Не удивительно, что не стал исключением и столь востребованный бизнес, как порно.
По данным исследования влияния алгоритмов ИИ на пользователей порносайтов, проведенного британским фондом «Реворд», аккредитованном при Кембриджском университете, современные алгоритмы постепенно уводят посетителей страничек для взрослых ко все более экстремальному материалу, часто со сценами насилия и детской порнографией . Со временем у них увеличивается потребность во все более сильных стимулах, более рискованном материале и одновременно снижается способность воздерживаться от употребления подобного контента.
Второй, не менее опасный тренд, — это так называемые дипфейк (deepfake) и дипнюд (deepnude) — технологии создания искусственных порнографических видео и изображений с использованием подставных лиц и тел.
Дипфейк появился не так давно — в 2014 году, когда будущий сотрудник «Гугла» Иэн Гудфеллоу создал GAN — систему взаимообучающихся нейронных сетей, которые сейчас активно применяются в различных областях и доступны в открытом доступе «Гугл» — именно они породили deepfake.
Изначально предполагалось, что эти технологии помогут полиции и правительству в борьбе с подделками документов и денег, однако первым применением дипфейк стало порно. В 2017 году анонимный пользователь впервые реализовал технологию на сайте Reddit, накладывая лица известных актрис на тела из порновидео. Далее дипфейк распространился как лесной пожар.
Если в 2017 году для реализации таких задач требовалось умение писать код, а по результату было видно, что это фейк, то в 2021-м достаточно загрузить одну фотографию и нажать пару кнопок, чтобы произвести видео, часто неотличимое от реального.
На 2020 год насчитывалось около 50 тысяч порновидео с технологией deepfake, в августе 2021 года появившийся новый сайт, позволяющий наложить любое лицо на целую библиотеку порновидео в течение секунд, успел привлечь 6,7 млн посетителей менее, чем за месяц.
По словам Ребекки Делфино, профессора юриспруденции Университета Лос-Анджелеса, на настоящий момент 96% всего контента, который производится с помощью технологий дипфейк, является порнографией, произведенной без согласия человека, оказавшегося на видео, и 90% жертв этой технологии — женщины.
Если в начале эпидемии дипфейка основными жертвами были известные личности и актрисы, то со временем растущая доступность технологий позволила использовать ее для преследования, унижения и харассмента прежде всего женщин.
Индийская журналистка и активистка Рана Айуб подверглась травле с помощью дипфейка — порновидео с ее лицом было распространено по соцсетям после одного из ее выступлений. Она решила прекратить свою деятельность, так как разрушающий эффект произошедшего был слишком силен.
В Великобритании учительница средней школы была уволена после того, как неизвестный распространил дипфейк-видео с ее лицом. Расследование дипфейк-ботов в канале Телеграм показало, что 70% всех женщин, образы которых были использованы на видео, являлись непубличными личностями.
Наше лицо и наш голос, даже в цифровом формате, имеют прямую связь с нашей социальной идентичностью, с нашей личностью и репутацией. После многих десятилетий борьбы женщин против сексуального насилия и объективации, которые, казалось бы, привели к значимым изменениям, женщины оказались перед цунами совершенно новой угрозы — дипфейка, не имея никаких средств защиты.
Ведь с ростом доступности и качества технологий любой обиженный отказом мужчина, любой злопыхатель или завистник может превратить твою жизнь в ад, разослав порновидео, мало отличимое от реального, твоим коллегам, друзьям, начальству, детям.
«Большинство из нас не могут получить девушку своей мечты, — признается в интервью газете The Washington Post один из анонимных создателей дипфейков, — а так ей можно отомстить или отыграть свою самую запретную фантазию».
«Порнхаб» официально запретил дипфейк-порно на своей платформе, однако ничего не было удалено. И, несмотря на развитие различных технологий, помогающих распознать фейк-видео, для судьбы жертв дипфейка это небольшое спасение — как мы знаем, все, что попало в интернет, будет существовать в нем всегда, и «развидеть» порновидео своей мамы или жены сложно, даже если точно знаешь, что это фейк. Ложки нашлись, но осадочек остался.
К тому же в настоящий момент не существует возможности или легального прецедента защиты жертв. Если порноместь — публикация частного реального видео или фотографий интимного характера — преследуется по закону, то дипфейк большинство законов пока не готовы оценить, ведь в этом случае речь не идет об украденной «личной информации».
Стоит отметить, что дипфейк далеко не первый роман человечества с подделкой, который оказывает влияние на развитие нашего общества. Глянцевые журналы с 50-х годов прошлого века с помощью отретушированных картинок диктуют, как должна выглядеть идеальная женщина.
По сути, дипфейк — это следующая ступень эволюции процесса, который начинался с фотомонтажа, прошел ретушь и фотошоп, и уже 70 лет отражает коллективное бессознательное. Что мы подделываем? Зачем создаем визуальные отпечатки реальности? На какую «память» мы делаем себе отфильтрованное селфи?
«Инстаграм» — не реальная жизнь, и остающиеся после него визуальные артефакты не являются отражением реального прошлого. Если раньше переписыванием учебников истории и сокрытием архивных фактов занималось небольшое число людей, то теперь каждый второй ежедневно оставляет потомкам свидетельства о жизни, которой у него не было.
Рукописи не горят, и оригиналы всегда ценились выше копий. Теперь же за фактами мы идем в «Википедию», где статью можно редактировать постфактум с той же легкостью, с которой мы можем стать на десять лет моложе на фотографии. Не зря каждое второе объявление на сайте знакомств гласит: «Я встречусь с тобой, если ты выглядишь как твои фото».
Наш мозг с трудом справляется с установкой «не верь глазам своим» — а мы должны каким-то образом научиться с ней справляться, потому что технологии определения дипфейка не успевают за технологиями его создания. Как сказал Ник Мемон, профессор информатики Университета Нью-Йорка: «Последствием этого является то, что правде более не верят. Фото человека, стоящего перед танком на площади Тяньаньмэнь, вызвало отклик по всему миру. Звонок Никсона по телефону стоил ему президентского кресла. Фотографии ужаса концлагерей подтолкнули нас к победе над фашизмом. Если я не могу доверять своим глазам, то это огромная проблема».
Другая сторона этой проблемы — постоянное самообучение ИИ через обратную связь. Если только обратная связь управляет нами, то мы остаемся на милости толпы и ее инстинктов. Базовые инстинкты отторгать инакомыслящих, уничтожать чужаков никуда не делись, несмотря на просвещенный XXI век, что подтверждают войны в «Твиттере» и «культура отмены» (cancel culture).
Газеты и телевидение, управляемые рейтингами, прекрасно показывают, какую культуру мы получим, если исключить регулирование.
Правда становится раритетом. Создавать килотонны дипфейка всех жанров — быстро и дешево, а алгоритмы обеспечат отсутствие творческих промахов и прямое попадание в дофаминовые рецепторы. Вместе с порошковым молоком и не портящимися годами бургерами нестареющий аватар Скарлетт Йоханссон будет заниматься все более жестким сексом с любым обитателем виртуальной реальности всего лишь за какой-то несчастный допуск к персональным данным.
Меж тем те, кто может позволить себе правду, пойдут создавать себе новые закрытые среды обитания, где аутентичные люди без фильтров пьют крафтовое молоко и занимаются органическим сексом в настоящих отношениях.
По материалам: «Сноб»