13 декабря 2021 22:13
Deepfake" кто-нибудь? Технология синтетических сред вступает в опасную фазу

Deepfake» кто-нибудь? Технология синтетических сред вступает в опасную фазу

Шейн Рэймонд

12 декабря (Рейтер) — «Хотите увидеть себя в роли актера в кино или на телевидении?» — гласило описание приложения в интернет-магазинах, которое предлагало пользователям возможность создавать синтетические медиа, генерируемые искусственным интеллектом, также известные как «глубокие подделки».

«Хотите увидеть, как танцует ваш лучший друг, коллега или начальник?» — добавляется в сообщении. «Вы когда-нибудь задумывались, как бы вы выглядели, если бы ваше лицо поменяли местами с лицом вашего друга или знаменитости?».

Это же приложение рекламировалось по-разному на десятках сайтов для взрослых: «Сделайте «глубоко поддельное» порно за секунду», — говорилось в рекламе. «Deepfake» с кем угодно.

Применение все более сложной технологии — одна из сложностей программного обеспечения синтетических медиа, которое использует машинное обучение для цифрового моделирования лиц из изображений и последующего их максимально плавного чередования в фильмах.

Технология, которой всего четыре года, возможно, находится на переломном этапе, согласно интервью Reuters с представителями компаний, исследователями, политиками и активистами.

Эксперты говорят, что она уже достаточно развита, чтобы обычные зрители с трудом отличали многие поддельные видео от настоящих, и она распространилась настолько, что ее может использовать практически любой человек со смартфоном, причем для этого не нужно быть специалистом.

«Как только точка входа станет настолько низкой, что это не составит труда, и неискушенный человек сможет создать очень сложное, не требующее согласия ультраподдельное порновидео, это станет переломным моментом», — говорит Адам Додж, юрист и основатель компании EndTab, занимающейся вопросами онлайн-безопасности.

«Вот тут-то у нас и начинаются проблемы», — добавил он.

Многие активисты, исследователи и разработчики программного обеспечения, занимающиеся вопросами онлайн-безопасности, говорят, что главное — заручиться согласием тех, кого подделывают, хотя это легче сказать, чем сделать. Некоторые выступают за более строгий подход к синтетической порнографии, учитывая риск злоупотреблений.

Ультраподдельная порнография без согласия составила 96% из более чем 14 000 видеороликов «deepfake», размещенных в Интернете, согласно отчету за 2019 год компании Sensity, которая занимается обнаружением и мониторингом синтетических медиа. Она добавила, что количество фейковых видео в сети удваивается примерно каждые шесть месяцев.

«Подавляющее, подавляющее большинство вреда, причиняемого «глубокими подделками» в настоящее время, является формой цифрового гендерного насилия», — сказал Аждер, один из авторов исследования и руководитель отдела политики и партнерства в компании Meta (признана экстремистской организацией, деятельность которой запрещена в Российской Федерации)physic, специализирующейся на ИИ, добавив, что, согласно результатам исследования, миллионы женщин стали мишенью по всему миру.

Следовательно, существует «большая разница» между тем, что приложение явно рекламируется как порнографический инструмент или нет, сказал он.

APP УДАЛЕН
ExoClick, сеть онлайн-рекламы, которую использовало приложение «Make deepfake porn in a sec», сообщила Reuters, что не знакома с подобным типом программного обеспечения для подмены лиц искусственного интеллекта.

Компания заявила, что приостановила рекламу приложения и не будет безответственно продвигать технологию замены лиц.

«Это новый для нас тип продукта», — сказал Брайан Макдональд, руководитель отдела по соблюдению рекламных норм в компании ExoClick, которая, как и другие крупные рекламные сети, предлагает клиентам панель сайтов, которые они могут сами настраивать, чтобы решить, где размещать рекламу.

«После изучения маркетингового материала мы постановили, что формулировка, использованная в маркетинговом материале, неприемлема. Мы уверены, что подавляющее большинство пользователей подобных приложений используют их для развлечения без злого умысла, но мы также признаем, что они могут быть использованы в злонамеренных целях».

Шесть других крупных сетей онлайн-рекламы, к которым обратилось агентство Reuters, не ответили на просьбу прокомментировать, сталкивались ли они с программным обеспечением deepfake или имеют ли политику по этому вопросу.

В описании приложения в магазинах Apple (NASDAQ:AAPL) App Store и Google (NASDAQ:GOOGL) Play Store, где оно доступно для всех желающих старше 12 лет, нет никаких упоминаний о возможном порнографическом использовании приложения.

Компания Apple заявила, что у нее нет конкретных правил в отношении ультраподдельных приложений, но ее более широкие рекомендации запрещают приложения, содержащие клеветнический, дискриминационный или способный унизить, запугать или причинить вред контент.

Компания Google не ответила на просьбу о комментарии.

После обращения в агентство Reuters по поводу рекламы «Deepfake porn» на сайтах для взрослых компания Google временно удалила страницу Play Store для приложения, которое имело рейтинг E, или для всех. Страница была восстановлена примерно через две недели с рейтингом T — для подростков из-за «сексуального содержания».

ФИЛЬТРЫ И ВОДЯНЫЕ ЗНАКИ

Хотя в растущей индустрии программного обеспечения для обмена лицами есть недобросовестные игроки, потребителям предлагается широкий спектр приложений, и многие из них принимают меры для предотвращения злоупотреблений, сказал Адждер, который выступает за этичное использование синтетических медиа в составе отраслевой группы Synthetic Futures.

Некоторые приложения, например, позволяют пользователям обмениваться изображениями только в заранее выбранных сценах или требуют подтверждения личности обменивающегося, или используют искусственный интеллект для обнаружения загруженных порнографических изображений, хотя эти меры не всегда эффективны, добавил он.
Reface — одно из самых популярных в мире приложений для смены лиц, которое с 2019 года уже собрало более 100 миллионов загрузок по всему миру. В нем пользователям предлагается поменяться лицами со знаменитостями, супергероями и героями мемов для создания забавных видеоклипов.

Американская компания сообщила Reuters, что она использует автоматическую и человеческую модерацию контента, включая фильтр порнографии, а также другие средства контроля для предотвращения злоупотреблений, включая тегирование и визуальные водяные знаки для маркировки видео как синтетических.

«С момента появления технологии и создания компании Reface было признано, что технология синтетических носителей может быть использована не по назначению», — сказал он.

ОТВЕТСТВЕННОСТЬ НЕСЕТ ТОЛЬКО АВТОР

Расширение доступа потребителей к мощным вычислительным машинам через смартфоны сопровождается прогрессом в технологии ультраподделки и качестве синтетических носителей.

Например, основатель EndTab Додж и другие эксперты, опрошенные агентством Reuters, рассказали, что на заре появления этих инструментов в 2017 году для достижения такого же качества, которое сегодня можно получить из одного изображения, требовался большой объем данных, часто исчисляемый тысячами изображений.

«Поскольку качество этих изображений становится таким высоким, протестов «Это не я!» недостаточно, и если это выглядит как вы, то воздействие такое же, как если бы это были вы», — сказала Софи Мортимер, менеджер Revenge Porn Helpline, которая базируется в Великобритании.

Политики, стремящиеся регулировать технологию ультраподделки, продвигаются вперед неравномерно, сталкиваясь с новыми техническими и этическими препятствиями.

В некоторых юрисдикциях, таких как Китай, Южная Корея и Калифорния, были приняты законы, специально направленные на борьбу со злоупотреблениями в Интернете с использованием технологии ультраподделки, где злонамеренное изображение кого-либо в порнографии без его согласия или распространение таких материалов может повлечь за собой выплату 150 000 долларов США.

«До сих пор не хватает конкретного законодательного вмешательства или криминализации «глубоко фальшивой» порнографии», — заявили исследователи Европейского парламента в исследовании, представленном в октябре, в котором предлагалось, чтобы законодательство устанавливало более широкую ответственность для таких субъектов, как разработчики или распространители, а также злоумышленники.

«При нынешнем положении дел ответственность несет только преступник. Однако многие злоумышленники идут на многое, инициируя эти атаки на таком анонимном уровне, что ни правоохранительные органы, ни платформы не могут их идентифицировать», — говорит Мариетье Шааке, директор по международной политике Центра киберполитики Стэнфордского университета.
Шааке сказал, что широкие новые цифровые законы, включая предложенный Закон об искусственном интеллекте в США и GDPR (защита данных) в Европе, могут регулировать элементы ультра-фальшивых технологий, но в них есть лазейки.

«Хотя может показаться, что существует множество юридических возможностей для преследования, на практике жертве сложно получить инструменты для этого», — сказал Шааке. «Рассматриваемый законопроект об искусственном интеллекте предусматривает раскрытие информации о манипулируемом контенте», — добавил он.