Zahav.МненияZahav.ru

Суббота
Тель-Авив
+32+26
Иерусалим
+32+20

Мнения

А
А

Наступает эра deepfake

Фото малыша, "протестующего" на пешеходном переходе, всего лишь промо к тому, что нас ждет перед выборами.

13.07.2023
Источник:Детали
Фото: Walla! / Нив Ааронсон

Фотография малыша, сидящего на коврике с флагом на пешеходном переходе, вызвала, что неудивительно, резонанс в соцсетях. Одни комментаторы утверждали, что фотография настоящая и необходимо привлечь родителей к ответственности, другие уверяли, что это монтаж с целью дискредитации протеста, третьи, которые оказались правы, заявляли, что это постановочная фотография и все совсем не так, как выглядит на снимке. И действительно, в агентстве Flash90 подтвердили "Деталям", что снимок подлинный и постановочный, при этом он вполне мог оказаться сгенерированным ИИ.

Снимок был сделан спонтанно: молодая женщина, пришедшая на акцию протеста вместе с ребенком, попросила фотографа сфотографировать его, после чего усадила на подстилку на дорогу, которая в тот момент уже была полностью заблокирована. Автобусы на заднем плане не "остановились перед пешеходным переходом", как могло показаться, а стоят там без водителей именно с целью блокировать дорогу.

Оставим в стороне тот факт, что использование маленьких детей или их фотографий в акциях протеста достаточно проблематично или как минимум спорно, даже если ребенку ничего не угрожает. И просто примем тот факт, что мы стремительно приближаемся к моменту, когда будем вынуждены признаться себе в том, что не можем доверять ни одной опубликованной в интернете фотографии.

Пока что только фотографии, но совсем скоро такая же участь постигнет видеоматериалы. Виной тому искусственный интеллект, инструменты на основе которого уже сегодня позволяют сгенерировать практически любое фото. И если поддельные снимки, сделанные любителями с помощью бесплатных инструментов, пока еще можно распознать, хотя и с трудом, то выполненные профессионалами изображения ничем не отличаются от реальных.

Является ли фото малыша на пешеходном переходе менее реальным, чем снимки с изображением Дональда Трампа в окружении арестовавших его полицейских; Илона Маска, держащего за руку свою конкурентку - гендиректора General Motors Мэри Барр; Владимира Путина, преклонившего колено перед председателем КНР Си Цзиньпином и целующего ему руку, и так далее? Хотя в случае с Путиным можно догадаться, что это фейк, но большинство пользователей интернета удовлетворятся тем, что фото выглядят "как настоящие", и примут их за реальные.

Еще более проблематичными будут видеоматериалы, созданные с помощью технологии deepfake ("глубокого фейка"). Слово "дипфейк" происходит от соединения двух английских слов: deep learning - "глубинное обучение" и fake - "подделка". Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.

На этих видео политики, к примеру, могут говорить нечто, чего они никогда не говорили, а также делать вещи, которых не делали. Один из последних примеров использования дипфейка по отношению к политику - трансляция 5 июня видеоролика с "экстренным обращением президента России Владимира Путина". Речь шла якобы об объявлении военного положения в приграничных областях России и о намерении президента подписать указ о всеобщей мобилизации.

Не исключено, что мы столкнемся с ИИ-фото и ИИ-видео уже в ближайшее время, в ходе муниципальных выборов, где страсти кипят не меньше, чем во время выборов в кнессет, а финансирование не является проблемой. В конце концов, это простой и эффективный путь скомпрометировать мэра или, наоборот, претендента на место мэра.

Подобный нашумевший пример имел место в США накануне выборов мэра Чикаго в начале этого года. В Сети появился ролик с кандидатом от Демократической партии Полом Валласом, в котором политик рассуждал о творящемся беззаконии в Чикаго и напоминал о временах, когда никого не возмущала гибель людей в результате применения полицией огнестрельного оружия.

Читайте также

Позже избирательный штаб Валласа заявил, что видео - подделка, сгенерированная при помощи искусственного интеллекта, однако к тому моменту оно уже получило широкое распространение в Сети. Выборы Валлас проиграл, и остается только гадать, повлиял ли фейковый ролик на решение избирателей.

Естественно, вся надежда на поисковики и соцсети, которые разрабатывают механизмы по отслеживанию контента, созданного нейросетями. Соцсети уже заявляют, что будут удалять контент, содержащий дезинформацию, независимо от того, был ли медиапродукт создан в обычном графическом редакторе или при помощи ИИ. Поисковики также намереваются маркировать синтетический контент, нанося на него водяные знаки.

Вопрос в том, смогут ли модераторы противостоять шквалу контента, созданному искусственным интеллектом, ведь во время выборов и предвыборные штабы, и избиратели будут иметь доступ к мощным инструментам на основе ИИ, способным создавать правдоподобные фейки за считаные секунды.

При всем уважении к муниципальным выборам в Израиле, ответ на этот вопрос мы получим не сейчас, а в 2024 году во время президентских выборов в США. Если во время выборов 2020 года программы, генерирующие с помощью ИИ фото и видео, делали первые шаги и выдавали далеко не самый качественный контент, то через год мы столкнемся уже с совсем другим уровнем созданного ИИ контента.

Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке