Как все-таки разносторонни технологии: с одной стороны, они открывают новые перспективы и возможности, с другой — негативно влияют на жизнь. Причем найти грань, после которой весы смещаются на одну или вторую сторону, не всегда просто. Собрали топ замечательных и одновременно пугающих видео, созданных с помощью ИИ, в том числе той самой Sora. На примере этой модели можно увидеть, насколько неоднозначны оказываются достижения науки и технологий, когда ими пользуются неправильно.
Все начиналось так, что опасений возникнуть было не должно: ИИ демонстрировал максимально задорный и кринжовый нрав, понять, где реальные кадры, а где созданные с помощью искусственного интеллекта, не составляло труда. От слова «совсем», и видео из недавнего прошлого является доказательством тому.
Спустя пару лет ситуация кардинально изменилась, теперь уже только насмотренный глаз и осознание того, что ролик может быть сгенерирован ИИ, позволяет угадать подделку. Если не сразу, то постепенно в голове начинают закрадываться мысли: «А ты точно Уилл Смит? Зачем ты бургер сверху кусаешь?!»
Отчасти все напоминает компьютерную графику в играх, да и кино. Некоторое количество десятилетий назад эти пиксели, серые задники и «туман» выглядели настолько нереалистично, что сейчас только диву даешься: «Как мы тогда могли воспринимать это как крутое?» Сегодня процесс ИИ-эволюции идет куда быстрее.
Да, кринжа хватает и по сей день, однако лишь когда дело идет о чем-то очевидном, наподобие такого:
С приходом Sora 2 все стало намного сложнее. Советы о том, как выявить ИИ-контент, резко устарели, поверхностного анализа картинки может быть недостаточно, приходится идти за лупой и вглядываться в каждый кадр: ага, кожа вокруг рта шевелится не так, зрачки странные, звук «мяу» не каноничный. И многое переходит в формат догадок, если ролик сам не дает подсказки, как в этом случае:
Вам кажется, что это очевидно подделка в том числе из-за сюжета? Если вы покажете данный ролик человеку постарше, лет семидесяти, например, с высокой (высоченной даже) долей вероятности он примет его за чистую монету.
Потому чуть усложним задачу.
Первый раз просматривая этот «шортс», вы могли подумать: «Ну это точно ИИ» — про каждый из отрезков, а не только два из них. А на самом деле пара фрагментов чередуется с двумя врезками за авторством ИИ по мотивам «увиденного».
Нередко понять, что перед нами созданный ИИ контент, позволяет вотермарка все той же Sora:
Правда, для этого как минимум нужно знать об ИИ. А как насчет роликов, когда водяного знака нет?
Обнаружить ИИ-артефакты в ролике выше чрезвычайно сложно. Тем более, что появились и сервисы, которые позволяют удалить вотермарку Sora из видео (да и любую другую).
И вновь заметить несостыковки (крокодил, например, топает по грунту лапами, хотя человек в кадре в воде по грудь) сможет не каждый и не сразу.
А вот ролик с подвохом:
Ну что, сколько секунд «иишных» кадров заметили? Кто ответил «нет таких», прав: все настоящее.
А вот пример ролика, набравшего многие миллионы просмотров, но уровень креативности которого стремится вниз. Просто потому, что он весь пропитан ИИ: визуальная составляющая сгенерирована одной моделью, звук и собственно песня — другой. Авторы не указывают этого под «клипом», лишь YouTube аккуратно где-то в дебрях описания упоминает: «Аудио- или видеоряд был значительно изменен или сгенерирован цифровым способом».
Выглядит неплохо, но напоминает ультраобработанные продукты питания: красиво; может быть, даже вкусно, однако к полезности нередко возникают вопросы. А еще с течением времени на них можно подсесть, и тогда почти наверняка начнутся проблемы со здоровьем (на этот раз — психическим).
Но ведь это весело? Первое время, потому что с «ручной работой», как в видео ниже, ИИ вряд ли сравнится.
Нужно признать: при грамотном подходе ИИ создаст прекрасный ролик, правда, он покажется таким же бездушным, как современные фильмы, забитые под завязку компьютерной графикой. Хотя выглядит действительно круто.
А часто людям нужно такое:
В целом такой феномен называют ИИ-слоп, который представляет собой низкокачественный однотипный контент, созданный моделями искусственного интеллекта. Несмотря на то, что это «дно» креативности, подобные ролики набирают уйму лайков и просмотров, а тот же YouTube активно продвигает созданное ИИ. Зачем? Помогает в конкурентной борьбе с TikTok и другими сервисами и наоборот. И самое забавное, что реалистичность в этом случае вовсе не на первом месте.
Более того, за созданием «слопа» стоит целая индустрия с маркетинговыми исследованиями и A/B-тестированием — все ради денег от просмотров, охватов и лайков с минимальными затратами на производство. Само собой, открываются «курсы» по «созданию реалистичных ИИ-видео».
И так появляются вирусные видео: «Кролики прыгают на батуте». Причем авторы не особенно заботятся о зрителях, уверяя, что кадры сняты на камеру наблюдения случайно.
Интернет-сообщество не сразу поняло, что кролики — «иишные».
Затем появились подражатели:
Разного уровня оторванности:
Очень смешно (нет):
Бытует мнение, что ИИ убивает креативность, однако на самом деле вопрос куда шире. Нынешние модели не умеют создавать что-то действительно новое: это переработка существующего. Кроме того, ИИ — лишь инструмент, который используют люди для генерации все большего объема контента. А чем его больше, тем выше шансы заработать как минимум на количестве, качество же отходит на задний план.
Аудитория, в свою очередь, сама решает, чего она хочет: пачку шаблонных «шортсов» с прыгающими котиками и однотипной музыкой из кремниевых недр вычислительных систем или реального автора музыки и душевной лирики. И интернет-площадки это понимают, но сейчас модно именно это. Модно продвигать ИИ, потому в четырех из десяти топовых каналов по количеству подписчиков на YouTube постоянно появляются сгенерированные данные. А хайп когда-то спадет.
Скорее проблема в том, что отличить реальность от вымысла будет с каждым годом сложнее. Да, та же OpenAI пишет в соглашении с пользователем о запрете использования ИИ для продвижения насилия и вообще «для нанесения ущерба» в любом виде (в том числе — emotional damage), однако кого это останавливало?
Выше — один из безобидных примеров, но нечистые на руку интернет-инфлюенсеры используют ИИ для создания действительно опасного контента: поддельных интервью, показаний очевидцев по мотивам реальных трагических событий и так далее. В качестве примера такого инструмента в Guardian приводили Sora 2. Мол, сервис «позволяет заглянуть в недалекое будущее, где отличать правду от вымысла все сложнее […] Исследователи распространения дезинформации считают, что подобные реалистичные сюжеты могут исказить правду и создать ситуации, когда ИИ-видео могут использоваться для мошенничества, запугивания и угроз». Может? Скорее уже используются.
Интересная ситуация сложилась и с заявлениями Сэма Альтмана, главы OpenAI, который сказал, что модель настроена так, чтобы противостоять нелегальному контенту, в том числе благодаря невозможности использовать в видео Sora 2 образы знаменитостей. Вскоре появились такие видео, в том числе с поддельным Альтманом (ниже — один из наиболее «травоядных» примеров: Альтман «крадет» видеокарты).
Выяснилось, что все запреты легко обходятся, никаких реальных преград попросту не существует: это как дать ребенку конфету и потребовать ее не есть. Страдают от этого и правообладатели, которые ранее легко расправлялись с роликами популярных и не очень создателей контента, где на мгновение, но без разрешения появлялись известные персонажи. Теперь они ничего не могут поделать с ордами «иишных» Пикачу, продвигающих очередной криптоскам.
Судя по всему, «Скайнет» из «Терминатора» если и появится, то не в образе Т-800 или T-1000, а в виде поддельного Бендера Бендинг Родригеса.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро
Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by