Реальность весело напрягла: топ поддельных ИИ-видео, неотличимых от настоящих

15 140
28
27 декабря 2025 в 8:00
БОЛЬШОЙ РОЗЫГРЫШ! До 31.01 заказывай в приложении на сумму от 99 р. и получи шанс выиграть призы

Как все-таки разносторонни технологии: с одной стороны, они открывают новые перспективы и возможности, с другой — негативно влияют на жизнь. Причем найти грань, после которой весы смещаются на одну или вторую сторону, не всегда просто. Собрали топ замечательных и одновременно пугающих видео, созданных с помощью ИИ, в том числе той самой Sora. На примере этой модели можно увидеть, насколько неоднозначны оказываются достижения науки и технологий, когда ими пользуются неправильно.

Все начиналось так, что опасений возникнуть было не должно: ИИ демонстрировал максимально задорный и кринжовый нрав, понять, где реальные кадры, а где созданные с помощью искусственного интеллекта, не составляло труда. От слова «совсем», и видео из недавнего прошлого является доказательством тому.

Спустя пару лет ситуация кардинально изменилась, теперь уже только насмотренный глаз и осознание того, что ролик может быть сгенерирован ИИ, позволяет угадать подделку. Если не сразу, то постепенно в голове начинают закрадываться мысли: «А ты точно Уилл Смит? Зачем ты бургер сверху кусаешь?!»

Отчасти все напоминает компьютерную графику в играх, да и кино. Некоторое количество десятилетий назад эти пиксели, серые задники и «туман» выглядели настолько нереалистично, что сейчас только диву даешься: «Как мы тогда могли воспринимать это как крутое?» Сегодня процесс ИИ-эволюции идет куда быстрее.

Да, кринжа хватает и по сей день, однако лишь когда дело идет о чем-то очевидном, наподобие такого:

С приходом Sora 2 все стало намного сложнее. Советы о том, как выявить ИИ-контент, резко устарели, поверхностного анализа картинки может быть недостаточно, приходится идти за лупой и вглядываться в каждый кадр: ага, кожа вокруг рта шевелится не так, зрачки странные, звук «мяу» не каноничный. И многое переходит в формат догадок, если ролик сам не дает подсказки, как в этом случае:

Вам кажется, что это очевидно подделка в том числе из-за сюжета? Если вы покажете данный ролик человеку постарше, лет семидесяти, например, с высокой (высоченной даже) долей вероятности он примет его за чистую монету.

Потому чуть усложним задачу.

Первый раз просматривая этот «шортс», вы могли подумать: «Ну это точно ИИ» — про каждый из отрезков, а не только два из них. А на самом деле пара фрагментов чередуется с двумя врезками за авторством ИИ по мотивам «увиденного».

Нередко понять, что перед нами созданный ИИ контент, позволяет вотермарка все той же Sora:

Правда, для этого как минимум нужно знать об ИИ. А как насчет роликов, когда водяного знака нет?

Обнаружить ИИ-артефакты в ролике выше чрезвычайно сложно. Тем более, что появились и сервисы, которые позволяют удалить вотермарку Sora из видео (да и любую другую).

И вновь заметить несостыковки (крокодил, например, топает по грунту лапами, хотя человек в кадре в воде по грудь) сможет не каждый и не сразу.

А вот ролик с подвохом:

Ну что, сколько секунд «иишных» кадров заметили? Кто ответил «нет таких», прав: все настоящее.

А вот пример ролика, набравшего многие миллионы просмотров, но уровень креативности которого стремится вниз. Просто потому, что он весь пропитан ИИ: визуальная составляющая сгенерирована одной моделью, звук и собственно песня — другой. Авторы не указывают этого под «клипом», лишь YouTube аккуратно где-то в дебрях описания упоминает: «Аудио- или видеоряд был значительно изменен или сгенерирован цифровым способом».

Выглядит неплохо, но напоминает ультраобработанные продукты питания: красиво; может быть, даже вкусно, однако к полезности нередко возникают вопросы. А еще с течением времени на них можно подсесть, и тогда почти наверняка начнутся проблемы со здоровьем (на этот раз — психическим).

Но ведь это весело? Первое время, потому что с «ручной работой», как в видео ниже, ИИ вряд ли сравнится.

Нужно признать: при грамотном подходе ИИ создаст прекрасный ролик, правда, он покажется таким же бездушным, как современные фильмы, забитые под завязку компьютерной графикой. Хотя выглядит действительно круто.

А часто людям нужно такое:

В целом такой феномен называют ИИ-слоп, который представляет собой низкокачественный однотипный контент, созданный моделями искусственного интеллекта. Несмотря на то, что это «дно» креативности, подобные ролики набирают уйму лайков и просмотров, а тот же YouTube активно продвигает созданное ИИ. Зачем? Помогает в конкурентной борьбе с TikTok и другими сервисами и наоборот. И самое забавное, что реалистичность в этом случае вовсе не на первом месте.

Более того, за созданием «слопа» стоит целая индустрия с маркетинговыми исследованиями и A/B-тестированием — все ради денег от просмотров, охватов и лайков с минимальными затратами на производство. Само собой, открываются «курсы» по «созданию реалистичных ИИ-видео».

И так появляются вирусные видео: «Кролики прыгают на батуте». Причем авторы не особенно заботятся о зрителях, уверяя, что кадры сняты на камеру наблюдения случайно.

Интернет-сообщество не сразу поняло, что кролики — «иишные».

Затем появились подражатели:

Разного уровня оторванности:

Очень смешно (нет):

Интернет пора закрывать?

Бытует мнение, что ИИ убивает креативность, однако на самом деле вопрос куда шире. Нынешние модели не умеют создавать что-то действительно новое: это переработка существующего. Кроме того, ИИ — лишь инструмент, который используют люди для генерации все большего объема контента. А чем его больше, тем выше шансы заработать как минимум на количестве, качество же отходит на задний план.

Аудитория, в свою очередь, сама решает, чего она хочет: пачку шаблонных «шортсов» с прыгающими котиками и однотипной музыкой из кремниевых недр вычислительных систем или реального автора музыки и душевной лирики. И интернет-площадки это понимают, но сейчас модно именно это. Модно продвигать ИИ, потому в четырех из десяти топовых каналов по количеству подписчиков на YouTube постоянно появляются сгенерированные данные. А хайп когда-то спадет.

Скорее проблема в том, что отличить реальность от вымысла будет с каждым годом сложнее. Да, та же OpenAI пишет в соглашении с пользователем о запрете использования ИИ для продвижения насилия и вообще «для нанесения ущерба» в любом виде (в том числе — emotional damage), однако кого это останавливало?

Выше — один из безобидных примеров, но нечистые на руку интернет-инфлюенсеры используют ИИ для создания действительно опасного контента: поддельных интервью, показаний очевидцев по мотивам реальных трагических событий и так далее. В качестве примера такого инструмента в Guardian приводили Sora 2. Мол, сервис «позволяет заглянуть в недалекое будущее, где отличать правду от вымысла все сложнее […] Исследователи распространения дезинформации считают, что подобные реалистичные сюжеты могут исказить правду и создать ситуации, когда ИИ-видео могут использоваться для мошенничества, запугивания и угроз». Может? Скорее уже используются.

Интересная ситуация сложилась и с заявлениями Сэма Альтмана, главы OpenAI, который сказал, что модель настроена так, чтобы противостоять нелегальному контенту, в том числе благодаря невозможности использовать в видео Sora 2 образы знаменитостей. Вскоре появились такие видео, в том числе с поддельным Альтманом (ниже — один из наиболее «травоядных» примеров: Альтман «крадет» видеокарты).

Выяснилось, что все запреты легко обходятся, никаких реальных преград попросту не существует: это как дать ребенку конфету и потребовать ее не есть. Страдают от этого и правообладатели, которые ранее легко расправлялись с роликами популярных и не очень создателей контента, где на мгновение, но без разрешения появлялись известные персонажи. Теперь они ничего не могут поделать с ордами «иишных» Пикачу, продвигающих очередной криптоскам.

Судя по всему, «Скайнет» из «Терминатора» если и появится, то не в образе Т-800 или T-1000, а в виде поддельного Бендера Бендинг Родригеса.

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by