В начале года в интернете завирусилось видео бушующих пожаров в Лос-Анджелесе, где постапокалиптично полыхает весь город. Несмотря на то, что видео было создано с помощью нейросетей, многие поверили, что это реальные кадры. Уже очевидно, что искусственный интеллект не только дает новые инструменты, которые могут помогать в работе и жизни, но и имеет темную сторону. Одна из них — фейки, которые трудно отличить от реальности. Собрали несколько подобных случаев, когда люди массово обманывались, принимая сгенерированный контент за настоящий, и разобрались, как с этим борются социальные сети.
2025-й начался в США прискорбно. Уже регулярные лесные пожары в Южной Калифорнии разгорелись в начале января с новой силой. Под угрозой оказались места, где живут богатые и знаменитые американцы: Лос-Анджелес, Санта-Моника, Малибу.
Пользователь Instagram под недвусмысленным ником ai_creatiions выложил видео с нарезкой коротких клипов, на которых показаны масштабные пожары, охватившие весь город. Пост сопровождался подписью: «Пожары в Лос-Анджелесе продолжаются».
Несмотря на то, что среди хештегов в посте указано #aiart, что прямо указывает на то, что видео сгенерировано инструментами на основе ИИ, ролик подхватили другие пользователи и он стал массово распространяться без упоминая нейросетей. Масштабы катастрофы на фейковом видео сильно преувеличены и не отражают реальность, но многие люди поверили, что все именно так на самом деле.
Активнее всего поддельное видео распространялось в соцсети X, а один из пользователей написал: «Купился уже на пару очень качественных ИИ-видео с пожарами в LA, хотя раньше очень быстро считывал фейковость… Кажется, мы проходим точку невозврата».
Одно из крупнейших новостных агентств в мире Reuters даже создало специальную команду для таких случаев — Reuters Fact Check. Они взяли комментарий по поводу фейкового видео с пожарами у исследователя искусственного интеллекта и доктора философии из Мельбурнского технологического института Дж. Розенбаум. В заметке на сайте сказано: «Видео было создано искусственным интеллектом, учитывая такие признаки, как искривленные линии электропередачи, пламя, сливающееся с пальмами, облака, не соответствующие большому пожару, и отсутствие дыма, который должен идти от огня».
Невозможно сказать, какие последствия повлекло распространение видео с фейковыми пожарами, однако только первоначальный пост в Instagram лайкнули более 2 750 000 раз, после чего видео активно вирусилось в социальной сети X уже без упоминаний, что это ИИ-контент. Можно только догадываться о том, сколько людей действительно поверили кадрам.
Одним из первых тревожных звоночков, после которого активно заговорили об опасности ИИ-фейков, были завирусившиеся изображения папы римского Франциска в 2023 году. На картинках, сгенерированных нейросетью Midjourney, епископ изображен в белом дутом пуховике в стиле модного бренда Balenciaga.
Папа римский — очень влиятельная в мире личность, и фейковые фото многие приняли за настоящие. Действительно, если не всматриваться в детали и бросить беглый взгляд на фото, очень просто не заметить ничего необычного.
Издание The Verge приводит слова американской модели Крисси Тайген, у которой 42 миллиона подписчиков в Instagram: «Я подумала, что пуховик папы римского настоящий, и не придала этому значения. Я ни за что не переживу будущее технологий». Это демонстрирует, как легко ввести людей в заблуждение ИИ-фейками и что их пугает перспектива массового распространения нейросетей.
К счастью, сгенерированный медиаконтент все еще не идеален, и распознать фейк возможно, если внимательно всмотреться в детали. Например, на изображениях с папой римским рука, держащая что-то, напоминающее кофейную чашку, выглядит очень странно. Крестик на шее не имеет прямых углов и отличается нечетким изображением Иисуса, а также край очков неправдоподобно переходит в собственную тень. Все это очевидные признаки того, что фото ненастоящее и было сгенерировано нейросетью.
Через несколько месяцев после фейка папы римского в модном пуховике завирусилось другое поддельное изображение с епископом — на нем изображена гигантская толпа, перед которой якобы вещает Франциск в Лиссабоне. Британское медиа Sky пишет, что картинку просмотрели в соцсетях десятки тысяч раз.
Осенью 2024 года сотни людей вышли в центр Дублина, чтобы посмотреть на парад в честь Хэллоуина. Толпа недоуменно смотрела более получаса на пустую дорогу, но никакого парада не было. Из-за этого произошел сбой трамвайной сети, и транспорт на некоторое время был приостановлен.
Сообщение о мероприятии появилось на сайте My Spirit Halloween, который наполнялся контентом, сгенерированным нейросетями для заработка денег. Людей в заблуждение вводило то, что на ресурсе публиковались анонсы и реальных событий. Многие поверили в то, что состоится парад, и распространили сообщения в соцсетях, что и привело народ на улицы города.
К счастью, ничего страшного не произошло, ситуация довольно безобидная, хоть и с определенными последствиями.
Еще один фейк, в который массово поверили люди в интернете, — удивительное «фото», где темнокожий мужчина якобы сражается с нападением аллигаторов. Изображение получилось реалистичным и сбило с толку множество пользователей, которые не могли понять, настоящее перед ними фото или нет.
На платформе Reddit даже создали отдельную ветку с названием «Это ИИ или нет? Это первая вещь, которую я когда-либо видел, и я не могу сказать, ИИ это или нет, и это меня очень беспокоит, помогите!». Позднее пользователи убедительно доказали, что изображение сгенерировано нейросетью, однако это еще один яркий пример того, что с распространением инструментов на основе ИИ выдумку от реальности отличить все сложнее.
В итоге изображение стало мемом и превратилось в забавный тренд. Но далеко не все ИИ-фейки такие невинные, и поэтому нужно быть в интернете предельно осторожными.
В последнее время подобные фейки активнее всего распространяются через социальную сеть X, как это было с фейком о пожарах в Лос-Анджелесе. На платформе действует система Community Notes, которая создана для борьбы с распространением дезинформации. Эта функция позволяет самим пользователям добавлять важный контекст и проверять факты. Так сообщество действительно помогает не обмануться на фейках. Вот как это выглядело на виральном посте с фейковыми пожарами в Лос-Анджелесе.
Однако The New York Times отмечает, что не все так гладко. Комментируя инцидент с непристойными фотографиями певицы Тейлор Свифт, которые сгенерировали нейросетями и выложили в интернет, журналисты издания пишут, что с момента покупки Илоном Маском соцсети Twitter на платформе стало появляться больше проблемного контента, включая харассмент, дезинформацию и разжигание ненависти. По информации NYT, Илон Маск ослабил правила содержания сайта и сократил сотрудников, которые работали над удалением такого контента. Платформа также восстановила аккаунты, которые ранее были заблокированы за нарушение правил.
Марк Цукерберг, основатель компании Meta, в которую входят Instagram, Facebook, Threads и WhatsApp, недавно заявил, что они отказываются от фактчекинга и вводят функцию «примечания сообщества» по аналогии с Community Notes в X. Ранее информацию в постах Facebook проверяли независимые специалисты — фактчекеры.
Директор Международной фактчекинговой сети Энджи Дробник Холан так прокомментировал это решение изданию The Verge: «В первую очередь это навредит пользователям Meta, потому что программа [фактчекинга] хорошо работала, снижая вирусность фейкового контента и теорий заговора. Большинство людей не хотят продираться через кучу дезинформации в социальных сетях, проверяя все факты самостоятельно».
Тем временем YouTube, принадлежащий Google, заявляет, что активно удаляет вводящий в заблуждение или обманчивый контент, представляющий риск причинения вреда. В отношении «пограничного» контента компания принимает меры, чтобы снизить вероятность его появления в рекомендуемых видео.
Что касается TikTok, то, по сообщениям Forbes, в соцсети используется технология Content Credentials, позволяющая обнаруживать созданный искусственным интеллектом контент и автоматически показывать предупреждения, когда он появляется в лентах пользователей.
Несмотря на то, что социальные сети пытаются бороться с распространением фейковой информации, обмануться в интернете не так сложно. Поэтому всегда стоит ставить увиденное в интернете под сомнение, развивать критическое мышление и потреблять информацию только от надежных источников, которые никогда не публикуют непроверенную и неподтвержденную информацию.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро
Перепечатка текста и фотографий Onlíner запрещена без разрешения редакции. ga@onliner.by