Не дайте себя обмануть! Как распознать контент, созданный ИИ: изображения, текст и видео

Автор: Дима Михеев
6680
21 июня 2025 в 8:00

Искусственный интеллект — главный прорыв в области технологий за последние годы. Недавно мы рассказывали, как можно использовать ИИ с пользой, но у инновации есть и обратная мрачная сторона. Это фейки и некачественный контент, сгенерированный нейросетями. Уметь распознавать подделку важно, чтобы не попасться на обман в сети. Потому в этом материале рассмотрим способы, которые помогут отличить сгенерированный контент от настоящего, и расскажем, почему ChatGPT нередко обманывает.

Как распознать дипфейк-видео

Одна из самых впечатляющих демонстраций возможностей ИИ-сервисов — создание дипфейков. Это синтезированные фото или видео, где используется внешний вид и голос реального человека, хотя тот никакого отношения к контенту не имеет. Это не только впечатляет, но и сильно тревожит, ведь мошенники сразу же взяли на вооружение технологию для обмана людей. Например, вот так злоумышленники подделали видео с директором «Белоруснефти» для рекламы фейковых инвестиций.

 

Поэтому очень важно уметь распознавать поддельный контент, сгенерированный нейросетями.

Но бывают дипфейк-подделки и гораздо более качественные. Взгляните на это видео, где сгенерированный американский актер Морган Фримен приветствует всех в новой эпохе синтетической реальности. Ролик был создан для демонстрации возможностей ИИ-инструментов, и это действительно поражает и пугает.


Для создания подобных видео используют технологии машинного обучения, а именно — генеративно-состязательные сети. Если коротко и упрощенно, то это две нейросети, работающие вместе: одна обучается на реальных фото и видео человека и генерирует изображения, а вторая как бы проверяет первую, чтобы созданный контент не отличался от реального, заставляя ее постоянно улучшать результат.

К счастью, сгенерированные видео все еще неидеальны, и их можно распознать. Как минимум пока. Банально стоит прислушаться к своим ощущениям: если вы смотрите видео и вам кажется, что что-то не так, есть повод присмотреться более внимательно и обратить внимание на детали.

Исследователи из Массачусетского технологического института приводят несколько советов, которые помогут различить подделку и не стать обманутым.

Обратите внимание на лицо. В дипфейк-видео почти всегда можно увидеть неестественные трансформации лица.

Внимательно посмотрите на щеки и лоб. Кожа выглядит слишком гладкой или слишком морщинистой? Это может быть свидетельством подделки. Следует спросить себя: соответствуют ли возрастные изменения кожи состоянию волос и глаз? Сгенерированные видео могут быть противоречащими по этим параметрам.

В соцсетях активно вирусились видео со сгенерированным актером Томом Крузом

Присмотритесь к глазам и бровям. В ИИ-видео тени могут появляться в неожиданных местах и полностью нарушать физику падения света.

Очки. Если человек на видео в очках, стоит обратить внимание на блики. В поддельных видео они могут полностью отсутствовать, что крайне маловероятно в реальности. Или наоборот — их может быть слишком много. Нужно обратить внимание, меняется ли расположение бликов на очках, когда человек двигается.

Обратите внимание на волосы на лице или их отсутствие. В сгенерированных видео ИИ может добавлять или удалять усы, бакенбарды, бороду или их части. Нередко волосы на лице выглядят неестественно в поддельных видео, особенно при движении лица.

Вот, например, музей Сальвадора Дали создал ИИ-видео с художником для приветствия посетителей. Последите за усами сгенерированного Дали.


Исследователи также советуют внимательно посмотреть на родинки. Зачастую этот элемент человеческого тела выглядит ненатурально в сгенерированных видео.

Моргание глаз. Слишком частое или слишком редкое моргание может быть признаком дипфейка. Также глаза могут не полностью закрываться и двигаться искусственно.

Движение губ и нижней части лица. Один из самых заметных признаков сгенерированного видео — нереалистичное движение губ и рта во время разговора. Чем больше движений — тем явнее проявляются признаки ИИ. Также в поддельных видео слова и движения губ могут быть не синхронизированы.

Еще нейросети часто плохо справляются с зубами, поэтому стоит обращать внимание на них, когда человек на видео разговаривает.


Если слышите на видео от знаменитого или просто влиятельного человека что-то необычное и сенсационное, специалисты советуют обратить внимание на вышеперечисленные моменты и проверить новости об этом в авторитетных и заслуживающих доверия СМИ.

Как распознать изображение, сгенерированное ИИ

Создавать картинки с помощью искусственного интеллекта гораздо проще, это доступно каждому, поэтому в сети их можно встретить очень часто. В начале года мы рассказывали об ИИ-фейках, которые массово вирусились в социальных сетях, — людям зачастую непросто отличить поддельное изображение от реального.


Но, к счастью, в большинстве случаев на сгенерированных картинках все же остаются цифровые артефакты, свидетельствующие о том, что фото было создано ИИ. Группа исследователей из американского Северо-Западного университета проанализировала изображения, созданные популярными нейросетями Midjourney, Stable Diffusion и Firefly, чтобы выявить общие паттерны, по которым можно распознать фейк. Они выявили пять общих закономерностей.

Анатомические неправдоподобия. Про неправильное количество пальцев вы наверняка слышали: в начале своего развития нейросети плохо справлялись с созданием людей с пятью пальцами. С тех пор модели усовершенствовались и начали учиться на своих ошибках. Однако все равно ИИ нередко искажает человеческую анатомию на сгенерированных изображениях.

Например, взгляните на эту фотографию.


На первый взгляд нормальное фото, но если обратить внимание на детали, то становится ясно, что это дело рук искусственного интеллекта. Шея у женщины справа неестественно длинная, количество пальцев на ее руке нормальное, но отсутствует большой палец. У женщины слева тоже ненатурально выглядят пальцы на руке, а у третьей женщины странные зубы.

«Если вы действительно думаете: „Ага, этот человек выглядит немного странно“, проверьте, круглый ли у него зрачок», — говорит один из авторов исследования. Глаза часто получаются нереалистичными на ИИ-фотографиях. На этом примере сгенерированного изображения исследователи показывают, что глаза у мужчины слишком блестящие, а зрачки неправдоподобные.

Если подозрительная фотография принадлежит публичной персоне, ученые предлагают сравнить ее с реальными снимками человека.

Стилистические артефакты. Еще один признак того, что изображение создано ИИ, заключается в том, что оно просто не похоже на обычную фотографию человека. Кожа может выглядеть «восковой» и блестящей, цвет перенасыщенным, а лицо просто слишком красивым. Исследователи предлагают спросить себя: похоже ли это на реальные фотографии, которые вы привыкли видеть?


Эти фото выглядят чрезмерно стилизованными, глянцевыми и «отфотошопленными». Исследователи считают, что так выходит потому, что нейросети обучаются на фотографиях моделей, а у людей с обычной внешностью просто нет столько изображений в интернете.

Также, по словам ученых, часто на сгенерированных фото лицо у человека неестественным образом освещено и не соответствует окружающей среде. А тени падают нереалистично.

Функциональные неправдоподобия. ИИ пока не до конца понимает, как работают различные объекты в реальном мире, поэтому зачастую ошибается, создавая странные вещи. На изображениях со сложными сценами и группой людей чаще проявляются неточности. Вот, например, изображение, где мужчины сидят за столом в ресторане, однако у одного из них рука находится в гамбургере огромного размера.


Стоит обращать внимание на небольшие детали, советуют исследователи, — пуговицы, пряжки, ремни, галстуки, сумки, рюкзаки. Когда есть взаимодействие человека с физическим объектом, зачастую это выглядит неправильно.

Нарушения физики. ИИ также часто плохо справляется с перспективой, глубиной и отражениями. На изображении слева лестницы ведут в никуда, а ноги человека будто парят над ступеньками. Справа в отражении зеркала мужчина в рубашке с длинными рукавами, хотя на самом деле на нем рубашка с короткими.


Социокультурные неправдоподобия. Последним критерием исследователи выделяют странности в социально-культурном контексте, которые может генерировать ИИ. Не имея культурной чувствительности и исторического контекста, модели ИИ могут создавать образы, которые вряд ли могли бы возникнуть в реальной жизни. Одним из примеров этого является изображение двух японских мужчин, обнимающих друг друга в офисной среде.


Японская участница исследования поясняет, что в Японии мужчины очень редко обнимаются, особенно в деловой обстановке. Это не обязательно означает, что изображение фейковое, но подобное может послужить звоночком и побудить человека тщательнее изучить фотографию.

ИИ-инструменты развиваются довольно быстро, и сгенерированный контент с каждым днем становится все лучше, однако исследователь Мэттью Грох считает, что «нейросети никогда не научатся понимать социально-культурные концепции, законы физики, анатомию человека и простые функциональные взаимодействия между пуговицами на рубашке и ремнями на рюкзаке».

Как распознать текст, созданный ИИ-чат-ботами

Но самый часто генерируемый контент — это, конечно, текст. Многие опасаются, что чат-боты погубят копирайтинг и даже пишущую журналистику, но пока этого не произошло. Тем не менее люди активно используют ChatGPT и подобные сервисы для создания текстов для работы, учебы и других нужд.

Определить сгенерированный текст можно как самостоятельно, так и с помощью специальных сервисов. Журналист и преподаватель курса по писательскому мастерству Западного университета штата Коннектикут Эрик Офганг выявил ряд основных признаков, указывающих на то, что текст был сделан ИИ, а не человеком. Вот некоторые из них.

  • Много «воды» и мало конкретики. Генеративные модели обучаются на текстах из интернета, а большинство из них сомнительного качества. Следовательно, ИИ-чат-боты часто выдают такие же тексты, где много букв, но мало сути.
  • Чрезмерное использование списков. Текстовые нейросети очень любят выдавать информацию в виде маркированных или нумерованных списков даже там, где это не очень уместно.

Попросили ChatGPT написать текст про этичность использования сгенерированных текстов и получили «воду» (хотя это дискуссионно) и нумерованный список.
  • Безэмоциональность. ИИ генерирует пустые и бездушные тексты, наполненные клишированными фразами. Это очень чувствуется при чтении, особенно если в тексте предполагается авторская эмоция.
  • Текст очень длинный. Если объем гораздо больше, чем предполагало задание, — это повод насторожиться.
  • Нет опечаток и ошибок. Если вы преподаватель или заказчик копирайтерских услуг, то полное отсутствие ошибок и опечаток должно насторожить. Даже самые опытные люди, работающие с текстом, совершают ошибки.
  • Ощущение, что что-то «не так». Довольно абстрактный критерий, но это и делает нас людьми, в отличии от бездушных машин. Неважно, какой контент перед вами — текст, видео или изображение, — именно ощущение, что что-то не так, может означать, что поработал ИИ, а не человек.

Также среди признаков сгенерированного текста отмечают неестественный выбор слов, странные метафоры и отсутствие согласованности между абзацами.

Но главная проблема языковых моделей — это фактические ошибки. ИИ-чат-боты нередко выдумывают несуществующую информацию. Так происходит потому, что нейросети не могут сказать: «Я не знаю», и, если ИИ не может найти реальный ответ, он может его придумать и выдать за факт.


Также текст можно пропустить через специальные сервисы по проверке. Один из самых популярных называется GPTZero. Попробуем проверить с его помощью сгенерированный и написанный человеком тексты.

Удивительно, но текст, который нам написал ChatGPT про этичность использования сгенерированных текстов, сервис определил как 54% против 45% в пользу человеческого. Еще один процент попал в графу «смешанный».


Показываем сервису текст, который точно полностью написан человеком. Результат снова неожиданный. Всего 58% человеческой работы, но и процент вмешательства ИИ существенно снизился.


Можно сделать вывод, что либо ChatGPT действительно научился писать как человек, либо сервис по проверке сгенерированного контента не очень надежен и полагаться на него не стоит.

Выбор покупателей
15.6" 1920 x 1080, IPS, 144 Гц, AMD Ryzen 7 8845H, 16 ГБ DDR5, SSD 512 ГБ, видеокарта NVIDIA GeForce RTX 4060 8 ГБ (TGP 140 Вт), Windows 11 Home, цвет крышки серый, аккумулятор 90 Вт·ч
Выбор покупателей
15.6" 1920 x 1080, IPS, 144 Гц, AMD Ryzen 7 8745H, 16 ГБ DDR5, SSD 512 ГБ, видеокарта NVIDIA GeForce RTX 4060 8 ГБ (TGP 125 Вт), Windows 11 Home, цвет крышки темно-серый, аккумулятор 60 Вт·ч
13.6" 2560 x 1664, IPS, 60 Гц, Apple M4 (10 ядер), 16 ГБ, SSD 256 ГБ, видеокарта встроенная, Mac OS, цвет крышки голубой, аккумулятор 53.8 Вт·ч

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by