Как легко отупеть? Использовать ИИ без разбору

Источник: Сергей Сергеев
9442
27 сентября 2024 в 8:00

На днях генеральный директор компании OpenAI Сэм Альтман в блоге расписал свое видение будущего нашего мира, в котором искусственный интеллект во всех его проявлениях приведет ко всеобщему благоденствию. Причем, по мнению Альтмана, речь не о столетиях и даже десятилетиях — все станет хорошо в течение нескольких лет.

Почему стоит опираться на слова именно Сэма Альтмана? Он представляет компанию OpenAI, которая, в общем-то, и дала огромный толчок технологиям, связанным с ИИ, — как минимум повела их в массы. Правда, звучит мнение, что бизнесмен постепенно начинает «играть в бога» или, скорее, перестает чувствовать границы реальности и перспектив.

Что сейчас ИИ для обычного пользователя? Генерация картинок, песен, музыки, текстов. ИИ научился (как будто) анализировать данные, создавая на базе огромных объемов информации (той самой «биг дате», которой сто лет в обед) «выводы» или, скорее, выжимки. Перевести текст и пересказать? Да как два бита о текстолит. Особенно хорошо у искина получается с английским языком, с остальными — очень по-разному.


Есть уйма материалов о том, насколько ИИ хорош и незаменим и как он прямо сейчас отбирает работу у журналистов, переводчиков, аналитиков, программистов, инженеров и всех тех, кто работает с данными (цифрами, текстом — неважно). Но что со всем этим не так?

Как ни странно, с ИИ все в порядке, а слабым звеном традиционно остается человек, но обо всем по порядку.

Да, искин вполне способен сочинить сказку, написать фэнтезийное произведение или даже роман с балладой. И это может считаться по-своему произведением, однако с перечнем «но».

Значительная часть общедоступных ИИ использует одни и те же источники данных, отличия могут касаться алгоритмов обработки. Правда, и здесь все не слишком разнообразно: в наличии совсем небольшой набор наиболее эффективных моделей, которые слегка кастомизируют и используют все подряд.

Потому на выходе мы получаем однотипные ответы, художественные произведения, песни и «аналитику» (1, 2, 3). Сперва они кажутся качественным материалом, но лишь до близкого знакомства или прочтения нескольких готовых работ — оказывается, что все ИИ пишут об одном и том же и теми же словами. Некоторые искины даже не пытаются дуть щеки и честно дают ссылки на данные, которые они цитируют в прямом или пересказанном виде. Если повезет, источником окажется зарекомендовавший себя ресурс, но с такой же долей вероятности «научные данные» могут поступить от Васи Шлюпкина.

Теперь представьте, что ваша домашняя библиотека состоит из книг, написанных ИИ: все истории будут похожи, и никакого авторского стиля.

Однако это был еще безобидный вариант. В 2023-м и в нынешнем году кто-то особенно одаренный нашел золотую, но очень токсичную жилу. Хотя в реальности хитрых дельцов больше, просто деятельность некоторых оказалась особенно опасна.

«Вся моя семья оказалась в больнице после отравления грибами. Жена купила на одном из крупных онлайновых маркетплейсов книгу „Грибы Великобритании: Гид по сбору безопасных и съедобных грибов“. В ней были иллюстрации для удобства при поиске грибов», — начал свою историю один из пользователей reddit.

В сообщении он рассказал, что картинки оказались сгенерированы ИИ, а текст то и дело превращался в бессмыслицу (правда, известно об этом стало уже после отравления). Продавец книгу забрал, деньги вернул, издание снял с продажи. Все хорошо, но, по словам топикастера, доступны остались десятки других подобных «справочников».

Еще до публикации этого сообщения издание The Guardian провело собственное расследование, изучив некоторые предложения на Amazon. Оказалось, что на площадке есть (или было) немало книг, написанных чат-ботами для грибников-любителей: как и какие грибы собирать, а также рецепты из разряда «делишес».

Чтобы все стало на свои места, ресурс приводит пару цитат: «Сладкий запах свежеприготовленных грибов витал в воздухе, пробуждая приятные воспоминания о моей маме», «Сбор диких грибов — чрезвычайно полезный опыт, связывающий нас с природным изобилием и богатым разнообразием цветов, которые дарит нам Земля». Ну и так далее. Проблема в том, что в качестве авторов указывались якобы реальные люди с богатым опытом (сбора грибов), так что вопросов возникнуть не должно было.

Грибные забавы — не единственное, на чем ушлые дельцы делают деньги. Еще одним популярным направлением ИИ-творчества под видом реального является написание туристических гайдов и книг для путешественников. Это направление изучало уже издание The New York Times. По данным издания, для таких книг использовался целый набор инструментария: ИИ для генерации текста, ИИ для создания иллюстраций и более привычный алгоритм «copy&paste» с сайтов наподобие LiveJournal в эпоху его популярности (то есть кто угодно пишет что угодно). А отдельная армия ботов занималась накруткой рейтинга таких книг.

Один из авторов, которого на самом деле не существует. Если присмотреться, можно заметить странную ракушку рядом с шеей, на правом плече — текстуру, плюс по мелочи

Аналогичная история складывается и с художественной литературой. Авторы и писатели признают: да, ИИ помогает в создании структурированных, грамотных и «звучащих по-человечески» текстов. Кроме того, для жанра не опасны так называемые галлюцинации ИИ и проверка достоверности фактов (при этом в науке, подаче новостной и технической информации это критически важный аспект).

Но есть и менее очевидный пример. Начало история берет тогда, когда ИИ не был столь популярен: свою деятельность некто Майкл Смит из Северной Каролины начал в 2017 году, финал же организовало ФБР лишь в 2024-м.

Смит, как оказалось, использовал искусственный интеллект для генерации музыкальных композиций — сотен тысяч, которые затем публиковал на стриминговых сервисах (упоминаются Spotify, Amazon Music, Apple Music и YouTube Music). С помощью ботов и тысяч учетных записей мужчина накручивал прослушивания (661 440 в день, говорится в документах ФБР), за которые получал авторские отчисления.

Видео ниже не является поделкой Майкла Смита, а опубликовано другим автором — он рассказывает, что использовал для создания трека:

По данным ФБР, 51-летний Смит заработал за свою карьеру около $10 млн — благодаря миллиардам прослушиваний треков. Ему помогали неустановленные сообщники, переписку с которыми также приобщили к делу.

Забавно то, что претензий к самой музыке не было. Мошенничество заключалось в том, что Смит выдавал «творения» за написанные людьми, использовал ботов для накрутки и лишал заработка реальных музыкантов, размещавших свои работы на стриминговых сервисах.

В начале сентября 2024 года сообщалось: Смиту грозит максимум по 20 лет за каждое из трех выдвинутых против него обвинений.

Почему все плохо, если в целом ИИ справляется?

Большинство общедоступных ИИ имеют технические ограничения. В частности, «оперативной памяти», которая способна удерживать лишь небольшое количество слов для соблюдения контекста.

По этой причине, кстати, сложно заставить искин написать многостраничный труд по одному (хоть и доскональному) запросу. Также длинный текст будет постепенно превращаться в мешанину утверждений, все менее связанных с оригинальной мыслью, даже если использовать уточнения. Специалисты в связи с этим говорят о «регрессии к среднему» (обычно в отношении литературы, однако ею не ограничивается). Это понятие, которое неплохо иллюстрируется фразами «средняя температура по больнице» или «в среднем все белорусы едят голубцы». Так, общий результат окажется средним и совсем не впечатляющим, причем люди будут разочарованы как реальными авторами, так и виртуальными.

Что такое галлюцинация в отношении ИИ?

Уверенная реакция искина, которая не подтверждается данными его обучения, или вымышленные ответы, не имеющие отношения к действительности. Причиной их возникновения могут стать неверные входные данные (кто-то где-то что-то ляпнул, а ИИ взял эту информацию) или ошибки в модели.

Другая проблема связана с тем, что объем доступной информации не растет, а сокращается или стагнирует: искин использует существующие данные, а не создает новые знания. Впрочем, подобное утверждение можно оспорить: машины научились создавать ранее невиданный дизайн, рисовать картины, создавать рецепты и давать подсказки для разработки новых препаратов. Однако здесь может возникнуть феномен «галлюцинаций», когда источником информации для ИИ станут выдуманные и неподтвержденные данные все того же ИИ. Замкнутый круг.

Так а человек при чем?

Традиционная проблема связана с тем, что ИИ является лишь инструментом, вопрос: научится ли человек им пользоваться? Это как интернет: можно получить знания, а можно найти ответ на любой вопрос в сети и выкинуть его из головы.

Так и искусственный интеллект: его можно использовать как помощника, а можно полностью отдать ему право принимать решения, опираться на его «мнение». Анализировать материал? Зачем, если это может сделать ИИ. Написать курсовую работу? Подготовить отчет? Сочинить письмо? Проверить факты?

Из-за машин люди не разучились ходить, а из-за компьютеров не разучились считать (хотя тут уже можно поспорить). Искусственный интеллект не станет проблемой, если ее не создадут сами люди: одни от доступа к Google стали глупее, другие научились использовать его во благо.

Выбор покупателей
Onlíner рекомендует
8 ГБ GDDR6, 1830 МГц / 2670 МГц, 3072sp, 24 RT-ядер, трассировка лучей, 128 бит, 2 слота, питание 8 pin, HDMI, DisplayPort
Выбор покупателей
12 ГБ GDDR6X, 1980 МГц / 2640 МГц, 7168sp, 56 RT-ядер, трассировка лучей, 192 бит, 3.1 слота, питание 16 pin (PCIe Gen5), HDMI, DisplayPort
Выбор покупателей
Onlíner рекомендует
12 ГБ GDDR6 LHR, 1320 МГц / 1777 МГц, 3584sp, 28 RT-ядер, трассировка лучей, 192 бит, 2 слота, питание 8 pin, HDMI, DisplayPort

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by