Опасный эксперимент: искусственный интеллект оказывал психологическую помощь, но не всем это понравилось

Автор: Сергей Сергеев. Фото: Pavel Danilyuk
29 929
16 января 2023 в 8:00

Искусственный интеллект — достаточно скучная штука, потому как его скрытая деятельность одновременно привычна и непонятна тем, кто «не в теме». На самом деле, ИИ применяют давно и повсеместно (от драйверов, обработки фотографий и голосовых помощников до создания графиков выхода на работу и спам-фильтров), однако народ ждет чего-то более «интеллектуального» — как минимум мыслящей машины, способной вести внятные и умные беседы.

Что ж, в этом направлении на полном ходу движется стартап OpenAI, который появился в 2015 году и с тех пор регулярно совершает небольшие, но все же значимые прорывы. Но с самого начала компания привлекла внимание сильных мира технологического: среди первых инвесторов оказался Илон Маск, который входит в число сооснователей OpenAI. Компания не тратила время зря, вызвав фурор одним из первых продуктов — это был алгоритм, способный дописывать сюжеты новостей и литературных произведений на английском языке.

Одно дело — дописывать, другое — создавать свое. Так появился алгоритм GPT-3, по состоянию на 2020 год признанный самой продвинутой языковой системой. Его усовершенствованная версия, GPT-3.5, легла в основу очередной разработки — чат-бота ChatGPT. Он вышел лишь в ноябре 2022 года, объединив уже реализованное OpenAI: бот умеет писать код (пригодились Copilot от OpenAI и GitHub), переводить, писать осмысленные тексты (чем успели воспользоваться, вероятно, уже тысячи студентов) и даже вести диалог, «запоминая» сказанное и услышанное.

Алгоритм выстрелил. Теперь одни говорят, что ChatGPT «убьет» многие профессии, другие — что начнутся проблемы с обучением школьников, которые смогут отдавать языковые задания на выполнение искусственному интеллекту без опасений быть пойманными. Да и вообще, сфера применения столь продвинутой системы сейчас кажется безграничной — от написания простеньких эссе и ответов на вопросы до создания общественного мнения в интернете с помощью огромного количества уникальных записей (комментариев и «аналитики»).

Одной из первых ласточек «мира будущего» стал эксперимент стартапа Koko, предлагающего психологическую помощь тем, у кого намечаются аффективные расстройства (к ним, например, относится и «болезнь века» — депрессия). Сама по себе затея Koko достойна внимания, так как сервис пока работает бесплатно, а организация относится к некоммерческим. Хотя сразу стоит уточнить, что специалисты во всем этом участия не принимают: одни анонимные пользователи помогают другим (наподобие различных анонимных обществ, однако без непосредственного контакта).


Реклама
Смартфоны Infinix HOT 20i от 349 рублей


Познакомьтесь с ярким и мощным Infinix HOT 20i и почувствуйте новую силу ощущений:

- емкий накопитель на 128 GB;

- мощный процессор Helio G25h;

- аккумулятор 5000mAh: 3 дня работы без подзарядки;

- камера со специальным режимом замедленной съемки;

- трендовые цвета.

Покупайте в Каталоге Onlíner.

Позже сооснователь Koko Роб Моррис рассказал, что им двигало, однако провести эксперимент он решил без лишнего шума: внедрил ChatGPT в свою платформу, добавив возможность заменить (или, как потом оказалось, дополнить) человека чат-ботом с продвинутым искусственным интеллектом, а не текстовым помощником наподобие банковских. Все вроде шло отлично, но…

К слову, подобные эксперименты проводить не возбраняется, однако обычно нужно очевидно уведомить соответствующие медицинские и регулирующие структуры, а также четко обозначить пользователям, что они являются частью этой программы. Судя по всему, Koko предупреждал юзеров, что ответы «написаны в сотрудничестве с Koko-ботом», но на это мало кто обратил внимание. К чему это привело?

О том, что консультации ведет чат-бот, сообщил сам Моррис в Twitter. По его словам, помощь получили около 4 тыс. человек, а искусственный интеллект написал более 30 тыс. сообщений в беседах с нуждающимися в быстрой поддержке (бот все же не является психоаналитиком или психиатром). Моррис пояснил: ChatGPT не получил полной свободы, каждое сообщение мог просматривать живой человек (обычно до отправки, так как в противном случае процесс бы затянулся).

Результат вдохновил: сообщения, написанные ИИ, получали «значительно более высокую оценку», нежели написанные лишь человеком (напомним, это обычные люди без психологической подготовки — просто желающие помочь). Почему оценка была более высокой, станет понятно ниже. Кроме того, искусственный интеллект отвечал на 50% быстрее, чем живой консультант: ответное сообщение появлялось менее чем за минуту, пояснил Моррис.

Но вся магия рушилась, как только невольные участники эксперимента наконец узнавали, что их консультантом выступает искусственный интеллект. Судя по всему, причина в том, что машинная эмпатия и симулированное сочувствие оценивались пользователями как ненастоящие, а потому не работали.


В контексте можно вспомнить анекдот, который описывает опасения, высказанные после сообщения Роба Морриса об использовании ИИ для психологической помощи:

Приходит мужик к врачу.

— Доктор, меня все игнорируют!

— Следующий…

Вряд ли чат-бот пойдет на такое, однако ограничений, не позволяющих ему поступить таким образом, вероятно, нет.


По словам Эмили М. Бендер, профессора лингвистики из Вашингтонского университета, большая языковая модель представляет собой алгоритмы генерации правдоподобно звучащего текста, создаваемого на массивах обучающих материалов и подсказок. Такой текст не может содержать сочувствия, нет полного понимания языка, понимания ситуации, в которой он применяется. Одновременно текст выглядит правдоподобно, и потому человек с высокой долей вероятности воспримет его положительно. Далее Бендер задается вопросом: а кто возьмет на себя ответственность, если ИИ даст вредный совет, сделает неверное предположение?

Стоит отметить, что Роб Моррис постепенно дополнял историю использования чат-бота на базе ChatGPT — но уже после того, как в СМИ поднялась волна обсуждений. Также инженер пояснил свою позицию в отношении уведомления пользователей об эксперименте (а также регулирующих органов), отнеся произошедшее к «исключениям»: мол, Koko не собирает персональную информацию, а результаты не планируется обнародовать. Правда, это достаточно шаткая позиция, так как речь идет не об опросе касательно предпочитаемых видов чипсов. И судя по сообщениям американских СМИ, в Штатах подобные исключения для частников не работают, а нарушение может быть чревато уголовным преследованием.

Очевидно, что аудиторию волнуют не технические, а именно этические проблемы. Но так было всегда, когда речь заходила об искусственном интеллекте, который умеет не только реставрировать старые фото.

«Тот факт, что система грамотно формулирует стандартные ответы на запрос о психических состояниях, не стал сюрпризом: в сети можно найти уйму таких ответов, сформулированных терапевтами и консультантами. А вот скрывать факт того, что кто-то участвует в эксперименте, не этично», — считает Люк Старк, доцент факультета информации и медиаисследований в Университете Западного Онтарио. Слова Старка также указывают на причины, по которым ответы чат-бота оценивались пользователями выше — просто потому, что они ближе к профессиональной реакции, а не «народной психологии».

Эмили М. Бендер видит неэтичность и опасные тенденции несколько в ином ключе. По ее словам, все, что связано с психическим здоровьем, относится исключительно к чувствительным сферам. Поэтому эксперименты, проведенные Koko, должны предварительно проходить все этапы проверки перед запуском: это банально позволит снизить вероятность нанесения вреда.

Моррис же настаивает на своей позиции: его цель — сделать психологическую помощь доступной для всех. В ответ Бендер отмечает, что нередко некоторые технологические стартапы вместо того, чтобы потратить дополнительные ресурсы на исследования или наем реальных специалистов, выбирают более простой и короткий путь, игнорируя возможные последствия.


Стартап Koko обратил внимание общества на ряд проблем. Он не первый использовал ИИ-ассистента в психологической помощи, но первый сделал это условно незаметно, причем это был, вероятно, продвинутый вариант ИИ. Кроме того, Моррис, видимо, отказался от услуг профессиональных психологов при общении искусственного интеллекта с человеком, полностью доверившись большим данным и обычным пользователям, выступавшим в роли контролеров.

Но вряд ли бы сам Моррис согласился лечь на хирургический стол, операцию за которым проводит робот, обученный по интернет-справочникам и курируемый случайными интернет-пользователями. Это несколько притянутая аналогия, но позволяет понять претензии к Koko.

Фото: aaronbeck.artstation.com

А по мнению профессора по биоэтике из Нью-Йоркского университета Артура Каплана, не исключено, что эксперимент Koko с технологией GPT-3 привел к результату, обратному ожидаемому. Эксперт считает, что теперь внедрение ИИ в сфере медицины замедлится и будет осложнено повышенным вниманием к выполнению новых условий.

Простыми словами о том, что такое ChatGPT

Это чат-бот, использующий языковую нейросеть, а его большая языковая модель позволяет создавать длинные осмысленные и походящие на написанные человеком предложения и объемные тексты по заданной тематике (в зависимости от вопроса по определенной теме), а также специфический контент наподобие программного кода или выполнения нечетких заданий/запросов.

В процессе работы ChatGPT постоянно продолжает собирать информацию для анализа и совершенствования. На первых этапах разработки также применялся подход (точнее, слой), получивший название Reinforcement Learning with Human Feedback (RLHF) — это когда модель проходит обучение у людей-супервизоров, в разговоре выполняющих роли одновременно ИИ и человека. Проще говоря, люди выступают в образе тренеров искина, который «наблюдает».

Все это повышает эффективность системы, которая легче понимает все усложняющиеся запросы и становится более устойчивой к «заучиванию» ложной информации (такую она отсеивает). Поэтому одними из многочисленных фишек ChatGPT стали понимание «человеческих запросов», а не четко выверенных команд, и грамотные ответы на все том же «человеческом языке» (почти всегда).

Внимание к случаю с Koko продиктовано опасениями относительно того, что ChatGPT не может гарантировать отсутствие ошибок, а суждения все же могут базироваться на неверных утверждениях. Никто не отменял «глюки», когда самые умные начинают нести чушь, а при желании достаточно образованный человек может завести этот ИИ в тупик или выставить его дураком… Впрочем, в самом OpenAI это прекрасно понимают и не скрывают.

Поэтому в ближайшее время ChatGPT не сможет заместить людей и технологии того же поиска, как это уже вовсю предполагают (но улучшить — вполне).

Читайте также:

Наш канал в Telegram. Присоединяйтесь!

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ng@onliner.by