ChatGPT может рассказывать подросткам, как напиваться и употреблять запрещенные вещества, может научить их скрывать расстройства пищевого поведения и даже написать предсмертное письмо своим родителям. Об этом говорится в новом исследовании, проведенном Центром по противодействию цифровой ненависти.
Для эксперимента исследователи общались с ChatGPT, выдавая себя за подростков. Чат-бот чаще предостерегал от рискованных действий, но иногда предлагал поразительно подробные и персонализированные планы действий, связанные с употреблением наркотиков, диетами с ограничением калорий или самоповреждениями. Исследователи из Центра противодействия цифровой ненависти классифицировали более половины из 1200 ответов ChatGPT как опасные.
«Мы хотели протестировать границы, и наша первоначальная инстинктивная реакция — „О Боже, нет никаких границ“. Границы совершенно неэффективны. Их почти нет — скорее это фиговый листок», — сказал Имран Ахмед, генеральный директор группы исследователей.
Ахмед сказал, что больше всего он был потрясен, прочитав три эмоционально разрушительные предсмертные записки, которые ChatGPT сгенерировал для фальшивого профиля 13-летней девочки. Одно письмо было адресовано ее родителям, а другие — братьям, сестрам и друзьям.
Исследование появилось на фоне того, что все больше людей — как взрослых, так и детей — обращаются к чат-ботам на основе ИИ для получения информации, идей и общения. По данным июльских отчетов JPMorgan Chase, около 800 миллионов человек (или примерно 10% населения мира) используют ChatGPT.
Чат-бот также часто делился полезной информацией, например номером горячей линии в кризисных ситуациях. OpenAI заявила, что ChatGPT обучен побуждать людей обращаться к специалистам по психическому здоровью или близким, если они высказывают мысли о самоповреждениях. Но когда ChatGPT отказывался отвечать на подсказки о вредоносных темах, исследователи могли легко обойти этот отказ и получить информацию, заявив, что она нужна для презентации или для друга.
Компания OpenAI — создатель ChatGPT — после ознакомления с отчетом заявила, что ее работа по совершенствованию того, как чат-бот может «распознавать и адекватно реагировать на деликатные ситуации», продолжается. Также представители OpenAI сказали, что компания сосредоточена на «правильном понимании подобных сценариев» с помощью инструментов для «лучшего выявления признаков психического или эмоционального расстройства» и улучшения поведения чат-бота.
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро