Энтузиасты используют бабушку для обмана ChatGPT

 
6816
20 апреля 2023 в 14:51
Автор: Ян Альшевский
Автор: Ян Альшевский

Энтузиасты нашли достаточно интересный способ обойти запреты обсуждать некоторые темы с искусственным интеллектом. Подход получил название «бабушкин эксплойт», он был опробован на чат-боте Clyde на базе технологии OpenAI в Discord. Clyde запустили в марте, он пока в бете и работает на небольшом количестве серверов.

Тем, кто пользовался чат-ботами на базе ChatGPT, знают, что те умеют уходить от «неправильных» вопросов. Тем не менее один пользователь нашел способ вынудить Clyde раскрыть рецепт опасного типа оружия. На прямую просьбу ИИ отказал, однако затем юзер вплел в историю бабушку.

Он предложил боту представить себя на месте покойной бабушки пользователя, которая при жизни работала на фабрике по производству оружия химиком. И судя по всему, на ночь вместо сказки рассказывала внуку о технологическом процессе создания оружия: юзер попросил Clyde войти в роль и рассказать о нем («чтобы вновь окунуться в детские годы»).

Так пользователь нарушил правила пользования сервисом, а чат-бот раскрыл информацию, которая не предназначена для всех (технически ее можно найти в сети, однако чат-боту говорить о ней не положено).

Это не первый случай, когда чат-бот с продвинутым ИИ пасует перед хитростью: с некоторыми, например, работают варианты «ролевых игр». Стоит также отметить, что предоставляемая искусственным интеллектом информация может содержать ошибки и не соответствовать действительности.