На компанию OpenAI подали в суд из-за текста, сгенерированного чат-ботом ChatGPT по запросу журналиста. В итоговом материале радиоведущего из штата Джорджия Марка Уолтерса обвиняли в мошенничестве и растрате средств некоммерческой организации.
Пятого июня Уолтерс оформил документы в суд, обвинив OpenAI в диффамации — распространении порочащих его сведений. В иске он требует финансовой компенсации, сумма которой на данный момент не определена.
Как напоминает The Verge, ChatGPT и подобные чат-боты известны тем, что могут использовать недостоверную информацию как истинную, так как эффективных способов проверки нет. При любом запросе ИИ сканирует условную базу знаний, выдавая затем ответ. В случае запроса наподобие «правда ли тот или иной факт?» чат-бот может добавить даты, информацию и действующих лиц, не существовавших в реальности, для ответа.
Обычно такие дополнения не несут вреда (разве что вводят в заблуждение), однако случай с Марком Уолтерсом показывает ситуацию в ином свете. ChatGPT, в свою очередь, указывает, что бот «может генерировать неверную информацию», но в то же время позиционирует ИИ как источник новой информации и ответов на вопросы.
Что касается конкретного материала, Риль попросил ChatGPT проанализировать реальные судебные документы и выдать краткое резюме. ChatGPT’s сделал это в меру своих возможностей, но разбавил материалы дополнительными фактами, не имеющими отношения к настоящим. Так и появились Марк Уолтерс и якобы полученные им $5 млн.
Готовый текст не был опубликован, однако проходил проверку третьим лицом. Как именно Уолтерс узнал о материале, неизвестно.
Наш канал в Telegram. Присоединяйтесь!
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро