Около месяца назад компания Samsung начала использовать в рабочих процессах ИИ ChatGPT. Предполагается, что чат-бот стал причиной утечки конфиденциальной информации. Помимо «обычных вопросов», сотрудники компании вводили в интерфейс ИИ данные, не предназначенные для общего пользования. Сообщается о нескольких таких возможных случаях.
Вероятно, сотрудникам Samsung не полностью разъяснили принципы работы ChatGPT, который использует введенные в него данные для дальнейшего анализа, то есть делает их общедоступными. В частности, речь идет о фрагментах исходного кода, который требовал оптимизации, просто проверке кода, а также протоколе закрытой встречи.
Теперь меры безопасности усилили, а один запрос не может превышать объем в килобайт. Заодно сотрудников проинструктировали, рассказав, что вся «скормленная» ChatGPT информация уходит на сторонние серверы и последствия этого контролировать нельзя.
Наш канал в Telegram. Присоединяйтесь!
Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро