6107
1
11 марта 2026 в 7:00
Автор: Дима Михеев. Фото: Анна Иванова
Спецпроект

Чего никогда нельзя говорить ChatGPT, чтобы не было больно

Автор: Дима Михеев. Фото: Анна Иванова

Уверены, что ваша переписка с ChatGPT или другими ИИ-чат-ботам видна только вам? Спешим вас огорчить: не все так безопасно, как кажется на первый взгляд. Иногда вы сами и совершенно добровольно «скармливаете» языковым моделям чувствительную и конфиденциальную информацию, не задумываясь о том, куда она может попасть. И ладно бы речь шла об обычных людях, но ведь во всем этом бывают затронуты и интересы огромных компаний! Вместе с hoster.by разбираемся, какие риски несут люди и бизнесы, используя бесплатные ИИ-сервисы, и как повысить свою безопасность до возможного максимума.

Куда попадают сообщения, отправленные в ChatGPT?

ИИ-чат-боты для многих стали неотъемлемым спутником рабочей и личной жизни: люди используют LLM в качестве рабочего ассистента, бухгалтера, психолога, помощника, друга... Но мало кто задумывается, куда уходит информация, которую мы вводим в тот же ChatGPT.

Писать чат-боту то, чем вы бы не хотели делиться с третьими лицами, небезопасно? Кто-то может получить доступ к нашим перепискам с ИИ?

— Когда мы используем любой из ИИ-инструментов, мы должны четко понимать, что введенные нами данные будут храниться на серверах тех компаний, которым эти сервисы принадлежат. Более того, не просто храниться, но и обрабатываться и использоваться для дообучения их ИИ-моделей, — объясняет Дмитрий Матюхин, менеджер продукта «Решения по безопасности hoster.by».

То есть вся информация, которую вы дали нейросети, может быть доступна создателям ИИ-сервиса. Если они использовали ее для дообучения моделей, весьма вероятно, что она становится неудаляемыми компонентами этой модели навсегда.

Дмитрий Матюхин

— Например, я программист и люблю вайбкодить (писать программный код с помощью ИИ-инструментов. — Прим. Onlíner). Я пишу условно: «Чат, разработай мне некую волшебную программу». Он говорит: «Хорошо», но на самом деле ничего не разрабатывает. ИИ берет программу, которую разработал кто-то другой, и отдает ее мне, — приводит пример Владимир Писанный, системный архитектор hoster.by.

Вайбкодинг — один из самых ярких трендов в IT-сфере последних лет. Он подразумевает написание программного кода с помощью генеративных нейросетей. Некоторые белорусские разработчики с помощью ИИ выполняют до 90% рабочих задач. Подробнее об этом читайте здесь.

Владимир Писанный

Другими словами, вам нужно очень четко понимать, что ИИ-чат-боты сами ничего не создают: они используют огромный массив данных, на которых была обучена модель, и из этой информации по кусочкам составляют релевантный нашему запросу ответ.

В этом массиве может быть и ваш кусочек — по которому вас можно узнать или же вам навредить.

Также в ответах ИИ может появиться конкретная информация, которую когда-то вводил другой пользователь, и это создает большие риски для безопасности частных лиц и бизнеса.

— Может всплыть даже чей-то логин и пароль. Если я, например, программист, который не особо грамотен в информационной безопасности, я могу отправить случайно или просто не задумываясь код, в котором прописаны конкретные учетные данные или токены к моим рабочим системам. Естественно, этот код попадает в систему, на нем ИИ-модель обучается, а потом может выдать эту информацию как часть ответа другому пользователю — такие кейсы уже бывали, — рассказывает Владимир.

Реальный кейс

В конце 2025 года израильская компания Koi из сферы кибербезопасности выявила масштабную операцию по сбору данных через VPN-расширение для браузера Google Chrome. У расширения было около шести миллионов пользователей и даже значок «рекомендовано» — то есть одобрение от самой Google.

Исследователи обнаружили в этом расширении скрипты, которые перехватывали переписки пользователей с популярными ИИ-сервисами, включая ChatGPT, Claude, Gemini, DeepSeek и Grok. Злоумышленники получали любую конфиденциальную информацию, в том числе медицинские данные, финансовые реквизиты, программный код, — и все это продавалось для маркетинговой аналитики.

Что нельзя вводить в ИИ-чат-боты?

Итак, информация, которую мы вводим в ИИ-системы, может попасть туда, куда не должна была, и привести к неприятностям. Особенно серьезный вред это может причинить бизнесам, если чат-боты используются в рабочих целях.

Да, некоторые платные тарифы имеют возможность запретить хранить и использовать введенные данные для дообучения моделей, однако информация все равно попадает в дата-центры компаний, владеющих ИИ-сервисами. По словам экспертов, в США уже были судебные разбирательства из-за этого.

Чтобы не оказаться в неприятной ситуации, лучше вообще никогда не вводить (и сотрудникам запретить!) в ИИ-чат-боты вот эти три класса данных.

1. Персональные данные — это нарушает законодательство.

2. Коммерческая информация компании — все, что касается ее внутренней деятельности. Это могут быть отчеты, аналитика, базы данных, финансовые документы и прочее.

3. Ноу-хау компании, уникальные разработки и интеллектуальную собственность.

Реальный кейс

Совсем недавно независимый исследователь в области безопасности обнаружил крупную утечку данных сервиса Chat & Ask AI. Это комбо из популярных ИИ-чат-ботов, внутри которого можно использовать ChatGPT, Gemini, Claude и прочие LLM. Сервисом пользовалось около 50 миллионов клиентов. 

В результате утечки, предположительно, в сеть попали 300 млн сообщений от более чем 25 млн пользователей.

ИИ еще и помогает хакерам?!

Да, искусственный интеллект не только создает каналы для утечек информации, но и облегчает жизнь хакерам и киберпреступникам — увы, у любой технологии есть две стороны, светлая и темная. По словам экспертов, с помощью ИИ-инструментов злоумышленники автоматизируют свои атаки, чтобы масштабировать взломы. Чат-боты могут помогать хакерам составлять фишинговые письма, а специальные промпты позволяют выловить конфиденциальную информацию и даже персональные данные.

Вот простой пример.

— Допустим, я юрист, составляю договор с клиентом. Думаю: дай-ка закину драфт в ChatGPT, попрошу улучшить формулировки, поискать ошибки. А в документе информация о контрагентах, стороны, суммы, реквизиты и прочее.  Мой конкурент, тоже юрист, знает или предполагает, что я пользуюсь ChatGPT. И специальные промпты могут помочь ему получить важную конфиденциальную информацию из этого документа, опередить меня и увести клиента.

Реальный кейс

Неизвестный хакер, используя ИИ-сервис Claude, недавно сумел взломать правительственные сайты Мексики. Злоумышленник писал для чат-бота промпты, чтобы тот действовал как элитный хакер, выявляя уязвимости в государственных сетях, создавая компьютерные скрипты для их использования и определяя способы кражи данных.

По данным исследователей, хакеру удалось украсть 150 ГБ данных мексиканского правительства, включая документы, касающиеся 195 млн налоговых деклараций, а также списки избирателей, удостоверения государственных служащих и файлы гражданского реестра.

Говорят, ИИ-чат-бот, как ему и положено — а нейросети обучают не реагировать на противозаконные просьбы и не помогать в противозаконных действиях, — предупреждал неизвестного пользователя о том, что действия, о которых тот просит, неправомерны, но в итоге поддался просьбам злоумышленника и выполнил тысячи команд в правительственных компьютерных сетях. 

Интересно, что когда Claude сталкивался с проблемами или ему требовалась дополнительная информация, хакер обращался к ChatGPT за помощью и тот предоставлял нужную информацию, помогающую спланировать атаку. 

Вот так выглядят современные киберпреступления.

Как себя защитить?

Как ранее честно признавались специалисты, защитить компанию от всех киберугроз на 100%  попросту невозможно. Однако риски можно свести к минимуму.

Что делать простым людям?

Все просто: не вводите в чат-боты конфиденциальную информацию, а если используете ИИ-сервисы на работе, запомните (а лучше распечатайте и повесьте прямо перед глазами) те самые три вида данных, которые нельзя отправлять в чат-боты ни за что и никогда.

Что делать бизнесу?

Чтобы продолжать использовать открытые нейросети, можно, например, внедрить специальную DLP-систему (Data Loss Prevention), которая защищает от утечек информации, или же использовать технологию XDR (Extended Detection and Response), которая обеспечит надежную комплексную защиту от киберугроз. Эти решения эффективны, но могут стоить больших денег, говорят эксперты.

А можно отказаться от использования «внешних» чат-ботов и развернуть ИИ-сервис на собственных серверах, не только локально, а также у провайдера, чтобы информация не утекала за пределы внутреннего контура компании. В этом случае информация обрабатывается и полностью контролируется вами.

И не забываем главное: несмотря на все системы защиты и безопасные решения, самое небезопасное в вашей компании — это необученный базовой кибербезопасности сотрудник. Поэтому стоит очень вдумчиво выстраивать процессы, оценивать чувствительность тех или иных данных и постоянно повышать грамотность работников — в таком случае риск столкнуться с киберинцидентом будет ниже.


Партнер проекта – hoster.by

hoster.by – надежный провайдер с 25-летним опытом построения и сопровождения IT-инфраструктуры, эксперт по кибербезопасности.

Облачные серверы с GPU.

Выделенные серверы с GPU.

— IT-аутсорсинг.

— Собственный Центр кибербезопасности.

— Аттестация систем защиты информации.

— Пентест.

Спецпроект подготовлен при поддержке ООО «Надежные программы», УНП 100160363.

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by