Чиновник, отвечающий за кибербезопасность США, загрузил служебные документы в публичный ChatGPT

Это не сценарий фильма, а новость этой недели

И.о. директора CISA (Агентство кибербезопасности и защиты инфраструктуры США) Мадху Готтумуккала загружал контрактные документы ведомства с пометкой «for official use only» в обычную версию ChatGPT – несмотря на то, что использование этого инструмента было заблокировано для всех сотрудников DHS. Более того, он сам запросил для себя исключение из этого запрета сразу после назначения.

Кибердатчики засекли утечку в августе – только за первую неделю сработало несколько предупреждений. DHS провёл внутреннюю оценку ущерба с привлечением генерального юрисконсульта и CIO министерства.

Почему это важно для бизнеса:

Всё, что загружено в публичный ChatGPT, передаётся OpenAI и может использоваться для обучения модели. У ChatGPT более 700 миллионов пользователей. Ваши данные могут оказаться в ответах для любого из них.

При этом у ведомства был защищённый инструмент – DHSChat, настроенный так, что данные не покидают федеральную сеть. Но глава кибербезопасности выбрал публичную версию.

Это и есть Shadow AI – использование публичных AI-инструментов в обход корпоративных политик. Когда это делает рядовой сотрудник — это риск. Когда это делает руководитель – это системная проблема.

Как не попасть на обложку Politico?

1. Если работаешь с чем-то служебным – не пихай это в публичный ИИ, точка.
2. Используй корпоративные или изолированные версии (с приватным контуром, без облачного хранения).
3. Оцени контент: если бы ты не показал документ конкуренту – не показывай его и ИИ.
4. Обучай сотрудников: запрети «подсказки ИИ» для внутренних процессов без верификации рисков.

И помни: лучше 10 минут на безопасное решение, чем 10 лет для объяснений комиссиям.

Три вывода для CEO и CISO

1. Запреты не работают. CISA ограничивала ChatGPT на уровне систем. Не помогло. Людям нужен удобный инструмент – и они его найдут.

2. Нужна альтернатива, а не блокировка. Корпоративный AI-портал с контролем доступа, маскированием данных и аудитом. Не «нельзя», а «можно – вот так». (Моя компания в том числе внедряет подобные решения).

3. Руководители – зона максимального риска. У них самые чувствительные данные и наименьшее терпение к ограничениям. Как сказал один из чиновников: «Он вынудил ведомство дать ему ChatGPT – а затем злоупотребил доступом». Если нет удобного решения – руководители первые обойдут запрет.

Какие меры защиты необходимо принять:

Политики доступа к ИИ

Установите строгие политики блокировки публичных ИИ-инструментов по умолчанию, разрешая доступ только по исключениям с одобрения CISO. Требуйте использование enterprise-версий ИИ или внутренних чатботов, где данные не покидают сеть компании. Внедрите «secure by design» в жизненном цикле ИИ: от оценки рисков до мониторинга вендоров с AI Bill of Materials (AIBOM).

Мониторинг и DLP

Разверните системы DLP для сканирования промптов и загрузок в реальном времени, блокируя чувствительные данные (PII, контракты) перед отправкой в публичные ИИ. Настройте автоматизированные на загрузки «для служебного пользования» или аналогичных меток, с немедленным расследованием и логированием. Проводите регулярный аудит логов ИИ-использования и симуляции атак (red teaming) для выявления уязвимостей.

Обучение и осведомленность

Проводите обязательное регулярное обучение для всех сотрудников, особенно руководителей, о рисках публичных ИИ: запрет на ввод PII, конфиденциальной информации или данных из контрактов. Добавьте в тренинги сценарии вроде CISA-инцидента с тестами на распознавание рисков и подписью политик. Для руководителей — персональные брифинги по комплаенсу и последствиям (штрафы, отзыв доступа).

Управление рисками и реагирование

Создайте AI Risk Management Framework: Govern (политики), Identify (риски), Measure (TEVV-тесты), Manage (контроли). Анонимизируйте данные перед ИИ, шифруйте в транзите/хранилище, применяйте least-privilege для агентов. На инцидент: протокол с 24-часовым отзывом данных (если возможно), оценкой ущерба и уведомлением стейкхолдеров.

Exit mobile version