Содержание
Почти две трети компаний в России не контролируют утечки данных через нейросети, об этом изданию CNews сообщили представители ГК «Солар» (входит в ПАО «Ростелеком»). Сотрудники массово загружают в сервисы ИИ чувствительную информацию.
Что именно утекает через нейросети?
Утечка через нейросеть часто выглядит «легитимно». Человек не обходит защиты — он просто использует рабочий инструмент для повышения эффективности. Но в сеть сливаются:
- коммерческие условия (цены, скидки, маржинальность);
- клиентские базы и CRM-выгрузки;
- персональные данные (ФИО, телефоны, email, адреса, паспорта — всё, что попадает в документы);
- внутренние регламенты, инструкции, отчёты;
- исходный код, архитектура, названия внутренних сервисов;
- секреты: пароли, токены, ключи API, приватные ссылки.

Опасаетесь утечек важных данных?
Проведём аудит ИБ и устраним риски
Как данные могут попасть к злоумышленникам?
Каждый третий сотрудник российских компаний неосознанно передаёт корпоративную информацию в публичные нейросети. Вот типичные сценарии:
Сделай краткое резюме договораКоммерческая тайна + иногда персональные данные + условия сделок.
Сотрудник копирует в нейросеть кусок договора с контрагентом: суммы, сроки, штрафы, банковские реквизиты, иногда персональные данные.
Проверь код / найди баг Утечка секретов и архитектуры. Потенциальный вход в инфраструктуру.
Разработчик вставляет фрагмент кода, а вместе с ним — кусок конфигурации, токены, URL внутренних сервисов, иногда даже ключи доступа (случайно).
Сегментируй клиентов/придумай оффер под каждогоПерсональные данные, риски штрафов и репутационный удар.
Маркетолог загружает таблицу с клиентами: телефоны, почты, история покупок, города, статусы.
Составь ответ партнёру — вот перепискаПереговорная позиция компании может оказаться раскрыта.
В нейросеть улетает ветка писем с обсуждением скидок, претензий, внутренних проблем, иногда — признания ошибок и позиции юристов.
Расшифруй созвон / сделай протокол «Одним файлом» отдаётся очень плотная выжимка бизнеса.
Сервисы транскрибации и помощники встреч — отдельный класс рисков. Встреча может содержать планы, финансовые показатели, данные сотрудников, обсуждение инцидентов.
Как защититься: что делать владельцу бизнеса
1) Признать нейросети «официальным ИТ-каналом»
Если их запретить «на словах», сотрудники всё равно будут пользоваться — просто втихаря и через личные аккаунты. Это худший сценарий. Правильная позиция: разрешаем, но по контролируем.
2) Утвердить понятные правила на 1 страницу
Не «политику на 40 листов», а коротко:
- что нельзя отправлять никогда (персональные данные, финансовые отчёты, выгрузки CRM, коммерческие условия, пароли/ключи, внутренние документы целиком);
- что можно (обезличенные тексты, шаблоны писем без фактов, общие идеи);
- что делать, если «очень надо» (через согласованный корпоративный инструмент или через безопасника).
3) Выделить бюджет на «корпоративный контур»
В реальности безопасность нейросетей начинается не с запрета, а с того, что у сотрудников есть официальный удобный инструмент, который:
- подключён через SSO,
- логируется,
- с понятными настройками хранения,
- с отключёнными лишними интеграциями.
Практические меры для ИБ и ИТ
1) Проведите инвентаризацию: кто и чем пользуется
- соберите список AI-сервисов (веб, плагины, расширения, десктоп);
- проверьте, где используются личные аккаунты;
- определите типы данных, которые уже «уходят» (по логам прокси/DLP/CASB, если есть).
2) Составьте «разрешённый список», добавьте корпоративные аккаунты
- разрешите 1–3 инструмента, которые закрывают 80% задач;
- запретите использование личных аккаунтов для рабочих данных;
- подключите SSO/MFA, централизуйте управление доступами.
3) Обеспечьте канал: DLP/CASB/SWG
Если есть DLP — добавьте правила на типовые маркеры:
- паспортные данные/телефоны/email,
- номера договоров, счета, реквизиты,
- ключи API (шаблоны токенов),
- «выгрузки» (табличные структуры, массовые списки).
Через CASB/SWG можно:
- ограничивать загрузку файлов на внешние AI-сервисы,
- блочить неизвестные домены нейросетей,
- включать логирование.
4) LLM-шлюз (AI gateway) и маскирование данных
Хорошая практика — проксировать запросы в LLM через внутренний шлюз, который умеет:
- редактировать/маскировать чувствительные фрагменты (например, заменить ФИО на КЛИЕНТ_1);
- применять политики по группам пользователей;
- хранить аудит.
5) Закройте «дыры удобства»: плагины, коннекторы, автозагрузку
Часто утечки происходят не через чат, а через «подключил Google Drive/почту/CRM». Минимизируйте:
- отключите или ограничьте внешние интеграции;
- запретите автоподключение «дисков» без согласования;
- ограничьте загрузку файлов (типы, размер, источники).
6) Dev-сегмент: защитите секреты и код
- сканеры секретов в репозиториях и CI (чтобы ключи не гуляли даже внутри);
- политика: никогда не вставлять в нейросеть .env, конфиги и приватные логи;
- выделенный корпоративный ассистент для кода (с понятными условиями хранения и доступами).
7) Регулярно обучайте сотрудников
Работает формат «5 минут + примеры»:
- что такое «чувствительные данные» на их роли;
- как «обезличить» текст перед отправкой;
- куда идти, если нужен анализ документа нейросетью.
«Представьте: вы отправили в чат‑бот список клиентов с телефонами. Через месяц эти номера появляются в спамерских базах. Кто виноват? Вы — за нарушение правил, компания — за отсутствие контроля».
8) Имейте план на случай инцидента
Пропишите простой сценарий:
- куда сотрудник сообщает, если «случайно отправил не то»;
- как быстро заблокировать доступ/сессию/токен;
- как оценивать ущерб (какие данные, какой сервис, был ли общий доступ по ссылке);
- уведомления (юристы/комплаенс/PR при необходимости).
Резюме
Нейросети — мощный инструмент, но их использование требует дисциплины и продуманной стратегии безопасности. Защита данных начинается с чётких правил, регулярного обучения персонала и технических барьеров, которые не позволяют информации уходить за пределы компании. В 2026 году цена беспечности слишком высока: утечка через ИИ может обернуться финансовыми потерями, судебными исками и утратой доверия клиентов.
Не ждите инцидента — пересмотрите политику ИИ‑безопасности уже сегодня.

