Ваши сотрудники уже используют ИИ-инструменты Вопрос в том, куда уходят ваши данные

ChatGPT, Copilot, Gemini — сотрудники подключают их сами, без согласования с ИБ. Переговоры, клиентские данные и внутренние документы уходят во внешние модели. IT узнаёт об этом последним.
  • 73%
    Сотрудников используют
    внешние AI-инструменты
    без согласования с IT
  • 38%
    Корпоративных утечек данных
    связаны с AI-инструментами
  • 2–3 нед.
    Срок первичного аудита
    с отчётом о рисках

Типичная картина до аудита

  • ChatGPT используют 14 сотрудников
    без корпоративного контроля
  • Copilot подключён к корпоративной почте
    данные синхронизируются с Microsoft
  • Telegram-боты с AI обрабатывают клиентские запросы
  • Внутренние регламенты загружались в публичные LLM для суммаризации
Использование публичных LLM с корпоративными данными — это передача данных третьей стороне. По 152-ФЗ и требованиям ЦБ это требует отдельного правового обоснования. У большинства компаний его нет.

Как данные утекают из-за внедрения AI

Большинство AI-инцидентов — не взломы, а легальные утечки: сотрудник сам отправил данные в модель.
  • Теневое использование публичных LLM
    Популярные AI модели могут использовать ваши данные для обучения, что может быть указано в пользовательском соглашении, которое никто не читает
  • Агенты с избыточными правами доступа
    Корпоративный агент подключён к почте, CRM и хранилищу без ограничений. Если права не выстроены по принципу минимальных привилегий — агент может передавать наружу значительно больше, чем нужно
  • Prompt injection через внешний контент
    Злоумышленник встраивает в письма, документы или веб-страницы скрытые инструкции. Агент выполняет их — пересылает данные, меняет поведение, действует от имени пользователя
  • Компрометация цепочки зависимостей
    Агент использует внешние инструменты, плагины или API. Один из них может обновиться с вредоносным кодом, но агент продолжит с ним работать
  • Персональные данные в логах и трассировке
    В логи попадают промпты с персональными данными. Если они хранятся в облаке без шифрования и ротации — это прямое нарушение 152-ФЗ

Как Git in Sky обеспечивает
безопасность AI-инфраструктуры

Пять направлений – от аудита существующего контура до политик для сотрудников.
  • Аудит AI-инфраструктуры на уязвимости
    Инвентаризируем все AI-инструменты в компании — официальные и теневые. Проверяем права доступа агентов, маршруты данных. Оцениваем соответствие 152-ФЗ и требованиям ЦБ.

    Результат: отчёт с приоритизированными рисками
  • Изолированный контур для агентов
    Строим архитектуру, в которой данные не покидают контролируемую среду. LLM-запросы маршрутизируются через прокси с контролем содержимого


    Принцип минимальных привилегий
  • Развёртывание on-premise и в частном облаке
    Разворачиваем языковые модели внутри периметра компании или в изолированном частном облаке — Cloud.ru, Yandex Cloud. Данные не уходят во внешние API. Закрывает требования 152-ФЗ по локализации и ограничения ЦБ.

    152-ФЗ · Требования ЦБ
  • Мониторинг и реагирование на инциденты
    Настраиваем наблюдаемость AI-контура: логирование LLM-запросов, алертинг на аномальное поведение агентов, контроль передачи данных. При инциденте — фиксация, анализ, устранение по SLA.

    SLA · Фильтрация PII
  • Политики и регламенты ИБ для AI
    Разрабатываем внутренние политики использования AI-инструментов. Классификация данных по уровням допуска к AI. Регламент согласования новых инструментов. Документация для прохождения проверок регулятора.

    Для сотрудников и регулятора
  • 2–3 недели – и вы знаете полную картину. Покажем, где реальные риски, и предложим план их устранения.






    Получить консультацию

От аудита до защищённого AI-контура

  • Аудит текущей ситуации
    Инвентаризируем все AI-инструменты – официальные и теневые. Проверяем права доступа агентов, маршруты данных, конфигурацию логирования. Оцениваем соответствие требованиям регулятора.
  • Оценка рисков и приоритизация
    Ранжируем находки по уровню критичности. Отделяем то, что нужно исправить немедленно, от того, что можно запланировать. Согласовываем план с командой ИБ и IT.
  • Устранение уязвимостей и построение контура
    Реализуем изменения: изоляция данных, ограничение прав, настройка мониторинга, при необходимости – развёртывание on-premise модели. Документируем архитектуру.
  • Политики, регламенты и поддержка
    Передаём политики использования AI для сотрудников. Настраиваем мониторинг. Переходим в режим поддержки с реакцией на инциденты по SLA.

Что находим на аудитах

Детали клиентов скрыты под NDA.
Показываем ситуацию и что сделали.
  • FinTech • NDA
    Клиентские данные в публичном LLM
    Сотрудники аналитического отдела загружали отчёты клиентов в ChatGPT для суммаризации. Данные включали ФИО, суммы, реквизиты. Компания работает под требованиями ЦБ и 152-ФЗ.
    Аудит выявил 11 сотрудников с регулярными обращениями к публичным LLM. Развернули изолированную корпоративную модель, заблокировали внешние AI-сервисы на уровне сети, разработали регламент для аналитического отдела.
  • Производство • NDA
    Агент с доступом ко всей файловой системе
    Внутренний AI-агент для поиска по документам имел доступ ко всем корпоративным хранилищам без разграничения — включая юридический и финансовый архивы.
    Переработали архитектуру прав доступа по принципу минимальных привилегий. Агент видит только явно разрешённые директории для своей задачи.
  • Ритейл • NDA
    Prompt injection в агенте обработки заявок
    Агент обрабатывал входящие заявки от поставщиков. В одном из документов обнаружили скрытые инструкции — попытку изменить статус заявки и переслать данные на внешний адрес.
    Внедрили фильтрацию входящего контента, изолировали инструменты агента, добавили уровень валидации действий перед исполнением.
  • IT-компания • NDA
    Персональные данные в логах 8 месяцев
    Команда разработки включила подробное логирование для отладки AI-пайплайна. В логах оказались промпты с именами, email-адресами и телефонами пользователей. Логи хранились в облаке без шифрования 8 месяцев.
    Настроили фильтрацию PII в логах, шифрование и ротацию, ограничили доступ к логам по ролям.

Руководители AI/ML направления

  • Генеральный директор
    Сергей Житинский
  • Технический директор
    Максим Федотов
  • DevOps Архитектор
    Дмитрий Лерх

Часто задаваемые вопросы

Наши клиенты
и реализованные проекты

Git in Sky реализовал 250+ проектов в разных отраслях. Основные группы наших клиентов и кейсы:

Давайте обсудим
ваш проект

Оставьте заявку — наш специалист свяжется с вами для детального обсуждения задачи
Также можете позвонить по номеру
8 800 222 19 68