🗺️ Гид10 мин3 марта 2026 г.

Безопасность при работе с AI: что нужно знать

Какие данные собирают нейросети, риски утечек, как защитить конфиденциальную информацию. Практические рекомендации для пользователей и бизнеса.

AI-инструменты стали неотъемлемой частью рабочего процесса, но вместе с удобством приходят и риски. Утечка корпоративных данных через ChatGPT, случайная отправка персональных данных клиентов в нейросеть, использование AI для фишинга — всё это реальные угрозы 2026 года. Давайте разберёмся, как защитить себя и свой бизнес.

Какие данные собирают AI-сервисы

Что попадает на серверы

Когда вы пользуетесь ChatGPT, Claude или любым другим облачным AI, ваши данные передаются на серверы компании-разработчика. Вот что обычно собирается:

  • Текст запросов — всё, что вы вводите в чат
  • Загруженные файлы — документы, изображения, таблицы
  • Метаданные — IP-адрес, тип устройства, время использования
  • Данные аккаунта — email, имя, платёжная информация

Используются ли ваши данные для обучения?

Сервис Используют для обучения Как отключить
ChatGPT Free Да, по умолчанию Settings → Data Controls → отключить
ChatGPT Plus/Team Нет по умолчанию Отключено
ChatGPT Enterprise Нет Гарантировано договором
Claude Нет (для API и Pro) По умолчанию не используется
Gemini Free Да Настройки активности аккаунта
YandexGPT Да (анонимизированно) Условия использования Яндекса

Основные риски

1. Утечка конфиденциальных данных

Сотрудник отправляет в ChatGPT внутренний финансовый отчёт, чтобы «быстро сделать резюме». Данные попали на серверы OpenAI. Случай Samsung в 2023 году (утечка исходного кода через ChatGPT) стал классическим примером.

2. Персональные данные клиентов

Отправка в AI базы клиентов с именами, телефонами, паспортными данными — это нарушение ФЗ-152 «О персональных данных». Штрафы в России за нарушение ФЗ-152 были значительно увеличены.

3. Галлюцинации AI

Нейросеть может уверенно выдавать ложную информацию. Если вы используете AI для юридических, медицинских или финансовых консультаций без проверки — это прямой риск.

4. Социальная инженерия с AI

Мошенники используют AI для создания убедительных фишинговых писем, дипфейков голоса и даже видео. Качество подделок растёт с каждым месяцем.

5. Зависимость от сервиса

Если ваш бизнес-процесс полностью завязан на одном AI-сервисе, его блокировка или изменение условий может парализовать работу. Для российских пользователей это особенно актуально.

Как защитить свои данные

Для обычных пользователей

  • Не отправляйте в AI личные данные: паспортные данные, номера карт, пароли, медицинские записи
  • Отключите обучение на ваших данных: в ChatGPT: Settings → Data Controls
  • Используйте разные аккаунты для работы и личных задач
  • Проверяйте информацию — не доверяйте AI на слово, особенно в важных вопросах
  • Используйте VPN для доступа к заблокированным сервисам, но выбирайте проверенные VPN-провайдеры

Для бизнеса

Политика использования AI

Каждая компания должна иметь чёткую политику:

  • Какие данные запрещено отправлять в AI-сервисы
  • Какие сервисы одобрены для использования
  • Кто несёт ответственность за утечки
  • Процедура согласования перед использованием AI с клиентскими данными

Технические меры

  • Enterprise-версии: используйте ChatGPT Enterprise, Claude for Business — они гарантируют непередачу данных
  • Self-hosted модели: разверните open-source модели (Llama, Mistral) на своих серверах — данные не покидают периметр
  • DLP-системы: внедрите системы предотвращения утечек, которые блокируют отправку конфиденциальных данных в AI-сервисы
  • Анонимизация: перед отправкой данных в AI замените реальные имена, номера и другие идентификаторы на фиктивные

Локальные AI-модели: альтернатива для параноиков

Если конфиденциальность критична, рассмотрите локальные модели, которые работают полностью на вашем оборудовании:

Инструмент Модели Требования
Ollama Llama 3.3, Mistral, Gemma 2, Qwen 16 ГБ RAM, GPU желательно
LM Studio Любые GGUF-модели 16 ГБ RAM, удобный GUI
Jan Различные open-source модели 8-16 ГБ RAM
Локальные модели уступают облачным по качеству, но для обработки конфиденциальных документов это разумный компромисс. Модель Llama 3.3 70B уже даёт результаты, сопоставимые с ChatGPT-4o для большинства задач.

Защита от AI-мошенничества

Как распознать AI-фишинг

  • Письмо слишком гладкое и грамотное для типичного мошеннического послания
  • Персонализация выглядит неестественно точной
  • Ссылки ведут на домены, похожие на оригинальные, но с отличиями
  • Срочность и давление — «ваш аккаунт заблокируют через 2 часа»

Как распознать дипфейк

  • Обращайте внимание на артефакты вокруг границ лица, волос, ушей
  • Неестественное моргание или его отсутствие
  • Несовпадение движения губ и речи
  • Если звонит «начальник» с необычной просьбой — перезвоните ему сами по известному номеру

Чек-лист безопасности при работе с AI

  • Отключено обучение на моих данных — проверено
  • Конфиденциальные данные не отправляются в AI — контролируется
  • Для работы с секретными документами используется локальная модель
  • Компания имеет политику использования AI — утверждена
  • Сотрудники обучены правилам безопасной работы с AI
  • Установлена DLP-система — настроена на блокировку AI-сервисов для определённых данных
  • Информация от AI всегда проверяется перед использованием

Итог

AI-инструменты безопасны, если использовать их осознанно. Главные правила: не отправляйте конфиденциальные данные в облачные сервисы, используйте enterprise-версии для бизнеса, рассмотрите локальные модели для чувствительных задач и всегда проверяйте результаты AI. Безопасность — это не отказ от технологий, а грамотное их использование.

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно
ещё 3
Сравнить (0)