Аккредитация в обмен на вузы: ИТ-компании обяжут тратить 3% сэкономленных налогов на студентов Аккредитация в обмен на вузы: ИТ-компании обяжут тратить 3% сэкономленных налогов на студентов Anthropic наносит ответный удар по Пентагону Anthropic наносит ответный удар по Пентагону Amazon решил поджечь рынок смартфонов Amazon решил поджечь рынок смартфонов Xiaomi меняет фокус со смартфонов на электромобили Xiaomi меняет фокус со смартфонов на электромобили

О чём лучше не говорить с чат-ботами

1 мин
Иллюстрация сгенерирована нейросетью Imagen 3

Про принцип «если вы не платите за продукт, вы и есть продукт» слышали уже, наверное, все. Правда реалии таковы, что даже если платите — всё равно остаётесь товаром, потому что крупнейшие ИИ-компании отчаянно нуждаются в данных и обратной связи от своих пользователей.

Чем больше пользователи рассказывают ИИ-помощникам информации о своих болезнях, финансовых проблемах, делятся конфиденциальными документами с просьбой их проанализировать — тем больше релевантных данных о них собирает компания. И ни один сервис в мире не застрахован от утечек, перепродажи или просто использования данных в своих интересах — например, для рекламного таргетинга.

Примеры утечек в истории уже были. В марте 2023 года сбой в ChatGPT позволил пользователям видеть заголовки чужих чатов. Под угрозой оказались имена, электронные адреса и платежная информация.

Сотрудники Samsung использовали ChatGPT для работы и поделились с ним конфиденциальными данными — исходным кодом полупроводникового оборудования и протоколами встреч. В итоге информация, попадающая под NDA, стала частью дата-сета компании.

Коллеги из WSJ убеждают, что доверять ИИ не стоит паспорта, медицинские результаты, банковские счета, корпоративные секреты и учетные данные других сервисов. В случае с компаниями всё обстоит ещё серьёзнее: Samsung, например, после инцидента сначала ограничили размер запроса к ChatGPT, а потом и вовсе запретили генеративный ИИ на корпоративных устройствах.

При этом всегда остаётся возможность отказаться от участия в программе «улучшения продукта». Anthropic по умолчанию не используют чаты для обучения, а OpenAI, Microsoft и Google предлагают отказаться от этого в настройках.

Поможет сохранить анонимность и регулярное удаление истории разговоров — большинство компаний окончательно стирают «удаленные» данные через 30 дней. А функция «временного чата» в ChatGPT позволит вообще миновать этот этап и (по крайней мере, со слов компании) пообщаться с ИИ приватно. Хотя это всё равно не повод делиться с ним паролями.

// Илья Власов