Чем больше пользователи рассказывают ИИ-помощникам информации о своих болезнях, финансовых проблемах, делятся конфиденциальными документами с просьбой их проанализировать — тем больше релевантных данных о них собирает компания. И ни один сервис в мире не застрахован от утечек, перепродажи или просто использования данных в своих интересах — например, для рекламного таргетинга.
Примеры утечек в истории уже были. В марте 2023 года сбой в ChatGPT позволил пользователям видеть заголовки чужих чатов. Под угрозой оказались имена, электронные адреса и платежная информация.
Сотрудники Samsung использовали ChatGPT для работы и поделились с ним конфиденциальными данными — исходным кодом полупроводникового оборудования и протоколами встреч. В итоге информация, попадающая под NDA, стала частью дата-сета компании.
Коллеги из WSJ убеждают, что доверять ИИ не стоит паспорта, медицинские результаты, банковские счета, корпоративные секреты и учетные данные других сервисов. В случае с компаниями всё обстоит ещё серьёзнее: Samsung, например, после инцидента сначала ограничили размер запроса к ChatGPT, а потом и вовсе запретили генеративный ИИ на корпоративных устройствах.
При этом всегда остаётся возможность отказаться от участия в программе «улучшения продукта». Anthropic по умолчанию не используют чаты для обучения, а OpenAI, Microsoft и Google предлагают отказаться от этого в настройках.
Поможет сохранить анонимность и регулярное удаление истории разговоров — большинство компаний окончательно стирают «удаленные» данные через 30 дней. А функция «временного чата» в ChatGPT позволит вообще миновать этот этап и (по крайней мере, со слов компании) пообщаться с ИИ приватно. Хотя это всё равно не повод делиться с ним паролями.