
Сервис реализован как изолированная среда внутри привычного интерфейса. Пользователям предлагается отдельная вкладка, куда можно загружать результаты анализов, снимки и выписки, а также подключать сторонние приложения вроде Apple Health или MyFitnessPal через партнеров. Система обрабатывает этот массив данных, ищет закономерности, может ответить на вопросы, проанализировать и подготовить вопросы для врачей. Важной особенностью заявляют архитектурную изоляцию: данные из этого раздела якобы не используются для обучения основных моделей, а контекст диалогов не смешивается с обычными переписками про работу или рецепты пирогов.
При ближайшем рассмотрении «инновация» выглядит как обычная переупаковка уже существующих возможностей. Де-факто ChatGPT Health — это просто отдельный проект с предустановленными настройками конфиденциальности и коннекторами данных. Никаких новых функций здесь нет. Более того, никто не отменял галлюцинации и подхалимство, которые делают невозможным использование ИИ в медицине без верификации со стороны живого человека — ИИ легко перепутает данные и будет подтверждать заблуждения психически больного человека, усугубляя его состояние.
Зато компания получает идеальный контейнер для сбора и централизованного хранения медицинских профилей миллионов людей. Это решение закрывает для OpenAI сразу две задачи: создает базу уникальных данных для удержания аудитории и формирует юридический щит. Ведь выделив здоровье в отдельный продукт, гораздо проще прописать в пользовательском соглашении отказ от ответственности за неизбежные галлюцинации нейросети, которые в вопросах здоровья могут стоить кому-то жизни.