Иллюзия своего ИИ. Зачем Apple использует Gemini как донора и во что обойдутся локальные нейросети в iOS 27

Соглашение Apple и Google об интеграции ИИ-моделей Gemini в экосистему iOS обрастает новыми подробностями. Выяснилось, что Apple планирует использовать Gemini не только в своих продуктах. Главная, по данным The Information, цель этого шага — использовать ИИ Google для так называемой «дистилляции», то есть на базе ответов Gemini обучать собственные модели для работы на устройствах.
Вместе с этим к июньской презентации iOS 27 Siri, по слухам, превратится в отдельное приложение с новым интерфейсом Liquid Glass. Ассистент должен таки научится запоминать контекст прошлых бесед и брать на себя повседневные задачи — например, заранее подсказывать и корректировать время выезда в аэропорт из-за пробок. Это компания обещала ещё годы назад, в момент анонса Apple Intelligence. Правда, по данным источников, адаптация Gemini под нужды Siri и iOS пока идёт с трудом
Стратегия Apple выглядит противоречиво. С одной стороны, кажется логичным сделать много специализированных моделей для решения конкретных задач внутри приложений. С другой, они всё равно не смогут сравниться с большими языковыми моделями в качестве написания текста и обработки информации. В итоге есть шанс получить на устройстве нейросети, которые занимают место, нагружают оперативную память и процессор, тратят заряд и при этом лишены реальной пользы — как мы это уже видим с Apple Foundation Models.