В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код — это благо.
Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения — администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.
С плюсами никто не спорит — открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.
О каких рисках идёт речь?
Неконтролируемое распространение — в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
Дипфейки и дезинформация — свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
Бэкдоры — в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
Кибератаки и автономное оружие — открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.
К счастью, о полном запрете открытого ИИ пока речи не идёт — да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски — например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.