В США хотят запретить открытый ИИ?

В 2024 году китайские военные исследователи, связанные с НОАК, на основе открытой модели LLaMA сделали инструмент ChatBIT для военных. Америке это не понравилось.

В Соединённых штатах есть множество небольших стартапов, которые строят экосистему открытых моделей. EleutherAI с моделями GPT-Neo и GPT-J (иронично называемые «открытой» версией OpenAI), Together AI с инфраструктурой для LLaMA и Mixtral, Hugging Face с библиотекой Transformers (которые превратились в настоящее сердце сообщества открытого ИИ), и так далее. Они вносят огромный вклад в развитие сообщества, и раньше считалось, что открытый код — это благо.

Правда, когда те самые открытые модели из США стали попадать в руки геополитических противников, сделавших на их основе свои решения — администрация такого развития событий не оценила. С приходом Трампа в стране возобновились дискуссии о рисках и минусах открытого ИИ.

С плюсами никто не спорит — открытые модели позволяют исследователям изучать их работу, выявлять уязвимости и решать этические проблемы, легко доступны для стартапов и бизнеса, предотвращают монополизацию рынка и способствуют развитию технологий. Но, как бывает в таких случаях, риски в глазах регуляторов могут перевесить плюсы.

О каких рисках идёт речь?
• Неконтролируемое распространение — в отличие от закрытых систем, открытые модели невозможно «отозвать» после публикации и любые найденные уязвимости остаются в них навсегда.
• Дипфейки и дезинформация — свободный доступ к технологиям создания дипфейков позволяет манипулировать общественным мнением.
• Бэкдоры — в открытых моделях из других стран (в частности, Китая) могут быть встроены скрытые уязвимости. Этот пункт стал актуальным на фоне мирового взлёта DeepSeek.
• Кибератаки и автономное оружие — открытые инструменты ИИ могут быть использованы для кибератак, создания систем вооружения и других действий, подрывающих национальную безопасность. Этот момент беспокоит власти США больше всего.

К счастью, о полном запрете открытого ИИ пока речи не идёт — да и вряд ли это возможно. В США рассматриваются разные опции. Золотой серединой считают регулирование, которое сохраняет преимущества открытости, но минимизирует риски — например, через ограничения на самые мощные модели или специфические области применения, представляющие явную угрозу безопасности.

//Илья Власов