Anthropic наносит ответный удар по Пентагону

Пентагон попытался включить Anthropic в один список с Huawei и прочими китайскими компаниями, де-факто введя против компании санкционный режим — запрет поставщикам услуг или товаров для органов власти США взаимодействовать с Anthropic. Причиной такой реакции стал отказ подписывать контракт с Пентагоном на условиях министерства войны. Фактически это попытка похоронить компанию на родном для нее рынке. Но федеральный суд этот порыв остановил, обратив внимание на логичный момент: если заказчика не устраивают условия, он может пойти к другому поставщику, а не пытаться уничтожить бизнес первого.
Откуда взялся этот конфликт? У Anthropic был прописан запрет на использование модели Claude для автономных ударов и массовой слежки за гражданами США. Министерство войны, в свою очередь хотело получить разрешение на «любое применение». Когда CEO Anthropic отказался снимать ограничения, ведомство запустило процедуру внесения компании в тот самый чёрный список.
Поведение министерства войны, которое устроило публичный скандал, довольно необычно. И похоже, что не случайно: сложно было не заметить активность OpenAI вокруг этой ситуации. Которая, собственно и перехватила контракт буквально в считанные часы после истечения дедлайна. Для OpenAI ценность контракта с Пентагоном велика, и дело тут не в номинальных 200 миллионах долларов. Корпорация сжигает в день, по разным оценкам, от 15 до 21 миллиона долларов и 200 миллионов тут особо погоды не делают. А вот статус критически важного поставщика военных технологий — очень даже. Ведь для таких компаний у государства всегда находятся меры поддержки. Поэтому конфликт Anthropic с военными был очень нужен OpenAI.
Почему же тогда Anthropic отказалась пересматривать контракт на новых условиях? По корпоративной версии, причиной стала принципиальная позиция компании. Но только ли в гуманизме дело? Anthropic регулярно публикует исследования о проблемах с безопасностью ИИ. И если подписать контакт, который предполагает неограниченное использование ИИ, то есть высокая вероятность потом получить иск от жертв ошибочного применения оружия. Или от тех, чья приватность будет нарушена. Не зря формулировка Anthropic звучит как недопустимость слежки за «американскими гражданами» (про граждан, к примеру, Венесуэлы, Ирана и ряда других стран никаких оговорок в контракте не содержится). Можно понять компанию, которой не хочется оказаться в центре скандалов и разборок в будущем, после смены администрации. Хотя OpenAI в их текущем положении, как мы видим, такие вещи уже не заботят.
Индустрия за этим процессом следила очень внимательно. Судебный запрет пока носит предварительный характер, и разбирательство продолжится. Дарио Амодеи при этом во всём видит новые возможности: если год назад он обещал, что ИИ скоро заменит программистов, то теперь в разгар судебного процесса начал то же самое говорить про юристов. Возможно, что ему не очень понравились счета за подписку на услуги адвокатов. Хотя, кто знает, может быть документы для суда готовил Claude?
