Компания Anthropic, один из главных конкурентов OpenAI, рискует потерять контракт Пентагона на $200 млн из‑за разногласий с Минобороны США по поводу использования её ИИ в военных целях. Anthropic не устраивает перспектива, что её технологии могут применяться для слежки или наведения вооружений.
По данным Reuters, переговоры между сторонами зашли в тупик. Контракт предполагал внедрение моделей Claude в оборонные проекты в рамках государственной программы по использованию искусственного интеллекта. В 2025 году аналогичные соглашения получили Google (Alphabet), xAI Илона Маска и OpenAI.
Anthropic и OpenAI считаются лидерами в разработке крупных языковых моделей и ИИ общего назначения — технологий, лежащих в основе современных чат‑ботов, ассистентов и инструментов для анализа данных. OpenAI стала известна благодаря ChatGPT и моделям GPT‑3/4, а Anthropic, основанная бывшими сотрудниками OpenAI, развивает линейку Claude и делает акцент на безопасности и контролируемости ИИ.
Конфликт с Пентагоном возник почти сразу после подписания контракта. Корпоративная политика Anthropic запрещает использовать Claude для задач, связанных с внутренней слежкой. По данным WSJ, это ограничивает применение ИИ для ФБР и ICE. Источники Reuters отмечают, что компания опасается, что её модели могут быть задействованы для наблюдения за гражданами или для наведения оружия без достаточного участия человека.
В Пентагоне негативно восприняли такие ограничения, считая, что государственные структуры должны иметь возможность использовать коммерческие ИИ‑технологии в рамках законодательства, независимо от внутренних правил компаний.
При этом модели Anthropic обучены избегать действий, способных нанести вред, а перенастройкой ИИ для нужд Пентагона должны заниматься сотрудники компании, сообщили источники Reuters.
