Минобороны США и Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях

 

НОВОРОССИЯ


Донецк, Краматорск, Крым, Луганск, Мариуполь, Новости ДНР, Новости ЛНР, Новости Новороссии, Приднестровье, Ситуация на блокпостах, Славянск, Широкино,

ОПОЛЧЕНИЕ НОВОРОССИИ


Сводки от ополчения Новороссии, Алексей Мозговой, Ополченец Гиви , Ополченец Моторола, Светлодарская дуга, Сводки Басурина,

ЛЮДИ


Адекватные политики запада, Игорь Стрелков,

СОБЫТИЯ


Бои за донецкий аэропорт, Дебальцевский котел, Константиновка, Марьинка, Отставка и арест А. Пургина, Переговоры в Минске, Расстрел автобуса под Волновахой, Стрельба в Мукачево,

ОРГАНИЗАЦИИ


Антимайдан,

УКРАИНА


Геническ, Днепропетровск, Запорожье, Киев, Киевская хунта, Комитет спасения украины, Николаев, Одесса, Подкарпатская русь, Правый сектор, Убийство Бабченко, Украина, УПЦ, Харьков,

ДНР


Горловка
Дебальцево
Ясиноватая

В МИРЕ


Вооруженные конфликты
Новости Белоруссии
Новости мира
Постсоветских пространство
Цветные революции




Война на Украине
 


2026-02-17 12:11


Министерство обороны США и компания?разработчик ИИ?технологий Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях. Как сообщает Axios со ссылкой на источники, разногласия касаются принципов применения искусственного интеллекта в оборонной сфере.

Пентагон намерен активно задействовать нейросети в боевых задачах — от планирования операций до наведения высокоточного оружия. Военное ведомство настаивает на снятии ограничений, которые компании обычно прописывают в пользовательских соглашениях. В свою очередь, Anthropic твёрдо придерживается собственных правил. Компания запрещает использовать свои модели для автономного наведения оружия, ведения слежки (в том числе внутри США) и любых действий, способных причинить вред.

Летом 2025 года Минобороны США заключило соглашения с четырьмя ведущими ИИ?компаниями — Anthropic, OpenAI, Google и xAI. Каждое из соглашений могло достигать суммы в $200 млн; их цель — разработка ИИ?решений для национальной безопасности. Контракт с Anthropic рассчитан на два года. Однако из?за непримиримых позиций сторон Пентагон рассматривает возможность расторгнуть договор. Заменить нейросеть Claude будет непросто — она обладает технологическими преимуществами для решения специфических государственных задач.

Ситуация обострилась после публикации The Wall Street Journal о возможном использовании Claude в спецоперации американских сил по захвату президента Венесуэлы Николаса Мадуро. По данным издания, в ходе операции были нанесены удары по объектам в Каракасе. Anthropic отказалась комментировать причастность своей нейросети к операции, но подчеркнула, что любое применение Claude должно соответствовать внутренней политике компании. При этом правила Anthropic прямо запрещают использовать ИИ для насилия, разработки вооружений и организации слежки.

По информации Axios, Минобороны настаивает на том, чтобы все четыре компании разрешили использовать их технологии «для всех законных целей», включая разработку оружия, сбор разведданных и боевые операции. Реакция разработчиков различается. Одна компания уже согласилась на условия Пентагона, две другие демонстрируют готовность к компромиссам, а Anthropic сохраняет наиболее жёсткую позицию.

OpenAI уже пошла на уступки, открыв доступ к своим инструментам для 3 млн сотрудников оборонного ведомства и сняв часть ограничений на использование ChatGPT.

Этот конфликт обнажает фундаментальное противоречие современной эпохи: с одной стороны — стремление военных интегрировать передовые ИИ?технологии в боевые операции, с другой — этические принципы компаний?разработчиков, которые опасаются неконтролируемого применения искусственного интеллекта.

Исход переговоров остаётся неопределённым. От него зависит не только судьба контракта на $200 млн, но и то, как в дальнейшем будут выстраиваться отношения между оборонным ведомством США и индустрией ИИ.


Источник: www.goha.ru