Американские военные использовали искусственный интеллект Claude компании Anthropic при планировании операции по захвату лидера Венесуэлы Николаса Мадуро в январе и при подготовке удара по верховному лидеру Ирана аятолле Али Хаменеи, пишет Euronews. Однако Пентагон расторг контракт с Anthropic и обратился к OpenAI после того, как разработчик отказался снять ограничения на использование своих технологий для массовой слежки и создания автономных вооружений.
В конце февраля министерство обороны США разорвало контракт с компанией Anthropic, известной своей нейросетью Claude. Вместо нее соглашение заключено с OpenAI. Эксперты называют эти инциденты редкой возможностью увидеть, как передовые системы ИИ уже интегрируются в военное планирование и разведку США. При этом специалисты считают, что такие модели не готовы к подобному применению.
«Мы сомневаемся, могут ли эти модели вообще быть успешными в военных условиях
Во второй срок полномочий Дональда Трампа ускоряется внедрение моделей искусственного интеллекта в рамках «гонки вооружений» в этой сфере. Политика США задает «ощущение срочности» в разработке ИИ, поскольку это «очень ценная технология», которая позволит стране опережать своих соперников, пояснил Георгос Верди из Европейского совета по международным отношениям. Эксперты также отмечают, что предыдущие администрации проявляли большую осторожность в использовании подобных технологий.
По словам аналитиков, США находятся на «этапе испытаний», тестируя разные модели в реальных условиях. Профессор Элке Шварц из Лондонского университета королевы Марии назвала это «ужасной практикой, когда речь идет о человеческих жизнях».
Бюджет администрации Трампа Big Beautiful Bill закладывает сотни миллионов долларов на военные проекты в сфере ИИ: 650 миллионов на военные инновации, включая 145 миллионов на системы борьбы с дронами с использованием ИИ, а также по 250 миллионов на «развитие экосистемы ИИ» и расширение возможностей ИИ в центре киберкомандования. Дополнительные 115 миллионов долларов предназначены для ускорения выполнения задач ядерной безопасности с использованием ИИ.
Исследователи опасаются, что растущая роль ИИ в военном планировании может привести к созданию полностью автономных систем, способных идентифицировать, выбирать и поражать цель без участия человека. «Вместо того чтобы человек принимал рекомендации от большой языковой модели и решал, действовать их на основе или нет, этот процесс будет полностью автоматизирован», — пояснила Хлааф.
Один из главных аргументов в пользу таких разработок — страх отстать от конкурентов. Однако, по словам экспертов, нет публичных данных, что Китай уже интегрировал ИИ в военные структуры, а возможности России, Ирана и Северной Кореи в этой сфере «еще менее развиты».
При этом создание полностью автономного оружия с использованием ИИ может привести к эскалации конфликта. Недавнее исследование Королевского колледжа Лондона показало, что в сценариях военных игр
По материалам: Euronews.
