Пентагон и Минторг США ужесточают контроль над передовыми системами искусственного интеллекта на этапе их разработки

Правительство США усиливает контроль над развитием передовых систем искусственного интеллекта, смещая акцент на более ранние стадии их создания, чтобы выявлять потенциальные риски еще до публичного запуска. В рамках новых соглашений такие компании, как Microsoft, Google и xAI, предоставят федеральным ведомствам доступ к своим новейшим моделям ИИ на этапе разработки. Этот шаг отражает растущую обеспокоенность в Вашингтоне тем, что современные системы могут быть использованы для кибератак или в военных целях, если их развитие останется без должного контроля.
Ключевую роль в новой инициативе играет Центр стандартов и инноваций в области ИИ при Министерстве торговли США, который будет проводить оценку моделей до их внедрения. Основная задача специалистов — изучить возможности систем и выявить уязвимости на ранней стадии. Эта политика продолжает курс, обозначенный в 2025 году администрацией Дональда Трампа, направленный на сотрудничество государства и технологических компаний в вопросах национальной безопасности.
Соглашения предусматривают предоставление государственным исследователям специальных версий моделей с ослабленными защитными механизмами. Это позволит более глубоко анализировать сценарии потенциального злоупотребления. В Microsoft отметили, что будут работать совместно с федеральными учеными для тестирования систем на предмет неожиданных форм поведения, а также участвовать в разработке общих наборов данных и методик тестирования. Ранее компания уже заключала аналогичное соглашение с британским Институтом безопасности ИИ.
Усиление контроля происходит на фоне появления мощных систем нового поколения, включая модель Mythos от Anthropic. Американские власти и бизнес выражают опасения, что такие инструменты способны значительно расширить возможности хакеров и могут быть использованы в сложных военных приложениях. Речь идет как об автоматизации кибератак, так и о применении ИИ в стратегических операциях.
По словам директора Центра стандартов и инноваций в области ИИ Криса Фолла, независимые и строгие методы измерения являются ключевыми для понимания возможностей передового ИИ и его значения для национальной безопасности. На данный момент центр уже провел более 40 оценок, включая тестирование моделей, которые еще не были представлены широкой публике. Часто используются упрощенные версии систем, что помогает выявить скрытые риски и потенциальные уязвимости.
Инициатива также развивает сотрудничество, начатое в 2024 году с компаниями OpenAI и Anthropic, когда ведомство действовало под другим названием и сосредотачивалось на добровольных стандартах безопасности. Теперь подход становится более системным и ориентированным на превентивные меры.
Параллельно Министерство обороны США расширяет использование ИИ в военной сфере. Пентагон заключил соглашения с семью компаниями для внедрения технологий на закрытых сетях, рассчитывая расширить доступ к передовым возможностям в рамках военных операций. Однако Anthropic не участвует в этом процессе из-за разногласий с военными по поводу ограничений на использование ИИ в боевых целях. Этот конфликт демонстрирует растущий разрыв между компаниями, стремящимися к строгим мерам безопасности, и государственными структурами, которым важна оперативная гибкость.
В то же время Белый дом рассматривает дополнительные меры регулирования. По имеющимся данным, обсуждается создание специальной группы для проверки ИИ-систем до их публичного релиза. Такой подход может означать отход от прежней политики минимального вмешательства в развитие технологий.
На текущем этапе крупнейшие технологические компании демонстрируют готовность к сотрудничеству, предоставляя ранний доступ к своим разработкам и тем самым снижая риск введения более жесткого регулирования. В свою очередь, правительство получает возможность глубже изучить технологии, которые в ближайшие годы могут существенно повлиять как на сферу безопасности, так и на характер ведения войн.
Новые соглашения ясно демонстрируют изменение стратегии: Вашингтон больше не намерен реагировать на угрозы, связанные с искусственным интеллектом, постфактум, а стремится выявлять их еще до того, как они проявятся.