Великобритания и США подписали соглашение о разработке методов проверки безопасности искусственного интеллекта
США и Великобритания подписали соглашение о проверке безопасности больших языковых моделей (LLM), лежащих в основе систем искусственного интеллекта.
Соглашение или меморандум о взаимопонимании (MoU), подписанный в понедельник в Вашингтоне министром торговли США Джиной Раймондо и министром технологий Великобритании Мишель Донелан, предусматривает согласование научных подходов обеих стран и тесное сотрудничество в разработке комплексов оценок для моделей, систем и агентов ИИ.
По словам Раймондо, работа по созданию механизмов для проверки безопасности ИИ-моделей, подобных тем, что разработаны OpenAI и Google, будет немедленно передана новому британскому Институту безопасности ИИ (AISI) и его американскому коллеге.
Соглашение вступило в силу спустя несколько месяцев после того, как в сентябре прошлого года правительство Великобритании провело глобальный саммит по безопасности ИИ, на котором несколько стран, включая Китай, США, ЕС, Индию, Германию и Францию, договорились о совместной работе над безопасностью ИИ.
Страны подписали соглашение, получившее название "Декларация Блетчли", чтобы сформировать общую линию мышления, которая будет следить за развитием ИИ и обеспечивать безопасное развитие технологии.
Соглашение было подписано после того, как в мае прошлого года сотни лидеров технологической индустрии, ученых и других общественных деятелей подписали открытое письмо с предупреждением о том, что развитие ИИ может привести к исчезновению человечества.
США также предприняли шаги по регулированию систем ИИ и связанных с ними LLM. В ноябре прошлого года администрация Байдена выпустила долгожданный указ, в котором были прописаны четкие правила и меры надзора, призванные обеспечить сдерживание ИИ и одновременно создать условия для его развития.
Ранее в этом году правительство США создало консультативную группу по безопасности ИИ, в которую вошли создатели ИИ, пользователи и ученые, с целью установить определенные ограничения на использование и развитие ИИ.
Консультативной группе, названной Консорциумом институтов безопасности ИИ США (AISIC) и входящей в состав Национального института стандартов и технологий, было поручено разработать рекомендации по редистрибуции систем ИИ, оценке возможностей ИИ, управлению рисками, обеспечению безопасности и защиты, а также нанесению водяных знаков на созданный ИИ контент.
Несколько крупных технологических компаний, включая OpenAI, Google, Microsoft, Amazon, Intel и Nvidia, присоединились к консорциуму, чтобы обеспечить безопасное развитие ИИ.