Искусственный интеллект

Исследование: риск конфликта между человечеством и искусственным интеллектом может быть серьезно недооценен

Колоссальный потенциал для будущего конфликта между людьми и искусственным интеллектом (ИИ) может быть значительно выше, чем предполагалось ранее, свидетельствуют новые исследования. Идея противостояния человечества и искусственного интеллекта, когда-то бывшая уделом научной фантастики, сегодня стала предметом серьезных дискуссий среди исследователей, политиков и ученых. Некоторые эксперты предупреждают, что передовой ИИ может в конечном итоге управлять критической инфраструктурой и мировыми ресурсами, что повышает вероятность прямого конфликта с человечеством.

В недавней статье, опубликованной в журнале AI & Society, Саймон Гольдштейн, философ из Гонконгского университета, исследует, будут ли обычные факторы, способствующие миру между человеческими противниками, применимы и к нечеловеческому интеллекту. Гольдштейн предполагает, что риск насильственного конфликта между человечеством и ИИ может быть выше, чем это часто предполагается. Недавние опросы показывают, что от 38% до 51% ведущих исследователей ИИ считают, что существует по меньшей мере 10-процентная вероятность того, что передовой ИИ может привести к последствиям столь же тяжелым, как вымирание человечества. В 2023 году Центр безопасности ИИ выступил с резким заявлением о том, что «смягчение риска вымирания от ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Популярные большие языковые модели, такие как ChatGPT или Gemini, не обладают продвинутыми возможностями, чтобы представлять эти риски. Однако сохраняются опасения, что будущие системы общего искусственного интеллекта (ОИИ), способные к независимому планированию и рассуждению, могут сформировать цели, противоречащие интересам людей. Анализ Гольдштейна начинается с простой предпосылки: если ОИИ может стратегически мыслить, действовать независимо и достичь власти, сопоставимой с человеческой, их интересы могут вступить в прямой конфликт с интересами человечества.

Чтобы изучить это, он обращается к «переговорной модели войны» политолога Джеймса Феарона 1995 года, которая рассматривает конфликт как срыв переговоров между рациональными сторонами. В контексте отношений между ИИ и человеком Гольдштейн полагает, что стандартные стимулы для поддержания мира могут не сработать. Он предупреждает, что системы ОИИ могут не уважать географию, национальные границы или общие человеческие ценности. Действия ИИ также могут быть трудны для интерпретации людьми. Это дополнительно затрудняет полное понимание возможностей или намерений этих систем. «Проблема в том, что существует существенный риск того, что обычные причины мира между конфликтующими сторонами будут отсутствовать в конфликте ИИ и человека», — заявляет Гольдштейн.

Исследование Гольдштейна выявило условия, которые могут значительно увеличить риск конфликта между людьми и ИИ. Эти условия включают обладание ИИ властью на уровне человеческой, конфликтующие цели и стратегическое мышление, позволяющее ИИ вести переговоры или обманывать. Если ОИИ будут доверять управление значительными частями глобальной экономики, они могут прийти к точке зрения, прямо противоположной интересам людей. Как отмечает Гольдштейн, «момент, когда конфликт станет рациональным, наступит, когда их контроль над ресурсами станет достаточно большим, чтобы их шанс на успех перевесил наши преимущества в проектировании ОИИ, которые можно отключить».

Системы ИИ обычно обучаются на больших наборах данных, а не следуют прямым инструкциям, что означает, что их намерения могут развиваться непредсказуемым образом. Случаи такого несоответствия уже наблюдались в ограниченных условиях. С продолжением развития ОИИ эти проблемы могут стать гораздо более значительными в будущем. В документе также рассматриваются потенциальные ответные меры правительств. Гольдштейн предполагает, что если ОИИ будут контролировать 50% национального рынка труда, правительства могут отреагировать перераспределением этих прибылей через систему универсального базового дохода. Какая-то форма такой субсидии, вероятно, будет необходима, поскольку ИИ продолжает заменять множество рабочих мест и профессий.

В отличие от некоторых систем, отключение одного компонента системы ОИИ может не повлиять на другие. Гольдштейн предупреждает, что множественные системы ИИ потенциально могут работать вместе без ведома людей. Это может позволить системам ОИИ формировать сети, которые остаются необнаруженными и неподотчетными. Хотя Гольдштейн не утверждает, что конфликт неизбежен, его анализ подчеркивает риски, связанные с этими системами. История показала, что войны часто возникают из-за недоверия и недопонимания. Поскольку развитие технологий ИИ продолжает прогрессировать, политикам, возможно, придется учитывать сценарии, где последствия могут быть чрезвычайно тяжелыми.

Подпишитесь на нас: Вконтакте / Telegram / Дзен Новости
Back to top button