Искусственный интеллект

Исследователь Массачусетского технологического института поддерживает идею о том, что ИИ уже может развивать сознание


Несколько дней назад Илья Суцкевер, соучредитель и главный научный сотрудник OpenAI, на своей странице в Twitter заявил, что современные большие нейронные сети могут быть "слегка сознательными". Это необычная, даже экстравагантная гипотеза для исследователя искусственного интеллекта, которая не преминула вызвать гнев других специалистов по ИИ. Последние сожалеют о том, что подобные заявления, которые они считают недостоверными, не приносят ничего, кроме вреда репутации машинного обучения. Тамай Бесироглу, исследователь из Массачусетского технологического института, присоединился к дебатам и встал на сторону Суцкевера.

Когда 10 февраля Илья Суцкевер высказал свою точку зрения по этому вопросу, он, возможно, не ожидал той реакции, которую получил. "Всякий раз, когда появляются подобные спекулятивные комментарии, требуются месяцы усилий, чтобы вернуть разговор к более реалистичным возможностям и угрозам, которые несет ИИ", — говорит Тоби Уолш, исследователь ИИ из Университета Нового Южного Уэльса в Сиднее.

Социотехнолог Юрген Гейтер назвал это "предложением о продаже волшебных технологических возможностей для стартапа, который использует очень простую статистику", в то время как другие увидели в этом просто возможность создать шумиху.

Но для Тамая Бесироглу эта идея не так уж и надуманна. Хотя он не дает понять, что квази-сознательный ИИ уже существует, он говорит, что этот вопрос не следует упускать из виду. "То, что так много деятелей машинного обучения высмеивают эту идею, разочаровывает", — написал он в Твиттере 12 февраля. Он добавил, что подобное поведение ставит под сомнение способность этих экспертов решать "странные и важные" вопросы, с которыми они, несомненно, столкнутся в ближайшие десятилетия.

Большинство экспертов по ИИ считают, что, несмотря на огромный прогресс, достигнутый в этой области на сегодняшний день, мы еще очень далеки от создания искусственного интеллекта общего назначения (ИИОН) - то есть ИИ, способного творчески мыслить, самостоятельно обучаться и развивать подобие сознания, как человеческий мозг. Но для Суцкевера мы очень близки. "Через 10 или 15 лет вы увидите гораздо более интеллектуальные системы, и я считаю весьма вероятным, что эти системы окажут совершенно астрономическое влияние на общество", — сказал он год назад.

По его словам, этот тип интеллекта решит все проблемы, которые мы имеем сегодня (рабочие места, болезни, бедность), и одновременно создаст новые проблемы; эксперт упоминает фейковые новости, кибератаки и автономное смертоносное оружие. "Представьте, что вы могли бы сделать, если бы каждый день могли выполнять работу, эквивалентную трем годам работы? Он прогнозирует, что самые первые ИИОН будут представлять собой, по сути, очень большие центры обработки данных, заполненные специализированными процессорами нейронных сетей, работающими параллельно. Даже самые первые ИИОН будут намного эффективнее, чем люди. Люди перестанут быть экономически полезными практически для любой задачи", — объясняет он.

Наконец, Суцкевер считает, что "искусственный интеллект, без сомнения, станет самой важной технологией в истории планеты", опередив электричество, ядерную энергию и Интернет вместе взятые. Будет ли этот ИИ наделен (или уже наделен) сознанием, еще предстоит определить. Тамай Бесироглу считает, что невозможно провести различие между "бессознательными" и "слегка сознательными" моделями.

Основной риск, связанный с сознательным ИИ, — как и в случае с любыми другими технологиями — заключается в том, что он будет использоваться не по назначению, другими словами, он будет вреден для человека. Потенциально он может предпринимать инициативы, не обращая внимания на последствия для человечества. С точки зрения Суцкевера, ИИОН могли бы относиться к людям примерно так же, как мы относимся к животным: люди (как правило) не хотят намеренно вредить или обижать животных, но если они мешают им, когда они хотят построить новые дороги или объекты недвижимости, они не будут обращать внимания на их присутствие... "Именно такие отношения будут существовать между нами и ИИОН", — считает он.

"Именно такие отношения у нас будут с ИИОН", — говорит он. "Важно правильно программировать [ИИОН]. Я думаю, что если этого не сделать, то эволюционная природа естественного отбора будет благоприятствовать этим системам, ставя их собственное выживание превыше всего", — предупреждает он. В частности, его беспокоит то, что феномен "гонки ИИОН" может привести к определенной небрежности со стороны разработчиков, которые могут забыть позаботиться о том, чтобы их искусственный интеллект больше заботился о людях, чем о себе. "Учитывая подобные опасения, будет важно, чтобы ИИОН каким-то образом строилась в сотрудничестве с несколькими странами", — заключает он.

Ибо промах может оказаться катастрофическим. Сам OpenAI недавно пострадал от злоупотребления своим алгоритмом генерации текста GPT-3. Первоначально инструмент использовался для создания ролевой игры в стиле "Подземелья и драконы", где приключения развиваются в зависимости от выбора игрока, но некоторые игроки использовали его для создания сценариев, включающих сексуальное насилие над несовершеннолетними. С тех пор OpenAI перенастроила свой алгоритм, чтобы избежать такого рода злоупотреблений.

Невозможно сказать, есть ли у нас (или будет ли) сознательный ИИ, но если да, то эксперты согласны, что нам нужно начинать думать о последствиях такой технологии уже сейчас. "ИИ — это инструмент. Это мощный инструмент, и этот мощный инструмент может быть использован как для хороших, так и для плохих вещей. Наша задача — убедиться, что он используется для правильных целей, что большинство преимуществ извлечены, а большинство рисков поняты и смягчены", — сказал в интервью Futurism Ираклий Беридзе, руководитель Центра искусственного интеллекта и робототехники в UNICRI (Межрегиональный научно-исследовательский институт ООН по вопросам преступности и правосудия).

Подписывайтесь на нас
Back to top button