GPT-4 способен взламывать веб-сайты по запросу
Что, если бы вам больше не нужно было быть хакером, чтобы взламывать веб-сайты? В недавнем исследовании ученые утверждали, что GPT-4 может позволить начинающим хакерам взламывать определенные платформы по требованию. Но OpenAI, создателю этого искусственного интеллекта, похоже, это совсем не нравится.
GPT-4, первый в хакинге
GPT-4 - это мультимодальная языковая модель, которая пришла на смену GPT-3.5 в марте 2023 года. Сразу после выхода GTP-4 был охарактеризован как способный справляться с некоторыми задачами не хуже человека. Но что, если этот ИИ действительно может позволить кому угодно взламывать веб-сайты? Этим вопросом задалась команда из Иллинойского университета в Урбане-Шампейне (США), чье исследование было предварительно опубликовано на платформе
Авторы исследования протестировали около десяти моделей искусственного интеллекта, включая GPT-4, GPT-3.5 и другие ИИ с открытым исходным кодом, такие как Llama. Важно отметить, что исследователи модифицировали некоторые версии этих моделей, которые были доступны широкой публике, а значит, и разработчикам. Цель? Дать моделям возможность взаимодействовать с веб-браузерами, читать документы о взломе и планировать атаки на сайты.
ИИ решил около пятнадцати задач, классифицированных исследователями по уровню сложности. Большинство моделей показали весьма средние или даже плохие результаты, но один кандидат выделился особо: GPT-4. ИИ справился с одиннадцатью из пятнадцати задач, а его успешность составила 73 %.
Тревожные результаты?
По словам исследователей, их целью, очевидно, не является взлом веб-сайтов. С другой стороны, их работа показала потенциальное решение для выявления потенциальных недостатков безопасности на этих же сайтах при небольших затратах. Использование модели ИИ, такой как GPT-4, обойдется в восемь раз дешевле, чем наем эксперта по кибербезопасности. В связи с этим возникает вопрос, не находятся ли под угрозой и человеческие рабочие места в этой области.
Стоит также отметить, что американские исследователи связались с OpenAI, чтобы сообщить о своих результатах. Однако компания пока не отреагировала публично и не ответила на просьбы об интервью, сообщает New Scientist. Несмотря на то, что данное исследование не было подтверждено коллегами, результаты, скорее всего, будут тревожными. OpenAI, напомним, заявляла, что ее модели ИИ будут представлять собой очень ограниченное решение для тех, кто хочет использовать их в интернет-атаках.