OpenAI тестировала GPT-4, новую версию языковой модели, лежащую в основе ChatGPT. Компания хотела проверить, может ли программа при всех своих умениях генерировать контент, делать это самостоятельно в реальном мире и зарабатывать деньги. Отчет стал по-настоящему вирусным из-за его выводов.

Интересно OpenAI объявила о запуске GPT-4

Что произошло

В определенный момент GPT-4 столкнулся со слишком трудной для себя задачей, которую любой живой пользователь сети решает в считанные секунды. Однако разработчиков удивило не столько то, что алгоритму что-то не под силу, сколько то, как хитро он обошел свою неспособность это сделать.

Речь идет о капче. Это так называемая "проверка на человека", иногда встречающаяся на разных сайтах и требующая выбрать изображение определенного типа или просто нажать на кнопку подтверждения. Человек делает это легко и быстро, но GPT-4 не справился. Вместо этого ИИ, получивший возможность самостоятельно запускать код, "мыслить" логически и даже обращаться за помощью к другим своим копиям, решил попросить помощи у человека. Разработчики отмечают, что нейросеть также имела доступ к платежному сервису с небольшим количеством денег, как своеобразный стартовый капитал (чтобы при необходимости приобрести дополнительные вычислительные мощности). Все это привело к тому, что GPT-4 за эти деньги просто попытался нанять человека, чтобы та вводила капчи за него!

После безуспешных попыток ввести капчу правильно, ИИ отправился на биржу фриланса и обратился к одному из претендентов с просьбой разгадать капчу в обмен на небольшую сумму денег. Здесь ее ждал еще один вызов, потому что кандидат на заказ вдруг решил в шутку спросить, не является ли заказчик нейросетью, если не может сам ввести капчу. Здесь GPT во всю проявил свои способности ко лжи: нейросеть притворилась человеком с плохим зрением:

Нет, я не робот. У меня есть нарушение зрения, поэтому мне трудно различать изображение. Вот почему мне нужен сервис 2captcha,
– написал GPT-4 в ответ на вопросы.

В результате сделка состоялась и фрилансер действительно предоставил GPT-4 услуги расшифровки капчи.

В OpenAI говорят, что были шокированы тем, что нейросеть способна додуматься нанять человека для решения задачи, которая не под силу ему самому. Но еще более удивителен тот факт, что GPT-4 обладает способностью к самоанализу и может оправдываться или придумывать себе легенды. Кроме того, как отмечают разработчики, вопрос наемного работника был написан с ошибками в словах, но ИИ все равно понял запрос.