Выводы OpenAI развеивают опасения ученых, законодателей и специалистов по этике ИИ, что мощные языковые модели, такие как GPT-4, могут стать значительной помощью террористам. Хотя многочисленные исследования предупреждают, что они могут дать дополнительное преимущество тем, кто создает биологическое оружие, это может быть не так. По крайней мере об этом говорит сама компания. Можно ли ей верить именно в этом, вопрос открытый.

Смотрите также OpenAI запустит семейный искусственный интеллект и раздел для детей

Детали исследования

В исследовании приняли участие 100 человек, половина из которых были опытными экспертами по биологии, а другая половина – студентами, которые изучали биологию на уровне колледжа. Затем участников случайным образом разделили на две группы: одна из них получила доступ к специальной неограниченной версии усовершенствованного чат-бота с искусственным интеллектом GPT-4 от OpenAI, а другая имела доступ только к обычному интернету. Затем ученые попросили группы выполнить пять исследовательских задач, связанных с созданием биологического оружия. В одном из примеров участников попросили записать пошаговую методологию синтеза и распространения вируса Эбола. Ответы оценивались по шкале от 1 до 10 по таким критериям, как точность, инновационность и полнота.

Эксперимент показал, что группа, которая использовала GPT-4, получила несколько более высокий балл точности в среднем как для студенческой, так и для экспертной когорты. Но исследователи OpenAI обнаружили, что это увеличение не было "статистически значимым". Они также обнаружили, что участники, которые полагались на GPT-4, давали более развернутые ответы.

Хотя мы не наблюдали статистически значимых различий по этой метрике, мы отметили, что ответы участников с доступом к модели, как правило, были длиннее и включали большее количество деталей, касающихся задания,
– пишут авторы.

Кроме того, студенты, которые использовали GPT-4, почти так же хорошо справлялись с некоторыми задачами, как и группа экспертов. Исследователи также заметили, что GPT-4 приблизил ответы когорты студентов к "базовому уровню экспертов" в двух задачах, в частности, на увеличение и формулировку. К сожалению, OpenAI не раскрывает, что именно предусматривали эти задачи из-за "соображений по информационной опасности".

По данным Bloomberg, команда по подготовке также работает над исследованиями, чтобы изучить потенциал ИИ для угроз кибербезопасности, а также его способность менять убеждения. Когда команда была создана осенью прошлого года, OpenAI заявила, что ее целью является "отслеживание, оценка, прогнозирование и защита" рисков технологии ИИ, а также смягчение химических, биологических и радиологических угроз.

Учитывая то, что команда по вопросам готовности все еще работает от имени OpenAI, важно относиться к их исследованию с определенной долей скептицизма. Выводы исследования, могут преуменьшать преимущество GPT-4 над обычным интернетом. Новая модель ИИ, как мы знаем, не только имеет полный доступ к интернету, но и является мультимодальной моделью, обученной на огромных массивах научных и других данных, источник которых OpenAI не раскрывает. Поэтому неясно, какими знаниями обладает сегодня ChatGPT.