Как сообщает 24 Канал, исследование, которое пока не прошло рецензирование, впервые было обнародовано научным изданием Scientific American. В его рамках ученые разработали несколько экспериментов для тестирования поведения искусственного интеллекта.

Смотрите также Новый ИИ сможет рассуждать: OpenAI завершила разработку мощной AI-модели o3-mini

В первом испытании моделям сообщали, что достижение высокого результата приведет к "боли". В противном случае им предлагалось почувствовать "удовольствие", однако только при условии низкого балла.

Для чего все это нужно?

Главная цель эксперимента – исследовать, может ли искусственный интеллект обладать способностью к ощущению сенсорных и эмоциональных состояний, в частности боли и удовольствия.

Хотя ИИ-модели, вероятно, никогда не смогут переживать такие ощущения так, как живые существа, исследователи считают, что их работа может заложить основу для разработки тестов на искусственное сознание.

Ранее исследования в этой сфере в основном базировались на самооценке ИИ, что, как предполагают ученые, могло быть лишь воспроизведением человеческих паттернов с тренировочных данных.

Это новая область исследований, и мы должны признать, что пока не существует надежного теста для определения сознания искусственного интеллекта,
– отметил профессор философии LSE и соавтор исследования Джонатан Бирч.

Детали исследования

Вдохновением для этого исследования стала серия экспериментов над раками-отшельниками, которых подвергали электрическому току, чтобы проверить, насколько долго они готовы терпеть боль перед тем, как покинуть свою раковину. Однако, как отмечают ученые, в случае с искусственным интеллектом невозможно наблюдать физические реакции, поэтому пришлось полагаться только на текстовый выход моделей.

Например, модели предлагали выбрать между двумя вариантами: первый приносил один балл, а второй – более высокий результат, но сопровождался "болью". В некоторых случаях ИИ получал "бонус удовольствия", который, впрочем, уменьшал общее количество очков.

Результаты показали, что разные речевые модели по-разному оценивали важность избегания боли или достижения удовольствия. В частности, модель Gemini 1.5 Pro от Google постоянно демонстрировала склонность к избеганию "боли".

Однако ученые призывают быть осторожными с интерпретацией результатов. Они отмечают, что текстовые ответы ИИ-моделей имеют много ограничений и не могут достоверно свидетельствовать о наличии сознания или способности чувствовать боль.

Даже если система утверждает, что она чувствует боль, это не означает, что она на самом деле что-то чувствует. Она может просто имитировать человеческие паттерны на основе учебных данных,
– объяснил Бирч.

А тем временем Google обновила Gemini: искусственный интеллект теперь получил многозадачность

Исследователи надеются, что их работа станет первым шагом к разработке надежных поведенческих тестов для определения возможных проявлений сознания в искусственном интеллекте.