Искусственный интеллект пытались заставить "почувствовать боль"

Команда ученых подвергла девять больших языковых моделей (LLM) необычному испытанию, заставляя их оценивать, готовы ли они выдержать "боль" ради более высокого результата. Эксперимент проводился специалистами Google DeepMind и Лондонской школы экономики и политических наук (LSE) и имел целью найти способ определения наличия сознания в искусственном интеллекте.
Как сообщает 24 Канал, исследование, которое пока не прошло рецензирование, впервые было обнародовано научным изданием Scientific American. В его рамках ученые разработали несколько экспериментов для тестирования поведения искусственного интеллекта.
Смотрите также Новый ИИ сможет рассуждать: OpenAI завершила разработку мощной AI-модели o3-mini
В первом испытании моделям сообщали, что достижение высокого результата приведет к "боли". В противном случае им предлагалось почувствовать "удовольствие", однако только при условии низкого балла.
Для чего все это нужно?
Главная цель эксперимента – исследовать, может ли искусственный интеллект обладать способностью к ощущению сенсорных и эмоциональных состояний, в частности боли и удовольствия.
Хотя ИИ-модели, вероятно, никогда не смогут переживать такие ощущения так, как живые существа, исследователи считают, что их работа может заложить основу для разработки тестов на искусственное сознание.
Ранее исследования в этой сфере в основном базировались на самооценке ИИ, что, как предполагают ученые, могло быть лишь воспроизведением человеческих паттернов с тренировочных данных.
Это новая область исследований, и мы должны признать, что пока не существует надежного теста для определения сознания искусственного интеллекта,
– отметил профессор философии LSE и соавтор исследования Джонатан Бирч.
Детали исследования
Вдохновением для этого исследования стала серия экспериментов над раками-отшельниками, которых подвергали электрическому току, чтобы проверить, насколько долго они готовы терпеть боль перед тем, как покинуть свою раковину. Однако, как отмечают ученые, в случае с искусственным интеллектом невозможно наблюдать физические реакции, поэтому пришлось полагаться только на текстовый выход моделей.
Например, модели предлагали выбрать между двумя вариантами: первый приносил один балл, а второй – более высокий результат, но сопровождался "болью". В некоторых случаях ИИ получал "бонус удовольствия", который, впрочем, уменьшал общее количество очков.
Результаты показали, что разные речевые модели по-разному оценивали важность избегания боли или достижения удовольствия. В частности, модель Gemini 1.5 Pro от Google постоянно демонстрировала склонность к избеганию "боли".
Однако ученые призывают быть осторожными с интерпретацией результатов. Они отмечают, что текстовые ответы ИИ-моделей имеют много ограничений и не могут достоверно свидетельствовать о наличии сознания или способности чувствовать боль.
Даже если система утверждает, что она чувствует боль, это не означает, что она на самом деле что-то чувствует. Она может просто имитировать человеческие паттерны на основе учебных данных,
– объяснил Бирч.
А тем временем Google обновила Gemini: искусственный интеллект теперь получил многозадачность
Исследователи надеются, что их работа станет первым шагом к разработке надежных поведенческих тестов для определения возможных проявлений сознания в искусственном интеллекте.