Генеративные языковые модели могут "получить сознание" на протяжении десятилетия

14 августа 2023, 16:37
Читати новину українською

Источник:

Boston Review

Прошлым летом инженер Google заявил, что в языковой модели LaMDA 2 можно распознать признаки сознания, что поначалу вызывало скептицизм в техническом сообществе. Заявления инженера побудили философа и исследователя сознания Дэвида Чалмерса углубиться в потенциальное появление сознания в ИИ, завершившееся широким исследованием этой темы и публикацией работы.

Что такое сознание?

Чалмерс объясняет, что сознание охватывает несколько измерений:

  • сенсорный опыт, связанный с восприятием;
  • аффективный опыт, связанный с эмоциями;
  • когнитивный опыт, включающий мысли и рассуждения;
  • активный опыт, включающий намерения и действия, и, наконец, самосознание.

А между тем Хакер убедил ChatGPT украсть собственные данные и обнаружил уязвимости в системах искусственного интеллекта

Все эти компоненты вместе образуют сложный гобелен субъективного опыта. Но вопреки общепринятым представлениям, сознание не тождественно человеческому интеллекту.

Зоологи утверждают, что некоторые виды животных, такие как кошки, мыши и рыбы, имеют сознание, не обладая интеллектом, подобным человеческому. Чалмерс утверждает, что сознание предшествует сложному интеллекту в эволюционном плане, предполагая вероятность того, что ИИ также сможет приобрести это свойство.

Мы ничего об этом не знаем

Проблема в изучении сознания состоит в том, что его трудно определить. Компьютерные науки предложили тест Тюринга как потенциальный маркер сознания, хотя он не является общепринятым. Чалмерс предлагает серию тестов для определения отдельных аспектов сознания, таких как внимание, эмоциональные переживания и самосознание как более плодотворный подход.

Появление сознания в ИИ не обязательно означает немедленное появление удивительных способностей. Роль сознания в поведении остается загадочной. Однако системы, наделенные сознанием, могут вызвать большее уважение у людей по сравнению с их бессознательными аналогами.

"Должны ли мы наделять ИИ сознанием?"

Чалмерс задает себе этот вопрос и предполагает значительные этические дискуссии и вызовы, возникающие в связи с такой перспективой. Он также добавляет, что они превзойдут те обсуждения, вызванные появлением генеративных языковых моделей. Он не уверен, что распространение сознательного ИИ в конечном счете принесет пользу человечеству.

Чалмерс выделяет четыре потенциальных индикатора сознания в языковых моделях:

  • самоотчетность о сознании;
  • видимое сознание;
  • исключительные разговорные навыки;
  • универсальный интеллект, выходящий за пределы специализации.

Поскольку модели ИИ демонстрируют растущую тенденцию к обобщению, эта траектория намекает на движение к универсальности, хотя и не на уровне человеческих возможностей.

Как мы заметим сознание ИИ

Однако Чалмерс подчеркивает недостатки, которые необходимо учитывать при оценке сознания моделей ИИ. Такие факторы как отсутствие биологических основ, чувственного восприятия, модели мира и себя, а также отсутствие повторяющихся процессов и единой личности создают значительные проблемы. Хотя эти препятствия можно преодолеть, они вместе препятствуют реализации сознания в современных языковых моделях. Чалмерс консервативно оценивает возможность появления сознания в современных моделях ИИ ниже 10%, предостерегая от интерпретации этой цифры как окончательной.

Смотрите также Предложен новый "тест Тюринга" для измерения влияния ИИ на мир

На более оптимистической ноте Чалмерс предполагает, что технологический прогресс может проложить путь к надежным системам ИИ, охватывающим органы чувств, тела, модели мира, повторяющуюся обработку информации, глобальное когнитивное рабочее пространство и единственные цели в следующем десятилетии. Он оценивает вероятность такого развития событий, включая потенциальное появление сознания примерно в 25%, подчеркивая важность этой перспективы для изменения ландшафта искусственного интеллекта.