С появлением мощных систем имитации человеческого разума, вроде ChatGPT, инструменты искусственного интеллекта стали доступнее, чем когда-либо прежде. Но эти алгоритмы могут легко лгать обо всем, что соответствует их целям, уверен Майкл Грациано. Чтобы привести их в соответствие с нашими ценностями, им нужно сознание.

Интересно Искусственный интеллект от Microsoft имитирует любой человеческий голос

ИИ-социопат

Сознание – это часть инструментария, который дала нам эволюция, чтобы сделать нас эмпатическим, просоциальным видом. Без него мы обязательно были бы социопатами, потому что нам не хватало бы инструментов для просоциального поведения,
– пишет Грациано.

Социопатия у людей является расстройством личности, которое характеризуется игнорированием социальных норм, импульсивностью, агрессивностью и крайне ограниченной способностью формировать привязанности. Социопат не принимает нормы общества и ведет себя агрессивно по отношению к другим людям. Он принимает решения, основываясь исключительно на собственных интересах и не задумываясь о том, как его поступки влияют на других, потому что его не волнуют чьи-либо чувства.

Конечно, ChatGPT не собирается захватывать мир и вредить человечеству, но предоставление искусственному интеллекту все больших полномочий может иметь вполне реальные последствия, которых нам следует опасаться в скором будущем. Чтобы сделать их более послушными, по мнению Грациано, мы должны позволить им осознать, что мир наполнен другими умами, кроме их собственного. Однако есть проблема: у нас нет эффективного способа узнать, является ли ИИ сознательным или нет. На самом деле с философской точки зрения трудно даже определить, есть ли другие люди сознательными.

Если мы хотим знать, является ли компьютер осознанным, нам нужно проверить, понимает ли компьютер, как взаимодействуют сознательные умы. Иными словами, нам нужен обратный тест Тюринга: давайте посмотрим, может ли компьютер сказать, с кем он разговаривает – с человеком или с другим компьютером.
– предлагает ученый.

Таким образом, если мы не сможем выяснить эти сложные вопросы, рискуем столкнуться с мрачными последствиями. Социопатическая машина, которая может принимать последовательные решения, была бы очень опасна. Пока чат-боты все еще ограничены в своих возможностях и по своей сути являются игрушками. Но если мы не будем глубже думать о машинном сознании, предостерегает Грациано, через год или пять лет можем столкнуться с кризисом.