У листі стверджується, що зниження ризику вимирання, спричиненого штучним інтелектом, має стати глобальним пріоритетом, ставлячи його в один ряд з іншими основними суспільними ризиками.

Дивіться також Генеральний директор OpenAI Сем Альтман закликав Конгрес США до регулювання штучного інтелекту

Серед підписантів листа – такі впливові фігури, як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ. У списку відсутній Ян Лекун, який очолює дослідження ШІ в компанії Meta.

Зростаюче занепокоєння громадськості навколо розвитку ШІ посилило ці побоювання. Дехто переймається, що системи штучного інтелекту, включно з такими платформами, як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди.

Крім того, побоювання викликає потенційна втрата мільйонів робочих місць у зв'язку з впровадженням ШІ в Європі та США. Незвично, але самі лідери індустрії визнають ризики, пов'язані з їхніми власними творіннями, і виступають за суворе регулювання з боку керівних органів.

Симпатики ШІ не вірять застереженням

Водночас скептики заперечують потенційну небезпеку ШІ. Вони заявляють, що технологія штучного інтелекту все ще перебуває в зародковому стані і не здатна становити відчутну загрозу для людства. Натомість, на їх думку, слід зосередитися на вирішенні нагальних проблем, таких як упередженість і помилковість відповідей ШІ.

Однак інші вважають, що системи ШІ з можливостями, еквівалентними людським, рано чи пізно матеріалізуються. Щоб запобігти потенційним негативним наслідкам, лідери галузі пропонують створити організацію, яка б займалася регулюванням ШІ, на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), що має на меті запобігти розповсюдженню та нецільовому використанню ядерної зброї.

Читайте на сайті Схоже штучний інтелект вже скоро боротиметься з людиною за прісну воду

Цей нещодавній заклик до обережності та регулювання з'явився після попереднього відкритого листа, підписаного понад тисячею дослідників і представників технологічної індустрії, які виступали за шестимісячний мораторій на розробку передових систем штучного інтелекту через їхню загрозу для людства.

Лаконічність формулювань листа мала на меті об'єднати експертів, попри потенційні розбіжності в поглядах на певні аспекти.