ШІ становить серйозну загрозу вимирання для людства на рівні з ядерною війною і пандемією

31 травня 2023, 12:37
Читать новость на русском

Джерело:

New York Times

Видатні діячі в галузі штучного інтелекту (ШІ) б'ють на сполох щодо потенційних небезпек, пов'язаних з розвитком власних технологій, порівнюючи ризики, які несе ШІ, з пандеміями та ядерними війнами. У відкритому листі, який незабаром буде опублікований Центром безпеки ШІ, понад 350 лідерів галузі, наголосили на нагальній необхідності усунення цих ризиків для людства.

У листі стверджується, що зниження ризику вимирання, спричиненого штучним інтелектом, має стати глобальним пріоритетом, ставлячи його в один ряд з іншими основними суспільними ризиками.

Дивіться також Генеральний директор OpenAI Сем Альтман закликав Конгрес США до регулювання штучного інтелекту

Серед підписантів листа – такі впливові фігури, як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ. У списку відсутній Ян Лекун, який очолює дослідження ШІ в компанії Meta.

Зростаюче занепокоєння громадськості навколо розвитку ШІ посилило ці побоювання. Дехто переймається, що системи штучного інтелекту, включно з такими платформами, як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди.

Крім того, побоювання викликає потенційна втрата мільйонів робочих місць у зв'язку з впровадженням ШІ в Європі та США. Незвично, але самі лідери індустрії визнають ризики, пов'язані з їхніми власними творіннями, і виступають за суворе регулювання з боку керівних органів.

Симпатики ШІ не вірять застереженням

Водночас скептики заперечують потенційну небезпеку ШІ. Вони заявляють, що технологія штучного інтелекту все ще перебуває в зародковому стані і не здатна становити відчутну загрозу для людства. Натомість, на їх думку, слід зосередитися на вирішенні нагальних проблем, таких як упередженість і помилковість відповідей ШІ.

Однак інші вважають, що системи ШІ з можливостями, еквівалентними людським, рано чи пізно матеріалізуються. Щоб запобігти потенційним негативним наслідкам, лідери галузі пропонують створити організацію, яка б займалася регулюванням ШІ, на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), що має на меті запобігти розповсюдженню та нецільовому використанню ядерної зброї.

Якщо ШІ справді може становити загрозу для людства, хотілося б, щоб така організація справді могла запобігти загрозі на відміну від постійно стурбованої МАГАТЕ.

Читайте на сайті Схоже штучний інтелект вже скоро боротиметься з людиною за прісну воду

Цей нещодавній заклик до обережності та регулювання з'явився після попереднього відкритого листа, підписаного понад тисячею дослідників і представників технологічної індустрії, які виступали за шестимісячний мораторій на розробку передових систем штучного інтелекту через їхню загрозу для людства.

Лаконічність формулювань листа мала на меті об'єднати експертів, попри потенційні розбіжності в поглядах на певні аспекти.