Людство не зможе контролювати штучний суперінтелект – розрахунки

10 листопада 2021, 08:02
Читать новость на русском

Джерело:

Science Alert

Людська цивілізація дедалі більше просувається у розробці суперінтелекту – алгоритму, здібності якого могли б перевершити людські. Однак разом з тим не стихають суперечки щодо безпечності технології та можливих наслідків її виходу з-під контролю. Нові розрахунки вчених показали: людство не зможе контролювати такий суперінтелект.

Вчені з Іспанії, Німеччини, Чилі та США опублікували свої висновки в науковому журналі Journal of Artificial Intelligence Research. Їхні результати аж ніяк не тішать. Якщо далі розвивати штучний інтелект, ми можемо навіть не помітити, як суперінтелект вийде з-під контролю.

Цікаво Випробувати метавсесвіт на собі можна буде в магазинах Facebook по всьому світу

Суперінтелект: що це таке й чи варто його боятися

Суперінтелект – це такий стан штучного інтелекту, при якому можливості програми перевершують найрозумніших живих людей. Для того, щоб контролювати складний ШІ, який недоступний нашому розумінню, потрібно створити й проаналізувати його модель. Але не можна зробити симуляцію, якщо незрозуміло, як він працює.

Дослідники зазначають, що люди не зможуть встановити правило "не завдавати шкоди людям", якщо не знатимуть, які сценарії може придумати ШІ. На їхню думку, якщо комп'ютер на голову вище, ніж програмісти, йому неможливо ставити межі. Таким чином суперінтелект може використовувати потенційно незрозумілі людині способи досягнення цілей.

Штучний інтелект і проблема зупинки

Роздуми дослідників стосуються й так званої проблеми зупинки, яку сформулював Алан Тьюринг в 1936 році. Суть проблеми в тому, що потрібно знати, чи знайде програма відповідь на питання і зупиниться, чи буде працювати нескінченно. Тьюринг довів, що загального алгоритму розв'язання проблеми немає. Тому ми не знаємо, чи знайде рішення програма, яка покликана зупинити небезпечний ШІ.

Вчені кажуть, що жоден алгоритм не може навчити штучний розум етиці або попросити не знищувати світ. Альтернатива є: обмежити можливості суперінтелекту. Наприклад, відрізати його від частин Інтернету або певних мереж. Проте це звузить сферу застосування ШІ. А якщо ми не збираємося використовувати його для вирішення проблем, що виходять за рамки людських, то навіщо взагалі його створювати?

Суперінтелектуальна машина, яка контролює світ, звучить як наукова фантастика. Але вже існують машини, які самостійно виконують деякі важливі завдання, при цьому програмісти не розуміють, як вони цьому навчилися. Тому постає питання, чи може це в якийсь момент стати неконтрольованим і небезпечним для людства, 
– каже комп'ютерний вчений Мануель Кебріан з Інституту людського розвитку Макса Планка.