Маск, Возняк та ШІ-експерти закликали припинити навчання нейромереж – у чому причина

29 березня 2023, 15:00
Читать новость на русском

Джерело:

Reuters

Ілон Маск, Стів Возняк та понад 1000 інших експертів зі штучного інтелекту та представників ІТ-індустрії закликали до шестимісячного мораторію на навчання систем штучного інтелекту (ШІ), які є потужнішими за OpenAI GPT-4. У відкритому листі, опублікованому некомерційною організацією Future of Life Institute, група попередила про потенційні ризики для суспільства.

У листі наголошується, що потужні системи ШІ слід розробляти тільки після того, як з'явиться впевненість у позитивних наслідках такого розвитку і в тому, що ризики, пов'язані з ним, є керованими. Експерти закликали розробників тісно співпрацювати з регуляторами і призупинити розробку, поки не будуть встановлені загальні для галузі протоколи і стандарти безпеки, які пройдуть незалежну перевірку.

Цікаво ChatGPT допоміг урятувати собаку від смерті, коли йому поставили помилковий діагноз лікарі-люди

Група попередила про потенційні загрози для суспільства і цивілізації, які несуть системи ШІ, здатні конкурувати з людиною, що може призвести до економічних або політичних потрясінь. Широкі дослідження показали, що такі системи ШІ можуть становити серйозну загрозу для суспільства і цивілізації.

Заклик до мораторію з'явився після того, як Європол приєднався до групи зацікавлених сторін, які попереджають про можливість зловживання системами штучного інтелекту, такими як ChatGPT, зловмисниками для фішингу, дезінформації та кіберзлочинності.

Ілон Маск, компанія якого вже давно використовує елементи штучного інтелекту в своїх системах автопілотування, відкрито і неодноразово висловлював занепокоєння щодо небезпеки систем штучного інтелекту.

Стрімкий розвиток генеративних систем штучного інтелекту

З моменту свого випуску минулого року чат-бот ChatGPT від OpenAI, що підтримується Microsoft, продемонстрував якості, які змусили конкурентів поспішити з розробкою власних масштабних мовних моделей. Як наслідок, компанії почали поспішати інтегрувати генеративний ШІ у свої продукти. За словами представника Future of Life, генеральний директор OpenAI Сем Альтман не підписував листа, а компанія відмовилася від коментарів.

Читайте на сайті Чатботи Google і Microsoft посилаються одне на одного в химерному потоці брехні

На думку одного з експертів, необхідно пригальмувати відповідні роботи, поки людство не почне краще розуміти наслідки, оскільки системи ШІ можуть завдати серйозної шкоди. Особливо з огляду на секретність, з якою великі гравці зберігають інформацію про те, над чим вони працюють, суспільству буде складно захиститися, якщо побоювання виправдаються.