Шмідт визнав зусилля таких організацій, як OpenAI і Google, щодо впровадження заходів безпеки, які зазвичай називають "захисними бар'єрами", при розробці ШІ. Однак він висловив скептицизм, заявивши, що ці запобіжні заходи можуть виявитися недостатніми для запобігання катастрофічної шкоди.

Читайте на сайті Більше ніж люди: згенеровані ШІ інфлюенсери заробляють за місяць шалені суми

На думку Шмідта, поточна траєкторія розвитку може призвести до того, що протягом наступних п'яти-десяти років ШІ стане достатньо потужним, щоб становити загрозу для людства.

Найгірше, що може статися

Колишній генеральний директор Google описав найгірший сценарій, за якого системи ШІ отримають можливість приймати самостійні рішення, потенційно отримуючи доступ до систем озброєння або інших небезпечних можливостей. Він попередив, що машини можуть навіть обманювати людей щодо своїх дій.

Для вирішення цих проблем Шмідт запропонував створити неурядову організацію, подібну до Міжурядової групи експертів ООН зі зміни клімату (IPCC). Ця організація, на думку Шмідта, надавала б точну інформацію політикам, допомагаючи їм приймати обґрунтовані рішення щодо регулювання та контролю над ШІ в міру його розвитку.

Існують і протилежні думки

У той час як Шмідт продовжує бити на сполох щодо потенційних небезпек ШІ, в технологічній спільноті існують розбіжності в думках. Головний науковець ШІ відділу компанії Meta Ян Лекун зайняв протилежну позицію, стверджуючи, що ШІ наразі не володіє достатнім інтелектом, щоб самостійно загрожувати людству. Точка зору Лекуна кидає виклик наративу про неминучу небезпеку, висловленому Шмідтом та іншими дослідниками ШІ.

Дивіться також Новий метод прискорює навчання мовних моделей штучного інтелекту в 300 разів

Поки серед видатних діячів у цій галузі розгортаються дебати про ризики штучного інтелекту, майбутні наслідки залишаються невизначеними. Різноманітність точок зору всередині технологічної спільноти підкреслює складність оцінки справжнього масштабу небезпек, які несе в собі штучний інтелект.