Згідно зі звітом MIT Technology Review, багато моделей ШІ є "чорними скриньками", тобто їхня внутрішня робота незрозуміла і непередбачувана. Це створює виклик для дослідників, які хочуть пояснити, вдосконалити та контролювати свої системи штучного інтелекту.

Читайте на сайті "Біситься, що не його" – OpenAI відповіла на зухвалий позов Маска

Деякі експерти пояснюють брак розуміння тим, що ця галузь перебуває на стадії становлення, стверджуючи, що зародження ШІ означає, що іноді дослідникам доводиться працювати, відштовхуючись від експериментальних результатів і висновків.

Однак деякі дослідники попереджають, що такий підхід є ризикованим, особливо в міру того, як ШІ стає все більш інтегрованим у життя людини та суспільства. Вони стверджують, що гарантії важливі для гарантування безпеки, надійності та етичності застосування ШІ.

Якщо ви можете робити дивовижні речі, але не можете їх контролювати, то це не так вже й дивовижно. Це як їхати на авто на швидкості 300 миль на годину з хитким кермом,
– сказав Михайло Бєлкін, комп'ютерний науковець з Каліфорнійського університету в Сан-Дієго.

Науковці сходяться на думці, що індустрія штучного інтелекту повинна розробити більш суворі теоретичні рамки та методи для розуміння і перевірки своїх моделей.

А тим часом Британський уряд замінить частину держслужбовців на штучний інтелект

Вчені також закликають колег до більш тісної співпраці та комунікації одне з одним ШІ з різних дисциплін і з різним досвідом.

"Це захопливі часи. Багато людей в цій галузі часто порівнюють її з фізикою на початку 20-го століття. У нас є багато експериментальних результатів, які ми не до кінця розуміємо, і часто, коли ви робите експеримент, він вас дивує", – сказав Боаз Барак, комп'ютерний науковець з Гарвардського університету.