OpenAI таємно від правління розробляв сильний штучний інтелект

27 листопада 2023, 13:30
Читать новость на русском

Джерело:

Reuters

Згідно з інсайдерськими джерелами, нещодавній поворот подій в OpenAI – суперечливе звільнення генерального директора Сема Альтмана – був пов'язаний з виявленням розробок в області потужного штучного інтелекту. Невдала спроба ради директорів стримати ці розробки викликала питання щодо прозорості компанії та занепокоєння щодо потенційних ризиків, пов'язаних з потужним ШІ.

Конфлікт всередині OpenAI привернув увагу громадськості, коли співзасновник компанії Ілон Маск натякнув на нерозкриті причини раптового відходу Альтман, і цю думку підтримали інші. Однак конкретика залишалася невловимою донедавна, коли агентство Reuters розкрило деталі секретного проєкту під назвою Q-Star (Q*) і потенційної появи форми ШІ, яка може перевершити людські здібності.

Читайте на сайті Епоха нових можливостей чи крок у прірву: чи стане ШІ для людства стрибком у майбутнє

Причини звільнення Сема Альтмана

Згідно з достовірними джерелами, кілька співробітників OpenAI попередили правління про революційне відкриття, пов'язане з потужним ШІ. Альтмана звинуватили у приховуванні інформації від ради директорів і спробі комерціалізації продукту без глибокого розуміння його наслідків. Невдоволення ради директорів через секретність Альтмана та занепокоєння потенційними ризиками, пов'язаними з розробкою потужного ШІ, зрештою призвело до його звільнення.

Хоча точні деталі листа до ради директорів залишаються нерозкритими, джерела припускають, що проект Q-Star може означати прорив у розвитку універсального ШІ. Ця вдосконалена модель ШІ, яку називають сильним або універсальним ШІ, має потенціал перевершити людину за різними економічно важливими показниками.

Чим Q* такий особливий

Увагу привернула здатність проєкту Q-Star розв'язувати математичні задачі на рівні учнів початкової школи. Зокрема, АІ продемонстрував здатність давати точні відповіді на математичні задачі без попередньої підготовки, натякаючи на появу того, що деякі експерти називають суперінтелектом.

Нещодавні викриття OpenAI щодо Q-Star та існування групи вчених, які займаються оптимізацією моделей ШІ, підняли етичні питання, пов'язані з відповідальністю компаній, які займаються розробкою ШІ. Розкриття інформації підштовхнуло до дискусій про необхідність створення адекватних механізмів контролю для гарантії безпечної розробки та впровадження передових технологій ШІ.

Дивіться також Мала модель штучного інтелекту Microsoft виявилася розумнішою та ефективнішою, ніж великі

Обставини відходу Альтмана породили теорію змови, яка припускає, що рада директорів пережила "момент Оппенгеймера", схожий на усвідомлення потенційної загрози, яку несе в собі революційний винахід. Хоча прямих підтверджень залишається мало, ці припущення частково підтверджуються викриттями про внутрішню боротьбу OpenAI з ризиками, пов'язаними з потужним розвитком ШІ.

Наслідки цих викриттів ставлять OpenAI на критичний момент, коли вона балансує між інноваціями та відповідальним розвитком у сфері штучного інтелекту.