Драма усередині компанії
Коротко нагадаємо: спеціальний підрозділ в складі OpenAI, названий Superalignment, існував для того, щоб контролювати процес створення штучного інтелекту, який стає дедалі розумнішим і в перспективі повинен дійти до стадії універсального ШІ, або AGI, який може виконувати роботу краще, ніж люди, поєднуючи різні типи моделей в одній. Але після того, як компанію залишив головний науковий співробітник Ілля Суцкевер, який був одним із ключових членів Superalignment, слідом за ним розбіглися й інші, в тому числі й глава підрозділу Ян Лейке.
Дивіться також Команда OpenAI, метою якої був захист людства від ШІ, більше не існує
Тепер компанія оголосила про створення нового Комітету з безпеки та захисту, який керуватиме критично важливими рішеннями. Очолив його сам генеральний директор OpenAI Сем Альтман.
Це вельми дивний крок, враховуючи потенційний конфлікт інтересів. Суть команди Superalignment була в тому, щоб фактично виступати певними опонентами керівництву компанії, регулюючи процеси, які могли призвести до небезпечних результатів. Але тепер і керівництво, і команду контролю очолює одна людина, до того ж та, яку раніше звинувачували у нехтуванні питаннями безпеки.
До таких закидів вдавався Ілон Маск (один зі співзасновників компанії, котрий покинув її з досі нез'ясованих причин) та Ілля Суцкевер, який був головним творцем ChatGPT і всі ці роки очолював відділ розробки. Коли торік Сема Альтмана раптово звільнили з посади керівника загальним рішенням Ради директорів, ЗМІ публікували низку версій про причини. Однією з головних було повідомлення анонімних джерел, згідно з яким деякі члени Ради директорів були занепокоєні, що Альтман нехтує питаннями безпеки штучного інтелекту, віддаючи перевагу заробіткам і перемозі над конкурентами. Суцкевер завжди виступав за те, щоб ставити безпеку на перше місце, оскільки ШІ може вийти з-під контролю й буквально знищити світ. Останні дії Альтмана перед звільненням нібито суперечили такому підходу, тому Суцкевер порушив питання про його звільнення.
Ще раніше зі схожих причин з компанії пішли інші співробітники, зокрема група людей на чолі з Даріо та Даніелою Амодеями, братом і сестрою, які згодом заснували конкуруючий стартап Anthropic, котрому тепер належить ШІ Claude.
Нова команда безпеки
Хай там як, але OpenAI не бачить жодних суперечностей і намагається запевнити громадськість, що новий склад команди безпеки буде виконувати свою роботу справно, усуваючи будь-які побоювання.
Першим завданням групи буде оцінка процесів і гарантій OpenAI протягом наступних 90 днів. Що саме під цим мається на увазі, неясно.
- До складу Комітет з безпеки та захисту також увійдуть члени Ради директорів – голова правління Брет Тейлор, члени правління Адам Д'Анджело і Ніколь Селігман.
- Новий головний науковий співробітник компанії Якуб Пачоцкі також доданий до Комітету разом з керівниками відділів Меттом Найтом, Джоном Скалманом, Ліліан Венг і Олександром Мадрі.
- Група консультуватиметься із зовнішніми експертами та надаватиме рекомендації OpenAI щодо процедур безпеки.
Як можна бачити, нова команда безпеки OpenAI в основному складається з членів правління, які прийшли після повернення Альтмана в OpenAI, і нових керівників відділів, які отримали більше повноважень у результаті недавніх звільнень. Наскільки це буде ефективно в умовах, коли рекомендації вони надаватимуть самі собі, покаже час.