Що ховається за успіхом ChatGPT?

Кельвін Френч-Оуен, інженер, який нещодавно звільнився з OpenAI, опублікував розповідь про свій досвід роботи в компанії. Він одразу зазначив, що його звільнення не пов'язане з внутрішніми конфліктами – він просто вирішив повернутися до заснування власних стартапів, адже раніше був співзасновником успішної компанії Segment, яку продали за 3,2 мільярда доларів, пише 24 Канал.

Дивіться також Ваші найпотаємніші діалоги з ChatGPT тепер прочитає New York Times, навіть якщо ви їх видалили

За рік його роботи штат OpenAI зріс з 1000 до 3000 людей. Таке стрімке масштабування, за словами інженера, спричинило справжній хаос: процеси комунікації, звітності, розробки продуктів та найму персоналу просто не встигали адаптуватися.

Попри величезні розміри, OpenAI досі зберігає атмосферу невеликого стартапу, де панує дух "рухайся швидко і ламай все", подібний до раннього Facebook. Співробітники мають значну свободу дій, що дозволяє запускати проєкти без зайвої бюрократії. Однак це має і зворотний бік – різні команди часто дублюють роботу одна одної. Наприклад, Френч-Оуен бачив щонайменше шість різних версій бібліотек для керування чергами.

Якість коду також буває різною. Поряд з досвідченими інженерами, які перешли з Google, працюють нещодавні випускники університетів, що перетворює центральне сховище коду на "звалище". Це призводить до частих збоїв. Водночас Френч-Оуен розповів, як його команда всього за сім тижнів майже без сну створила й запустила ШІ-асистента Codex, який миттєво набув популярності.

Компанія дуже ретельно ставиться до витоків інформації, створюючи культуру секретності.

OpenAI – це дуже засекречене місце. Я не міг нікому детально розповісти, над чим працюю. У Slack є кілька робочих просторів з різними дозволами. Показники доходів та витрат ретельніше захищені,
– пише інженер.

Водночас вона надзвичайно чутлива до громадської думки, особливо в соцмережі X. За словами інженера, один із його друзів жартував, що "компанія працює на настроях твіттеру". Якщо ви напишете щось вірусне, пов’язане з OpenAI, є велика ймовірність, що хтось прочитає про це та розгляне це.

Безпека

Найбільшою хибною думкою про OpenAI Френч-Оуен вважає уявлення про недостатню увагу до безпеки. Він пояснив, що всередині компанії зосереджені на практичних ризиках, таких як мова ворожнечі, зловживання, політичні маніпуляції та створення біологічної зброї, а не лише на теоретичних загрозах для людства. В OpenAI усвідомлюють, що ставки надзвичайно високі, адже їхніми продуктами користуються сотні мільйонів людей.

Однак разом із тим він каже, що часто бачив у пресі інформацію, про яку не оголошували внутрішньо, і вона його часом навіть шокувала. Це означає, що працівники самі не знають всього, що відбувається в компанії. Найбільші претензії щодо нехтування безпекою завжди надходили від найвищого керівництва, які, очевидно, володіли найпотаємнішими деталями. Наприклад, зі звинуваченнями на адресу Сема Альтмана та компанії виступала одна з директорок, а також членкиня Ради директорів Гелен Тонер. Є також інформація, що подібні речі говорив Ілля Суцкевер, співзасновник і колишній головний науковий співробітник OpenAI. Нарешті, засновники Anthropic, які раніше працювали в OpenAI, також звертали увагу на недостатню безпеку при розробці, тому в своїй компанії вони зробили на цьому особливий акцент.