Компанія OpenAI була заснована ще у 2015 році і весь цей час вона йшла до свого неймовірно успішного продукту – чат-бота ChatGPT. Перші дні після його повноцінної презентації стали просто шаленими. Скриншоти розмов із машиною заполонили інтернет. Інструкції та поради з використання публікувалися з запаморочливою швидкістю. З'явилися цілі курси і сайти з готовими запитами, які дозволяють отримати найкращі результати. Рекорди кількості користувачів досягали нових висот щодня. Компанія тим часом була визнана найшвидше зростаючою на ринку, а сам ChatGPT – найпопулярнішим сервісом за темпами зростання, обігнавши навіть TikTok.

Дивіться також ШІ лишив слід і тут: американський словник назвав слово 2023 року

Але знаєте, що було найцікавішим? Запуск ChatGPT супроводжувала повна тиша. Після років розробки і з повним розумінням гігантського потенціалу технології ніхто не виходив на сцену й не оголошував, що OpenAI перепише майбутнє, як це було з iPhone, Metaverse, Facebook, Netflix чи іншими популярними продуктами, без яких ми сьогодні не можемо жити. Чат-бот просто вийшов.

З того часу ChatGPT невпинно зростав, б'ючи все нові рекорди, й просівши в популярності лише один раз – улітку 2023 року, коли студенти та школярі пішли на літні канікули й перестали користуватися ШІ задля шахраювання з домашнім завданням.

За час свого публічного існування ChatGPT встиг отримати кілька серйозних оновлень і змінити методи своєї роботи. Так, компанія спочатку випустила версію 3.5, а потім більш досконалий ChatGPT 4, який почала пропонувати за окрему плату – 20 доларів на місяць. У комплекті з ним іде можливість генерування зображень прямо в чаті за допомогою DALL·E. Після цього ми отримали GPT-4 Turbo, про яку оголосили на нещодавній конференції для розробників. Компанія заявляє, що ця версія ще краща й ефективніша, але при цьому дешевша. GPT-4 Turbo доступний у двох різних версіях. Перша версія призначена для аналізу тексту, тоді як друга демонструє розширені можливості, розуміючи як текст, так і зображення.

Варто зазначити, що довгий час недоліком ChatGPT було те, що його база знань, на якій він учився, була обмежена 2021 роком. Тож система просто не знала всього того, що відбулося й було відкрито після цього часу. Microsoft зі своїм Bing Chat першою надала своєму ШІ доступ до інтернету й можливість шукати інформацію в реальному часі. З виходом GPT-4 Turbo OpenAI розширила знання чат-бота до квітня 2023 року. Компанія також внесла безліч оновлень для тих, хто використовує технологію в програмуванні.

З цікавого ще можна згадати майбутній запуск магазину надбудов. Користувачі отримають можливість створювати кастомні версії ChatGPT, навчаючи їх на власних наборах даних під конкретні потреби. Наприклад, ви зможете створити бота для свого підприємства, навчивши його на внутрішній документації. Таким чином він володітиме потрібною інформацією і зможе давати вам підказки з оптимізації фінансових потоків, виробництва, управління та інших питань. Користувачі зможуть публікувати свої версії нейромережі, й отримувати виплати за їхнє використання іншими людьми.

А що далі?

Ми вже знаємо, що OpenAI працює над ChatGPT 5, але розробники ще й самі не розуміють, якою буде ця версія і на що вона буде здатна. Мовна модель уже тренується, але компанія не розкриває жодних деталей. Можна лише припустити, що вона вбере в себе все найкраще з попередніх версій і запропонує глибші й актуальніші знання як загального характеру, так і розуміння вузьких спеціальностей, покращений синтез мовлення та низку нових функцій. Не забудуть і про безпеку та конфіденційність, адже сьогодні це питання в тренді – особливо після нещодавньої епопеї зі звільненням генерального директора компанії Сема Альтмана.

18 листопада весь світ був шокований несподіваною новиною: засновника й незмінного генерального директора OpenAI Сема Альтмана звільнено з посади. Як з'ясувалося, Рада директорів проголосувала за його відставку таємно, не попередивши ні самого Альтмана, ні голову Ради Грега Брокмана про те, що таке питання буде розглядатися. Останнього, до речі, також усунули від виконання обов'язків у правлінні компанією, але принаймні дозволили залишитися в компанії. Однак Брокман, будучи близьким другом Сема Альтмана, оголосив, що звільняється за власним бажанням.

Яка причина? Ми досі не знаємо, оскільки компанія не коментує це питання. ЗМІ публікували низку версій, але головною з них наразі є повідомлення анонімних джерел, згідно з якими деякі члени Ради директорів були занепокоєні, що Альтман нехтує питаннями безпеки штучного інтелекту, віддаючи перевагу заробіткам. Головним заколотником назвали Іллю Суцкевера – провідного наукового спеціаліста компанії (і, можливо, співзасновника), якому належить більшість розробок і проривів у технології ChatGPT. Він завжди виступав за те, щоб ставити безпеку на перше місце, оскільки ШІ може вийти з-під контролю й буквально знищити світ. Останні дії Альтмана нібито суперечили такому підходу, тому Суцкевер порушив питання про його звільнення.

Дещо пізніше в ЗМІ потрапила інформація про лист, який начебто написали кілька працівників OpenAI до правління. В ньому йшлося про те, що компанія створила щось дійсно небезпечне – технологію, яку назвали Q* (читається як "Q-Star"). Це так званий універсальний штучний інтелект, який долає велику перешкоду й має особливі здібності в математиці. Але найголовніше, що ця модель штучного інтелекту вперше перевершує людину у виконанні більшості економічно цінних завдань. Пізніше ми дізналися, що розробка велася таємно, за спиною Ради директорів.

Забігаючи наперед, Сем Альтман пізніше визнав, що мав конфлікти з Радою. Імовірно, він серед іншого мав на увазі публічну статтю дослідниці безпеки ШІ Хелен Тонер, яка входила до правління OpenAI. Вона критикувала протоколи безпеки OpenAI й фактично приєднувалася до Іллі Суцкевера в його баченні безпечності продукту. Тонер начебто навіть заявляла, що Альтман не повинен очолювати OpenAI, тож пізніше стала однією з тих, хто голосував за його відставку.

Хай якою б не була причина, але звільнення Альтмана спричинило шалену реакцію.

  • Спочатку 500 з 770 працівників підписали лист, в якому погрожували звільнитися з компанії, якщо Альтман не повернеться, а Рада не піде у відставку.
  • Пізніше число підписантів зростає до 700.
  • Microsoft оголошує, що запропонувала роботу Альтману, Брокману та всім, хто захоче піти за ними з OpenAI. Витоки свідчили, що компанія вже навіть готувала для них робочі місця, оснащені комп'ютерами Apple.
  • Спочатку новина про роботу в Microsoft подавалася як завершений факт, але згодом стало ясно, що ніяких угод не підписували, а Сем Альтман все ще сподівається повернутися на свою посаду в OpenAI.
  • Сама ж OpenAI тим часом починає переговори з уже колишнім директором про його повернення, оскільки піддалася ультиматуму працівників.
  • Альтман висуває вимогу: правління повинне піти. Довгі дні суперечок закінчувалися нічим.
  • Ілля Суцкевер тим часом уперше коментує ситуацію, заявляючи, що він не хотів розвалювати компанію й шкодує про те, що сталося.
  • Паралельно з цим ми також дізналися, що OpenAI намагалася провести злиття з конкурентною фірмою Anthropic, якій належить ШІ Claude. Засновник і CEO цієї компанії, Даріо Амодей, є колишнім працівником OpenAI, який також був незадоволений, що Альтман нехтує безпекою в угоду комерціалізації, звільнився разом з кількома однодумцями й заснував свій стартап. Амодей відмовився об'єднуватися з колишнім роботодавцем, хоча міг би стати керівником нової компанії.

За кілька днів було оголошено, що Альтман повертається до роботи в компанії. Він знову сяде в керівне крісло. При цьому він досяг своєї мети: Раду директорів було розформовано й розпочато формування нової. Поки що там лише три людини (причому без Грега Брокмана – про його подальшу долю в компанії ніде не згадується), але надалі вони сформують ширше правління "з різними поглядами".

Цікаво, що Microsoft отримала місце в Раді, але лише як спостерігач, без права голосу. Головний науковий співробітник компанії Ілля Суцкевер також залишається в OpenAI, але втрачає місце в Раді директорів. Яким буде формат його роботи й наскільки великі він отримає повноваження після цього "заколоту", невідомо. В компанії на посаді технічного директора також лишається Міра Мураті, яка очолила компанію на два дні після звільнення Альтмана і також раніше входила до правління.

Ось такими були останні дні компанії OpenAI перед тим, як її головному продукту, ChatGPT виповнився один рік.

Але повернімося трохи назад, у часи, коли ChatGPT щойно запустився і світ просто зійшов від нього з розуму. Запуск генеративної моделі GPT запустив ланцюгову реакцію – майже кожна велика корпорація якомога скоріше взялася за розробку власного аналога, щоб встигнути відкусити шматок ринку.

  • Google заявила, що теж кілька років працювала над своєю мовною моделлю, але не встигла запустити її першою.
  • За нею в гру вступила Meta.
  • Microsoft теж займається розробкою мовних моделей – великих та малих. Проте в основу свого Bing Chat і Copilot поклала ChatGPT, оскільки інвестувала в OpenAI понад 10 мільярдів доларів.
  • З великим запізненням ми дізналися про ШІ від Apple, який повинен з'явитися наступного року.
  • У нас також є приклади Cloude, Samsung і численних китайських компаній.
  • Нарешті, про роботу над власним ШІ оголосив Ілон Маск, засновуючи компанію xAI.

Після цього штучний інтелект приходить у вигляді менших чат-ботів та окремих функцій в різноманітні застосунки. Snapchat, TikTok, Instagram, Facebook, WhatsApp та незліченну кількість менших застосунків і проєктів. Ще трохи, і відсутність ШІ-функцій у додатках стане моветоном у технологічному світі.

Запуск ШІ підняв величезну хвилю обурення, адже багато кого не влаштовувало те, на яких принципах існує ця технологія. Річ у тім, що для її навчання потрібні гігантські обсяги даних. Дуже часто в них потрапляють ліцензовані книги, наукові праці, статті та незліченна кількість інших текстів, автори яких навіть не підозрюють, що їхню роботу "згодували" штучному інтелекту.

Дивіться також В усьому світі закінчуються дані для навчання штучного інтелекту

Ми вже бачили кілька позовів від письменників та художників, а також кілька спроб з боку ЗМІ заборонити OpenAI та схожим на неї компаніям залучати їхні творіння для навчання. Поки що якихось значних результатів досягнуто не було.

Загалом з моменту запуску по всьому світу точаться жваві суперечки щодо впливу ШІ на суспільство та долю всього людства. Хтось його боїться, а хтось закликає зняти всі обмеження. Однак більшість – і розробники, і користувачі, і уряди – сходяться на необхідності чіткого регулювання та серйозних запобіжників, які не дозволять технології вирватися в неконтрольоване середовище і знищити всіх нас.

Успіх ChatGPT свідчить насамперед про силу хорошого інтерфейсу, впевнений дослідник ШІ та журналіст The Conversation Тім Горічаназ. Насправді штучний інтелект вже понад десять років є частиною незліченної кількості повсякденних продуктів, від Spotify і Netflix до Facebook і Google Maps. Перша версія GPT, моделі штучного інтелекту, що лежить в основі ChatGPT, з'явилася ще у 2018 році. І навіть інші продукти OpenAI, такі як DALL-E, не здійняли такої хвилі, як ChatGPT одразу після виходу.

Що ж змінилося цього разу? Інтерфейс. Саме чат-інтерфейс став проривом для штучного інтелекту. В цьому, до речі, прослідковується колишній успіх Microsoft, яка свого часу запропонувала перший у світі зручний користувацький графічний інтерфейс у Windows, а тепер є найпопулярнішою на ринку операційних систем.

У чаті є щось унікально привабливе. Люди наділені мовою, і розмова — це основний спосіб, за допомогою якого люди взаємодіють один з одним і виявляють свій інтелект. Інтерфейс на основі чату — це природний режим взаємодії і спосіб для людей відчути "інтелект" системи штучного інтелекту. Феноменальний успіх ChatGPT ще раз доводить, що користувацькі інтерфейси сприяють широкому впровадженню технологій, від Macintosh до браузерів і iPhone. Дизайн має вирішальне значення,
– пише Горічаназ.

Водночас одна з головних переваг технології — створення переконливої природної мови — робить її надзвичайно придатною і зручною для створення неправдивої або оманливої інформації. ChatGPT та інші системи генеративного штучного інтелекту полегшують злочинцям і пропагандистам полювання на людські вразливості. Потенціал технології сприяти шахрайству та дезінформації є одним із ключових аргументів на користь регулювання ШІ.

Дивіться також Витоки свідчать про серйозну драму всередині OpenAI, яка передувала звільненню Сема Альтмана

2023 рік відкрив для ШІ дорогу у світ. Але наступний рік може показати деяке уповільнення темпів розвитку. Розробники, ймовірно, наштовхнуться на технічні обмеження, нестачу потужностей, інфраструктурні перешкоди, такі як виробництво нових чипів і серверів. Багато компаній майже відразу почали роботу над створенням нових чипів, оскільки наші нинішні технології, хоч і можуть працювати зі штучним інтелектом, все ж не призначені для нього напряму. Але для цього потрібен час. Багато компаній прагнуть стати в цьому незалежними. Та ж Microsoft і (поки що за чутками) OpenAI активно над цим працюють, а перші процесори вже навіть побачили світ.

Одночасно з цим буде вдосконалюватися регулювання ШІ. Ми вже маємо перші підписані домовленості між країнами та навіть прийняті окремими урядами закони. Численні конференції та засідання регуляторних органів у США та ЄС заклали основу для майбутніх детальних правил розробки безпечного штучного інтелекту. Імовірно, 2024 рік стане роком, який принесе нам багато таких законів.

Ми поступово призвичаюємось до епохи ШІ і вищезгадане уповільнення повинне дати нам час і простір для формування норм людської поведінки, як з точки зору етикету, тобто коли і де використання ChatGPT є соціально прийнятним, так і з точки зору ефективності, – коли й де ChatGPT є найбільш корисним. ChatGPT та інші генеративні системи штучного інтелекту остаточно ввійдуть у робочі процеси людей, дозволяючи працівникам виконувати деякі завдання швидше і з меншою кількістю помилок. Так само, як люди навчилися шукати інформацію в Google, їм потрібно буде освоїти нові методи роботи з інструментами генеративного ШІ.

Але перспективи 2024 року не виключно позитивні. Він стане історичним роком для виборів у всьому світі, і контент, створений штучним інтелектом, майже напевно буде використовуватися для впливу на громадську думку і розпалювання розбіжностей. Meta вже заборонила використання генеративного ШІ в політичній рекламі, але це навряд чи зупинить використання ChatGPT і подібних інструментів для створення і поширення неправдивого контенту, що вводить в оману. Ми вже бачили численні згенеровані фото, вигадані "новини", підробні відео та навіть голоси. І цього ставатиме дедалі більше. Тож нам потрібно вчитися бути більш пильними.