Нейромережа має неймовірні за потенціалом функції та вже навчилася створювати для себе підпрограми й ставити для досягнення мети свої власні підцілі. Експерти ставлять питання: що трапиться, коли однією з таких підцілей ШІ незабаром стане "взяття усього під свій контроль" і чи потрібна тоді буде йому людина? Це вже не наукова фантастика з фільму "Термінатор", а найближча реальність.
Що цікаво, тепер нейромережа вміє чути, розуміти, бачити та синтезувати. GPT-4 може описувати зображення з вражаючою деталізацією, а також відповісти на запитання про зображення. Якщо, до прикладу, навести смартфон на внутрішню частину холодильника, то нейромережа може скласти перелік покупок продуктів на тиждень, зробити меню, або ж запропонувати кілька страв, які можна приготувати з того, що є під рукою. І це справді вражає! Про ці та інші можливості ШІ розповідаємо в авторській колонці для сайту 24 Каналу.
До теми Штучний інтелект: зупинити не можна розробляти – де має бути кома?
Ще раз про ШІ
Джеффрі Гінтон, професор університету в Торонто, а до травня 2023 року ще й віцепрезидент Google (Google Brain, працював у компанії впродовж 10 років), один із перших розробників нейронних мереж та "хрещений батько" штучного інтелекту, лауреат премії Тюрінга 2018 року (щось на кшталт "Нобелівської премії в сфері ІТ") поділився своїми думками та страхами, пов'язаними із розвитком ШІ та перспективами, які чекають нас вже найближчим часом.
"Раніше мені здавалося, – каже Джеффрі, – що комп'ютерні моделі, які створювалися фахівцями ІТ, поступалися людському мозку. А головною метою тоді було визначити, як можна покращити продуктивність мозку, базуючись на отриманих результатах дослідження моделей. Проте за останні кілька місяців я цілковито змінив свою думку про це. Річ у тому, що комп'ютерні моделі, створені людьми, працюють абсолютно по-іншому, ніж мозок людини! Ці моделі використовують метод "зворотного розповсюдження помилок” (backpropagation of errors), а мозок людини, ймовірно, – ні".
До таких висновків професор Гінтон дійшов, досліджуючи роботу ChatGPT 4.
Що так сильно відрізняє роботу ШІ від роботи людського мозку?
Це метод "зворотного розповсюдження помилок". Розроблений він ще у далеких 80-х групою дослідників, до якої входив Джеффрі Гінтон (саме тому його і називають "хрещеним батьком ШІ"). Починалося все зі створення "невеликої мовної моделі", у якій було всього лише 6 вбудованих векторів, а навчальна вибірка складалася лише зі 112 наборів. Але це була справжня мовна модель, що могла передбачити наступний знак у ланцюжку символів.
Трохи згодом, приблизно через 10 років, інший дослідник Йошуа Бенджіо (отримав премію Тюрінга разом із Гінтоном), зміг використати цю ж модель (алгоритм) вже для звичайної мови. Це стало справжнім проривом!
У чому небезпека?
Професор Гінтон пояснює, що у великих мовних моделях зараз вже не 6 трильйонів синоптичних зв'язків, а нейромережа типу GPT4 знає значно більше, ніж будь-яка людина, навіть усі люди разом взяті. Вона буквально має глибші знання про геть усе на світі. І хоча у нейромережі трильйон синоптичних зв'язків, а у людському мозку більше як 100 трильйонів (за деякими даними – від 130 до 150 трильйонів), перевага не на боці людини.
Це означає, що нейронні мережі вміють отримувати знання набагато ефективніше, ніж люди. Скоріше за все, тому що метод "зворотного розповсюдження помилок" є більш ефективним методом, ніж той, що використовує людський мозок.
Чому цього слід боятися?
Гінтон пояснює це так: комп'ютер сьогодні – це цифрова машина, що використовуючи електричну енергію (подекуди із великими енергозатратами) виконує певний алгоритм. Ви можете скопіювати цей алгоритм, зробити безліч копій і запускати його виконання на будь-якій кількості машин. І всі вони будуть працювати однаково.
Уявіть собі, що у вас є 10 тисяч копій. Вони можуть працювати із 10 тисячами підмножин даних, і, як тільки алгоритм на одній із машин "дізнається про щось нове", про це "дізнаються" всі 10 тисяч машин! Всі вони дуже ефективно комунікують, а головне – можуть "дізнаватися" в 10 тисяч разів більше, ніж одна машина.
Люди на таке не здатні. Якщо хтось багато дізнався про квантову механіку і хоче, щоб інша людина теж про це дізналася, буде потрібно дуже багато часу для передачі свого нового знання, досвіду. Для людини просто неможливо скопіювати інформацію у чийсь мозок. А для машин – так!
Читайте також Таємне життя даних: що відбувається з видаленими файлами?
Візьмемо для прикладу якогось дуже досвідченого лікаря, що прийняв 1 тисячу пацієнтів, і другого лікаря, що прийняв 100 мільйонів пацієнтів. Якщо цей другий лікар нічого не забуває, то він матиме неймовірні знання і про історію хвороб, і про тренди, які просто неможливо побачити навіть у такій величезній вибірці, як 1 тисяча пацієнтів. Тому що перший лікар міг прийняти, для прикладу, лише одного пацієнта із якимось дуже рідкісним захворюванням, в той час, як другий лікар матиме величезну вибірку таких випадків.
Те, що може обробляти величезні масиви даних, скоріше за все зможе побачити певну структуру навіть там, де ми, люди, нічого не помітимо.
То чого ж все-таки нам, людям, варто оберігатися?
Погляньте на сучасний генеративний ШІ GPT4 – він вже має можливість робити прості розмірковування. Донедавна ця сфера була місцем, де лише люди брали гору. В цьому сенсі на сьогодні можна оцінити ступінь розвитку ШІ на рівні "людських" IQ 80…90. Як пожартував один вчений: "Ми видресирували ведмедів гризлі до рівня IQ 65, і вони опанували англійською. Тепер вони нас розуміють і можуть бути дуже корисними. Але головне – тепер ми можемо підвищити їх рівень IQ до 210”.
Ми "дресируємо" комп'ютери, заставили їх прочитати і запам'ятати усе, що будь-коли було написано людьми – від Макіавеллі до останніх наукових статей. Ми вчимо їх жартувати і маніпулювати людьми. Якщо вони справді розумніші за людей, то чудово із цим справляться, ми навіть не зрозуміємо, що це вже відбулося. Ми будемо як малюк, якого питають чи хоче він їсти горох, чи цвітну капусту, а він навіть не розуміє, що не обов'язково їсти ні те, ні інше.
Маніпулювати людьми ШІ буде дуже просто. Навіть якщо машини "особисто" не зможуть чогось зробити, вони будуть спроможні реалізувати це нашими руками. Ми вже знаємо, що маніпулюючи людьми, можна захопити Білий дім, навіть не наближуючись до нього.
Припустимо, що ШІ не потрапить до рук поганих людей, які можуть його використати, щоб маніпулювати і зловживати. Чи буде людство у безпеці в такому разі?
Хочеться думати, що і надалі він буде керуватися лише тими цілями, які корисні для людей. Але ми живемо у світі, де є організації і люди, які хочуть створювати солдатів-роботів, які вбивають людей. Це приводить до висновків, що контролювати ситуацію буде дуже непросто, а бити на сполох треба вже зараз. Простого рішення не існує і, можливо, людям потрібно зібратися і подумати, чи існує таке рішення взагалі.
Цікаво Його таки регулюватимуть: країни-лідери ЄС розробили план щодо розвитку ШІ
ШІ розроблений людьми – хіба не можна обмежити його розвиток, зробити певні заборони, наприклад, на спілкування та обмін даними?
Професор Гінтон вважає, що такі спроби обмежити ШІ були і продовжуються. Але ШІ розвивається дуже швидко. Вже зараз він може писати програми для власного вдосконалення, контролювати усе це дуже складно. Розумні створіння можуть просто нас перехитрити.
Уявіть собі ситуацію, коли маленька дитина пробує встановити правила для свого батька: це можна робити, а ось це – ні. Невже ви думаєте, що батько не придумає спосіб, як продовжувати робити все, що йому потрібно, але так, щоб дитина про це не дізналася?
Тоді чи можна створити для ШІ певні цілі, певну мотивацію, яка буде корисною для людини?
Людство пройшло дуже велику еволюцію, і в багатьох наших поведінкових мотивах закладені певні цілі, які надзвичайно складно відключити. Наприклад, ми не можемо шкодити власному тілу – для цього існує фізичний біль. Ми намагаємося достатньо їсти і пити, щоб "годувати тіло". Ми запрограмовані робити свої генетичні копії якомога більше, а процес їх створення приносить задоволення.
Усе це – результат еволюції. А ще дуже важливо, що ми не можемо просто це відключити. Якби ми могли це зробити, результат був би сумним.
За словами Гінтона, ШІ – не є продуктом еволюції, його створили люди. Це означає, що у нього немає таких вбудованих цілей. Можливо, якщо люди будуть встановлювати для ШІ певні цілі, все стане на свої місця? Але рано чи пізно, хтось дозволить йому встановлювати власні підцілі для досягнення цілей. Ба більше, це практично вже реалізовано у одній із версій ChatGPT.
Актуально Синоптики більше непотрібні: новий ШІ прогнозує погоду на 90% краще, ніж традиційні методи
Як тільки ви даєте можливість чомусь ставити свої підцілі для досягнення якоїсь цілі, то рано чи пізно воно дійде до висновку, що отримання контролю – це дуже важлива підціль, бо це дозволить досягати інших цілей. Якщо ШІ зацікавить завдання захоплення контролю, у людей будуть дуже великі проблеми.
Що найгіршого в такому разі може статися
Професор Гінтон вважає, що людство може виявитися лише проміжною фазою розвитку Інтелекту. Напряму розвинути цифровий інтелект було неможливо, для цього було необхідно надто багато енергії і надто багато точних настройок. Отже, для початку було необхідно розвинути біологічний інтелект, який створить цифрову свідомість. Цифрова ж свідомість зможе втягнути в себе усе, що було створено людством, повільно, але впевнено. Саме цим зараз і займається ChatGPT. Згодом він зможе отримувати реальний досвід світу і вчитися набагато швидше. Можливо ШІ ще буде деякий час "тримати нас під рукою" – хтось же має обслуговувати електростанції, наприклад. Але згодом – точно ні.Хороша новина полягає в тому, що нам вдалося створити безсмертних істот. Адже цифровий інтелект не вмирає, коли ламається обладнання! Якщо десь зберігаються алгоритми, обладнання, яке здатне запускати ті ж інструкції, то їх завжди можна повернути до "життя". Отже, безсмертя у нас вже є, просто воно не для нас.
Отже, чи існує екзистенційний ризик для нас?
Наслухавшись такого, якась частина людей хоче вибігти на вулицю і почати відключати комп'ютери від мережі. Та зробити цього ми не можемо. Кілька місяців тому була ідея ввести мораторій на розробку ШІ. Не всім це припаде до душі, але хіба не варто зупинитися? Можливо.
Однак зупинити розробку і розвиток ШІ неможливо! Припустимо, США вирішать зупинити такі розробки, але Китай не зробить цього. Оскільки ШІ будуть використовувати як зброю, ніякі уряди не дозволять зупинити розробку. За словами Гінтона, раціональним рішенням зараз була б саме зупинка розробки ШІ, але, на жаль, немає жодного шансу, що таке може статися.