24 Канал має ексклюзивне право на переклад і публікацію колонок Project Syndicate. Републікацію повної версії тексту заборонено. Колонка початково вийшла на сайті Project Syndicate і публікується з дозволу правовласника.
Чому ШІ насправді не є розумним?
Реальність така, що системи штучного інтелекту не є і ніколи не будуть друзями, компаньйонами чи агентами. Вони є і завжди залишатимуться машинами. Ми повинні бути чесними щодо цього та протистояти оманливому маркетингу, який стверджує протилежне.
До теми Третя фаза ШІ вже тут: що таке агенти штучного інтелекту, як вони працюють і як змінять життя
Найбільш оманливий термін з усіх – "штучний інтелект". Ці системи насправді не є розумними, а те, що ми сьогодні називаємо "ШІ", – це просто набір технічних інструментів, призначених для імітації певних когнітивних функцій. Вони не здатні до справжнього розуміння і не є ні об'єктивними, ні справедливими, ні нейтральними.
Вони також не стають розумнішими. Системи на основі ШІ у своїй роботі покладаються на дані, усе частіше ці дані генерують такі інструменти як ChatGPT. У результаті виникає петля зворотнього зв'язку, яка переробляє дані, не забезпечуючи глибшого розуміння.
Якщо говорити глибше, то інтелект – це не лише вирішення завдань, це також те, як ці завдання розглядаються та виконуються. Попри технічні можливості, моделі на основі ШІ залишаються обмеженими певними сферами, такими як обробка великих наборів даних, виконання логічних висновків та обчислень.
Однак, коли мовиться про соціальний інтелект, машини можуть лише імітувати емоції, взаємодії та стосунки. Наприклад, медичного робота можна запрограмувати плакати, коли плаче пацієнт, проте ніхто не сперечатиметься з тим, що він не відчуває справжній смуток. Того ж робота можна так само легко запрограмувати дати ляпаса пацієнту. Він виконає цю команду з такою ж точністю і з такою ж відсутністю автентичності та самосвідомості.
Машині байдуже – вона просто виконує інструкції. Незалежно від того, наскільки розвиненими стануть такі системи, це не зміниться.
Простіше кажучи, машинам бракує моральної свободи дій. Їхня поведінка регулюється шаблонами та правилами, створеними людьми, тоді як людська мораль заснована на автономії – здатності розпізнавати етичні норми та поводитися відповідно. Натомість системи штучного інтелекту розроблені для функціональності та оптимізації. Вони можуть адаптуватися шляхом самонавчання, але правила, які вони генерують, не мають внутрішнього етичного значення.
Як доречніше називати штучний інтелект?
Розглянемо безпілотні автомобілі. Щоб якомога швидше дістатися з пункту А до пункту Б, безпілотний транспортний засіб може розробити правила для оптимізації часу подорожі. Якщо наїзд на пішоходів допоможе досягти цієї мети, автомобіль може це зробити, якщо йому не накажуть цього не робити. Він не може зрозуміти моральних наслідків заподіяння шкоди людям.
Частково це пояснюється тим, що машини не здатні осягнути принцип узагальнюваності – ідею про те, що дія є етичною лише тоді, коли її можна виправдати як універсальне правило. Моральне судження залежить від здатності навести правдоподібне обґрунтування, яке інші можуть розумно прийняти. Це те, що ми часто називаємо "вагомими причинами". На відміну від машин, люди здатні використовувати узагальнювані моральні міркування і тому можуть судити, чи є їхні дії правильними чи неправильними.
Таким чином, термін "системи на основі даних" (data-based systems) є більш доречним, ніж "штучний інтелект". Він відображає те, що ШІ насправді може робити: генерувати, збирати, обробляти та оцінювати дані для спостережень та прогнозів. Він також пояснює сильні та обмежені сторони сучасних технологій.
По суті, це системи, які використовують високоскладні математичні процеси для аналізу величезних обсягів даних – нічого більше. Люди можуть взаємодіяти з ними, але комунікація є повністю односторонньою. Системи на основі даних не усвідомлюють, що вони "роблять" або що відбувається навколо них.
Важливо Розробник вважає, що ШІ замінить ці дві професії вже через шість місяців
Як використовувати ШІ з розумом?
Це не означає, що дані не можуть принести користі людству чи планеті. Навпаки, ми можемо і повинні покладатися на них у сферах, де їхні можливості перевищують наші власні. Але ми також повинні активно управляти та пом'якшувати етичні ризики, які вони становлять. Розробка систем даних, заснованих на правах людини, та створення Міжнародного агентства з питань систем даних в ООН були б важливими першими кроками в цьому напрямку.
За останні два десятиліття великі технологічні компанії ізолювали нас та розкололи наші суспільства через соціальні мережі – правильніше їх назвати "антисоціальними мережами", враховуючи, що вони викликають залежність та мають руйнівний характер. Тепер ці ж компанії просувають радикально нове бачення: заміну людських зв'язків "друзями" на основі штучного інтелекту.
Водночас ці компанії продовжують ігнорувати так звану "проблему чорної скриньки": невідстежуваність, непередбачуваність та відсутність прозорості в алгоритмічних процесах, що лежать в основі автоматизованих оцінок, прогнозів та рішень. Ця непрозорість у поєднанні з високою ймовірністю упереджених та дискримінаційних алгоритмів неминуче призводить до упереджених та дискримінаційних результатів.
Ризики, що виникають через data-based systems, не є теоретичними. Ці системи вже мають негативний вплив на наше особисте та професійне життя, маніпулюючи нами економічно та політично. Однак керівники технологічних компаній закликають нас дозволити інструментам data-based systems керувати нашими рішеннями.
Щоб захистити нашу свободу та гідність, а також свободу та гідність майбутніх поколінь, ми повинні не дозволяти машинам маскуватися під те, чим вони не є – під нас.

