З якою ймовірністю штучний інтелект знищить людство: прогноз техноентузіастів Кремнієвої долини

11 грудня 2023, 20:10
Читать новость на русском

Джерело:

Futurism

Технологічна спільнота Кремнієвої долини прийняла нову метрику, яка отримала назву "p(doom)", щоб оцінити наскільки ймовірно, що штучний інтелект може завдати шкоди людству. Ця ймовірність стала поширеною темою для обговорення серед дослідників і технологічних ентузіастів у регіоні.

Термін "p(doom)", скорочення від ймовірності загибелі, слугує невимушеним способом для людей висловити свої переконання щодо потенційних екзистенційних ризиків, які несе в собі ШІ. Шкала варіюється від високої ймовірності для більш песимістично налаштованих людей, яких називають "приреченими", до низької ймовірності для тих, хто має більш оптимістичні погляди.

А тим часом Штучний інтелект Grok Ілона Маска спіймали на плагіаті ChatGPT

Аарон Леві, генеральний директор хмарної платформи Box, поділився з NYT, що дискусії навколо p(doom) стали основною темою в Кремнієвій долині. Вона перетворилася на зручний початок розмови, що дозволяє людям висловити свою позицію щодо ШІ, не заглиблюючись у складнощі визначення екзистенційних ризиків.

Чи варто перейматися

Поява таких термінів, як p(doom), не є дивною з огляду на зростаюче занепокоєння щодо впливу ШІ, яке підживлюється досягненнями в галузі генеративного ШІ та великими мовними моделями, такими як ChatGPT від OpenAI. Лідери технологічної індустрії, включаючи генерального директора OpenAI Сема Альтмана, часто визнавали, а в деяких випадках і підігравали цим побоюванням.

Хоча точне походження терміну залишається незрозумілим, NYT припускає, що він, ймовірно, з'явився на філософському форумі LessWrong понад десять років тому. Програміст Тім Тайлер ввів p(doom) як спосіб обговорення ймовірності приреченості, не вказуючи часових рамок і не визначаючи терміну "приреченість".

Чи насправді ШІ загрожує людству

Видатні діячі ШІ, яких часто називають "хрещеними батьками" технології, висловлювали різні думки з цього приводу. Джеффрі Хінтон, один з них, минулого року залишив Google, висловивши жаль з приводу роботи всього свого життя і виступивши з тверезим попередженням про ризики, які ШІ несе людству.

На противагу цьому, деякі лідери галузі, такі як Аарон Леві, зберігають оптимістичний погляд на майбутнє, вважаючи ймовірність p(doom) якомога нижчою. Леві стурбований не апокаліпсисом штучного інтелекту, а скоріше потенційним придушенням технологічного прогресу через передчасне регулювання.

Дивіться також Google збрехав, демонструючи можливості своєї мовної моделі Gemini: що не так

Однак поширення p(doom) в дискусіях акцентує на зростанні течії екзистенціальної самосвідомості всередині технологічної спільноти. Чи впливає це усвідомлення на індивідуальні погляди на ймовірність приреченості, спричиненої розвитком штучного інтелекту, залишається суб'єктивним питанням.

Тим часом індустрія намагається знайти баланс між вирішенням поточних проблем, таких як масове порушення авторських прав, і спекулятивними, футуристичними побоюваннями щодо ШІ-апокаліпсисів.