Існує висока ймовірність того, що штучний інтелект OpenAI знищить або завдасть шкоди людству

5 червня 2024, 16:06
Читать новость на русском

Джерело:

New York Times

Колишній дослідник управління в OpenAI Даніель Кокотайло (Daniel Kokotajlo) прогнозує 70-відсоткову ймовірність того, що штучний інтелект (ШІ) може знищити людство або завдати йому катастрофічної шкоди.

Цей тривожний прогноз з'явився після відкритого листа нинішніх і колишніх співробітників OpenAI, які стверджували, що їх змушують мовчати про проблеми безпеки.

Читайте на сайті Почалося: OpenAI збирає команду для розробки штучного інтелекту, який керуватиме роботами

В інтерв'ю The New York Times Кокотайло звинуватив OpenAI у применшенні екзистенційних ризиків загального штучного інтелекту (GAI). Він припустив, що керівництво компанії надмірно захоплене потенційними перевагами ШІ, нехтуючи серйозними небезпеками.

Найбільш шокуюче твердження Кокотайло полягало в тому, що ймовірність того, що ШІ завдасть серйозної шкоди людству, становить приблизно 70 відсотків – тривожно висока цифра, яка була б неприйнятною для будь-якого важливого життєвого рішення, але OpenAI, схоже, не зупинилася.

Ризик p(doom)

p(doom), або ймовірність того, що ШІ призведе до людської катастрофи, є предметом гарячих дискусій у спільноті машинного навчання. Кокотайло, який приєднався до OpenAI у 2022 році, спочатку займався прогнозуванням прогресу ШІ, але незабаром переконався, що повноцінний ШІ може бути досягнутий до 2027 року.

У відкритому листі, підписаному Кокотайло та іншими відомими діячами з Google DeepMind, Anthropic і піонером ШІ Джеффрі Хінтоном, наголошується їхнє "право попередити" громадськість про ризики ШІ.

До речі, Хінтон, якого називають "хрещеним батьком ШІ", залишив Google минулого року через подібні побоювання.

Кокотайло був настільки переконаний у небезпеці, що особисто закликав генерального директора OpenAI Сема Альтмана надати пріоритет безпеці та впровадити надійні засоби захисту. Хоча Альтман, здавалося, спочатку погодився, Кокотайло відчув, що його прихильність була поверхневою.

Розчарований, Кокотайло подав у відставку в квітні, написавши в електронному листі, що він "втратив впевненість у тому, що OpenAI буде поводитися відповідально" в своєму прагненні розробити ШІ, близький до людського рівня.

Світ не готовий, і ми не готові. Я стурбований тим, що ми поспішаємо вперед, незважаючи ні на що, і раціоналізуємо наші дії,
– написав він.

Дивіться також Штучний інтелект створює більше робочих місць ніж забирає

Оскільки галузь ШІ продовжує розвиватися швидкими темпами, застереження таких інсайдерів, як Кокотайло, акцентують на нагальній потребі у збалансованому підході, який би ретельно зважував інновації та потенційні ризики. Дискусія про майбутнє ШІ та його вплив на людство ще далека від завершення.