OpenAI сформувала цілу команду, щоб знизити ризик виходу ШІ з-під контролю

30 жовтня 2023, 10:01
Читать новость на русском

Джерело:

The Verge

OpenAI формує нову команду для зниження "катастрофічних ризиків", пов'язаних зі штучним інтелектом. Вона займатиметься відстеженням і запобіганням потенційних проблем, викликаних ШІ, включно з ядерними загрозами.

Команду очолить Александр Мадрі, директор Центру розгортання машинного навчання Массачусетського технологічного інституту.

Дивіться також Усі популярні штучні інтелекти провалили тест на прозорість, але який з них найгірший?

Що відомо

Генеральний директор OpenAI Сем Альтман та інші експерти неодноразово заявляли про небезпеку ШІ та необхідність жорсткого контролю за його розвитком. Дехто й узагалі впевнений, що одного дня ця технологія знищить людство. Щоб цього не сталося, розробники популярного чатбота ChatGPT приділятимуть особливу увагу безпеці.

Нова команда працюватиме над пом'якшенням "хімічних, біологічних і радіаційних загроз", а також "автономного відтворення" ШІ. Крім того, група займатиметься такими ризиками, як обман людей і загрози в галузі кібербезпеки. OpenAI зазначає, що група також працюватиме над "політикою розроблення з урахуванням ризиків", яка описуватиме підхід компанії до оцінки та моніторингу моделей ШІ.

Ми вважаємо, що передові моделі штучного інтелекту, які перевищать можливості, наявні нині в найпередовіших наявних моделях, принесуть користь усьому людству. Але вони також несуть все більш серйозні ризики,
– пише компанія.

Генеральний директор OpenAI Сем Альтман раніше попереджав про можливість катастрофічних подій, викликаних ШІ. У травні він та інші дослідники ШІ опублікували заяву, в якій ідеться про те, що "зниження ризику зникнення людства через ШІ має стати глобальним пріоритетом поряд з іншими ризиками соціального масштабу, як-от пандемії та ядерна війна". Під час інтерв'ю в Лондоні Альтман також запропонував урядам ставитися до ШІ так само серйозно, як і до ядерної зброї.