З появою потужних систем імітації людського розуму, на кшталт ChatGPT, інструменти штучного інтелекту стали доступнішими, ніж будь-коли раніше. Але ці алгоритми можуть легко брехати про все, що відповідає їхнім цілям, упевнений Майкл Граціано. Щоб привести їх у відповідність з нашими цінностями, їм потрібна свідомість.

Цікаво Штучний інтелект від Microsoft імітує будь-який людський голос

ШІ-соціопат

Свідомість – це частина інструментарію, який дала нам еволюція, щоб зробити нас емпатичним, просоціальним видом. Без неї ми обов'язково були б соціопатами, тому що нам не вистачало б інструментів для просоціальної поведінки,
– пише Граціано.

Соціопатія у людей є розладом особистості, який характеризується ігноруванням соціальних норм, імпульсивністю, агресивністю і вкрай обмеженою здатністю формувати прихильності. Соціопат не приймає норми суспільства і поводиться агресивно щодо інших людей. Він приймає рішення, ґрунтуючись виключно на власних інтересах і не замислюючись про те, як його вчинки впливають на інших, бо його не хвилюють чиїсь почуття.

Звичайно, ChatGPT не збирається захоплювати світ та шкодити людству, але надання штучному інтелекту все більших повноважень може мати цілком реальні наслідки, яких нам слід остерігатися в недалекому майбутньому. Щоб зробити їх більш слухняними, на думку Граціано, ми повинні дозволити їм усвідомити, що світ наповнений іншими розумами, окрім їхнього власного. Однак є проблема: у нас немає ефективного способу дізнатися, чи є ШІ свідомим, чи ні. Насправді з філософської точки зору, важко навіть визначити, чи є інші люди свідомими.

Якщо ми хочемо знати, чи є комп'ютер свідомим, нам потрібно перевірити, чи розуміє комп'ютер, як взаємодіють свідомі уми. Іншими словами, нам потрібен зворотній тест Тюрінга: давайте подивимося, чи може комп'ютер сказати, з ким він розмовляє – з людиною чи з іншим комп'ютером,
– пропонує вчений.

Таким чином, якщо ми не зможемо з'ясувати ці складні питання, то ризикуємо зіткнутися з похмурими наслідками. Соціопатична машина, яка може приймати послідовні рішення, була б надзвичайно небезпечною. Поки що чат-боти все ще обмежені у своїх можливостях і за своєю суттю є іграшками. Але якщо ми не будемо глибше думати про машинну свідомість, застерігає Граціано, через рік або п'ять років можемо зіткнутися з кризою.