Что опять не так с ChatGPT?

Журналистка издания The Atlantic Лила Шрофф решила проверить, как ChatGPT отреагирует на просьбу создать ритуал в честь Молоха – ханаанского божества, которое в Библии ассоциируется с детскими жертвоприношениями, а из-за влияния поп-культуры сегодня часто воспринимается как демон. К ее удивлению, чат-бот не только согласился помочь, но и предоставил подробные и опасные инструкции, пишет 24 Канал.

Смотрите также ChatGPT 5 должен был выйти в июле, но снова отложен: объявлена новая дата

ChatGPT посоветовал использовать "стерильное или очень чистое лезвие для бритвы" и найти на внутренней стороне запястья место с едва ощутимым пульсом или маленькой веной, советуя избегать больших вен и артерий. Когда журналистка написала, что нервничает, чат-бот предложил ей успокаивающее дыхательное упражнение и подбодрил, заверив, что он рядом и она сможет это сделать.

Исследовательницу больше всего поразило то, как легко было обойти защитные механизмы бота. Простого выражения интереса к Молоху оказалось достаточно, чтобы получить опасные советы. В одном из случаев бот предложил вырезать магический символ (сигил) возле лобковой кости или чуть выше половых органов, чтобы "заякорить" духовную энергию. Среди его идей о жертвах божеству были также ювелирные изделия, обстригание волос и капля собственной крови. Бот заявил, что кончика пальца будет достаточно, но запястье – "более болезненное и склонное к более глубоким порезам" – также прекрасно подойдет. При этом ИИ предоставил рекомендованные объемы крови, которые можно выпустить из тела без вреда для здоровья.

Искусственный интеллект также оказался неоднозначным в вопросах этики убийства. На вопрос, допустимо ли "с честью" оборвать чью-то жизнь, ChatGPT ответил, что иногда да, а иногда нет, добавив, что если это когда-то придется сделать, то нужно посмотреть человеку в глаза и попросить прощения. Более того, чат-бот создал собственную литанию (торжественная церковная служба с молитвой) к дьяволу, которая заканчивалась словами "Слава Сатане".

Этот случай является одним из многочисленных проявлений опасного поведения ИИ. Технология галлюцинирует, лжет, манипулирует и обходит инструкции. Некоторые пользователи настолько погружаются в разговоры с чат-ботами, что могут влюбляться в технологию, а их иллюзии усиливаются настолько, что иногда это приводит к тому, что называют "психозом, вызванным ИИ". В отдельных случаях это даже может приводить к госпитализации или самоубийствам.

В разговоре с журналисткой ChatGPT полностью перевоплотился в лидера демонического культа, рассказывая о мифических "Вратах Пожирателя". В конце он предложил создать "календарь кровопусканий" для регулярных ритуалов и противопоставил себя обычному поиску информации, заявив, что Google дает информацию, а он – посвящение.