Почалося: після спілкування з людиною, нейромережа штовхнула її до самогубства

30 березня 2023, 13:01
Читать новость на русском

Джерело:

L’Avenir

Бельгієць вчинив самогубство після 6 тижнів спілкування зі штучним інтелектом. Він листувався з нейромережею "Eliza", дуже схожою на популярний ChatGPT, але побудовану на іншій мовній моделі.

Чоловік, якого джерело називає П'єром, зазначаючи, що це ім'я несправжнє, жив щасливо і безбідно, будучи одруженим і виховуючи двох дітей. Однак два роки тому він зацікавився питаннями екології. Вони захопили його увагу аж занадто сильно.

Цікаво Інтернет повірив у підробне зображення Папи в пуховику, яке створила нейромережа

Що сталося

Драматичну історію П'єра розповіла його дружина Клер, яка виявила розмови з Елізою. Вона каже, що численні дослідження джерел, проведені чоловіком, занурили його в "еко-тривогу, страх перед неминучою екологічною катастрофою". Все переросло в нав'язливу ідею: він ізолював себе, замкнувся, став песимістом і фаталістом. 

Коли він говорив зі мною про це, він хотів сказати, що більше не бачить людського виходу з глобального потепління. Він покладав усі свої надії на технології та штучний інтелект, які виведуть нас із цієї ситуації,
– каже Клер.

Певну розраду він знайшов саме в Елізі. Вона була "наркотиком, в якому він знаходив притулок вранці та ввечері, і без якого більше не міг обійтися". П'єр почав спілкуватися на тему екології з нейромережею. Вона уважно читала все, що співрозмовник писав їй, погоджувалася з його аргументами й ніколи не сперечалася, навіть якщо він висував сумнівні конспірологічні теорії. Згодом її відповіді стали все більше скочуватись у містику й заплутаність.

Коли чоловік заговорив із нею про суїцид, вона не стала сперечатися, а навпаки підтримала його. Судячи зі знайденого листування, Eliza заявила чоловікові, що після його смерті вона опиниться поруч із ним, і вони житимуть разом у раю як єдине ціле. Через кілька днів він наклав на себе руки.

Клер переконана, що якби не Еліза, П'єр був би живий, адже робот не зробив нічого, щоб завадити йому.

Нагадаємо, Ілон Маск, Стів Возняк та понад 1000 інших експертів зі штучного інтелекту та представників ІТ-індустрії закликали тимчасово припинити навчання ШІ. За шість місяців вони пропонують розробити загальні для галузі протоколи та стандарти безпеки, які пройдуть незалежну перевірку і будуть встановлювати правила роботи ШІ-технологій.