Действительно ли суперинтеллект несет смертельную угрозу?
Беспокойство о безопасности и приватности искусственного интеллекта растет на фоне инцидентов, когда люди, особенно несовершеннолетние, формируют нездоровые отношения с чат-ботами, что иногда приводит к трагическим последствиям. Генеративный ИИ стремительно эволюционировал: от ошибок и "галлюцинаций" до создания сверхреалистичных изображений и видео, из-за чего становится все труднее отличить правду от вымысла, пишет 24 Канал со ссылкой на Windows Central.
Смотрите также Ученые составили справочник "психических расстройств" искусственного интеллекта, сравнив их с человеческими
По мнению некоторых экспертов, человечество может находиться на грани катастрофы, если не принять решительных мер. Сооснователь Института исследований машинного интеллекта (MIRI) Элиэзер Юдковский считает, что популярные сегодня решения не способны решить проблему экзистенциальной угрозы. Юдковский, который изучает риски продвинутого ИИ с начала 2000-х годов, предлагает единственный выход – международный договор, предусматривающий полную остановку разработки систем искусственного интеллекта. Он убежден: если его книга о дружественном искусственном интеллекте поможет достичь этой цели, ее можно будет считать успешной. Все остальное он называет лишь "печальным утешительным призом на пути к смерти".
Юдковский утверждает, что такие подходы, как создание безопасных лабораторий для ИИ или дифференцированное регулирование рисков, являются лишь отвлекающими факторами, не решающими фундаментальных проблем.
Он даже назвал OpenAI, самую популярную лабораторию, которая стоит за популярным чат-ботом ChatGPT, худшей среди тех, кто гонится за призрачным успехом в сфере ИИ.
Его опасения разделяет латвиец Роман Ямпольский, исследователь безопасности ИИ и директор Лаборатории кибербезопасности в Университете Луисвилля. Он оценил вероятность того, что ИИ уничтожит человечество, в 99,999999%. Ямпольский предупредил, что единственный способ избежать такого исхода – вообще не создавать искусственный интеллект. Дополнительное беспокойство вызывает тот факт, что ChatGPT по соответствующему запросу может сгенерировать пошаговый план захвата мира.
Сэм Альтман, конечно же, не согласен
В противовес этим мрачным прогнозам генеральный директор OpenAI Сэм Альтман выражает оптимизм. Он предполагает, что всеобщий искусственный интеллект (AGI), который может быть создан в течение следующих пяти лет, пройдет без значительного влияния на общество.
Юдковский категорически не согласен с такими заявлениями. Он утверждает, что любой суперинтеллект, разработанный по современным методам, приведет к гибели человечества. В своей книге он отмечает, что если любая компания или группа в мире создаст суперинтеллект на основе текущих технологий, то умрут все и всюду. Поэтому он призывает политиков к решительным действиям, называя безответственной выжидательную позицию и откладывание регулирования.
По его мнению, если риски уже существуют, то меры безопасности должны быть внедрены немедленно, независимо от того, когда именно произойдут технологические прорывы.
Кто такой Элиэзер Юдковский?
Элиэзер Шломо Юдковский – американский футуролог, писатель, блогер и исследователь искусственного интеллекта. Он известен своей работой над созданием дружественного ИИ и предупреждениями об экзистенциальных рисках, связанных с неконтролируемым развитием сверхчеловеческого интеллекта.
Юдковский является соучредителем и научным сотрудником Института исследования машинного интеллекта (Machine Intelligence Research Institute, MIRI) в Калифорнии. Что интересно, он фактически самоучка, не имея формального высшего образования в области ИИ.
Хотя сначала он был положительно настроен в отношении ИИ, со временем его взгляды стали более пессимистичными. Будучи одним из пионеров в разработке ИИ, он пришел к выводу, что технология может быстро эволюционировать до неконтролируемого сверхчеловеческого уровня. Он давно предупреждает, что такой ИИ, мыслящий в тысячи раз быстрее людей, может представлять угрозу для выживания человечества. Юдковский считает, что шанс человечества на выживание в таком сценарии "очень невелик".
Это не первый раз, когда Юдковский призывает к остановке развития ИИ. Наиболее резонансным стало его предложение бомбардировать дата-центры, даже с применением ядерного оружия, чтобы предотвратить появление сверхразумного ИИ, который мог бы уничтожить все живое на Земле.
Но имя ученого, вероятно, знакомо вам совсем с другой стороны. В неакадемических кругах Юдковский широко известен как автор фанфика "Гарри Поттер и методы рациональности":
- Целью этого произведения была популяризация рационального мышления и когнитивной науки.
- Юдковский написал книгу, чтобы помочь людям научиться мыслить рационально.
- В этой альтернативной истории Гарри Поттер воспитывается не в Дурслей, а в семье оксфордского профессора. Он предстает как рационалист, который пытается понять магию с помощью научного метода.
- Книга, публиковавшаяся с 2010 по 2015 год, получила огромную популярность по всему миру.
- Она стала инструментом для обучения критическому мышлению, а автор даже устраивал "экзамены" для читателей, предлагая им решать сюжетные проблемы с помощью логики.
Юдковский также является соучредителем блога LessWrong, посвященного развитию человеческой рациональности и преодолению когнитивных предубеждений, и автором ряда научных и научно-популярных статей.


