ИИ представляет серьезную угрозу вымирания для человечества на уровне ядерной войны и пандемии

31 мая 2023, 12:37
Читати новину українською

Источник:

New York Times

Выдающиеся деятели в области искусственного интеллекта (ИИ) бьют тревогу относительно потенциальных опасностей, связанных с развитием собственных технологий, сравнивая риски, которые несет ИИ, с пандемиями и ядерными войнами. В открытом письме, которое вскоре будет опубликовано Центром безопасности ИИ, более 350 лидеров отрасли, отметили настоятельную необходимость устранения этих рисков для человечества.

В письме утверждается, что снижение риска вымирания, вызванного искусственным интеллектом, должно стать глобальным приоритетом, ставя его в один ряд с другими основными общественными рисками.

Смотрите также Генеральный директор OpenAI Сэм Альтман призвал Конгресс США к регулированию искусственного интеллекта

Среди тех, кто подписал письмо, такие влиятельные фигуры, как Сэм Альтман, глава OpenAI, Демис Хассабис, глава Google DeepMind, Дарио Амодей, глава Anthropic, а также Джеффри Хинтон и Йошуа Бенгио, лауреаты премии Тьюринга, которых считают пионерами в области современного ИИ. В списке отсутствует Ян Лекун, возглавляющий исследование ИИ в компании Meta.

Растущая обеспокоенность общественности вокруг развития ИИ усилила эти опасения. Некоторые беспокоятся, что системы искусственного интеллекта, включая такие платформы, как ChatGPT, могут быть использованы для распространения дезинформации и пропаганды.

Кроме того, опасения вызывает потенциальная потеря миллионов рабочих мест в связи с внедрением ИИ в Европе и США. Необычно, но сами лидеры промышленности признают риски, связанные с их собственными творениями, и выступают за строгое регулирование со стороны руководящих органов.

Симпатики ИИ не верят предостережениям 

В то же время скептики отрицают потенциальную опасность ИИ. Они заявляют, что технология искусственного интеллекта все еще находится в зачаточном состоянии и не способна представлять ощутимую угрозу человечеству. В то же время, по их мнению, следует сосредоточиться на решении неотложных проблем, таких как предвзятость и ошибочность ответов ИИ.

Однако другие считают, что системы ИИ с возможностями, эквивалентными человеческим, рано или поздно материализуются. Чтобы предотвратить потенциальные негативные последствия, лидеры отрасли предлагают создать организацию, которая занималась бы регулированием ИИ, на подобии Международного агентства по атомной энергии (МАГАТЭ), цель которого  предотвратить распространение и нецелевое использование ядерного оружия.

Если ИИ действительно может представлять угрозу человечеству, хотелось бы, чтобы такая организация действительно могла предотвратить угрозу в отличие от постоянно обеспокоенной МАГАТЭ.

Читайте на сайте Похоже, искусственный интеллект уже скоро будет бороться с человеком за пресную воду

Этот недавний призыв к осторожности и регулированию появился после предыдущего открытого письма, подписанного более тысячей исследователей и представителей технологической индустрии, выступавших за шестимесячный мораторий на разработку передовых систем искусственного интеллекта из-за их угрозы человечеству.

Лаконичность формулировок письма имела целью объединить экспертов, несмотря на потенциальные разногласия во взглядах на определенные аспекты.