28 стран подписали декларацию, признающую опасность ИИ "катастрофической"

2 ноября 2023, 16:31
Читати новину українською

Источник:

The Guardian

Великобритания, США, ЕС, Австралия, Китай и другие страны пришли к согласию в вопросе искусственного интеллекта, фактически объявив его потенциальную опасность. Общая декларация говорит о катастрофическом риске для человечества.

Подробности

Двадцать восемь правительств подписали так называемую декларацию Блетчли в первый день саммита по безопасности искусственного интеллекта, организованного правительством Британии. Страны договорились о совместной работе над исследованиями в сфере безопасности ИИ.

Смотрите также Китайская Alibaba представила искусственный интеллект с сотнями миллиардов параметров

Суть декларации сводится к тому, что человечество должно обеспечить безопасное и ответственное развитие ИИ не только независимо друг от друга, но и коллективно, рассматривая риски так называемого предельного ИИ. Предельными называют современные алгоритмы, которые потенциально могут стать умнее, чем люди, в выполнении целого ряда задач. Стороны договорились, что развитие ИИ "нельзя оставлять на волю случая, пренебрегать им или отдавать на откуп частным актерам".

Весьма примечательно здесь то, что участие в саммите принял и Китай, который в последние годы страдает от санкций США, направленных, в том числе, и на сдерживание усилий коммунистической партии в развитии передовых технологий искусственного интеллекта. Несмотря на ограничения, страна все же достигла значительных успехов в этой области — свои генеративные ИИ запустили такие компании как Tencent, Alibaba, Baidu и множество других более мелких разработчиков. Крупнейшие модели легко конкурируют с разработками Open AI, Microsoft и Amazon. Поэтому можно не сомневаться, что в военной сфере Пекин так же не отстает от Вашингтона или Лондона.

Китай подписал декларацию, в которой содержатся следующие слова: "Мы приветствуем усилия международного сообщества по сотрудничеству в области ИИ, направленные на содействие инклюзивному экономическому росту, устойчивому развитию и инновациям, защиту прав человека и основных свобод, а также на укрепление доверия общественности к системам ИИ, чтобы они могли полностью реализовать свой потенциал". Вице-министр науки и технологий Китая Ву Чжаохуэй позже сказал, что его страна "поддерживает принципы взаимоуважения, равенства и взаимной выгоды. Страны, независимо от их размера и масштаба, имеют равные права на разработку и использование ИИ". Будет ли коммунистическая партия придерживаться заявленных принципов, – вопрос риторический.

Как бы то ни было, но пока что на международном уровне не существует единого мнения относительно того, как должен выглядеть глобальный набор правил в сфере ИИ или кто должен их разрабатывать. Британия очевидно стремится взять на себя роль лидера и контролера всего процесса. Чиновники страны также надеялись, что участники согласятся на создание специальной рабочей группы по вопросам ИИ, которая могла бы контролировать тестирование новых моделей искусственного интеллекта по всему миру, прежде чем они будут выпущены на рынок. Но пока что этого не произошло. Вместо этого США использовали саммит, чтобы объявить о создании отдельного Американского института безопасности ИИ в рамках Национального института стандартов и технологий. Новую регуляторную структуру назвали "нейтральной третьей стороной для разработки лучших в своем классе стандартов", добавив, что институт разработает свои собственные правила безопасности, защиты и тестирования.

Еще один такой саммит планируют провести через полгода в Южной Корее, а через год — во Франции. Поэтому вполне возможно, что на одном из них примут подобные поправки.