США, Британия и еще 16 стран подписали соглашение об искусственном интеллекте: о чем оно

28 ноября 2023, 11:01
Читати новину українською

Источник:

Reuters

Восемнадцать стран объединили усилия и подписали новое соглашение, чтобы сделать искусственный интеллект "безопасным по проекту", то есть таким, в котором безопасность закладывается уже на этапе планирования, а не настраивается постфактум. И хотя это лишь базовое изложение принципов разработки ИИ, Агентство кибербезопасности и безопасности инфраструктуры США (CISA) отметило, что это значительный шаг в правильном направлении.

Детали документа

В 20-страничном документе, обнародованном в воскресенье, страны согласились, что компании, разрабатывающие и использующие ИИ, должны разрабатывать и внедрять его таким образом, чтобы обезопасить клиентов и широкую общественность от злоупотреблений. Она является очень базовой, больше похожей на изложение общих принципов, чем на план, но учитывая существующие вызовы, она по крайней мере является разумной отправной точкой. Американские чиновники назвали этот документ первым детальным международным соглашением о том, как защитить искусственный интеллект от злоумышленников, обязывая исследовательские компании целенаправленно искать уязвимые места в системе безопасности.

Смотрите также Малая модель искусственного интеллекта Microsoft оказалась умнее и эффективнее крупных

На данный момент мы видели не так уж и много применений ИИ, от базовых простейших задач до сложных ответов. Но сфер применения нейросетей множество — нам еще предстоит выяснить и придумать многие из них. Чем больше параметров имеет модель, тем лучше она становится, а поскольку ИИ становится нативной функцией в телефонах с 2024 года, этот вопрос очень важен.

Это первый раз, когда мы видим подтверждение того, что эти возможности не должны сводиться только к крутым функциям и тому, как быстро мы можем вывести их на рынок, или как мы можем конкурировать за снижение издержек,
– говорит Джен Истерли, директор CISA, добавляя, что руководящие принципы представляют собой "соглашение о том, что самое важное, что нужно сделать на этапе проектирования, — это безопасность".

Соглашение среди других подписали:

  • Германия,
  • Италия,
  • Чехия,
  • Эстония,
  • Польша,
  • Австралия,
  • Чили,
  • Израиль,
  • Нигерия,
  • Сингапур.

Тем временем, чтобы ИИ не стал угрозой, Европа начнет работать над специальными законами, которые будут регулировать разработку и выпуск новых систем искусственного интеллекта. Это означает, что все компании, которые реализуют свои системы в ЕС, должны будут убедиться, что в них нет уязвимостей, которые позволяют пользователям злоупотреблять технологией.

Создавать законы, призванные обеспечить безопасность новых систем искусственного интеллекта, невероятно сложно. Сама природа систем искусственного интеллекта, которые развивают свои собственные возможности, а не запрограммированы делать или не делать определенные вещи, означает, что даже инженеры, работающие над проектом, могут не полностью осознавать, чего может достичь их модель ИИ, пока он не будет завершен. Поэтому создание норм и правил, применимых к текущей модели ИИ, может оказаться недостаточным через несколько лет, когда эта же модель научится большему.

Однако важно отметить, что инициатива касается исключительно того, как хакеры могут воспользоваться преимуществами систем ИИ. Она не касается гораздо более широкого и важного вопроса о том, какую угрозу для человечества могут представлять сами системы искусственного интеллекта.