Детали документа

В 20-страничном документе, обнародованном в воскресенье, страны согласились, что компании, разрабатывающие и использующие ИИ, должны разрабатывать и внедрять его таким образом, чтобы обезопасить клиентов и широкую общественность от злоупотреблений. Она является очень базовой, больше похожей на изложение общих принципов, чем на план, но учитывая существующие вызовы, она по крайней мере является разумной отправной точкой. Американские чиновники назвали этот документ первым детальным международным соглашением о том, как защитить искусственный интеллект от злоумышленников, обязывая исследовательские компании целенаправленно искать уязвимые места в системе безопасности.

Смотрите также Малая модель искусственного интеллекта Microsoft оказалась умнее и эффективнее крупных

На данный момент мы видели не так уж и много применений ИИ, от базовых простейших задач до сложных ответов. Но сфер применения нейросетей множество — нам еще предстоит выяснить и придумать многие из них. Чем больше параметров имеет модель, тем лучше она становится, а поскольку ИИ становится нативной функцией в телефонах с 2024 года, этот вопрос очень важен.

Это первый раз, когда мы видим подтверждение того, что эти возможности не должны сводиться только к крутым функциям и тому, как быстро мы можем вывести их на рынок, или как мы можем конкурировать за снижение издержек,
– говорит Джен Истерли, директор CISA, добавляя, что руководящие принципы представляют собой "соглашение о том, что самое важное, что нужно сделать на этапе проектирования, — это безопасность".

Соглашение среди других подписали:

  • Германия,
  • Италия,
  • Чехия,
  • Эстония,
  • Польша,
  • Австралия,
  • Чили,
  • Израиль,
  • Нигерия,
  • Сингапур.

Тем временем, чтобы ИИ не стал угрозой, Европа начнет работать над специальными законами, которые будут регулировать разработку и выпуск новых систем искусственного интеллекта. Это означает, что все компании, которые реализуют свои системы в ЕС, должны будут убедиться, что в них нет уязвимостей, которые позволяют пользователям злоупотреблять технологией.

Создавать законы, призванные обеспечить безопасность новых систем искусственного интеллекта, невероятно сложно. Сама природа систем искусственного интеллекта, которые развивают свои собственные возможности, а не запрограммированы делать или не делать определенные вещи, означает, что даже инженеры, работающие над проектом, могут не полностью осознавать, чего может достичь их модель ИИ, пока он не будет завершен. Поэтому создание норм и правил, применимых к текущей модели ИИ, может оказаться недостаточным через несколько лет, когда эта же модель научится большему.