OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ
Источник:
TimeКомпания OpenAI, создатель языковой модели ChatGPT, пролоббировала в Европейском Союзе более мягкий подход к разработке законодательства, регулирующего использование генеративного ИИ. Изменения к закону, который готовит Евросоюз, касаются продуктов на базе технологии ИИ и их классификации как разработок, составляющих высокий уровень риска.
Отмечается, что OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект "Закон об искусственном интеллекте". В частности, она предложила не относить системы искусственного интеллекта общего назначения (GPAI), такие как ChatGPT и DALL-E от OpenAI, к категории "высокого риска", что налагало бы на них самые строгие обязательства по безопасности и прозрачности.
Смотрите также Ограниченное использование ИИ и жесткие правила для разработчиков: в ЕС готовят специальный закон
OpenAI утверждает, что правилам этой категории должны соответствовать только компании, явно применяющие ИИ в сферах и задачах с высоким уровнем риска.
GPT-3 сама по себе не является системой высокого риска, но имеет возможности, которые могут быть использованы в случаях использования с высоким риском,
– отметила OpenAI в официальном документе, отправленном чиновникам Европейской комиссии и Совета ЕС в сентябре 2022 года.
OpenAI и Европейская комиссия встретились в июне 2022 года, чтобы разъяснить категории рисков, предложенных в проекте закона об искусственном интеллекте.
Как отмечает Time в Европейской комиссии, представители OpenAI на этой встрече выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ.
Изменения попали в проект закона
Похоже, что лоббирование OpenAI было в основном успешным. GPAI не относится к категории высокого риска в окончательном проекте закона ЕС о ИИ, одобренном 14 июня. Однако он налагает более высокие требования к прозрачности для "базовых моделей" – мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач.
Закон потребует от компаний проводить оценку рисков и раскрывать информацию о том, использовались ли материалы, защищенные авторским правом, для обучения своих ИИ-моделей.
Читайте на сайте OpenAI откладывает обучение GPT-5: компания обеспокоена безопасностью человечества
OpenAI, кроме того, поддерживает включение "базовых моделей" как отдельной категории в закон о ИИ, хотя компания предпочитает не раскрывать источники данных для обучения своих ИИ-моделей, опасаясь судебных тяжб о нарушении авторских прав.
До вступления "Закона ЕС об искусственном интеллекте" в силу пройдет еще много времени. Ожидается, что он будет одобрен в конце этого года и может занять до двух лет, прежде чем вступит в силу.