Раньше 24 Канал уже рассказывал об ограничении работы ChatGPT в Италии и снятие запрета. Однако, похоже, проблемы OpenAI и регулирующих органов только начинаются и это касается не только ChatGPT, но и других инструментов на базе искусственного интеллекта.

Читайте на сайте Лучше ChatGPT: Microsoft Bing получил новые функции и стал доступным для всех пользователей

Проблема с ChatGPT – это только верхушка айсберга, поскольку регуляторы нескольких стран расследуют методы сбора и производства данных с помощью инструментов искусственного интеллекта. Беспокойство варьируется от сбора нелицензионных данных об обучении до чат-ботов, которые распространяют дезинформацию, побуждающую законодателей к действиям.

Общий регламент защиты данных Европейского Союза (GDPR), одна из сильнейших в мире правовых систем защиты конфиденциальности, применяется к системам искусственного интеллекта, таким как ChatGPT, ведущий к новой эре регулирования.

Что не так с ChatGPT

ChatGPT, популярный пример генеративного ИИ, создающего текст на основе подсказок пользователя, оказался под пристальным вниманием из-за своей ненадежной работы, запутанных вопросов авторских прав и нечеткой практики защиты данных. Италия была первой страной, запретившей ChatGPT, и выделила несколько способов, которыми OpenAI нарушал правила GDPR. С тех пор, по меньшей мере, три страны ЕС и Канада начали свои расследования в отношении ChatGPT.

Беспокойство регуляторов можно условно разделить на две категории:

  • Обучающие данные ChatGPT.
  • Как OpenAI предоставляет информацию своим пользователям.

ChatGPT использует языковые модели GPT-3.5 и GPT-4 от OpenAI, обученные на множестве текстов, созданных человеком. OpenAI не раскрывает точных данных, используемых для обучения, но говорит, что использует "разнообразные лицензированные, созданные и общедоступные источники данных, которые могут включать в себя общедоступную личную информацию". Это создает проблемы в соответствии с GDPR, который требует от компаний получать явное согласие перед сбором персональных данных и быть прозрачными по поводу того, как они используются и сохраняются.

Кроме того, право на забвение, предусмотренное GDPR, позволяет пользователям требовать от компаний полного удаления их персональных данных. Хотя OpenAI обновил свою политику конфиденциальности, чтобы облегчить такие запросы, ведутся споры о том, возможно ли технически их удовлетворить, учитывая сложности, связанные с этим.

OpenAI также собирает информацию непосредственно от пользователей, включая их взаимодействие с ChatGPT, которое может быть пересмотрено сотрудниками OpenAI и использовано для обучения будущих моделей. Когда бот выступает в роли терапевта или врача, OpenAI собирает конфиденциальные данные от пользователей, что вызывает озабоченность по поводу конфиденциальности и защиты данных.

Интересно ChatGPT разрушает интернет: исследователи шокированы сайтами, которые наполняет нейросеть

В конце концов, регуляторные проблемы OpenAI с ChatGPT – это только начало, и компания, вероятно, столкнется с большим количеством проблем в будущем. Поскольку технология искусственного интеллекта развивается и становится все более распространенной, законодателям и регуляторам придется идти в ногу с изменчивым ландшафтом, чтобы обеспечить защиту конфиденциальности данных пользователей и предотвратить распространение дезинформации. OpenAI и другие компании должны быть более прозрачны в своих практиках сбора и обработки данных, чтобы избежать регуляторных проверок и обеспечить свой долгосрочный успех.