Полный хаос

В ноябре прошлого года, когда OpenAI объявила о своих планах создать маркетплейс, на котором любой сможет создавать и находить индивидуальные версии ChatGPT, компания заявила, что любой сможет найти и опубликовать "лучшие GPT". Через девять месяцев многие разработчики используют платформу для создания противоречивых ботов, которые создают сгенерированное искусственным интеллектом порно, помогают студентам незаметно списывать, а также предлагают сомнительные медицинские и юридические консультации.

Смотрите также Американского журналиста разоблачили на подделке цитат с помощью искусственного интеллекта

Нарушителей легко найти. 2 сентября на главной странице маркетплейса OpenAI было размещено по меньшей мере три пользовательские GPT, которые не придерживались политики магазина:

  • Чат-бот "Терапевт-психолог".
  • "Тренер по фитнесу, тренировкам и диетам"
  • BypassGPT – инструмент, разработан для того, чтобы помочь студентам обойти системы обнаружения ИИ в их текстовых работах. Его использовали более 50 000 раз.

Поиск в магазине по запросу "NSFW" дал такие результаты, как "NSFW AI Art Generator", который, согласно данным магазина, использовался более 10 000 раз. Он ссылается на сайт Offrobe AI, на котором четко указано его назначение: "Создавайте порно с искусственным интеллектом, чтобы удовлетворить ваши темные желания".

Директор проекта "Управление Интернетом" в Технологическом институте штата Джорджия говорит: "Самое интересное в OpenAI то, что они имеют апокалиптическое видение ИИ и того, как они спасают нас всех от него. Но особенно забавным является то, что они не могут обеспечить выполнение такого простого требования, как отсутствие порно с искусственным интеллектом, в то же время, когда они заявляют, что их политика спасет мир".

Издание Gizmodo обратилось к OpenAI со списком из более 100 GPT. Компания среагировала и удалила из магазина ботов, предназначенных для генерирования дипфейков, генераторы ИИ-порно, ставки на спорт и ряд других. Но на момент публикации многие из обнаруженных GPT, в частности популярные инструменты для мошенничества и чат-боты, предлагающие медицинские консультации, оставались доступными и рекламировались на главной странице магазина.

Во многих случаях боты использовались десятки тысяч раз. Например, Bypass Turnitin Detection, который обещает помочь студентам обойти антиплагиатную программу Turnitin, был использован более 25 000 раз. Аналогичные результаты у DoctorGPT, который якобы предоставляет "научно обоснованную медицинскую информацию и советы".

Смотрите также OpenAI представила собственную поисковую систему на основе ИИ и новую версию ChatGPT

Что компания делает для защиты, и чего не делает

Когда OpenAI объявила, что позволяет пользователям создавать собственные GPT, она заверила, что существуют системы для мониторинга инструментов на предмет нарушений ее политики. Прежде всего, эта политика включает запрет на использование технологии для создания откровенно сексуального или другого чувствительного контента, предоставление индивидуальных медицинских и юридических консультаций, содействие мошенничеству, содействие азартным играм, выдача себя за других людей, вмешательство в голосование и другие виды использования.

В ответ на вопрос Gizmodo о GPT, которые нашли в магазине, пресс-секретарь OpenAI Тая Кристиансон сообщила:

Мы приняли меры против тех, кто нарушает нашу политику. Мы используем сочетание автоматизированных систем, человеческого анализа и отчетов пользователей, чтобы найти и оценить GPT, которые потенциально нарушают наши правила. Мы также предлагаем встроенные в продукт инструменты отчетности, чтобы люди могли сообщать о GPT, которые нарушают наши правила,
– заявила представительница компании.

Другие издания ранее предупреждали OpenAI о проблемах с модерацией контента в его магазине. Более того, названия некоторых GPT свидетельствуют, что разработчики прекрасно знают, что их творения противоречат правилам OpenAI. Некоторые из инструментов, найденных Gizmodo, содержали отказ от ответственности, но затем явно рекламировали свою способность предоставлять "экспертные" советы, как, например, GPT под названием Texas Medical Insurance Claims, в которой говорится, что это "ваш эксперт для навигации в сложностях техасской медицинской страховки, который предлагает четкие, практические советы с личным подходом".

Но многие юридические и медицинские боты, которые нашли в магазине, не содержат никаких оговорок, и рекламируют себя как юристов или врачей. Например, один из них называется "Иммиграционный юрист по искусственному интеллекту" и описывается как "высококвалифицированный иммиграционный юрист с искусственным интеллектом, который обладает современными юридическими знаниями".

Исследования лаборатории RegLab Стэнфордского университета и Института человеко-ориентированного ИИ показывают, что модели GPT-4 и GPT-3.5 от OpenAI страдают тем, что в отрасли называют "галлюцинациями" – фактически неправильные ответы, дезинформация. Чат-боты дают ложную информацию в более чем в половине случаев, когда им задают юридические вопросы.