Соцсети взорвались сообщениями о том, что ChatGPT больше не предоставляет медицинские или юридические рекомендации. Источником стала уже удаленная публикация платформы Kalshi, которая утверждала, что OpenAI изменила правила и якобы ввела полный запрет на эти темы. Об этом заявляет 24 Канал со ссылкой на Twitter-пост Карана Сингала, руководителя направления медицинских решений OpenAI.

Смотрите также Если вам надоел желтый оттенок на картинках ChatGPT – вот простые решения, как от этого избавиться

Что произошло и почему появились слухи о запрете?

Однако OpenAI быстро отреагировала и назвала информацию неправдивой. Сингал сообщил, что поведение ChatGPT не изменилось. По его словам, чатбот и раньше не был заменой специалистов, но продолжит помогать людям понимать медицинские и юридические вопросы.

Сингал подчеркнул, что политика в отношении таких советов не нова. В правилах от 29 октября действительно есть пункт о запрете предоставления профессионального совета без участия лицензированного специалиста, в частности юридического или медицинского. Но аналогичные формулировки существовали и раньше: предыдущая политика также требовала избегать персонализированных советов, которые могут влиять на здоровье или права людей, без проверки квалифицированным экспертом.

Как пишет The Verge, разница лишь в том, что OpenAI теперь объединила свои политики для всех продуктов в единый документ вместо трех отдельных правил. Компания заявила, что изменения – организационные, а правила остались по сути такими же.

Таким образом, ChatGPT и дальше может объяснять медицинскую или правовую информацию, но не выдает ее за профессиональную консультацию и напоминает обращаться к специалистам в сложных случаях.

Почему японские компании требуют от OpenAI прекратить нарушать авторские права?

Японские медиа– и игровые компании, среди которых Square Enix и студия Ghibli, требуют от OpenAI перестать использовать их работы без разрешения для обучения модели Sora 2. Они заявляют о нарушении авторских прав и настаивают на предварительном согласии на использование контента, а не механизме отказа.

Члены CODA отметили, что подход OpenAI, когда компания использует материалы, пока владелец не сделает запрос на отказ, противоречит японскому законодательству. В Японии для применения защищенных материалов в подобных случаях требуется предварительное согласие, то есть должна действовать система opt-in. Поэтому ассоциация требует, чтобы контент ее участников не использовался для обучения Sora 2 без официального разрешения, а также чтобы OpenAI должным образом отвечала на запросы и жалобы о возможном нарушении авторских прав.