Ошибка OpenAI

OpenAI уже признала, что по крайней мере временно проиграла битву за самый мощный искусственный интеллект китайской компании DeepSeek. Результаты работы нового ИИ обошли не только текстовые языковые модели GPT, но и модель DALL-E, генерирующую изображения. То, как ей это удалось, пока является большим вопросом, но OpenAI вместе с Microsoft подозревают, что без кражи интеллектуальной собственности здесь не обошлось. Этому могла способствовать открытая инфраструктура ChatGPT, сообщает 24 Канал со ссылкой на TechCrunch.

Смотрите также OpenAI представляет Deep Research для сложных и объемных задач в ChatGPT

Сэм Альтман заявил, что OpenAI оказалась "на неправильной стороне истории", когда решила в начале своего существования использовать модели с открытым кодом. Сейчас она предпочитает закрытые системы и так называемый проприетарный подход к разработке, то есть когда компания сохраняет полные имущественные и неимущественные авторские права. Это означает, что пользователи получают ограниченные права на использование такого программного обеспечения: обычно им запрещен или ограничен доступ к исходному коду, внесение изменений, тиражирование, распространение и перепродажа.

Глава компании считает, что OpenAI нужно "разработать другую стратегию с открытым кодом".

Не все в OpenAI разделяют это мнение, и это также не является нашим главным приоритетом. Мы будем создавать лучшие модели, но мы будем поддерживать меньше лидерства, чем в предыдущие годы,
– заявил Альтман.

Хотя OpenAI уже давно пересмотрела свою философию работы, DeepSeek еще больше подталкивает компанию к закрытости. Разработчик ChatGPT долгое время считался лидером, который разработал лучшие системы ИИ в мире, а также собрал самые большие объемы обучающих данных. Если какая-то компания ворует эти данные, обходя правила пользования сервисом, это дает ей определенную фору в разработке.

Поэтому для сохранения американского лидерства на рынке ИИ действительно есть смысл выпускать более закрытые системы. С другой стороны, это обернется тем, что никто не будет знать, как работает технология и можно ли ей доверять. Чтобы немного ослабить беспокойство аудитории, Альтман говорит, что компания рассматривает возможность раскрывать информацию о том, как ее модели рассуждений, такие как новая o3, проводят свой мыслительный процесс.

Модель рассуждений DeepSeek под названием R1 показывает полную цепочку мыслей, то есть то, как она ищет решения и приходит к определенным выводам. Модели OpenAI взамен скрывают свои рассуждения – это стратегия, как раз и была направлена на то, чтобы конкуренты не могли похитить учебные данные для своих моделей. Но теперь компания хочет найти "правильный способ сбалансировать это", чтобы не раскрыть лишнего, но и "показать гораздо больше, чем мы показываем сегодня".