Вы больше не сможете создать биологическое оружие
OpenAI представила две новые модели ИИ – o3 и o4-mini, которые, по словам компании, являются ее самыми мощными разработками в сфере продвинутого рассуждения. Новые инструменты способны не только эффективнее анализировать данные, но и мыслить образами – создавать эскизы, манипулировать изображениями и использовать расширенный функционал ChatGPT, включая генерацию картинок и просмотр веб-страниц, сообщает 24 Канал со ссылкой на Wccftech.
Смотрите также Разработчик запустил ChatGPT на одном из старейших iPhone
Модель o3 позиционируется как наиболее мощная в линейке OpenAI, тогда как o4-mini – ее легкая и быстрая версия, которая, несмотря на компактность, демонстрирует впечатляющую производительность. Эти модели уже доступны пользователям тарифов ChatGPT Plus, Pro и Team, а в ближайшие недели компания обещает расширить доступ к усовершенствованной версии o3-pro. В то же время OpenAI начинает отказ от устаревших моделей вроде o1 и o3-mini, чтобы освободить ресурсы для более совершенных решений.
Инновационность новых моделей не ограничивается только техническими характеристиками – OpenAI также серьезно занялась вопросом безопасности. Согласно новому отчету компании, o3 и o4-mini получили систему мониторинга подсказок, которая имеет целью выявлять и блокировать попытки использования моделей для создания биологического или химического оружия. Система, которую в OpenAI называют "монитором соображений, ориентированным на безопасность", работает поверх новых моделей и анализирует запросы на предмет потенциального вреда.
Перед запуском этой защиты, команда OpenAI потратила около 1000 часов на обозначение рискованных сценариев взаимодействия с моделями. Во время внутреннего тестирования, где симулировался режим работы нового монитора, модели отказывались отвечать на опасные подсказки в 98,7% случаев.
Компания отмечает, что o3 и o4-mini демонстрируют лучшие результаты в ответах, связанных с созданием биоугроз, по сравнению с предыдущими моделями, включая GPT-4. Это побудило к внедрению аналогичного контроля для выявления других рисков – например, в системах борьбы с детской эксплуатацией.
Однако не все так гладко. Некоторые исследователи безопасности выражают опасения относительно прозрачности. В частности, партнер OpenAI – компания Metr – сообщил, что имел мало времени для полноценного тестирования o3 на склонность к обманчивому поведению. Более того – OpenAI решила не публиковать отчет о безопасности GPT-4.1, которая также была представлена на этой неделе.
На фоне жесткой конкуренции со стороны китайских разработчиков, таких как DeepSeek, OpenAI пытается не только сохранить технологическое преимущество, но и опередить потенциальные риски. Компания стремится быть лидером не только в мощности моделей, но и в их ответственном использовании.