В чем секрет эффективности нового ИИ?
Разработка, получившая название "иерархическая модель рассуждений" (Hierarchical Reasoning Model, HRM), была создана специалистами сингапурской компании Sapient. Ее ключевая особенность заключается в принципиально ином подходе к обработке информации, который копирует иерархические процессы в человеческом мозге и работает в разных временных масштабах. Это означает, что различные участки модели интегрируют данные в течение различных промежутков времени – от миллисекунд до минут.
Смотрите также Это медицинская революция: новый искусственный интеллект может кардинально изменить разработку лекарств
В отличие от большинства современных больших языковых моделей (LLM), которые используют метод "цепочки мыслей" (chain-of-thought), разбивая сложную задачу на более простые этапы, HRM действует иначе. Исследователи из Sapient считают, что подход LLM имеет существенные недостатки, среди которых – высокие требования к объему данных, значительная задержка и хрупкость в декомпозиции задач.
Вместо этого HRM выполняет последовательные логические задачи за один проход, используя для этого два модуля:
- Один, высокоуровневый, отвечает за медленное, абстрактное планирование.
- Другой, низкоуровневый, обеспечивает быстрые и детализированные вычисления.
Эта архитектура напоминает то, как различные отделы человеческого мозга обрабатывают информацию. Модель работает с помощью техники, известной как "итеративное уточнение", улучшая точность решения путем многократного совершенствования начального предположения. Это происходит через короткие вспышки "мышления", после каждой из которых система решает, продолжать ли процесс, или предоставить окончательный ответ.
Какие результаты показывает новая модель?
Такой подход позволил достичь впечатляющей эффективности. Модель HRM имеет всего 27 миллионов параметров и для ее обучения понадобилось всего 1000 образцов. Для сравнения, передовые LLM оперируют миллиардами или даже триллионами параметров.
Во время тестирования в сложном бенчмарке ARC-AGI, предназначенном для оценки приближения к искусственному общему интеллекту (AGI), HRM показала превосходные результаты.
- В тесте ARC-AGI-1 модель набрала 40,3%, обойдя o3-mini-high от OpenAI (34,5%), Claude 3.7 от Anthropic (21,2%) и Deepseek R1 (15,8%).
- В еще более сложном тесте ARC-AGI-2 HRM набрала 5%, тогда как ее конкуренты показали значительно более низкие результаты.
- Кроме того, модель достигла почти идеальной производительности в решении сложных головоломок судоку и поиска оптимальных путей в лабиринтах, с чем обычные LLM не могли справиться.
Стоит отметить, что научная статья, которая описывает модель, еще не прошла рецензирование. После того как разработчики открыли код модели, организаторы бенчмарка ARC-AGI попытались воспроизвести результаты. Они подтвердили заявленные цифры, но сделали неожиданное открытие: по их мнению, значительный прирост производительности был обусловлен не столько иерархической архитектурой, сколько недостаточно задокументированным процессом уточнения во время обучения.


