Деталі

Науковці представили стратегію "Навчання на помилках" (Learning from Mistakes, LeMa), яка вчить ШІ виправляти власні помилки, що покращує його здатність до міркування. Дослідники черпали натхнення в процесах людського навчання, коли учень вчиться на своїх промахах, щоб поліпшити результати в майбутньому. Вони застосували цю концепцію до великих мовних моделей (LLM), використовуючи парні набори даних із помилкою та виправленням для точного налаштування.

Дивіться також 28 країн підписали декларацію, що визнає небезпеку ШІ "катастрофічною"

  • Спочатку дослідники використовували такі мовні моделі, як LLaMA-2 від Meta, які попросили генерувати помилкові шляхи розв'язання математичних задач.
  • Потім GPT-4 виявив помилки в міркуваннях, пояснив їх і надав виправлені міркування.
  • Дослідники використовували скориговані дані для подальшого навчання вихідних моделей, дозволяючи їм більше не припускатися тих же помилок.

Під час експерименту з використанням п'яти базових моделей LLM і двох завдань на математичне мислення було виявлено, що LeMa щоразу покращує продуктивність, порівняно з простим доналаштуванням на даних Conceptual Task Graphs.

Спеціалізовані моделі LLM, які були розроблені для розв'язання математичних задач, також вдалося покращити за допомогою підходу LeMa: WizardMath і MetaMath показали точність у 85,4% на завданнях GSM8K, а на завданнях MATH – 27,1% (GSM8K і MATH – набори завдань, на яких тестуються ШІ-моделі). Ці результати перевершують сучасні досягнення open-source моделей.

Поява LeMa показує, що процеси машинного навчання можна зробити більш схожими на людське навчання. Ця розробка може зробити революцію в секторах, що залежать від штучного інтелекту, де виправлення помилок і безперервне навчання мають вирішальне значення. Наприклад, в охороні здоров'я, фінансах і автономних транспортних засобах.