ИИ способен притворяться менее умным, чем он есть на самом деле, обнаружили исследователи

10 апреля 2024, 12:02
Читати новину українською

В недавнем исследовании, опубликованном в журнале PLOS One, ученые из Университета Гумбольдта в Берлине пролили свет на интересный аспект продвинутых моделей ИИ. Исследование предполагает, что эти модели обладают способностью действовать специально менее разумно, чем они могли бы на самом деле, отражая определенные стадии развития, которые наблюдаются у детей.

Под руководством Анны Макловой, научного сотрудника и эксперта по психолингвистике в Университете Гумбольдта, исследование углубилось в концепцию "теории разума", которая изучает понимание психических состояний других людей.

А тем временем Microsoft и OpenAI работают над секретным суперкомпьютером стоимостью 100 миллиардов долларов

Детали исследования

Исследовательская группа в сотрудничестве с Карловым университетом в Праге сосредоточилась на оценке того, могут ли большие языковые модели (LLM), такие как GPT-4 от OpenAI, имитировать этапы когнитивного развития детей в возрасте от одного до шести лет.

В серии из более 1 000 испытаний и когнитивных тестов модели, когда их просили отвечать, как ребенка, продемонстрировали превосходную способность имитировать более низкие уровни интеллекта, подобные уровню детей в указанном возрастном диапазоне.

Маклова подчеркнула, что хотя антропоморфизация ИИ может предложить упрощенное понимание, она также может ввести в заблуждение. Вместо этого исследование выступает за изменение парадигмы в сторону оценки способности ИИ конструировать образы, подобные детским, которые наблюдались в экспериментах.

Исследовательница предполагает, что понимание способности ИИ имитировать низкий уровень интеллекта может сыграть решающую роль в развитии искусственного суперинтеллекта (ИИ) и обеспечении его безопасности.

Смотрите также ChatGPT теперь можно использовать без регистрации: как это работает

Автор призывает быть осторожными и не недооценивать возможности ИИ, а также акцентирует на важности признания его потенциала эффективно имитировать человеческое поведение. Такое изменение перспективы может проложить путь к более безопасному развитию технологий ИИ, избежание ловушек, связанных с ложными ожиданиями, и обеспечение ответственного развития.