Искусственный общий интеллект (AGI, Artificial General Intelligence) – это гипотетическая форма машинного интеллекта, которая обладает общими способностями, сравнимыми с человеческими. Простыми словами – та самая классическая "пугалка", по сценарию которой человечество наконец-то изобретает искусственный интеллект, умнее человека. Искусственный общий интеллект в последние годы упоминается все чаще. Например, в 2023 году исследователи Microsoft называли уже устаревшую версию GPT-4 примером "искр AGI", а OpenAI анонсировала следующие модели как такие, идущие "на пути к AGI". Об этом писали в Scientific American.

По словам самого Сэма Альтмана, главы OpenAI, достижения уровня искусственного суперинтеллекта может произойти через "несколько тысяч дней". Однако, несмотря на медийное внимание и оптимистичные прогнозы, понятие AGI все еще остается расплывчатым, а термин является предметом острых дискуссий среди специалистов.

24 Канал поговорил с экспертом по искусственному интеллекту, руководителем AI R&D Center WINSTARS.AI Дмитрием Софиной и рассказывает о том, что такое AGI и есть ли опасность в искусственном интеллекте, превосходящем человеческий.

В широком смысле AGI обозначает искусственную систему с возможностями, близкими или выше человеческих. Например, по определению OpenAI, AGI – это "высокоавтономные системы, которые превосходят людей в большинстве экономически важных задач".

Nature отмечает, что точного консенсусного определения нет, но обычно под AGI понимают систему способную к человеческому уровню "рассуждения, обобщения, планирования и автономии". Простыми словами, AGI – это искусственный интеллект, который может решать задачи в различных сферах так, как это делает человек, без узких ограничений.

Идея AGI возникла как ответ на ограниченность узких, специализированных ИИ-систем – когда шахматный компьютер Deep Blue победил шахматиста Каспарова, возникло беспокойство, что ученые сосредотачиваются только на задачах-одиночках. Понятие AGI вернуло акцент на широкие способности машин.

Мелани Митчелл

профессор и исследователь из Института Санта-Фе

Термин "искусственный общий интеллект" стал популярным среди компьютерных ученых в конце 1990-х – начале 2000-х годов. Это было своеобразной реакцией на проекты вроде Deep Blue – шахматной системы, которая победила гроссмейстера Гарри Каспарова и других чемпионов-людей. Часть сообщества считала, что их коллеги слишком сосредоточились на обучении машин выполнению узких задач, например игр, и отходят от главной цели – создания универсальных, подобных человеку интеллектуальных систем. AGI использовали как попытку вернуться к этой первоначальной задаче.

Цель создания AGI – построить такую систему, которая могла бы не только, например, играть в шахматы или генерировать изображения, но и комплексно решать разнообразные задачи, учиться на лету и адаптироваться к новым ситуациям.

Стив Возняк, сооснователь Apple, предлагал "тест с кофе" – когда компьютер впервые сможет зайти в незнакомый дом и заварить там чай или кофе – тогда, по мнению Возняка, можно говорить об общем интеллекте.

Однако уже сейчас известно, что современные ИИ, даже глубокие нейросети, не в состоянии почувствовать смысл выполняемых действий, они лишь оперируют статистическими закономерностями. Так, ИИ-эксперт Сара Гукер (Cohere for AI) замечает Wired, что моделям, которые являются "очень искусными в генерировании языка", не обязательно обладать человеческим типом мышления или понимания.

С другой стороны, некоторые ученые, например Алисон Гопник из Калифорнийского университета, вообще ставят под сомнение саму идею "общего интеллекта", называя AGI "хорошим маркетинговым слоганом", поскольку ни один вид интеллекта не может решать буквально любые задачи, пишет Scientific American.

В последнее время представление об AGI часто путают с достижениями современных "генеративных" моделей – создающих текст, изображения, видео и тому подобное. Например, имеющиеся чат-боты для текста или создания картинок способны генерировать впечатляющий контент, однако они остаются узкоспециализированными. Эти модели фактически являются машинами для предсказания – они обучены подбирать следующее слово или пиксель на основе большого количества данных, но не способны к настоящему человеческому уровню креативности или логического мышления. То есть современные генеративные ИИ-модели могут блестяще предсказывать то, что должно быть на выходе (например, сочинить стихотворение или нарисовать картину), но они не понимают смысл или причины событий так, как люди.

Еще проще – генеративные модели обучены на больших датасетах конкретных форматов (текст или изображение) и хорошо имитируют человеческие ответы в этих пределах. AGI же должен оперировать всем спектром человеческого опыта. Например, McKinsey отмечает, что модели вроде ChatGPT или DALL-E лучше предсказывают ответы на конкретные запросы, но они не "достигают человеческого уровня в креативности, логическом мышлении или восприятии. GPT или DALL-E не умеют самостоятельно ставить цель, выполнять любую незнакомую задачу или действовать в реальном мире вне рамок своей тренировочной области".

Даже поставив GPT-4 в тело робота с камерой, мы не получим универсального помощника. Дело в том, что для роботов нет такого количества готовых данных, как для текстов или фото – интернет не содержит миллиардов сценариев взаимодействия с физическим миром. Физическая среда очень сложная, и современные боты успешны лишь в очень ограниченных участках (например, ими могут запрограммировать передвижение в знакомом помещении, но снятие крышки с контейнера может оказаться незнакомым вызовом). Таким образом, наличие ChatGPT не делает машину всеобщим интеллектом – сейчас это лишь расширенный "языковой" сервис, а не полноправный умный агент.

Читайте также Как Украина создает собственный ChatGPT и для чего государству нужен суверенный ИИ

Сейчас исследования AGI в основном ведут крупные компании и высокопрофессиональные лаборатории.

  • Среди них OpenAI (США) стоит во главе поисков; ее соучредители объявили главной миссией компании создание AGI, полезного для всего человечества. Сами проекты OpenAI (серия GPT, модель DALL-E и т.д.) направлены на постепенное приближение к AGI.
  • Microsoft, инвестируя в вычислительные мощности и партнера OpenAI, также заявляет об интересе к AGI и будет вкладывать сотни миллиардов долларов в новые дата-центры, чтобы достичь создания AGI.
  • Другой ключевой игрок – Google DeepMind (Великобритания). Ее руководитель Демис Хассабис занимается AGI уже более 15 лет – DeepMind в 2010-х решил сложные игровые и научные задачи (AlphaGo, AlphaFold), однако теперь фокусируется на общей цели. По словам Хассабиса, "мы почти на правильном пути": по его оценке, есть около 50% шансов получить AGI в следующие 5 – 10 лет, пишет Wired. Он определяет AGI как систему, обладающую всеми человеческими когнитивными способностями, и одновременно признает возможные страшные последствия для рынка труда. Гугл поддерживает эту гонку не только DeepMind, но и более широкими инвестициями в исследования ИИ (совокупно - сотни миллиардов долларов по всему миру
  • Менее известный, но очень важный участник – Anthropic (США), основан бывшими сотрудниками OpenAI Даниэлой и Дарио Амодеи. Они ушли именно из-за вопросов безопасности AGI – Anthropic специализируется на разработке "благородного ИИ", который никогда не сойдет с пути доброй воли". Компания уже представила свой чат-бот Claude и открыто говорит о цели построить AGI "настолько безопасным, этичным и действенным, чтобы другие поняли пользу такого подхода.

Помимо корпоративных гигантов, AGI исследуют академические и независимые группы. Некоторые университеты и стартапы сосредоточены на альтернативных подходах, пишет Nature. Например, команда Йошуа Бенджио из Монреальского университета ищет архитектуры для построения соответствующих моделей мира, которые позволят машине делать обобщения и планировать.

А теоретик Карл Фристон из Калифорнийского университета UCL выступает за небольшие, энергоэффективные системы, способные сами выбирать релевантные данные из своей среды. Ученые из многочисленных дисциплин – от нейронаук до когнитивной психологии – вовлечены в дискуссию об AGI, чтобы выяснить, как определять реальные возможности современных моделей и какие прорывы нужны дальше.

Важно! Нельзя не упомянуть огромные инвестиции в эту отрасль. Financial Times сообщает, что крупные технологические компании (Microsoft, Alphabet, Amazon, Meta) в 2024 году потратили 246 млрд долларов на капитальные расходы, связанные с ИИ-инфраструктурой, а частные инвестиции в ИИ в США в прошлом году достигли более 100 миллиардов долларов. В целом инвестиции исчисляют порядками сотен миллиардов долларов.

Дмитрий Софина, руководитель AI R&D Center WINSTARS.AI, в комментарии 24 Каналу объяснил, что появление сверхчеловеческого ИИ в ближайшие десятилетия – это абсолютно реалистично.

Дмитрий Софина

руководитель AI R&D Center WINSTARS.AI

Темпы развития моделей ИИ сегодня напоминают экспоненциальный рост, и мы каждый год наблюдаем прорывы, которые еще несколько лет назад казались фантастикой. Если говорить об "общем" искусственном интеллекте (AGI), то речь не идет об одной дате, когда он "вдруг появится". Это постепенный процесс: от узких систем, выполняющих одну функцию, ко все более универсальным моделям, способных понимать и адаптироваться к различным контекстам. Уже сейчас мы видим предпосылки – способность ИИ работать в междисциплинарных задачах, обучаться на ограниченных данных и проявлять черты "мягкой генерализации". Поэтому горизонты 10 – 20 лет выглядят вполне реалистичными.

К теме "Звучит как безумие": как быстро ИИ отберет работу у миллионов людей и к чему готовиться

А вот сможет ли человечество определить момент, когда машины превысят наш интеллект? По мнению Софины, это будет скорее процесс, чем точка на шкале времени. "Мы, вероятно, не будем иметь одного момента, когда сможем сказать: "вот сейчас машина стала умнее человека", – говорит собеседник. По его словам, уровень интеллекта трудно оценить даже среди людей, не говоря уже о машинах.

Дмитрий Софина

руководитель AI R&D Center WINSTARS.AI

Мы будем видеть постепенное расширение возможностей ИИ во все новых сферах: от науки до медицины, от креативных индустрий до управления системами. И только задним числом осознаем, что на каком-то этапе искусственный интеллект уже превысил человеческий во многих измерениях.

Многочисленные прогнозы спекулируют на тему того, что искусственный интеллект приведет к потере рабочих мест или вообще к уничтожению человечества в ближайшие годы. 24 Канал спросил у эксперта по ИИ, какие же риски от нового уровня "суперинтеллекта".

К теме Уничтожение человечества до 2030 г. Превзойдет ли суперинтеллект по масштабу промышленную революцию

Дмитрий Софина

руководитель AI R&D Center WINSTARS.AI

Самый большой риск – это потеря способности управлять критическими решениями. Если ИИ начнет самостоятельно устанавливать цели или оптимизировать задачи без человеческого контроля, это может привести к непредсказуемым последствиям.

Среди ключевых угроз, по его мнению, следующие:

  • геополитическая нестабильность – страны могут использовать AGI как инструмент преимущества, что грозит новыми конфликтами;
  • экономические шоки – неконтролируемая автоматизация может радикально изменить рынок труда, создавая неравенство и социальное напряжение;
  • этические дилеммы – если машины будут принимать решения о жизни людей (в медицине, безопасности или военной сфере), это ставит под вопрос саму основу нашей ответственности.

Поэтому главная задача сегодня, отмечает Дмитрий Софина – создавать системы безопасности, прозрачные механизмы контроля и международные правила, которые позволят развивать AGI ответственно.