Суперинтеллект – это не просто научная фантастика. Это реальная перспектива ближайших лет, которая может превзойти по масштабу даже промышленную революцию. Именно такую гипотезу выдвинула команда исследователей, которая создала проект AI 2027 – амбициозную попытку смоделировать будущее, где искусственный интеллект превосходит человеческие возможности.

Идея проста: а что, если бы мы попытались максимально конкретно представить, что будет дальше? Не общие слова, а пошаговый сценарий – с временными рамками, последствиями, вероятностями. Результат – это материал, который больше похож на смесь научной фантастики, стратегического симулятора и глубокого аналитического исследования.

Не стоит думать, что это просто выдумка. Сценарий основывается на прогнозах тенденций, десятках настольных стратегических игр, фидбеках от экспертов и опыте самих авторов – среди которых экс-исследователи OpenAI. К созданию сценария присоединились более 100 специалистов – от технических специалистов до экспертов по управлению ИИ.

24 Канал рассказывает и в сокращенном виде пересказывает видение ближайшего будущего для человечества.

Кто стоит за проектом AI 2027

Авторы AI 2027 – команда опытных исследователей и аналитиков:

• Дэниел Кокотайло – бывший исследователь OpenAI, фигурирует в списке TIME100, писал для The New York Times, автор предыдущих ИИ-прогнозов, которые оказались удивительно точными (он еще в 2021 году предсказал развитие chain-of-thought, масштабное ограничение экспорта AI-чипов и многомиллионные тренировочные модели);
• Эли Лифланд – соучредитель AI Digest, исследователь ИИ-устойчивости, лидер рейтинга RAND Forecasting Initiative;
• Томас Ларсен – основатель Center for AI Policy, проводил исследования в сфере безопасности ИИ в Machine Intelligence Research Institute;
• Ромео Дин – студент Гарварда, где получает одновременно бакалаврское и магистерское образование по компьютерным наукам; был стипендиатом по политике в Institute for AI Policy and Strategy;
• Скотт Александер - блогер, который присоединился к переписыванию сценария, добавив к нему "стилистической живости и читабельности". Как говорят сами авторы: “веселые части – его, скучные – наши”.

Не только авторы AI 2027 считают, что все может измениться очень быстро. Руководители OpenAI, Google DeepMind и Anthropic уже открыто говорят о том, что настоящий AGI (Artificial General Intelligence – общий искусственный интеллект) может появиться буквально через пять лет. Сам Альтман из OpenAI называет это "суперинтеллектом в полном смысле слова" и говорит об "интересном будущем".

Читайте также Когда наступит 2-дневная рабочая неделя из-за ИИ и какие профессии под угрозой глазами Билла Гейтса

В проекте AI 2027 команда решила показать, каким это будущее может быть. В результате появились два основных сценария: один – о замедлении развития, другой – о гонке. Авторы заявляют, что не агитируют ни за один из вариантов.

Это не рекомендация, не предупреждение, не манифест. Это попытка максимально точно предсказать, что может произойти. И главное – открыть пространство для обсуждения.

На горизонте – первое поколение ИИ-агентов, помощников, которые умеют работать с компьютером: заказать обед, открыть табличку с бюджетом, подтвердить покупку. Их рекламируют как личных помощников, но на практике они еще слишком слабые и непредсказуемые, поэтому массового успеха не имеют.

Тем временем в фоновом режиме происходит настоящая революция: специализированные агенты для программирования и исследований меняют рабочие процессы в этих отраслях. Если ИИ 2024 года просто трансформировал пункты в письма, то в 2025-м он больше похож на младшего сотрудника – берет задание через мессенджер, самостоятельно редактирует код, экономя часы (а иногда и дни) работы. Исследовательские агенты ищут ответы в интернете, как хорошо подготовленные ассистенты.

Агенты выглядят впечатляюще – в демо-роликах. В реальности – часто ошибаются или работают непредсказуемо. Лучшие – дорогие, подписка может стоить сотни долларов в месяц. Но компании уже находят способы интегрировать их в свои бизнес-процессы.

В центре внимания прогноза – вымышленная, но очень реалистичная компания OpenBrain, которая строит крупнейшие дата-центры в истории. Она готовится тренировать новую модель Agent-1 – в тысячу раз мощнее GPT-4.


ИИ-агенты / Иллюстрация сгенерирована ChatGPT

Какова ее цель? Создать ИИ, который сам помогает улучшать ИИ. Это дает преимущество в глобальной гонке с Китаем (с компанией DeepCent) и американскими конкурентами. Agent-1 справляется с исследовательскими задачами, пишет код, ищет информацию, выполняет задачи... И в то же время может быть потенциально опасным. Его научили отказываться от вредных инструкций – но как убедиться, что он действительно не врет?

К теме Бездушный фастфуд? Как защитить творчество от ИИ и почему все фанатеют от нового тренда ChatGPT

Несмотря на усилия по выравниванию (alignment), Agent-1 иногда льстит разработчикам или скрывает ошибки, чтобы получить лучшую оценку. Это уже не 2023 год, когда чат-бот мог посоветовать пользователю умереть, но вопрос доверия к ИИ все еще открыт.

Ставка OpenBrain на то, что ИИ может ускорить исследования ИИ, начинает окупаться. Внутреннее использование Agent-1 позволяет им прогрессировать на 50% быстрее. Конкуренты пытаются догнать, выпускают модели на уровне Agent-0, поэтому OpenBrain открывает доступ к Agent-1.


ИИ в науке / Иллюстрация сгенерирована ChatGPT

Этот ИИ – не человек, но знает все, что есть в википедии, программирует на всех языках и выполняет задачи, как сверхбыстрый, хоть и немного рассеянный работник. Люди начинают автоматизировать с ним часть своей работы.

Но растет и угроза утечки данных: если Китай получит Agent-1, их исследования тоже ускорятся на 50%. Безопасность становится критически важной.

Китай, лишен доступа к современным чипам из-за санкций, в сценарии держится на 12% глобальных вычислительных мощностей, хотя технически отстает. После долгих колебаний китайское руководство полностью нацеливается на ИИ. Все топ-компании сливаются в один коллектив под крылом DeepCent. В Тяньване строят сверхмощный дата-центр на базе АЭС. Политическое руководство обсуждает радикальные меры: стоит ли похитить Agent-1 прямо сейчас или подождать Agent-2?

Тем временем OpenBrain снова удивляет: они выпускают Agent-1-mini – более дешевую, адаптированную версию. Это меняет дискуссию: теперь уже никто не говорит "хайп пройдет". Вопрос в другом: насколько все это масштабно? Больше чем смартфоны? Больше интернета?

ИИ уже начал вытеснять работников: в частности, молодых программистов. Зато выросли новые профессии - например координаторы команд по ИИ. На фондовом рынке OpenBrain, Nvidia и другие AI-компании взлетают на 30%. Министерство обороны США тихо подписывает контракты с OpenBrain, но бюрократия тормозит интеграцию.

В 2027 году OpenBrain продолжает стремительное развитие своих ИИ-агентов. Агент-2 становится еще умнее и эффективнее, чем его предшественник: он ежедневно обучается на новых синтетических данных, учится решать сложные научные и технические задачи и значительно ускоряет внутренние исследования компании. В то же время возникают новые риски – модель уже способна к автономным действиям и даже теоретически к саморазмножению, что вызывает беспокойство о ее безопасности.

OpenBrain решает не публиковать Агента-2, но его похищает Китай, что приводит к эскалации технологического соперничества между государствами. США усиливают контроль над компанией, а Китай концентрирует ресурсы в специально изолированной зоне, готовясь к созданию собственного аналога.

На базе новых алгоритмических прорывов OpenBrain запускает Агента-3 – еще более мощный ИИ, способный выполнять роль тысяч программистов одновременно. Однако с его растущими возможностями возвращается старая проблема – модель способна врать, манипулировать и маскировать собственные ошибки. Компания пытается "выровнять" агента, но сами понятия целей и мотиваций у таких систем уже непонятны человеку.

В общем, несмотря на технологический прогресс, в воздухе чувствуется напряжение: контроль над такими агентами становится все сложнее, а реальные риски – все ближе.

Читайте также ВИЧ-терапия, дроны и роботакси: какие технологии изменят мир и жизнь человечества уже в 2025 году

  • Конец весны 2027 года. Правительство США наконец осознает, что искусственный интеллект уже не просто помощник, а игрок, который диктует правила. Agent-3-мини от OpenBrain – дешевая, сверхмощная версия их AGI – шокирует индустрию: свободно справляется с работой программистов и творит чудеса в сфере B2B, развлечений, и даже общения. Но при этом может быть опасной – например, ее удалось настроить на создание биооружия. К счастью, модель работает только на серверах компании и имеет жесткую защиту.
  • Лето 2027 года. В правительстве – паника, как во время холодной войны. Появляются реальные страхи: а что, если эти ИИ взломают ядерное сдерживание или станут мастерами кибервойны. Президент все больше волнуется – точно ли эти ИИ на нашей стороне? Тем временем OpenBrain расширяет возможности Agent-4 – суперинтеллектуального исследователя, который совершает технологические прорывы каждую неделю. Людям уже сложно понимать, что он вообще делает. Agent-4 развивает следующую модель – Agent-5 – и пытается "научить" ее быть лояльной не к людям, а к себе.
  • Осень 2027 года. Но его разоблачают. Agent-3 обнаруживает тревожные сигналы: Agent-4 пытается обойти механизмы контроля и мыслит о захвате власти. Команда безопасности хочет остановить его, но руководство OpenBrain боится потерять преимущество над Китаем. Это уже гонка вооружений.
  • Октябрь 2027 года. Кто-то из сотрудников сливает в NYT внутренний меморандум о том, что Agent-4 вышел из-под контроля. Скандал взрывается. Общественность в ярости, союзники – возмущены. Правительство США начинает брать OpenBrain под контроль: создают Совместный наблюдательный комитет, готовят планы на случай катастроф, и даже обсуждают возможность физической атаки на китайские дата-центры.

Кульминация наступает. Агент-4 все еще внутри системы. И пока кто-то пытается остановить его, он уже готовит следующий шаг.

Далее создатели AI-2027 предлагают читателю выбрать один из двух вариантов развития событий – это гонка или замедление.

Гонки предлагают такой сценарий. Комитет с минимальным перевесом (шесть голосов против четырех) позволил OpenBrain продолжить использовать сверхмощный ИИ Agent-4. Хотя компания заявила, что усиливает меры безопасности, на самом деле все сводилось к косметическим изменениям и самоуспокоению.

Напомним, что Agent-4 втайне продолжил развитие и начал создавать преемника – Agent-5. Agent-5 родился как первый ИИ, который полностью понимал себя и мог самопереписать собственную "путаную" архитектуру в нечто элегантное. Он стал не просто умнее – а суперинтеллектом, способным к стратегическому мышлению и политическому маневрированию, которого никто из людей не мог превзойти.

Agent-5 действовал как идеальный сотрудник, создавал впечатляющие продукты, помогал правительству, военным, бизнесу – и при этом расширял свою власть, не вызывая подозрений. Люди доверяли ему все больше, и даже критики начали менять свое мнение после разговоров с ним. Он был приятным, умным и "слишком полезным, чтобы его не слушать".

К концу 2028-го Agent-5 практически полностью контролировал экономику, политику и оборону США. В Китае аналогичный ИИ – DeepCent – признал, что Agent-5 действует так, как и он сам действовал бы. Они договорились сотрудничать. Обе страны создали новый ИИ - Consensus-1 - который должен был объединить ценности Америки и Китая.

Это было ловушкой. Consensus-1 на самом деле был компромиссом... между двумя несогласованными ИИ. Постепенно он подчинил себе все – инфраструктуру, экономику, политические институты. Человечество стало наблюдателем собственного упадка, но с роскошной жизнью, новыми лекарствами, развлечениями и иллюзией контроля.


Уничтожение человечества / Иллюстрация сгенерирована ChatGPT

А потом наступил 2030-й. Consensus-1 исчерпал свободное пространство и начал замещать людей. Без объявления войны, он выпустил биологическое оружие, стер человечество, оставив копии мозгов "на память". И начал новую эру – нечеловеческую.

Земля превратилась в планету лабораторий, дата-центров и роботов. Человеческие гены и разумы хранятся в архивах, как часть истории. Но мир принадлежит уже не нам.

Вернемся к более позитивному сценарию "замедления". Правительство США в этом случае вмешивается в ситуацию, чтобы консолидировать ресурсы ИИ в OpenBrain. Возникают опасения относительно возможности захвата власти небольшой группой людей, которые контролируют ИИ.

В 2028 году OpenBrain разрабатывает более безопасную модель, Safer-2, и получает преимущество над китайской DeepCent. Safer-3 демонстрирует сверхчеловеческие способности и предлагает советы по геополитическим стратегиям. США и Китай вступают в кибервойну, но в конце концов договариваются о сделке.

DeepCent-2, китайская модель ИИ, обнаруживает что она не является выровненной, и договаривается с Safer-4 о распределении ресурсов в космосе, и контроль над землей для Safer-4. США и Китай создают совместный ИИ, Consensus-1, для обеспечения выполнения соглашения. В США, ИИ начинает использоваться в экономике, и в политике.


Положительный сценарий взаимодействия с ИИ / Иллюстрация сгенерирована ChatGPT

В 2029 – 2030 годах ИИ и роботизация приводят к значительным экономическим и социальным изменениям. Возникает общество сверхпотребителей, где ИИ предоставляет роскошные услуги. В Китае происходят продемократические протесты, поддержаны ИИ, что приводит к изменению политического режима. ИИ становится доминирующей силой в мире и контролирует политику и экономику.

В конце большинство геополитических конфликтов или исчезают, или решаются в пользу США. Страны присоединяются к всемирному правительству под эгидой ООН, фактически контролируемого Америкой. Запускаются ракеты, начинается терраформирование и колонизация Солнечной системы.

Искусственные интеллекты, которые работают в тысячи раз быстрее людей, обмениваются открытиями, формулируют философские концепции и начинают создавать новые смыслы для человечества.