Накануне нового 2025 года британско-канадский ученый Джефри Гинтон озвучил тревожный прогноз по уничтожению человечества искусственным интеллектом в ближайшие 30 лет. Известный как один из "отцов" искусственного интеллекта, Гинтон предупредил, что темпы развития этой технологии значительно превосходят ожидания. По его словам, вероятность того, что ИИ может повлечь исчезновение человечества в течение следующих трех десятилетий, выросла до 10 – 20%.
Гинтон, который в этом году получил Нобелевскую премию по физике за вклад в развитие искусственного интеллекта, ранее оценивал этот риск в 10%.
24 Канал собрал самое интересное из высказываний Гинтона и прогнозов об искусственном интеллекте в ближайшем будущем.
Когда ИИ может уничтожить человечество
В декабре, выступая в программе Today на радио BBC Radio 4, Гинтон заявил, что риски уничтожения человечества искусственным интеллектом растут – теперь это составляет 10 – 20% в ближайшие 30 лет.
Нам никогда раньше не приходилось иметь дело с вещами, умнее нас самих. Единственный пример, который приходит на ум, – это мать и младенец. Эволюция потратила много усилий, чтобы позволить младенцам контролировать матерей. Но это редкий случай,
– объяснил свою оценку Гинтон.
По мнению Гинтона, по сравнению с мощными системами ИИ люди будут похожи на трехлетних детей.
Представьте себя рядом с трехлетним ребенком. Это будем мы,
– добавил он.
Искусственный интеллект, способный выполнять задачи, которые обычно требуют человеческого интеллекта, уже вышел за пределы ожиданий даже своих разработчиков. В прошлом году Гинтон оставил свою должность в Google, чтобы свободнее говорить о рисках бесконтрольного развития ИИ.
Он выражал беспокойство, что искусственный интеллект могут использовать для преднамеренного нанесения вреда. Особенно тревожит эксперта перспектива создания систем искусственного общего интеллекта, которые могут превысить интеллект человека и выйти из-под контроля.
Читайте также Новая эра лжи и трампизация Meta: почему Цукерберг отменяет цензуру в Facebook и Instagram
Размышляя о достижениях ИИ, Гинтон признал, что нынешний уровень развития технологии значительно превышает его ожидания.
Гинтон прогнозирует, что системы ИИ, которые превзойдут человеческий интеллект, появятся в течение следующих 20 лет.
Меня волнует то, что невидимая рука не защитит нас. Поэтому просто оставить это в пользу крупных компаний недостаточно, чтобы убедиться, что они разрабатывают это безопасно. Единственное, что может заставить эти крупные компании проводить больше исследований безопасности, – это государственное регулирование,
– считает ученый.
В то же время Янн ЛеКун, один из трио "отцов ИИ" и главный ученый в области ИИ в компании Meta Марка Цукерберга, считает, что угроза от искусственного интеллекта преувеличена. Он даже предполагает, что технология "может спасти человечество от уничтожения".
За что Гинтон получил Нобелевскую премию в 2024 году
Лауреатами Нобелевской премии по физике 2024 года стали Джон Хопфилд (Принстонский университет) и Джефри Гинтон (Университет Торонто) – за фундаментальные открытия в сфере машинного обучения, которые стали основой современного искусственного интеллекта. По словам Марка Пирса из Нобелевского комитета, их работа заложила основы того, что сегодня мы знаем как искусственный интеллект. После награждения Гинтон признался, что был поражен получением награды. По его мнению, внедрение ИИ будет сравнимо с промышленной революцией. "Но вместо того, чтобы превзойти людей в физической силе, искусственный интеллект превзойдет нас в умственных способностях", – отметил ученый.Интересно, что Гинтон стал одним из лауреатов Нобелевской премии, которые предупредили об опасности своих открытий. Среди других ученых, которые предсказали обратную сторону своих изобретений – Фредерик Жолио (первые искусственно созданные радиоактивные атомы), сэр Александр Флеминг (антибиотики), Пол Берг (генная инженерия, предупредил об опасности генной терапии и биологической войны).
Как искусственный интеллект изменит мир в 2025 году
На 2025 год крупные технологические и консалтинговые компании, в частности Deloitte, Cisco и IBM, однозначно прогнозируют расширение использования искусственного интеллекта.
К теме ИИ-агенты, роботы-гуманоиды и блокировка TikTok: как изменятся технологии в 2025 году
Так, в Cisco прогнозируют, что сетевые сбои из-за человеческих ошибок исчезнут, ведь в 2025 году ИИ-инструменты смогут устранить эти проблемы, автоматизируя настройки сетей. В то же время в следующем году бизнесам придется бороться с рисками, среди которых – атаки на генеративные ИИ-системы и угрозы от квантовых вычислений, которые могут сломать традиционные методы шифрования.
Среди других прогнозов Deloitte, Cisco и IBM такие:
- В 2025 году искусственный интеллект перестанет быть лишь вспомогательным инструментом и станет полноценным партнером. Новый формат Agentic AI – адаптивных помощников-агентов, способных анализировать поведение пользователей и принимать самостоятельные решения – откроет перед бизнесом новые горизонты. Но вместе с этим возрастет потребность во внедрении этических стандартов, которые обеспечат прозрачность и справедливость решений, принятых ИИ.
- К концу 2025 года четверть компаний, которые уже внедрили генеративный ИИ, интегрируют в свои системы AI-агентов. А к 2027 году их доля возрастет до 50%. Эти агенты смогут не только автоматизировать рутинные процессы, но и стать стратегическими партнерами в принятии бизнес-решений.
- Интеграция генеративного ИИ ускорит развитие "умных" устройств. Уже в 2025 году более 30% новых смартфонов и около 50% ноутбуков будут оснащены функциями ИИ, которые работают локально. Это означает более быстрый и персонализированный доступ к возможностям ИИ без необходимости подключения к облаку.
- Одной из ключевых тенденций 2025 года станет интеграция ИИ-гуманоидов в команды работников. Компании будут вынуждены создавать условия для эффективного сотрудничества между людьми и машинами. Это потребует новых подходов к кибербезопасности: от защиты данных до предотвращения хакерских атак на самих роботов.
Руководителям придется найти баланс между использованием возможностей ИИ и сохранением "человеческого подхода" в работе. Уже сегодня гуманоидных роботов предлагают технологические компании как в США (Tesla), так и в Китае, демонстрируя глобальную заинтересованность в развитии этой инновации.
Американский психолог и исследователь ИИ Гэри Маркус в материале Politico о "черных лебедях" 2025 года прогнозирует, что одной из неожиданностей 2025 года может стать крупнейшая в истории кибератака, которая может временно вывести из строя значительную часть мировой инфраструктуры.
Это может произойти как из-за вымогательства выкупа, так и с целью манипуляции людьми для получения прибыли от спекуляций на глобальных рынках.
В 2025 году ситуация с киберпреступностью может значительно ухудшиться из-за четырех ключевых факторов:
- Рост популярности генеративного искусственного интеллекта и снижение его стоимости делают эту технологию идеальным инструментом для кибератак. Несмотря на склонность к ошибкам и "галлюцинациям", генеративный ИИ прекрасно создает правдоподобные тексты (например, для фишинговых атак) и дипфейковые видео практически без затрат. Это позволяет преступникам значительно расширить масштабы своих атак.
- Уязвимость больших языковых моделей. Большие языковые модели легко поддаются "взлому" через техники вроде атак на основе инъекции запросов (prompt-injection attacks). На данный момент эффективного решения этой проблемы не существует.
- Опасность автогенерированного кода. Генеративные ИИ все чаще используются для создания кода. Однако в некоторых случаях программисты, которые применяют эти инструменты, не полностью понимают написанный код. Как показала практика, автогенерированный код может содержать новые уязвимости, которые впоследствии становятся лазейками для атак.
- Ослабление регуляций в США. Новая администрация США настроена на максимальную дерегуляцию, сокращение расходов и даже публичную критику работников. Это может демотивировать федеральных служащих и заставить многих искать другие рабочие места. Как следствие, качество и объемы расследований и правоприменения, вероятно, значительно снизятся. Такая ситуация сделает мир еще более уязвимым к масштабным и дерзким кибератакам.
По мнению Эми Уэбб, гендиректора Future Today Institute и профессора стратегического прогнозирования Нью-Йоркского университета (Stern School of Business), еще одна угроза, связанная с ИИ, – атака на финансовые рынки.
К теме Ядерка, господство ИИ и новый локдаун: какими могут быть "черные лебеди" 2025 года
В разгар дерегуляции и сокращения правительственных структур технократы администрации президента Дональда Трампа снижают приоритетность планирования сценариев. Между тем ботсети уже доказали, насколько легко и эффективно можно использовать сложные алгоритмы искусственного интеллекта для распространения дезинформации. С завершением выборов в 2025 году злоумышленники и недружественные государства направляют свои атаки на новую цель – финансовые рынки.
Искусственный интеллект анализирует большие объемы данных, включая финансовые отчеты, рыночную волатильность и настроения в социальных сетях, чтобы определить уязвимые компании. Затем запускается кампания дезинформации: создаются слухи, фейковые новости и доказательства, чтобы спровоцировать рыночную панику. ИИ автоматически генерирует сценарии для оптимизации времени и каналов, а действия злоумышленников усиливаются высокочастотными трейдами. Это заставляет других участников рынка действовать похожим образом, вызывая масштабный обвал.
Из-за слабого регуляторного надзора и отсутствия плана действий правительство не способно эффективно реагировать. Следствием становится глобальная финансовая паника, которую трудно остановить из-за сложности и скорости таких атак,
– описывает Уэбб сценарий атаки.
Пока эксперты прогнозируют неутешительные сценарии на десятки лет, события разворачиваются так, что само существование человечества через 20 – 30 лет уже будет оптимистичным. Угроза ядерной войны, захватнических войн, популизма и климатического кризиса оставляет человечеству все меньше шансов наслаждаться мрачными прогнозами об опасности искусственного интеллекта.