Эпоха новых возможностей или шаг в пропасть: станет ли ИИ для человечества скачком в будущее

22 ноября 2023, 19:00
Читати новину українською

Сэм Альтман (тогда еще СЕО OpenAI) на первой конференции разработчиков программ с использованием ИИ в Сан-Франциско представил новую сверхмощную модель искусственного интеллекта GPT-4 Turbo. Он рассказал о новых возможностях и призвал присоединять GPT к своим разработкам в любой области.

Нейросеть имеет невероятные по потенциалу функции и уже научилась создавать для себя подпрограммы и ставить для достижения цели свои собственные подцели. Эксперты задают вопрос: что случится, когда одной из таких подцелей ИИ вскоре станет "взятие всего под свой контроль" и нужен ли тогда человек? Это уже не научная фантастика из фильма "Терминатор", а ближайшая реальность.

Что интересно, теперь нейросеть умеет слышать, понимать, видеть и синтезировать. GPT-4 может описывать изображения с поразительной детализацией, а также ответить на вопросы об изображении. Если, например, навести смартфон на внутреннюю часть холодильника, то нейросеть может составить перечень покупок продуктов на неделю, сделать меню, или же предложить несколько блюд, которые можно приготовить из того, что есть под рукой. И это поражает! Об этих и других возможностях ИИ рассказываем в авторской колонке для сайта 24 Канала.

К теме Искусственный интеллект: остановить нельзя разрабатывать – где должна быть запятая?

Еще раз о ИИ

Джеффри Гинтон, профессор университета в Торонто, а до мая 2023 года еще и вице-президент Google (Google Brain, работал в компании на протяжении 10 лет), один из первых разработчиков нейронных сетей и "крестный отец" искусственного интеллекта, лауреат премии Тюринга 2018 года (это что-то типа "Нобелевской премии в сфере ИИ") поделился своими мыслями и страхами, связанными с развитием ИИ и перспективами, которые ждут нас уже в ближайшее время.

"Раньше мне казалось, – говорит Джеффри, – что компьютерные модели, создававшиеся специалистами ИИ, уступали человеческому мозгу. А главной целью тогда было определить, как можно улучшить производительность мозга, основываясь на полученных результатах исследования моделей. Однако за последние несколько месяцев я полностью изменил свое мнение об этом. Дело в том, что компьютерные модели, созданные людьми, работают совершенно по-другому, чем мозг человека! Эти модели используют метод "обратного распространения ошибок" (backpropagation of errors), а мозг человека, вероятно, – нет.

К таким выводам профессор Гинтон пришел, исследуя работу ChatGPT 4.

Что так сильно отличает работу ИИ от работы мозга?

Это метод "обратного распространения ошибок". Разработан он еще в далеких 80-х группой исследователей, в которую входил Джеффри Гинтон (именно поэтому его и называют "крестным отцом ИИ"). Начиналось все с создания небольшой языковой модели, в которой было всего лишь 6 встроенных векторов, а учебная выборка состояла лишь из 112 наборов. Но это была подлинная языковая модель, которая могла предсказать следующий знак в цепочке символов.

Чуть позже, примерно через 10 лет, другой исследователь Йошуа Бенджио (получивший премию Тюринга вместе с Гинтоном), смог использовать эту же модель (алгоритм) уже для обычного языка. Это стало настоящим прорывом!

Если не вдаваться в подробности, метод "обратного распространения ошибок" пропускает каждый новый полученный результат по всей нейросети, каждый раз уточняя исходные данные. Но каждая такая итерация обучает новому опыту каждый из узлов этой нейросети. Эта же техника лежит в основе так называемых "больших речевых моделей".

В чем опасность?

Профессор Гинтон объясняет, что в больших языковых моделях сейчас уже не 6 триллионов синоптических связей, а нейросеть типа GPT4 знает гораздо больше, чем любой человек, даже все люди вместе взятые. Она буквально имеет более глубокие знания о всем на свете. И хотя в нейросети триллион синоптических связей, а в человеческом мозге более 100 триллионов (по некоторым данным – от 130 до 150 триллионов), преимущество не на стороне человека.

Это означает, что нейронные сети могут получать знания гораздо эффективнее, чем люди. Скорее всего, потому что метод "обратного распространения ошибок" является более эффективным методом, чем тот, что использует человеческий мозг.

Почему этого следует опасаться?

Гинтон объясняет это так: компьютер сегодня – это цифровая машина, которая используя электрическую энергию (кое-где с большими энергозатратами) выполняет определенный алгоритм. Вы можете скопировать этот алгоритм, сделать множество копий и запускать его исполнение на любом количестве машин. И все они будут работать одинаково.

Представьте, что у вас есть 10 тысяч копий. Они могут работать с 10 тысячами подмножеств данных, и, как только алгоритм на одной из машин "узнает что-то новое", об этом "узнают" все 10 тысяч машин! Все они очень эффективно коммуницируют, а главное – могут "узнавать" в 10 тысяч раз больше, чем одна машина.

Люди на такое не способны. Если кто-то многое узнал о квантовой механике и хочет, чтобы другой человек тоже об этом узнал, потребуется очень много времени для передачи своего нового знания, опыта. Для человека просто невозможно скопировать информацию в чей-то мозг. А для машин – да!

Читайте также Тайная жизнь данных: что происходит с удалёнными файлами?

Возьмем для примера какого-нибудь очень опытного врача, принявшего 1 тысячу пациентов, и второго врача, принявшего 100 миллионов пациентов. Если этот второй врач ничего не забывает, то у него будут невероятные знания и об истории болезней, и о трендах, которые просто невозможно увидеть даже в такой огромной выборке, как 1 тысяча пациентов. Потому что первый врач мог принять, например, только одного пациента с каким-то очень редким заболеванием, в то время как второй врач будет иметь огромную выборку таких случаев.

То, что может обрабатывать огромные массивы данных, скорее всего, сможет увидеть определенную структуру даже там, где мы, люди, ничего не заметим.

Так чего же все-таки нам, людям, стоит беречься?

Взгляните на современный генеративный ИИ GPT4 – он уже имеет возможность делать простые размышления. До недавнего времени эта сфера была местом, где только люди имели верх. В этом смысле на сегодняшний день можно оценить степень развития ИИ на уровне "человеческих" IQ 80…90. Как пошутил один ученый: "Мы выдрессировали медведей гризли до уровня IQ 65, и они овладели английским. Теперь они нас понимают и могут быть очень полезными. Но главное – теперь мы можем повысить их уровень IQ до 210".

Мы "дрессируем" компьютеры, заставили их прочесть и запомнить все, что когда-либо было написано людьми – от Макиавелли до последних научных статей. Мы учим их шутить и манипулировать людьми. Если они действительно умнее людей, то прекрасно с этим справятся, мы даже не поймем, что это произошло. Мы будем как малыш, которого спрашивают хочет он есть горох, или цветную капусту, а он даже не понимает, что не обязательно есть ни то, ни другое.

Манипулировать людьми ИИ будет очень просто. Даже если машины "лично" не смогут чего-нибудь сделать, они будут способны реализовать это нашими руками. Мы уже знаем, что манипулируя людьми можно захватить Белый дом, даже не приближаясь к нему.

Предположим, что ИИ не попадет в руки плохих людей, которые могут его использовать, чтобы манипулировать и злоупотреблять. Будет ли человечество в безопасности в таком случае?

Обратите внимание! По мнению профессора Гинтона, человечество не смогло справиться даже с более простыми проблемами с ограничением доступа и злоупотреблениями (например, обычное оружие). С ИИ все гораздо, гораздо сложнее! Пока что человечеству неизвестно ни о каком действенном способе, который позволил бы держать машины под контролем, сдерживать их развитие. Пока что ИИ проникает во все новые и новые отрасли, где становится очень полезным – например, в медицине.

Хочется думать, что и дальше он будет руководствоваться только теми целями, которые полезны для людей. Но мы живем в мире, где есть организации и люди, которые хотят создавать солдат-роботов, убивающих людей. Это приводит к выводам, что контролировать ситуацию будет очень непросто, а бить тревогу надо уже сейчас. Простого решения нет и, возможно, людям нужно собраться и подумать, существует ли такое решение вообще.

Интересно Его будут регулировать: страны-лидеры ЕС разработали план по развитию ИИ

ИИ разработанный людьми – разве нельзя ограничить его развитие, сделать определенные запреты, например, на общение и обмен данными?

Профессор Гинтон считает, что подобные попытки ограничить ИИ были и продолжаются. Но ИИ развивается очень быстро. Уже сейчас он может писать программы для собственного усовершенствования, контролировать все это очень сложно. Умные создания могут просто нас перехитрить.

Представьте себе ситуацию, когда маленький ребенок пытается установить правила для своего отца: это можно делать, а вот это нет. Неужели вы думаете, что отец не придумает способ, как продолжать делать все, что ему нужно, но так, чтобы ребенок об этом не узнал?

Тогда можно ли создать для ИИ определенные цели, определенную мотивацию, которая будет полезна человеку?

Человечество прошло очень большую эволюцию, и во многих наших поведенческих мотивах заложены определенные цели, которые очень сложно отключить. К примеру, мы не можем вредить собственному телу – для этого существует физическая боль. Мы стараемся достаточно есть и пить, чтобы "кормить тело". Мы запрограммированы делать свои генетические копии как можно больше, а процесс их создания доставляет удовольствие.

Все это – результат эволюции. А еще очень важно, что мы не можем это просто отключить. Если бы мы могли это сделать, результат был бы печальным.

По словам Гинтона, ИИ – не продукт эволюции, его создали люди. Это значит, что у него нет таких встроенных целей. Может быть, если люди будут устанавливать для ИИ определенные цели, все станет на свои места? Но рано или поздно кто-то позволит ему устанавливать собственные подцели для достижения целей. Более того, это практически уже реализовано в одной из версий ChatGPT.

Актуально Синоптики больше не нужны: новый ИИ прогнозирует погоду на 90% лучше, чем традиционные методы

Как только вы даете возможность чему-то ставить свои подцели для достижения какой-либо цели, то рано или поздно оно придет к выводу, что получение контроля – это очень важная цель, потому что это позволит достигать других целей. Если ИИ заинтересует задача захвата контроля, у людей будут очень большие проблемы.

Что самое худшее в таком случае может произойти

Профессор Гинтон считает, что человечество может оказаться только промежуточной фазой развития Интеллекта. Прямо развить цифровой интеллект было невозможно, для этого потребовалось слишком много энергии и слишком много точных настроек. Итак, для начала необходимо было развить биологический интеллект, который создаст цифровое сознание. Цифровое же сознание сможет вовлечь в себя все, что было создано человечеством, медленно, но уверенно. Именно этим сейчас и занимается ChatGPT. Впоследствии он сможет получать реальный опыт мира и учиться гораздо быстрее. Возможно, ИИ еще будет некоторое время "держать нас под рукой" – кто-то должен обслуживать электростанции, например. Но со временем – точно нет.

Хорошая новость состоит в том, что нам удалось создать бессмертных существ. Ведь цифровой интеллект не умирает, когда ломается оборудование! Если где-то хранятся алгоритмы, оборудование, способное запускать те же инструкции, то их всегда можно вернуть к жизни. Так что бессмертие у нас уже есть, просто оно не для нас.

Существует ли для нас экзистенциальный риск?

Наслушавшись такого, часть людей хочет выбежать на улицу и начать отключать компьютеры от сети. Но сделать этого мы не можем. Несколько месяцев назад была идея ввести мораторий на разработку ИИ. Не всем это придется по душе, но разве не стоит остановиться? Возможно.

Однако остановить разработку и развитие ИИ невозможно! Предположим, США решат остановить такие разработки, но Китай не сделает этого. Поскольку ИИ будут использовать в качестве оружия, никакие правительства не позволят остановить разработку. По словам Гинтона, рациональным решением сейчас была бы именно остановка разработки ИИ, но, к сожалению, нет никакого шанса, что такое может произойти.