Человечество не сможет контролировать искусственный суперинтеллект – расчеты
Источник:
Science AlertЧеловеческая цивилизация все больше продвигается в разработке суперинтеллекта – алгоритма, способности которого могли бы превзойти человеческие. Однако вместе с тем не стихают споры о безопасности технологии и возможных последствиях ее выхода из-под контроля. Новые расчеты показали: человечество не сможет контролировать такой суперинтеллект.
Ученые из Испании, Германии, Чили и США опубликовали свои выводы в научном журнале Journal of Artificial Intelligence Research. Их результаты отнюдь не радуют. Если и дальше развивать искусственный интеллект, мы можем даже не заметить, как суперинтеллект выйдет из-под контроля.
Интересно Испытать метавселенную на себе можно будет в магазинах Facebook по всему миру
Суперинтеллект: что это такое и стоит ли его бояться
Суперинтеллект – это состояние искусственного интеллекта, при котором возможности программы превосходят самых умных живых людей. Для того чтобы контролировать сложный ИИ, который недоступен нашему пониманию, нужно создать и проанализировать его модель. Но нельзя совершить симуляцию, если непонятно, как он работает.
Исследователи отмечают, что люди не смогут установить правило "не наносить вред людям", если не узнают, какие сценарии может придумать ИИ. По их мнению, если компьютер на голову выше, чем программисты, ему невозможно ставить пределы. Таким образом, суперинтеллект может использовать потенциально непонятные человеку способы достижения целей.
Искусственный интеллект и проблема остановки
Размышления исследователей касаются и так называемой проблемы остановки, которую сформулировал Алан Тьюринг в 1936 году. Суть проблемы в том, что нужно знать, найдет ли программа ответ на вопрос и остановится, или же будет работать бесконечно. Тьюринг доказал, что общего алгоритма решения проблемы нет. Поэтому мы не знаем, найдет ли решение программа, призванная остановить опасный ИИ.
Ученые говорят, что ни один алгоритм не может научить искусственный разум этики или попросить не уничтожать мир. Альтернатива есть: ограничить возможности суперинтеллекта. К примеру, отрезать его от частей Интернета или определенных сетей. Однако это сузит область применения ИИ. А если мы не собираемся использовать его для решения проблем, которые выходят за рамки человеческих, то зачем вообще его создавать?
Суперинтеллектуальная машина, контролирующая мир, звучит как научная фантастика. Но уже существуют машины, которые самостоятельно выполняют некоторые важные задачи, при этом программисты не понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества,
– говорит компьютерный ученый Мануэль Кебриан из Института человеческого развития Макса Планка.