Юдковский, который известен своими пессимистическими взглядами на ИИ, сказал, что, по его оценкам, "оставшееся время, ", составляет скорее пять лет, чем 50 лет. Он добавил, что это может быть как два года, так и 10, но результатом, скорее всего, будет "апокалипсис в стиле Терминатора" или "адский пейзаж Матрицы".

Читайте на сайте OpenAI представляет Sora: новую ИИ модель может превратить текст в видео впечатляющего качества

Сложность заключается в том, что люди этого не осознают. У нас есть крошка шанса на то, что человечество выживет,
– сказал он.

Юдковский является одним из ведущих экспертов в области безопасности ИИ, которая направлена на то, чтобы системы ИИ соответствовали человеческим ценностям и не создавали экзистенциальных рисков. Он также является автором популярной онлайн-книги "Рациональность: От ИИ до зомби", в которой исследует темы рациональности, познания и ИИ.

Он не единственный, кто выразил беспокойство относительно потенциальных опасностей ИИ. В прошлом такие выдающиеся деятели, как Стивен Хокинг, Илон Маск и Билл Гейтс, предупреждали, что ИИ может представлять угрозу для человечества, если его не развивать и не регулировать.

Последнее предсказание Юдковского является частью серии интервью The Guardian с различными экспертами и критиками технологий. Серия под названием "Будущее начинается здесь" исследует влияние технологий на общество, культуру и политику и ставит под сомнение предположение, что технологический прогресс всегда полезен.

Смотрите также Китайские женщины заявили, что чат-боты с искусственным интеллектом лучше живых мужчин

В этой же серии другие респонденты поднимают такие вопросы, как потеря журналистики из-за больших технологий, этические последствия использования видеозаписей, сделанных на детскую камеру, для обучения искусственного интеллекта, а также увеличение видимости спонсорства азартных игр в международном крикете после снятия ограничений на этот вид спорта.