Шмидт признал усилия таких организаций, как OpenAI и Google по внедрению мер безопасности, которые обычно называют "защитными барьерами", при разработке ИИ. Однако он выразил скептицизм, заявив, что эти меры предосторожности могут оказаться недостаточными для предотвращения катастрофического ущерба.

Читайте на сайте Больше чем люди: сгенерированные ИИ инфлюэнсеры зарабатывают за месяц сумасшедшие суммы

По мнению Шмидта, текущая траектория развития может привести к тому, что в течение следующих пяти-десяти лет ИИ станет достаточно мощным, чтобы представлять угрозу человечеству.

Хуже всего, что может произойти

Бывший генеральный директор Google описал худший сценарий, при котором системы ИИ получат возможность принимать самостоятельные решения, потенциально получая доступ к системам вооружения или другим опасным возможностям. Он предупредил, что машины могут даже обманывать людей по поводу своих действий.

Для решения этих проблем Шмидт предложил создать неправительственную организацию, подобную Межправительственной группе экспертов ООН по изменению климата (IPCC). Эта организация, по мнению Шмидта, предоставляла точную информацию политикам, помогая им принимать обоснованные решения по регулированию и контролю над ИИ по мере его развития.

Существуют и противоположные мнения

В то время как Шмидт продолжает бить тревогу относительно потенциальных опасностей ИИ, в технологическом сообществе существуют расхождения во мнениях. Главный ученый ИИ отдела компании Meta Ян Лекун занял противоположную позицию, утверждая, что ИИ пока не обладает достаточным интеллектом, чтобы самостоятельно угрожать человечеству. Мнение Лекуна бросает вызов нарративу о неизбежной опасности, высказанном Шмидтом и другими исследователями ИИ.

Смотрите также Новый метод ускоряет обучение языковым моделям искусственного интеллекта в 300 раз

Пока среди видных деятелей в этой области разворачиваются дебаты о рисках искусственного интеллекта, будущие последствия остаются неопределенными. Разнообразие точек зрения внутри технологического сообщества подчеркивает сложность оценки подлинного масштаба опасностей, которые несет в себе искусственный интеллект.