В письме отмечается, что мощные системы ИИ следует разрабатывать только после того, как появится уверенность в положительных последствиях такого развития и в том, что риски, связанные с ним, управляемы. Эксперты призвали разработчиков тесно сотрудничать с регуляторами и приостановить разработку, пока не будут установлены общие для отрасли протоколы и стандарты безопасности, которые пройдут независимую проверку.
Интересно ChatGPT помог спасти собаку от смерти, когда ему поставили ложный диагноз врачи-люди
Группа предупредила о потенциальных угрозах для общества и цивилизации, несущих системы ИИ, способных конкурировать с человеком, что может привести к экономическим или политическим потрясениям. Широкие исследования показали, что такие системы ИИ могут представлять серьезную угрозу для общества и цивилизации.
Призыв к мораторию возник после того, как Европол присоединился к группе заинтересованных сторон, предупреждающих о возможности злоупотребления системами искусственного интеллекта, такими как ChatGPT, злоумышленниками для фишинга, дезинформации и киберпреступности.
Илон Маск, компания которого уже давно использует элементы искусственного интеллекта в своих системах автопилотирования, открыто и неоднократно выражал обеспокоенность опасностью систем искусственного интеллекта.
Стремительное развитие генеративных систем искусственного интеллекта
С момента своего выпуска в прошлом году чат-бот ChatGPT от OpenAI, поддерживаемый Microsoft, продемонстрировал качества, заставившие конкурентов поспешить с разработкой собственных масштабных языковых моделей. В результате компании начали спешить интегрировать генеративный ИИ в свои продукты. По словам представителя Future of Life, генеральный директор OpenAI Сэм Альтман не подписывал письмо, а компания отказалась от комментариев.
Читайте на сайте Чатботы Google и Microsoft ссылаются друг на друга в причудливом потоке лжи
По мнению одного из экспертов, необходимо притормозить соответствующие работы, пока человечество не станет лучше понимать последствия, поскольку системы ИИ могут нанести серьезный вред. Особенно учитывая секретность, с которой великие игроки хранят информацию о том, над чем они работают, обществу будет сложно защититься, если опасения оправдаются.