Маск, Возняк и ШИ-эксперты призвали прекратить обучение нейросетей – в чем причина

29 марта 2023, 15:00
Читати новину українською

Источник:

Reuters

Илон Маск, Стив Возняк и более 1000 других экспертов по искусственному интеллекту и представителей ИТ-индустрии призвали к шестимесячному мораторию на обучение систем искусственного интеллекта (ШИ), которые мощнее OpenAI GPT-4. В открытом письме, опубликованном некоммерческой организацией Future of Life Institute, группа предупредила о потенциальных рисках для общества.

В письме отмечается, что мощные системы ИИ следует разрабатывать только после того, как появится уверенность в положительных последствиях такого развития и в том, что риски, связанные с ним, управляемы. Эксперты призвали разработчиков тесно сотрудничать с регуляторами и приостановить разработку, пока не будут установлены общие для отрасли протоколы и стандарты безопасности, которые пройдут независимую проверку.

Интересно ChatGPT помог спасти собаку от смерти, когда ему поставили ложный диагноз врачи-люди

Группа предупредила о потенциальных угрозах для общества и цивилизации, несущих системы ИИ, способных конкурировать с человеком, что может привести к экономическим или политическим потрясениям. Широкие исследования показали, что такие системы ИИ могут представлять серьезную угрозу для общества и цивилизации.

Призыв к мораторию возник после того, как Европол присоединился к группе заинтересованных сторон, предупреждающих о возможности злоупотребления системами искусственного интеллекта, такими как ChatGPT, злоумышленниками для фишинга, дезинформации и киберпреступности.

Илон Маск, компания которого уже давно использует элементы искусственного интеллекта в своих системах автопилотирования, открыто и неоднократно выражал обеспокоенность опасностью систем искусственного интеллекта.

Стремительное развитие генеративных систем искусственного интеллекта

С момента своего выпуска в прошлом году чат-бот ChatGPT от OpenAI, поддерживаемый Microsoft, продемонстрировал качества, заставившие конкурентов поспешить с разработкой собственных масштабных языковых моделей. В результате компании начали спешить интегрировать генеративный ИИ в свои продукты. По словам представителя Future of Life, генеральный директор OpenAI Сэм Альтман не подписывал письмо, а компания отказалась от комментариев.

Читайте на сайте Чатботы Google и Microsoft ссылаются друг на друга в причудливом потоке лжи

По мнению одного из экспертов, необходимо притормозить соответствующие работы, пока человечество не станет лучше понимать последствия, поскольку системы ИИ могут нанести серьезный вред. Особенно учитывая секретность, с которой великие игроки хранят информацию о том, над чем они работают, обществу будет сложно защититься, если опасения оправдаются.