OpenAI сформировала целую команду, чтобы снизить риск выхода ИИ из-под контроля
Источник:
The VergeOpenAI формирует новую команду для понижения "катастрофических рисков", связанных с искусственным интеллектом. Она будет заниматься отслеживанием и предотвращением потенциальных проблем, вызванных ИИ, включая ядерные угрозы.
Команду возглавит Александр Мадри, директор Центра развертывания машинного обучения Массачусетского технологического института.
Смотрите также Все популярные искусственные интеллекты провалили тест на прозрачность, но какой из них самый плохой?
Что известно
Генеральный директор OpenAI Сэм Альтман и другие эксперты неоднократно заявляли об опасности ИИ и необходимости жесткого контроля за его развитием. Некоторые вообще уверены, что однажды эта технология уничтожит человечество. Чтобы этого не произошло, разработчики популярного чат-бота ChatGPT будут уделять особое внимание безопасности.
Новая команда будет работать над смягчением "химических, биологических и радиационных угроз", а также "автономного воспроизводства" ИИ. Кроме того, группа будет заниматься такими рисками как обман людей и угрозы в области кибербезопасности. OpenAI отмечает, что группа также будет работать над "политикой разработки с учетом рисков", описывающей подход компании к оценке и мониторингу моделей ИИ.
Мы считаем, что передовые модели искусственного интеллекта, которые превысят возможности, имеющиеся сейчас в самых передовых моделях, принесут пользу всему человечеству. Но они также несут все более серьезные риски,
– пишет компания.
Генеральный директор OpenAI Сэм Альтман ранее предупреждал о возможности катастрофических событий, вызванных ИИ. В мае он и другие исследователи ИИ опубликовали заявление, в котором говорится, что "снижение риска исчезновения человечества из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, как пандемии и ядерная война". Во время интервью в Лондоне Альтман предложил правительствам относиться к ИИ так же серьезно, как и к ядерному оружию.