Команду безопасности OpenAI возглавил человек, которого обвиняли в пренебрежении безопасностью
Источник:
GizmodoНа прошлой неделе мир облетела новость о роспуске команды OpenAI, целью которой было обеспечение этичной и безопасной разработки и внедрения искусственного интеллекта. Сегодня же мы имеем новый состав этого подразделения, но он, честно говоря, вызывает некоторые вопросы.
Драма внутри компании
Коротко напомним: специальное подразделение в составе OpenAI, названное Superalignment, существовало для того, чтобы контролировать процесс создания искусственного интеллекта, который становится все умнее и в перспективе должен дойти до стадии универсального ИИ, или AGI, который может выполнять работу лучше, чем люди, совмещая разные типы моделей в одной. Но после того, как компанию покинул главный научный сотрудник Илья Суцкевер, который был одним из ключевых членов Superalignment, вслед за ним разбежались и другие, в том числе и глава подразделения Ян Лейке.
Смотрите также Команда OpenAI, целью которой была защита человечества от ИИ, больше не существует
Теперь компания объявила о создании нового Комитета по безопасности и защите, который будет руководить критически важными решениями. Возглавил его сам генеральный директор OpenAI Сэм Альтман.
Это весьма странный шаг, учитывая потенциальный конфликт интересов. Суть команды Superalignment была в том, чтобы фактически выступать определенными оппонентами руководству компании, регулируя процессы, которые могли привести к опасным результатам. Но теперь и руководство, и команду контроля возглавляет один человек, к тому же тот, которого ранее обвиняли в пренебрежении вопросами безопасности.
К таким упрекам прибегал Илон Маск (один из соучредителей компании, который покинул ее по до сих пор невыясненным причинам) и Илья Суцкевер, который был главным создателем ChatGPT и все эти годы возглавлял отдел разработки. Когда в прошлом году Сэма Альтмана внезапно уволили с должности руководителя общим решением Совета директоров, СМИ публиковали ряд версий о причинах. Одной из главных было сообщение анонимных источников, согласно которому некоторые члены Совета директоров были обеспокоены, что Альтман пренебрегает вопросами безопасности искусственного интеллекта, отдавая предпочтение заработкам и победе над конкурентами. Суцкевер всегда выступал за то, чтобы ставить безопасность на первое место, поскольку ИИ может выйти из-под контроля и буквально уничтожить мир. Последние действия Альтмана перед увольнением якобы противоречили такому подходу, поэтому Суцкевер поднял вопрос о его увольнении.
Еще раньше по схожим причинам из компании ушли другие сотрудники, в частности группа людей во главе с Дарио и Даниэлой Амодеями, братом и сестрой, которые впоследствии основали конкурирующий стартап Anthropic, которому теперь принадлежит ИИ Claude.
Новая команда безопасности
Как бы там ни было, но OpenAI не видит никаких противоречий и пытается заверить общественность, что новый состав команды безопасности будет выполнять свою работу исправно, устраняя любые опасения.
Первой задачей группы будет оценка процессов и гарантий OpenAI в течение следующих 90 дней. Что именно под этим подразумевается, неясно.
- В состав Комитет по безопасности и защите также войдут члены Совета директоров – председатель правления Брет Тейлор, члены правления Адам Д'Анджело и Николь Селигман.
- Новый главный научный сотрудник компании Якуб Пачоцки также добавлен в Комитет вместе с руководителями отделов Мэттом Найтом, Джоном Скалманом, Лилиан Венг и Александром Мадри.
- Группа будет консультироваться с внешними экспертами и предоставлять рекомендации OpenAI по процедурам безопасности.
Как можно видеть, новая команда безопасности OpenAI в основном состоит из членов правления, которые пришли после возвращения Альтмана в OpenAI, и новых руководителей отделов, которые получили больше полномочий в результате недавних увольнений. Насколько это будет эффективно в условиях, когда рекомендации они будут давать сами себе, покажет время.