Команду безопасности OpenAI возглавил человек, которого обвиняли в пренебрежении безопасностью

28 мая 2024, 17:42
Читати новину українською

Источник:

Gizmodo

На прошлой неделе мир облетела новость о роспуске команды OpenAI, целью которой было обеспечение этичной и безопасной разработки и внедрения искусственного интеллекта. Сегодня же мы имеем новый состав этого подразделения, но он, честно говоря, вызывает некоторые вопросы.

Драма внутри компании

Коротко напомним: специальное подразделение в составе OpenAI, названное Superalignment, существовало для того, чтобы контролировать процесс создания искусственного интеллекта, который становится все умнее и в перспективе должен дойти до стадии универсального ИИ, или AGI, который может выполнять работу лучше, чем люди, совмещая разные типы моделей в одной. Но после того, как компанию покинул главный научный сотрудник Илья Суцкевер, который был одним из ключевых членов Superalignment, вслед за ним разбежались и другие, в том числе и глава подразделения Ян Лейке.

Смотрите также Команда OpenAI, целью которой была защита человечества от ИИ, больше не существует

Теперь компания объявила о создании нового Комитета по безопасности и защите, который будет руководить критически важными решениями. Возглавил его сам генеральный директор OpenAI Сэм Альтман.

Это весьма странный шаг, учитывая потенциальный конфликт интересов. Суть команды Superalignment была в том, чтобы фактически выступать определенными оппонентами руководству компании, регулируя процессы, которые могли привести к опасным результатам. Но теперь и руководство, и команду контроля возглавляет один человек, к тому же тот, которого ранее обвиняли в пренебрежении вопросами безопасности.

К таким упрекам прибегал Илон Маск (один из соучредителей компании, который покинул ее по до сих пор невыясненным причинам) и Илья Суцкевер, который был главным создателем ChatGPT и все эти годы возглавлял отдел разработки. Когда в прошлом году Сэма Альтмана внезапно уволили с должности руководителя общим решением Совета директоров, СМИ публиковали ряд версий о причинах. Одной из главных было сообщение анонимных источников, согласно которому некоторые члены Совета директоров были обеспокоены, что Альтман пренебрегает вопросами безопасности искусственного интеллекта, отдавая предпочтение заработкам и победе над конкурентами. Суцкевер всегда выступал за то, чтобы ставить безопасность на первое место, поскольку ИИ может выйти из-под контроля и буквально уничтожить мир. Последние действия Альтмана перед увольнением якобы противоречили такому подходу, поэтому Суцкевер поднял вопрос о его увольнении.

Еще раньше по схожим причинам из компании ушли другие сотрудники, в частности группа людей во главе с Дарио и Даниэлой Амодеями, братом и сестрой, которые впоследствии основали конкурирующий стартап Anthropic, которому теперь принадлежит ИИ Claude.

Новая команда безопасности

Как бы там ни было, но OpenAI не видит никаких противоречий и пытается заверить общественность, что новый состав команды безопасности будет выполнять свою работу исправно, устраняя любые опасения.

Первой задачей группы будет оценка процессов и гарантий OpenAI в течение следующих 90 дней. Что именно под этим подразумевается, неясно.

  • В состав Комитет по безопасности и защите также войдут члены Совета директоров – председатель правления Брет Тейлор, члены правления Адам Д'Анджело и Николь Селигман.
  • Новый главный научный сотрудник компании Якуб Пачоцки также добавлен в Комитет вместе с руководителями отделов Мэттом Найтом, Джоном Скалманом, Лилиан Венг и Александром Мадри.
  • Группа будет консультироваться с внешними экспертами и предоставлять рекомендации OpenAI по процедурам безопасности.

Как можно видеть, новая команда безопасности OpenAI в основном состоит из членов правления, которые пришли после возвращения Альтмана в OpenAI, и новых руководителей отделов, которые получили больше полномочий в результате недавних увольнений. Насколько это будет эффективно в условиях, когда рекомендации они будут давать сами себе, покажет время.