OpenAI тайно от правления разрабатывал сильный искусственный интеллект

27 ноября 2023, 13:30
Читати новину українською

Источник:

Reuters

Согласно инсайдерским источникам, недавний поворот событий в OpenAI – противоречивое увольнение генерального директора Сэма Альтмана – был связан с выявлением разработок в области мощного искусственного интеллекта. Неудачная попытка совета директоров сдержать эти разработки вызвала вопрос о прозрачности компании и обеспокоенности потенциальными рисками, связанными с мощным ИИ.

Конфликт внутри OpenAI привлек внимание общественности, когда соучредитель компании Илон Маск намекнул на нераскрытые причины внезапного ухода Альтмана, и это мнение поддержали другие. Однако конкретика оставалась неуловимой до недавнего времени, когда агентство Reuters раскрыло детали секретного проекта под названием Q-Star (Q*) и потенциального появления формы ИИ, которая может превзойти человеческие способности.

Читайте на сайте Эпоха новых возможностей или шаг в пропасть: станет ли ИИ для человечества скачком в будущее

Причины увольнения Сэма Альтмана

Согласно достоверным источникам, несколько сотрудников OpenAI предупредили правление о революционном открытии, связанном с мощным ИИ. Альтмана обвинили в укрывательстве информации от совета директоров и попытке коммерциализации продукта без глубокого понимания его последствий. Недовольство совета директоров из-за секретности Альтмана и беспокойства потенциальными рисками, связанными с разработкой мощного ИИ, в конечном счете привело к его увольнению.

Хотя точные детали письма совету директоров остаются нераскрытыми, источники предполагают, что проект Q-Star может означать прорыв в развитии универсального ИИ. Эта усовершенствованная модель ИИ, которую называют сильным или универсальным ИИ, имеет потенциал превзойти человека по разным экономически важным показателям.

Чем Q* так особенный

Внимание привлекла способность проекта Q-Star решать математические задачи на уровне учащихся начальной школы. В частности, АИ продемонстрировал способность давать точные ответы на математические задачи без предварительной подготовки, намекая на появление того, что некоторые эксперты называют суперинтеллектом.

Недавние разоблачения OpenAI по Q-Star и существование группы ученых, занимающихся оптимизацией моделей ИИ, подняли этические вопросы, связанные с ответственностью компаний, занимающихся разработкой ИИ. Раскрытие информации подтолкнуло к дискуссиям о необходимости создания адекватных механизмов контроля для гарантии безопасной разработки и внедрения передовых технологий ИИ.

Смотрите также Малая модель искусственного интеллекта Microsoft оказалась умнее и эффективнее крупных

Обстоятельства ухода Альтмана породили теорию заговора, предполагающую, что совет директоров пережила "момент Оппенгеймера", похож на осознание потенциальной угрозы, несущей в себе революционное изобретение. Хотя прямых подтверждений остается мало, эти предположения частично подтверждаются разоблачениями о внутренней борьбе OpenAI с рисками, связанными с развитием ИИ.

Последствия этих разоблачений ставят OpenAI на критический момент, когда она балансирует между инновациями и ответственным развитием искусственного интеллекта.