Конфликт внутри OpenAI привлек внимание общественности, когда соучредитель компании Илон Маск намекнул на нераскрытые причины внезапного ухода Альтмана, и это мнение поддержали другие. Однако конкретика оставалась неуловимой до недавнего времени, когда агентство Reuters раскрыло детали секретного проекта под названием Q-Star (Q*) и потенциального появления формы ИИ, которая может превзойти человеческие способности.
Читайте на сайте Эпоха новых возможностей или шаг в пропасть: станет ли ИИ для человечества скачком в будущее
Причины увольнения Сэма Альтмана
Согласно достоверным источникам, несколько сотрудников OpenAI предупредили правление о революционном открытии, связанном с мощным ИИ. Альтмана обвинили в укрывательстве информации от совета директоров и попытке коммерциализации продукта без глубокого понимания его последствий. Недовольство совета директоров из-за секретности Альтмана и беспокойства потенциальными рисками, связанными с разработкой мощного ИИ, в конечном счете привело к его увольнению.
Чем Q* так особенный
Внимание привлекла способность проекта Q-Star решать математические задачи на уровне учащихся начальной школы. В частности, АИ продемонстрировал способность давать точные ответы на математические задачи без предварительной подготовки, намекая на появление того, что некоторые эксперты называют суперинтеллектом.
Недавние разоблачения OpenAI по Q-Star и существование группы ученых, занимающихся оптимизацией моделей ИИ, подняли этические вопросы, связанные с ответственностью компаний, занимающихся разработкой ИИ. Раскрытие информации подтолкнуло к дискуссиям о необходимости создания адекватных механизмов контроля для гарантии безопасной разработки и внедрения передовых технологий ИИ.
Смотрите также Малая модель искусственного интеллекта Microsoft оказалась умнее и эффективнее крупных
Обстоятельства ухода Альтмана породили теорию заговора, предполагающую, что совет директоров пережила "момент Оппенгеймера", похож на осознание потенциальной угрозы, несущей в себе революционное изобретение. Хотя прямых подтверждений остается мало, эти предположения частично подтверждаются разоблачениями о внутренней борьбе OpenAI с рисками, связанными с развитием ИИ.
Последствия этих разоблачений ставят OpenAI на критический момент, когда она балансирует между инновациями и ответственным развитием искусственного интеллекта.