Во время конференции, организованной индийским изданием Economic Times, Сэм Альтман, руководитель OpenAI, рассказал о текущем состоянии GPT-5.

Смотрите также ИИ представляет серьезную угрозу вымирания для человечества на уровне ядерной войны и пандемии

Нам нужно проделать много работы, прежде чем мы запустим эту модель. Мы работаем над новыми идеями, которые, по нашему мнению, необходимы для этого, но мы еще не приблизились к запуску.

В заявлении отмечается, что OpenAI стремится решить проблемы, которые вызывают обеспокоенность общественности и экспертного сообщества.

Технологический мир обеспокоен угрозой ИИ

В марте более тысячи человек, включая таких известных деятелей, как Илон Маск и Стив Возняк, подписали открытое письмо, в котором призвали лаборатории ИИ прекратить обучение систем более совершенных, чем GPT-4, по меньшей мере на шесть месяцев. Хотя Альтман отметил, что в письме не хватает технических нюансов, он подчеркнул, что OpenAI не начинал обучение GPT-5 и не планирует этого делать в ближайшем будущем.

Чтобы снять обеспокоенность потенциальными рисками, связанными с искусственным интеллектом, Альтман подчеркнул, что OpenAI стремится провести всестороннюю оценку технологии. Организация сотрудничает с внешними экспертами, производит имитацию полномасштабных кибератак и выполняет строгие тесты безопасности. Альтман также напомнил аудитории, что даже по завершении GPT-4 прошло еще шесть месяцев, прежде чем платформа была выпущена для общественности. Этот временной график показывает приверженность OpenAI тщательной оценке и мерам безопасности.

К теме Генеральный директор OpenAI Сэм Альтман призвал Конгресс США к регулированию искусственного интеллекта

Хотя Альтман отверг некоторые беспокойства по поводу потенциальных угроз ИИ, он высказал оговорку относительно государственного регулирования для небольших стартапов в сфере ИИ. На слушаниях в Сенате он предложил, чтобы такая регулировка распространялась не только на OpenAI, но и на больших игроков в этой области. Альтман утверждал, что OpenAI, с ее приверженностью безопасности и ответственной разработке ИИ, может эффективно саморегулироваться в сотрудничестве с внешними экспертами.