В своем недавнем блоге блоге OpenAI отметила, что разработка все более совершенных моделей ИИ, которые будут иметь положительные применения, например биомедицинские исследования и биозащита, требует баланса между научным прогрессом и предотвращением доступа к вредной информации, информирует 24 Канал.

Смотрите также OpenAI готовится подать в суд на Microsoft – большой союз трещит по швам

Под "вредной информацией" подразумевается способность ИИ помогать высококвалифицированным лицам в создании биологического оружия. Хотя физический доступ к лабораториям и чувствительным материалам остается барьером, компания признает, что "эти барьеры не являются абсолютными".

Руководитель отдела безопасности OpenAI Йоханнес Хайдеке в комментарии для Axios уточнил, что хотя будущие модели ИИ не смогут самостоятельно создавать биологическое оружие, они будут достаточно продвинутыми, чтобы помогать любителям в этом процессе.

Мы еще не в том мире, где ИИ создает совершенно новые, неизвестные биоугрозы, которых раньше не существовало. Нас больше беспокоит воспроизведение того, что уже хорошо известно экспертам,
– объяснил Хайдеке.

Он также добавил, что хотя текущие модели еще не достигли этого уровня, некоторые преемники модели o3 (умственной модели) могут приблизиться к такой возможности.

Меры предосторожности и этические дилеммы

OpenAI подчеркивает, что их подход сосредоточен на предотвращении опасности. "Мы не считаем приемлемым ждать, пока произойдет событие, связанное с биоугрозой, чтобы определить достаточный уровень защиты", – говорится в блоге компании.

Существует беспокойство, как отмечает Axios, что те же модели, которые помогают в биомедицинских прорывах, могут быть использованы злоумышленниками. Хайдеке отметил, что для предотвращения вреда эти модели должны быть запрограммированы "почти идеально", чтобы распознавать опасности и оповещать человеческих наблюдателей.

"Это не тот случай, где 99% или даже один на 100 000 уровня производительности является достаточным", – подчеркнул он.

Несмотря на эти риски, OpenAI продолжает разрабатывать продвинутые модели, хотя и со значительными мерами предосторожности. Однако легко представить, как такие технологии могут быть использованы во вред, если попадут в неправильные руки, например, в правительственные структуры, которые могут злоупотреблять ими.

Если OpenAI серьезно рассматривает контракты на "биозащиту" с правительством США, потенциальные сценарии, подобные историческим случаям разработки биологического оружия, вызывают тревогу.