Новые модели ИИ могут помочь создать биологическое оружие, – OpenAI
- Компания OpenAI считает, что их будущие модели ИИ могут помочь в создании биологического оружия, что вызывает беспокойство относительно безопасности и этических рисков.
- OpenAI подчеркивает необходимость мер предосторожности, чтобы их модели не были использованы злоумышленниками, и считает, что они должны быть очень точно запрограммированы для распознавания опасностей.
- Существует тревога, что такие модели могут стать инструментом для создания биологического оружия правительствами или другими структурами, если попадут в неправильные руки.

Компания OpenAI недавно заявила, что ее будущие модели ИИ настолько продвинуты, что могут потенциально способствовать созданию новых биологических видов оружия. Хотя это открывает возможности для биомедицинских исследований, в то же время вызывает серьезные опасения относительно безопасности и этических рисков, ведь даже любители с помощью таких технологий могут воспроизводить опасные биоугрозы.
В своем недавнем блоге блоге OpenAI отметила, что разработка все более совершенных моделей ИИ, которые будут иметь положительные применения, например биомедицинские исследования и биозащита, требует баланса между научным прогрессом и предотвращением доступа к вредной информации, информирует 24 Канал.
Смотрите также OpenAI готовится подать в суд на Microsoft – большой союз трещит по швам
Под "вредной информацией" подразумевается способность ИИ помогать высококвалифицированным лицам в создании биологического оружия. Хотя физический доступ к лабораториям и чувствительным материалам остается барьером, компания признает, что "эти барьеры не являются абсолютными".
Руководитель отдела безопасности OpenAI Йоханнес Хайдеке в комментарии для Axios уточнил, что хотя будущие модели ИИ не смогут самостоятельно создавать биологическое оружие, они будут достаточно продвинутыми, чтобы помогать любителям в этом процессе.
Мы еще не в том мире, где ИИ создает совершенно новые, неизвестные биоугрозы, которых раньше не существовало. Нас больше беспокоит воспроизведение того, что уже хорошо известно экспертам,
– объяснил Хайдеке.
Он также добавил, что хотя текущие модели еще не достигли этого уровня, некоторые преемники модели o3 (умственной модели) могут приблизиться к такой возможности.
Меры предосторожности и этические дилеммы
OpenAI подчеркивает, что их подход сосредоточен на предотвращении опасности. "Мы не считаем приемлемым ждать, пока произойдет событие, связанное с биоугрозой, чтобы определить достаточный уровень защиты", – говорится в блоге компании.
Существует беспокойство, как отмечает Axios, что те же модели, которые помогают в биомедицинских прорывах, могут быть использованы злоумышленниками. Хайдеке отметил, что для предотвращения вреда эти модели должны быть запрограммированы "почти идеально", чтобы распознавать опасности и оповещать человеческих наблюдателей.
"Это не тот случай, где 99% или даже один на 100 000 уровня производительности является достаточным", – подчеркнул он.
Несмотря на эти риски, OpenAI продолжает разрабатывать продвинутые модели, хотя и со значительными мерами предосторожности. Однако легко представить, как такие технологии могут быть использованы во вред, если попадут в неправильные руки, например, в правительственные структуры, которые могут злоупотреблять ими.
Если OpenAI серьезно рассматривает контракты на "биозащиту" с правительством США, потенциальные сценарии, подобные историческим случаям разработки биологического оружия, вызывают тревогу.