Укр Рус
23 июня, 18:02
3

Новые модели ИИ могут помочь создать биологическое оружие, – OpenAI

Основні тези
  • Компания OpenAI считает, что их будущие модели ИИ могут помочь в создании биологического оружия, что вызывает беспокойство относительно безопасности и этических рисков.
  • OpenAI подчеркивает необходимость мер предосторожности, чтобы их модели не были использованы злоумышленниками, и считает, что они должны быть очень точно запрограммированы для распознавания опасностей.
  • Существует тревога, что такие модели могут стать инструментом для создания биологического оружия правительствами или другими структурами, если попадут в неправильные руки.
Иллюстративное фото Иллюстративное фото

Компания OpenAI недавно заявила, что ее будущие модели ИИ настолько продвинуты, что могут потенциально способствовать созданию новых биологических видов оружия. Хотя это открывает возможности для биомедицинских исследований, в то же время вызывает серьезные опасения относительно безопасности и этических рисков, ведь даже любители с помощью таких технологий могут воспроизводить опасные биоугрозы.

В своем недавнем блоге блоге OpenAI отметила, что разработка все более совершенных моделей ИИ, которые будут иметь положительные применения, например биомедицинские исследования и биозащита, требует баланса между научным прогрессом и предотвращением доступа к вредной информации, информирует 24 Канал.

Смотрите также OpenAI готовится подать в суд на Microsoft – большой союз трещит по швам

Под "вредной информацией" подразумевается способность ИИ помогать высококвалифицированным лицам в создании биологического оружия. Хотя физический доступ к лабораториям и чувствительным материалам остается барьером, компания признает, что "эти барьеры не являются абсолютными".

Руководитель отдела безопасности OpenAI Йоханнес Хайдеке в комментарии для Axios уточнил, что хотя будущие модели ИИ не смогут самостоятельно создавать биологическое оружие, они будут достаточно продвинутыми, чтобы помогать любителям в этом процессе.

Мы еще не в том мире, где ИИ создает совершенно новые, неизвестные биоугрозы, которых раньше не существовало. Нас больше беспокоит воспроизведение того, что уже хорошо известно экспертам,
– объяснил Хайдеке.

Он также добавил, что хотя текущие модели еще не достигли этого уровня, некоторые преемники модели o3 (умственной модели) могут приблизиться к такой возможности.

Меры предосторожности и этические дилеммы

OpenAI подчеркивает, что их подход сосредоточен на предотвращении опасности. "Мы не считаем приемлемым ждать, пока произойдет событие, связанное с биоугрозой, чтобы определить достаточный уровень защиты", – говорится в блоге компании.

Существует беспокойство, как отмечает Axios, что те же модели, которые помогают в биомедицинских прорывах, могут быть использованы злоумышленниками. Хайдеке отметил, что для предотвращения вреда эти модели должны быть запрограммированы "почти идеально", чтобы распознавать опасности и оповещать человеческих наблюдателей.

"Это не тот случай, где 99% или даже один на 100 000 уровня производительности является достаточным", – подчеркнул он.

Несмотря на эти риски, OpenAI продолжает разрабатывать продвинутые модели, хотя и со значительными мерами предосторожности. Однако легко представить, как такие технологии могут быть использованы во вред, если попадут в неправильные руки, например, в правительственные структуры, которые могут злоупотреблять ими.

Если OpenAI серьезно рассматривает контракты на "биозащиту" с правительством США, потенциальные сценарии, подобные историческим случаям разработки биологического оружия, вызывают тревогу.