В отличие от предыдущих встреч с руководителями технологических компаний, сообщает SPEKA, американские законодатели воздержались от критики OpenAI во время сессии. Альтман, сейчас находящийся в международном турне, где обсуждает с политиками технологию искусственного интеллекта, выразил свою обеспокоенность потенциальными опасностями, которые искусственный интеллект несет миру.

А между тем Похоже, искусственный интеллект уже скоро будет бороться с человеком за пресную воду.

ШИ нужно регулировать

Альтман отметил необходимость сотрудничества между индустрией и правительством для обеспечения ответственного развития ИИ.

Развитие этой технологии может идти таким образом, что нанесет значительный ущерб. Вот почему мы хотим сотрудничать с правительством, чтобы убедиться, что этого не произойдет,
– предупредил Альтман.

Чтобы решить эти проблемы, Альтман предложил ряд регуляторных мер для ИИ:

  1. Создание отдельного федерального органа, занимающегося регулированием ИИ, с полномочиями лицензировать крупные модели ИИ.
  2. Установка стандартов безопасности использования ИИ для обеспечения ответственного развертывания.
  3. Внедрение системы независимого аудита для оценки моделей ИИ по разным показателям.

Интересно, что несмотря на призыв к внешнему регулированию, Альтман нашел поддержку со стороны нескольких сенаторов, которые, похоже, были склонны доверить OpenAI саморегулирование.

Люди должны понимать, что взаимодействуют с ИИ

Прозрачность и информированность пользователей была одним из ключевых вопросов, которые обсуждались во время слушаний. Кристина Монтгомери, руководитель отдела конфиденциальности и доверия в IBM, призвала к прозрачности во взаимодействии с искусственным интеллектом, отметив важность того, чтобы пользователи знали, когда они взаимодействуют с системами искусственного интеллекта. Монтгомери отметила:

Никто и нигде не должен быть обманом вынужден взаимодействовать с системой искусственного интеллекта.

Альтман поддержал это мнение, утверждая, что люди должны иметь возможность отказаться от использования их персональных данных для обучения ШИ-моделей, отметив важность согласия и контроля пользователей.

Смотрите также Безграничные возможности: вот список сервисов, которые Google объединит с искусственным интеллектом

Этот поезд уже не остановить

Критики, выступающие за остановку развития ИИ, не нашли достаточной поддержки на слушаниях. Ричард Блюменталь, глава подкомитета, отверг идею остановки развития ИИ, заявив следующее:

Мир не будет ждать, и остальное мировое научное сообщество не остановится. У нас есть противники, которые двигаются вперед, и прятать голову в песок – это не выход.

Блюменталь отметил важность тщательного тестирования, выявление рисков и независимого доступа к системам ИИ для исследователей.

Реальная угроза ИИ

Несмотря на существование разнообразных полумифологических угроз, которые способны вызвать искусственный интеллект, вполне реальной проблемой является его использование в политических целях. Именно последствия таких действий вызывают у Альтмана немалую обеспокоенность.

Он отметил, что OpenAI приняла меры для ограничения использования ChatGPT в политических целях, а в этом году компания принимает более конкретную политику пользования, запрещающую "генерировать большие объемы агитационных материалов". Однако потенциальное влияние ChatGPT на предстоящие президентские выборы в США в 2024 году остается неопределенным.

Читайте на сайте Генеральный директор Google утверждает, что ИИ является вершиной технологического прогресса человечества

ИИ изменит рынок труда навсегда

Относительно влияния ИИ на рынок труда Альтман считает, что, хотя ИИ неизбежно приведет к замене и трансформации некоторых рабочих мест, он также создаст новые и улучшенные возможности. Альтман подчеркнул, что GPT-4 уже полностью может автоматизировать некоторые профессии и даже создать новые, которые будут лучше.