Техногиганты не хотят нести ответственность за свой искусственный интеллект, если он наделает беды
Источник:
FuturismСейчас в Калифорнии происходит постепенное принятие противоречивого законопроекта SB 1047, который имеет целью ввести жесткие правила для индустрии искусственного интеллекта. Законопроект может привлечь разработчиков ИИ к ответственности, если результаты его работы навредят людям.
Законопроект SB 1047 и реакция на него
Одобренный в четверг Комитетом по вопросам ассигнований Ассамблеи штата, законопроект вводит требования безопасности для разработчиков ИИ и может возложить на них ответственность за потенциально вредные результаты работы их ИИ-моделей.
Смотрите также Происходит что-то странное: в США растерянные роботакси собираются толпой и сигналят друг другу
Законопроект вызвал значительную негативную реакцию со стороны крупных технологических компаний, в том числе OpenAI, которые ранее выражали поддержку регулированию ИИ. Эти компании, а также некоторые политики утверждают, что предложенное законодательство может подавить инновации в секторе ИИ.
Джейсон Квон, директор по стратегии OpenAI, выразил свою обеспокоенность в письме к сенатору штата Скотту Винеру, автору законопроекта. Квон предупредил, что SB 1047 может поставить под угрозу лидерство Калифорнии в области ИИ, замедлить темпы технологического прогресса и заставить инженеров и предпринимателей покинуть штат в поисках меньших ограничений.
Потенциальные последствия
Законопроект предоставляет генеральному прокурору Калифорнии полномочия добиваться судебных запретов против компаний, которые выпускают опасные модели искусственного интеллекта, согласно докладу Platformer. В случае успешного судебного иска компания может столкнуться с гражданско-правовыми санкциями, хотя законодательство не предусматривает уголовных последствий.
- Чтобы соответствовать предложенному закону, разработчики ИИ будут обязаны проводить тестирование безопасности моделей, которые либо стоят более 100 миллионов долларов, или требуют значительных вычислительных мощностей.
- Законодательство также требует, чтобы модели ИИ были оборудованы "выключателем", который может деактивировать их в чрезвычайных ситуациях.
- Кроме того, законопроект потребует от разработчиков проходить независимый аудит, чтобы гарантировать, что их методы безопасности соответствуют правовым стандартам.
Он также предлагает усиленную правовую защиту для информаторов, которые разоблачают опасные практики ИИ.
Разработчики ИИ не довольны
Законопроект поднимает широкий вопрос о том, кто должен нести ответственность за вред, причиненный технологиями, – создатели технологий или их пользователи. Исторически сложилось так, что социальные медиа-платформы не несут ответственности за контент, созданный пользователями, и компании, занимающиеся разработкой ИИ, надеются на подобную защиту.
Однако системы искусственного интеллекта склонны к "галлюцинациям" и могут быть обмануты, чтобы обойти меры безопасности, что вызывает беспокойство относительно последствий привлечения разработчиков к ответственности за такие проблемы.
Технологические компании утверждают, что такое регулирование является преждевременным и может помешать развитию ИИ на стадии разработки.
Смотрите также Искусственный интеллект будет управлять трафиком в одном из американских городов
Сейчас законопроект ожидает голосования в полном составе Ассамблеи, которое должно состояться до конца месяца, после чего он будет направлен на утверждение губернатору Гэвину Ньюсому. В случае принятия SB 1047 может создать прецедент для регулирования ИИ, что будет иметь значительные последствия для будущего индустрии.