Законопроєкт SB 1047 та реакція на нього

Схвалений у четвер Комітетом з питань асигнувань Асамблеї штату, законопроєкт запроваджує вимоги безпеки для розробників ШІ і може покласти на них відповідальність за потенційно шкідливі результати роботи їхніх ШІ-моделей.

Дивіться також Відбувається щось дивне: в США розгублені роботаксі збираються натовпом і сигналять одне одному

Законопроєкт викликав значну негативну реакцію з боку великих технологічних компаній, в тому числі OpenAI, які раніше висловлювали підтримку регулюванню ШІ. Ці компанії, а також деякі політики стверджують, що запропоноване законодавство може придушити інновації в секторі ШІ.

Джейсон Квон, директор зі стратегії OpenAI, висловив свою стурбованість у листі до сенатора штату Скотта Вінера, автора законопроєкту. Квон попередив, що SB 1047 може поставити під загрозу лідерство Каліфорнії в галузі ШІ, сповільнити темпи технологічного прогресу та змусити інженерів і підприємців покинути штат у пошуках менших обмежень.

Потенційні наслідки

Законопроект надає генеральному прокурору Каліфорнії повноваження домагатися судових заборон проти компаній, які випускають небезпечні моделі штучного інтелекту, згідно з доповіддю Platformer. У разі успішного судового позову компанія може зіткнутися з цивільно-правовими санкціями, хоча законодавство не передбачає кримінальних наслідків.

  • Щоб відповідати запропонованому закону, розробники ШІ будуть зобов'язані проводити тестування безпеки моделей, які або коштують понад 100 мільйонів доларів, або вимагають значних обчислювальних потужностей.
  • Законодавство також вимагає, щоб моделі ШІ були обладнані "вимикачем", який може деактивувати їх у надзвичайних ситуаціях.
  • Крім того, законопроект вимагатиме від розробників проходити незалежний аудит, щоб гарантувати, що їхні методи безпеки відповідають правовим стандартам.

Він також пропонує посилений правовий захист для інформаторів, які викривають небезпечні практики ШІ.

Розробники ШІ не задоволені

Законопроект піднімає широке питання про те, хто повинен нести відповідальність за шкоду, спричинену технологіями, – творці технологій чи їхні користувачі. Історично склалося так, що соціальні медіа-платформи не несуть відповідальності за контент, створений користувачами, і компанії, що займаються розробкою ШІ, сподіваються на подібний захист.

Однак системи штучного інтелекту схильні до "галюцинацій" і можуть бути обмануті, щоб обійти заходи безпеки, що викликає занепокоєння щодо наслідків притягнення розробників до відповідальності за такі проблеми.

Технологічні компанії стверджують, що таке регулювання є передчасним і може завадити розвитку ШІ на стадії розробки.

Дивіться також Штучний інтелект керуватиме трафіком в одному з американських міст

Наразі законопроект очікує голосування в повному складі Асамблеї, яке має відбутися до кінця місяця, після чого він буде направлений на затвердження губернатору Гевіну Ньюсому. У разі прийняття SB 1047 може створити прецедент для регулювання ШІ, що матиме значні наслідки для майбутнього індустрії.