Что произошло и почему это серьезная проблема?
Окружной судья США Генри Вингейт остановил действие закона, который запрещал программы разнообразия, равенства и инклюзивности (DEI) в государственном образовании штата Миссисипи. Однако юристы заметили, что документ содержит грубые ошибки, что является характерным признаком "галлюцинаций" искусственного интеллекта, пишет 24 Канал со ссылкой на Mississippi Today.
Смотрите также ChatGPT получил 100 долларов и приказ торговать акциями: вот что из этого вышло
- В оригинальной версии постановления истцами были указаны Ассоциация библиотек Миссисипи и женское общество Delta Sigma Theta, хотя эти организации никогда не участвовали в судебном процессе.
- Кроме того, документ содержал вымышленные цитаты из закона и ссылки на другие дела, которых на самом деле не существует. В США действует прецедентное право, поэтому во время работы над тем или иным делом стороны ищут прецеденты – примеры аналогичных расследований в прошлом. Затем на их основе выносится новое решение.
Представитель генеральной прокуратуры Миссисипи заявил, что их юристы никогда не сталкивались с подобным, поэтому даже не знают, что с этим всем делать. Даже после того, как судья Вингейт заменил постановление на исправленную версию, в ней все равно осталась ссылка на несуществующее дело 1974 года.
Этот инцидент поднял серьёзные вопросы об ответственности. Если юристов могут наказать за ненадлежащее использование ИИ, то непонятно, какие последствия ждут судью. Эксперты считают, что общественность, вероятно, никогда не узнает, действительно ли 78-летний судья, назначенный еще Рональдом Рейганом, использовал искусственный интеллект, поскольку судьи не обязаны объяснять свои действия, в отличие от адвокатов.
У нас есть несколько примеров, когда юристы были пойманы на использовании инструментов искусственного интеллекта, таких как ChatGPT от OpenAI. Например, в феврале 2025 года адвокаты фирм Morgan & Morgan и Goody Law Group подали иск против Walmart и Jetson Electric Bikes из-за ховерборда, который загорелся у владельца после покупки. Во время первоначального рассмотрения ходатайства выяснилось, что в иске содержатся девять полностью вымышленных судебных дел, на которые ссылались истцы.
Проблемы использования ИИ: ложь, галлюцинации и ошибки
С ростом популярности и доступности инструментов искусственного интеллекта их применение в юридической сфере, в частности в судах, вызывает серьезные опасения. Основные проблемы связаны с точностью, этикой, конфиденциальностью и отсутствием надлежащего регулирования. Особенно остро стоит вопрос так называемых "галлюцинаций" ИИ.
"Галлюцинации" в контексте ИИ – это явление, когда система генерирует, на первый взгляд, правдоподобную, но на самом деле неточную или полностью вымышленную информацию. В юридической практике, где точность и ссылки на авторитетные источники являются фундаментальными, это создает огромные риски.
Юристы неоднократно подавали в суды документы, подготовленные с помощью ИИ (например, ChatGPT или Google Gemini), которые содержали ссылки на несуществующие судебные прецеденты и сфабрикованные цитаты. В ответ на такие случаи судьи начали применять санкции. Например, в одном из случаев в США юридическую фирму оштрафовали на 31 000 долларов за подачу документов с вымышленными ссылками.
Использование недостоверной информации не только приводит к путанице и финансовым потерям, но и подрывает доверие ко всей судебной системе. Некоторые суды в США уже ввели приказы, требующие от юристов удостоверять, что их документы не содержат сгенерированных ИИ "галлюцинаций".
Кроме "галлюцинаций", существуют другие значительные этические и практические вызовы. Например, предвзятость и несправедливость. ИИ-системы учатся на огромных массивах данных, которые могут отражать существующие в обществе предубеждения, например, расовые или гендерные. Алгоритм может воспроизводить и даже усиливать эту предвзятость "под маской объективности". Это вызывает серьезные опасения относительно соблюдения принципов равенства и надлежащей правовой процедуры.
Чрезмерное доверие к ИИ может подорвать независимое суждение судьи. Решения могут формироваться под влиянием скрытых предубеждений, заложенных в алгоритм, а не на основе объективного правового анализа. Это может привести к унификации судебных решений, что будет игнорировать уникальные обстоятельства каждого дела.
Часто невозможно понять, как именно сложная модель ИИ пришла к тому или иному выводу. Эта "проблема черного ящика" неприемлема в юридическом контексте, где решения должны быть обоснованными и прозрачными. Возникает ключевой вопрос: кто несет ответственность за ошибку ИИ – разработчик, юрист или судья?


