Дело, которое вел Хуан Мануэль Падилья Гарсия, касалось спора между медицинской страховой компанией и родителями ребенка с аутизмом – может ли ребенок получать покрытие лечения. Суд использовал ИИ для постановки юридических вопросов в деле и включил ответы на него в свое решение.

Интересно Google запустит конкурента ChatGPT в ближайшее время: что известно о чат-боте Bard

Что известно

Аргументы этого решения будут определены с учетом использования искусственного интеллекта. Соответственно мы внесли часть правовых вопросов, поставленных в этих производствах. Целью включения этих текстов, созданных искусственным интеллектом, никак не является замена решения судьи. На самом деле мы стремимся оптимизировать время, затрачиваемое на подготовку судебных решений после подтверждения информации, предоставленной искусственным интеллектом,
– написал Гарсия.

Согласно судебному документу, правовые вопросы, введенные в инструмент искусственного интеллекта, включали:

  • "Освобождается ли несовершеннолетний ребенок с аутизмом от уплаты за лечение?"
  • "Выносил ли конституционный суд положительные решения по подобным делам?".

Гарсия включил полные ответы чат-бота в решение, что, по-видимому, стало первым случаем, когда судья признался в этом. Судья также включил собственные соображения по поводу правовых прецедентов и сказал, что ИИ был использован для "расширения аргументации принятого решения". После детального описания обмена мнениями с искусственным интеллектом, судья использует его ответы и собственные правовые аргументы как основание для принятия решения.

ИИ умеет врать

Колумбийское законодательство не запрещает использовать искусственный интеллект в судебных решениях, но такие системы, как ChatGPT, известны тем, что дают пристрастные, дискриминационные или просто неправильные ответы. Это связано с тем, что языковая модель не имеет реального "понимания" текста – она просто синтезирует предложения на основе вероятности из миллионов примеров, используемых для обучения системы.

Создатели ChatGPT, OpenAI, внедрили фильтры для устранения некоторых наиболее проблемных ответов. Но разработчики предупреждают, что инструмент по-прежнему имеет значительные ограничения и не должен использоваться для принятия решений.