ИИ не имеет собственного ума или сознания, а значит, не способен по-настоящему понимать суть написанного и найти ошибки. Алгоритм работает по принципам компиляции и предсказания вероятности появления того или иного слова в предложении. Обучив его на ложных данных, вы не получите в результате ничего достоверного.

Интересно В Китае арестован мужчина, который использовал ChatGPT для создания фейковых новостей

Как ошибся адвокат

Юрист фирмы Levidow, Levidow & Oberman Стивен Шварц защищал интересы пассажира Роберто Мати, пострадавшего на рейсе латиноамериканской авиакомпании Avianca: тот получил травму колена во время столкновения с металлической тележкой.

Шварц подготовил десятистраничный отчет, в котором сослался на якобы принятые ранее решения примерно по десяти подобным делам. Однако при изучении его данных возникла проблема: ни судья, ни юристы Avianca не смогли найти упомянутые в отчете выводы в судебных базах.

Позже юрист признался под присягой, что использовал чат OpenAI для подготовки своего выступления. Чтобы проверить правдивость его ответов, адвокат лишь спросил ChatGPT, не лжет ли тот. Нейросеть ответила, что все приведенные в ответе дела были реальными.

Скриншот диалога с ChatGPT
Скриншот диалога с ChatGPT / Фото из материалов дела

По словам Шварца, он "не знал", что чат-бот может лгать. Теперь он "сильно жалеет, что использовал генеративный искусственный интеллект для дополнения юридического исследования".

Предоставив ложные факты в суде, теперь адвокат рискует потерять лицензию.