ШІ не має власного розуму чи свідомості, а отже не здатен по-справжньому розуміти суть написаного та знайти помилки. Алгоритм працює за принципами компіляції та передбачення імовірності появи того чи іншого слова в реченні. Навчивши його на хибних даних, ви не отримаєте в результаті нічого достовірного.

Цікаво У Китаї арештували чоловіка, який використав ChatGPT для створення фейкових новин

Як схибив адвокат

Юрист фірми Levidow, Levidow & Oberman Стівен Шварц захищав інтереси пасажира Роберто Мати, який постраждав на рейсі латиноамериканської авіакомпанії Avianca: той дістав травму коліна під час зіткнення з металевим візком.

Шварц підготував десятисторінковий звіт, у якому послався на нібито ухвалені раніше рішення приблизно в десяти схожих справах. Однак під час вивчення його даних виникла проблема: ні суддя, ні юристи Avianca не змогли знайти згадані у звіті висновки в судових базах.

Пізніше юрист зізнався під присягою, що використав чатбота OpenAI для підготовки свого виступу. Щоб перевірити правдивість його відповідей, адвокат лише запитав ChatGPT, чи не бреше той. Нейромережа відповіла, що всі наведені у відповіді справи були реальними.

Скриншот діалога з ChatGPT
Скриншот діалогу з ChatGPT / Фото з матеріалів справи

За словами Шварца, він "не знав", що чатбот може брехати. Тепер він "сильно шкодує про те, що використовував генеративний штучний інтелект для доповнення юридичного дослідження".

Надавши неправдиві факти в суді, тепер адвокат ризикує втратити ліцензію.