Что случилось
Не секрет, что любой искусственный интеллект время от времени подвергается тому, что в технологическом мире принято называть "галлюцинациями". Нейросеть может неправильно компилировать данные, выдумывать факты, искажать события, ведь она не имеет сознания, чтобы понять ошибочность своих действий.
Смотрите также Искусственный интеллект будет управлять трафиком в одном из американских городов
Если вы собираетесь использовать ИИ для написания текстов, в которых важна точность и достоверность, то лучше отказаться от этой идеи, или проверять буквально каждый факт, который выдает система.
Примером того, как не надо делать, является Аарон Пелчар, репортер газеты Cody Enterprise в Вайоминге, чье мошенничество разоблачил коллега по цеху из другой газеты.
Пелчар подал в отставку 2 августа, всего через два месяца после начала работы в газете. Расследователи обнаружили, что он не только использовал ИИ для написания текста своих статей, но и фабриковал целые прямые цитаты, что является вопиющим нарушением журналистской добропорядочности.
В его репортажах были странные шаблоны и фразы,
– говорил Си Джей Бейкер, штатный журналист конкурирующей местной газеты Powell Tribune, который разоблачил эту историю.
Сфабрикованные цитаты, среди которых были и такие, что якобы принадлежали государственным учреждениям и даже губернатору штата, читались так, будто они являются частью формальных шаблонных заявлений, а не как что-то, что могло быть сказано человеком вживую. Поэтому Бейкер "начал проверять цитаты, которые появились в статьях этого репортера, но не появлялись в других публикациях, пресс-релизах или где-либо в интернете". Он нашел аж семерых людей, которые никогда не разговаривали с Пелчаром, но чьи фейковые цитаты появились в его статьях.
После того как Бейкер поделился своими выводами с руководством Cody Enterprise, газета начала расследование, что привело к отставке Пелчара. Редактор Cody Enterprise Крис Бейкон опубликовал извинения в редакционной статье газеты в понедельник.
Я извиняюсь, читателю, за то, что ИИ было разрешено вставлять в статьи слова, которые никогда не были сказаны,
– написал Бейкон.
Мошенничество в журналистике появилось еще до появления ИИ, но возможности, которые дает технология, потенциально делает подделки легче и соблазнительнее, чем когда-либо. Ведь если чат-боты что-то и умеют, так это быстро создавать большие объемы текста и уверенно придумывать факты.
ИИ и журналистика
Стоит отметить, что это касается не только отдельных авторов, но и целых изданий. В прошлом году издание Sports Illustrated поймали на том, что оно публиковало целые обзоры товаров, сгенерированные искусственным интеллектом, под фальшивыми псевдонимами.
Место искусственного интеллекта в редакциях новостей остается сложной темой. Кроме экзистенциальной угрозы, которую он представляет для индустрии, его использование также может подорвать репутацию изданий.
Алекс Махадеван из Института Пойнтера, аналитического центра журналистики, говорит, что "эти инструменты никак не могут заменить журналистов". По крайней мере на нынешнем этапе своего развития даже самые совершенные модели ИИ не способны делать то, что делает человек, хотя бы в банальном рерайте, не говоря уже о создании качественных полностью уникальных текстов.