Некоторые эксперты, в том числе руководители, занимающиеся маркетингом инструментов ИИ, утверждают, что чат-боты обречены на вечную ложь, несмотря на все усилия их создателей. "Я не думаю, что сегодня существует какая-то модель, которая бы не страдала определенными галлюцинациями", – говорит Даниэла Амодей, соучредительница и президент компании Anthropic, которая создала чат-бота Claude 2.

Смотрите также Google серьезно прокачает своего голосового ассистента с помощью искусственного интеллекта

Вечная ложь

Проблема кроется в самой сущности таких технологий – они созданы для того, чтобы просто предугадывать следующее слово, поэтому всегда остается вероятность, что система будет делать это иногда неточно. Как же работает чат-бот? Сначала он учится на огромных объемах данных, определяет закономерности в формировании предложений, отслеживает частоту появления того или иного слова после каждого предыдущего. И когда вы задаете ему вопрос, он, руководствуясь изученной информацией, компилирует из имеющихся у него данных ответ, буквально склеивая части предложений из разных источников. Они не отдают себе отчета в том, что какая-то информация может быть неточной.

Все это не сулит ничего хорошего, учитывая, что технологические компании инвестируют в эти технологии миллиарды долларов. Мы знаем, что Google уже сегодня предлагает генератор новостей Genesis на основе искусственного интеллекта большим газетам, вроде The New York Times, The Washington Post и News Corp, владеющей The Wall Street Journal. Подобным образом экспериментируют и некоторые другие издания, используя такие разработки, как ChatGPT. Но мы также знаем обо всех громких разоблачениях, связанных с дезинформацией в материалах, написанных ИИ. Изданию CNET ранее пришлось публиковать опровержения, когда стало известно о существенных ошибках в большинстве из 77 статей, написанных машиной, опубликованных в рубрике CNET Money.

Иными словами, без способности чат-бота исправлять свою склонность к вымыслам компании могут потерпеть серьезные неудачи, исследуя новые способы использования технологии.

Это невозможно исправить. Это связано с несоответствием между технологией и предложенными вариантами использования,
– говорит Эмили Бендер, профессор лингвистики и директор Лаборатории компьютерной лингвистики Университета Вашингтона.

Технологические лидеры, однако, настроены оптимистично. Или по крайней мере пытаются показывать это всеми силами, учитывая, что на кону стоят миллиарды. "Я думаю, что мы преодолеем проблему галлюцинаций намного, намного лучше", – сказал ранее генеральный директор OpenAI Сэм Альтман. – "Думаю, нам понадобится полтора-два года. Где-то так".