Спочатку планувалося застосовувати ШІ для виявлення помилок у статтях шляхом порівняння їхнього вмісту. Наприклад, у пошуках протиріч або неповної інформації. Виправлення відомостей все одно залишається прерогативою людини – ШІ не додає нічого від себе, а тому й нових помилок не вносить.

Цікаво Секрети Samsung опинилися в мережі через ChatGPT

Розробники хочуть більшого

Разом з тим у Вікіпедії є нагальна проблема – обмежений набір контенту. Оскільки перед учасниками проєкту не стоїть завдання написати про все на світі, то волонтери створюють статті, виходячи з власних інтересів. Як наслідок, багато тем не висвітлюються зовсім, або по них вкрай мало інформації. Саме для таких і знадобився б неупереджений і працьовитий GPT – мовна модель від OpenAI, яка лежить в основі популярного сьогодні ChatGPT. Однак хтось все ж повинен давати йому завдання, що знову ж таки призводить до обмеження вибірки.

Головна ж небезпека використання ШІ в наповненні Вікіпедії в тому, що її використовують як джерело знань – зокрема, для навчання інших ШІ. Будь-яка помилка в статті буде багаторазово повторена і де-факто стане новою "правдою" – фактом, у який всі віритимуть, бо так сказав ШІ і так написано у Вікіпедії. З урахуванням масштабів поширення нейромереж це призведе до утворення величезної маси неправдивих відомостей, перевіряти які буде титанічним завданням. Тому Вейлс поки що не поспішає з остаточним рішенням.

Зазначимо, що попри постійний розвиток систем штучного інтелекту, вони поки що далекі від ідеалу, адже не здатні по-справжньому розуміти суть написаного. Розробники постійно намагаються покращити результати її роботи. Наприклад, створивши спеціальну програму для самоаналізу Reflexion. Вона змушує нейромережу критично оцінювати власну роботу і створювати рекомендації для самої себе щодо виправлення помилок. Робота GPT-4 покращилася на 30% завдяки такому підходу. З огляду на такі тенденції не можна виключати, що колись ШІ стане достатньо розумним, щоб писати для Вікіпедії.