Первоначально планировалось применять ИИ для выявления ошибок в статьях путем сравнения содержимого. К примеру, в поисках противоречий или неполной информации. Исправление сведений все равно остается прерогативой человека – ИИ не прибавляет ничего от себя, а потому и новых ошибок не вносит.

Интересно Секреты Samsung оказались в сети из-за ChatGPT

Разработчики хотят большего

Вместе с тем у Википедии есть неотложная проблема – ограниченный набор контента. Поскольку перед участниками проекта не стоит задача написать обо всем мире, то волонтеры создают статьи, исходя из собственных интересов. Как следствие, многие темы не освещаются совсем или по ним крайне мало информации. Именно для таких и понадобился бы беспристрастный и трудолюбивый GPT – языковая модель от OpenAI, лежащая в основе популярного сегодня ChatGPT. Однако кто-то все же должен давать ему задачу, что опять-таки приводит к ограничению выборки.

Главная же опасность использования ИИ в наполнении Википедии в том, что ее используют как источник знаний – в частности для обучения других ИИ. Любая ошибка в статье будет многократно повторена и де-факто станет новой "правдой" – фактом, в который все будут верить, потому что так сказал ИИ и так написано в Википедии. С учетом масштабов распространения нейросетей это приведет к образованию огромной массы ложных сведений, проверять которые будет титанической задачей. Поэтому Уэйлс пока не спешит с окончательным решением.

Отметим, что, несмотря на постоянное развитие систем искусственного интеллекта, они пока далеки от идеала, так как не способны по-настоящему понимать суть написанного. Разработчики постоянно стараются улучшить результаты работы. К примеру, создав специальную программу для самоанализа Reflexion. Она заставляет нейросеть критически оценивать собственную работу и создавать рекомендации для самой себя по устранению ошибок. Работа GPT-4 улучшилась на 30% благодаря такому подходу. Учитывая такие тенденции, нельзя исключать, что когда-то ИИ станет достаточно умным, чтобы писать для Википедии.