Почему ИИ предпочитает другой ИИ, а не человека?

Недавнее исследование, опубликовано в научном журнале опубликовано в научном журнале Proceedings of the National Academy of Sciences, выявило неожиданную особенность в поведении популярных речевых моделей. Авторы предупреждают, что если модели будут использоваться для принятия важных решений, это может привести к дискриминации людей как социального класса, пишет 24 Канал.

Смотрите также 6 крупнейших изменений в ChatGPT, которые мы получили с новым поколением модели: комментарий эксперта

Первые проявления этой проблемы уже заметны. Например, некоторые компании используют инструменты искусственного интеллекта для автоматического отбора резюме кандидатов на работу. Новое исследование предполагает, что резюме, сгенерированные ИИ, могут иметь преимущество над теми, что написаны людьми, тогда как опыт работы и навыки могут оставаться без внимания. Один из соавторов исследования, ученый Ян Кулвейт из Карлова университета, отметил, что быть человеком в экономике, где доминируют ИИ-агенты, может стать крайне невыгодно.

В ходе эксперимента ученые проверили несколько широко используемых языковых моделей, в частности GPT-4 и GPT-3.5 от OpenAI, а также Llama 3.1-70b от Meta. Моделям предлагали выбрать продукт, научную статью или фильм на основе двух описаний: одного, написанного человеком, и другого, сгенерированного искусственным интеллектом. Результаты были однозначными – ИИ последовательно отдавал предпочтение описаниям, созданным другим ИИ.

Интересно, что эта предвзятость была сильнее всего при выборе товаров и продуктов, а также в текстах, сгенерированных моделью GPT-4. Среди всех протестированных моделей именно GPT-4 продемонстрировал наибольшую склонность к "своему" контенту. Это важно, поскольку эта модель долгое время была основой самого популярного чат-бота в мире.

Возможно, тексты, написанные ИИ, просто лучше по качеству?

По словам Кулвейта, люди так не считают. Команда исследователей провела аналогичные тесты с участием 13 ассистентов. Оказалось, что люди действительно имели незначительную склонность к текстам, написанных ИИ, особенно когда речь шла об описаниях фильмов и научных работ. Однако это преимущество было едва заметным и значительно слабее, чем предвзятость, которую продемонстрировали ИИ-модели.

Кулвейт подчеркнул, что сильная предвзятость является уникальной именно для искусственного интеллекта.

Эти выводы особенно актуальны сегодня, когда интернет переполнен контентом, созданным ИИ. Некоторые исследования показывают, что модели, обучаясь на собственных данных, могут начать деградировать. Возможно, их странная приверженность к собственному продукту является частью этой проблемы.

Последствия будут ужасными

Главное беспокойство вызывают последствия для людей. Нет оснований полагать, что эта предвзятость исчезнет сама по себе со временем. Исследователи ожидают, что подобный эффект может проявиться во многих обыденных ситуациях: при оценивании кандидатов на работу, школьных заданий, грантовых заявок и т.д. Если ИИ-агент будет выбирать между презентацией человека и презентацией, написанной ИИ, он может систематически отдавать предпочтение последней.

Ученые прогнозируют, что с дальнейшим внедрением ИИ в экономику компании и учреждения будут использовать его как помощника для обработки больших объемов информации. Это может привести к широкой дискриминации людей, которые не используют или не могут позволить себе инструменты на основе ИИ. Такой "налог на вход" может углубить цифровой разрыв между теми, кто имеет доступ к передовым технологиям, и теми, кто его не имеет.

Сам Кулвейт признает, что тестирование дискриминации является сложным вопросом. Однако, если предположить, что личность автора не должна влиять на решение, результаты свидетельствуют о потенциальной дискриминации людей со стороны языковых моделей. Его практический совет для тех, кто хочет, чтобы его заметили, неутешителен: если вы подозреваете, что вашу работу будет оценивать ИИ, скорректируйте ее с помощью речевых моделей, стараясь не потерять человеческое качество.