Ваш руководитель, вероятно, уже использует искусственный интеллект, чтобы уволить вас с работы
- Более 60% руководителей используют ИИ для принятия кадровых решений, включая увольнение, с использованием таких инструментов как ChatGPT, Copilot и Gemini.
- Использование ИИ в кадровых вопросах связано с рисками, включая возможность "галлюцинаций" и выдумывания информации, что может привести к необоснованным решениям.
Руководители компаний все чаще используют искусственный интеллект для принятия ключевых кадровых решений, в частности по увольнению работников. Исследование показывает, что значительная часть менеджеров доверяет ИИ не только как инструменту для автоматизации рутинной работы, но и делегирует ему право окончательного голоса.
ИИ решает судьбу работников
По результатам опроса ResumeBuilder.com среди 1342 менеджеров, более 60% руководителей консультируются с большими языковыми моделями (LLM), принимая важные кадровые решения. Например, 66% уже использовали ИИ для принятия конкретных решений по увольнению, а 64% периодически обращаются за советами по сокращениям работников. Почти каждый пятый менеджер позволяет LLM принимать окончательное решение без участия человека, пишет 24 Канал.
Смотрите также Полмиллиона пользователей Spotify слушают ИИ-музыку, но даже не подозревают об этом
Среди самых популярных инструментов – ChatGPT, за ним следуют Copilot от Microsoft и Gemini от Google. Также 78% опрошенных обращаются к чат-ботам при определении премий, а 77% – при рассмотрении повышений.
Однако использование ИИ в таких вопросах связано с рядом рисков.
- Во-первых, LLM-модели склонны к так называемому "подхалимскому поведению": они могут подстраивать ответы под ожидания пользователя, подкрепляя уже сформированные предубеждения руководителя.
- Во-вторых, чат-боты часто "галлюцинируют" – то есть придумывают факты, чтобы дать хотя бы какой-то ответ на запрос пользователя, даже если он не соответствует действительности. Это может приводить к необоснованным решениям, которые влияют на жизнь людей. Модель может просто без всяких причин придумать какую-то дискредитирующую информацию и заявить, что из-за этого работник заслуживает увольнения.
В целом люди склонны чрезмерно доверять ИИ, считая такие системы едва ли не панацеей для всех случаев жизни. Это уже приводило к серьезным личным и социальным последствиям, включая психологические кризисы, потерей работы и даже расстройствами психики. Исследователи говорят, что люди настолько доверяют ИИ, что даже не проверяют ссылки на источники, которые тот им предоставляет.