Российский бизнес всё чаще отдаёт кадровые решения искусственному интеллекту, не считаясь ни с этическими проблемами, ни с сомнительной эффективностью.
В ноябре 2025 года глава Сбербанка Герман Греф анонсировал плановое сокращение до 20% сотрудников центрального аппарата, чья эффективность была оценена мультиагентной системой искусственного интеллекта. Корпорация заявила, что выводы алгоритмов на 80% подтвердились экспертами, а сам банк к тому моменту уже расстался более чем с 13,5 тысячами работников.
Методы работы Германа Оскаровича воспринимаются большинством россиян как довольно специфические, тем не менее, по такому же пути всё чаще идут и другие компании. Кадровые службы, призванные работать с людьми, их мотивацией, слабыми и сильными сторонами, фактически самоустраняются от содержательной части своей работы. Вместо общения с соискателями, кадровики делегируют полномочия алгоритмам, зачастую не понимая их внутренней логики и не подвергая сомнению выданные ими вердикты. Нейронка оценивает не только новых кандидатов, но и давно работающих сотрудников, зачастую спокойно отправляя людей на улицу, руководствуясь никому не известными критериями.
Эффективность ради эффективности
Исследование консалтинговой компании «Гартнер» показывает, что 71% руководителей кадровых служб уже внедрили технологии оценки персонала. Главный аргумент сторонников такого подхода – неэффективность традиционных методов. Согласно статистике «Гэллап», руководители тратят до 200 часов в год на оценку сотрудников, при этом только 14% персонала доверяют объективности таких заключений.
Однако замена человека машиной автоматически не решает проблему справедливости. Искусственный интеллект действительно способен обрабатывать гигантские массивы данных: от частоты деловой переписки до количества проведённых совещаний. Но здесь возникает фундаментальное искажение. Как отмечает эксперт РАНХиГС Анастасия Шеина, метрики, закладываемые в системы оценки, часто фиксируют не реальную пользу сотрудника, а лишь имитацию бурной деятельности.
Алгоритм не различает содержательную работу и её видимость. Он не знает контекста. Если команда проекта столкнулась с внешними непреодолимыми обстоятельствами или стратегическим просчётом руководства, ИИ всё равно зафиксирует снижение показателей и вынесет приговор исполнителям.
В этой логике цифровая платформа становится не инструментом анализа, а средством легитимации управленческих решений, освобождая руководителей от необходимости объяснять реальные причины неудач.
Дискриминация по расчёту
Ключевая опасность цифрового кадрового учёта кроется в некритичном восприятии его результатов. Менеджмент склонен доверять машине больше, чем человеку, забывая, что ИИ – это продукт данных, на которых его обучили. Артём Аксянов из университета «Синергия» напоминает о прецеденте компании «Амазон»: алгоритм отсеивал резюме, содержащие слово «женский», поскольку обучался на архивах, где доминировали мужчины.
По оценкам западных аналитиков, доля дискриминационных предубеждений в современных кадровых системах достигает 30%. ИИ слеп к человеческому контексту: он не распознаёт профессиональное выгорание, не видит ценности наставничества и не учитывает невидимый труд по развитию команды. В результате под увольнение в первую очередь попадают не худшие работники, а те, чья деятельность хуже всего поддаётся формализации или чьи функции сложно выразить в цифровых отчётах.
Эксперты предлагают паллиатив: считать решение ИИ лишь гипотезой, которую обязаны перепроверить живые специалисты. Однако на практике этот баланс не соблюдается. Получая сотни рекомендаций в сжатые сроки, сотрудники кадровых отделов физически не успевают проводить глубокую верификацию. Механизм превращается в конвейер, где подпись эксперта под машинным выводом становится простой формальностью.
«Красная зона» и её обитатели
Внедрение тотального цифрового надзора неизбежно трансформирует корпоративную культуру. Когда человек не понимает критериев, по которым его оценивают, но знает, что каждое его действие фиксируется, мотивация сменяется тревожностью. Управляющий партнёр кадрового агентства А2 Алексей Чихачёв характеризует такую ситуацию как «красную этическую зону». В отличие от обычной «красной зоны» беспредел в ней вершат не вертухаи, сотрудничающие с администрацией, а безэмоциональные алгоритмы.
Ирония в том, что люди, в большинстве своём далеко не глупы и быстро понимают, как обмануть машину. Например, если система считает количество отправленных писем – офисы заполняются бессодержательной перепиской. Если учитывается число совещаний – график встреч уплотняется до бесконечности. ИИ провоцирует гиперактивность, которая не имеет ничего общего с производительностью.
Поэтому вместо того, чтобы работать на результат, персонал начинает вести себя так, чтобы ублажить цифрового надзирателя. Бодро генерируя нужные отчёты и имитируя бурную деятельность. В итоге, скорее всего, «на мороз» будут выкинуты те сотрудники, которым некогда играть в цифровые игры, потому что на них держится вся работа. Таким образом, вся система переходит в режим отрицательной селекции.
Юридическая фикция и реальное бессилие
С точки зрения закона, рекомендация искусственного интеллекта – не основание для увольнения. Юристы напоминают, что формальным поводом для расторжения трудового договора служит сокращение штата (пункт 2 статьи 81 Трудового кодекса РФ). Однако на практике цифровые рейтинги эффективности играют решающую роль. Именно из числа аутсайдеров, выявленных ИИ, кадровый отдел отбирает кандидатов на увольнение.
Трудовой кодекс предусматривает преимущественное право на оставление на работе для сотрудников с более высокой производительностью (статья 179 ТК РФ). Но как доказать свою производительность, если критерии эффективности скрыты за грифом «коммерческая тайна»? Уволенный специалист может принести в суд доказательства своих реальных достижений, но ответчик всегда сможет возразить: «Алгоритм оценивал по другой системе».
Таким образом, компания получает мощный, но неподконтрольный обществу инструмент управления. Кадровые решения принимаются не на основе профессиональных качеств человека, а на основе его места в рейтинге, механизм составления которого известен лишь разработчикам программного обеспечения.
По мнению техноскептиков, главный урон от бездумной алгоритмизации работы с кадрами лежит не в плоскости увольнений. Разрушается сама функция управления людьми. Вместо того, чтобы выявлять потенциал, кадровики обслуживают работу софта. Вместо профориентации и адаптации они занимаются ранжированием «полезности». Если вспомнить тезис одного известного политического деятеля о том, что «кадры решают всё», то получается, что компьютер, который занимается кадрами, подменяет собой и директора, и владельца компании. Но при этом не несёт за свои ошибки никакой ответственности.
Источник: https://zsrf.ru/directway/roboty...
Комментарии