+7 (495) 646-75-16 (МСК) +7 (812) 332-17-28 (СПб) Обратный звонок
Отделяем зерна от плевел: где нам нужны нейросети, а где автоматизация

Отделяем зерна от плевел: где нам нужны нейросети, а где автоматизация

Дата публикации: 3 марта 2026

19 февраля на Зимней сессии ежегодной конференции «Оценка персонала 2026» журнала «Штат» выступил Рубен Арутюнян, IT-директор компании «Бизнес Психологи» (ex SHL Russia). Он представил предварительные результаты практико-ориентированного исследования технологий ИИ в процедурах оценки персонала, но начал с ироничных наблюдений за бушующим уже несколько лет ИИ-хайпом.

Хайп или реальность: где мы сейчас? Почему ИИ ошибается?

Первый парадокс, по мнению эксперта, состоит в том, что сектор ИИ получает значительные объемы финансирования, считается драйвером экономики, но при этом с завидной регулярностью генерирует некорректные результаты. Такого количества ошибок не прощали, кажется, ещё ни одной технологии.

Второй парадокс в том, уверен Рубен Арутюнян, что очень немногие люди знают, как именно работают нейросети. Большинство современных нейросетевых архитектур функционируют на принципе последовательной генерации слов. При отсутствии релевантной информации LLM-модель выдает ерунду очень уверенно, потому что её создателям не нужно, чтобы она честно сообщала пользователю, что ответа на вопрос не знает. Поэтому проблема галлюцинаций и фабрикации данных нейросетью в ближайшее время не может быть решена, считает Рубен Арутюнян.

«Фабрикация информации является имманентной характеристикой архитектуры моделей, а не техническим дефектом».

Вероятностный характер ответов нейросети приводит к ещё одному парадоксу: на один и тот же вопрос одна и та же нейросеть может отвечать по-разному. Этот факт, комментирует IT-директор компании «Бизнес Психологи», ярко свидетельствует о том, что полагаться на ответы нейросети в сколько-нибудь значимых вопросах, не стоит.

«Каждый раз, когда вам говорят, что нейронка думает, вспоминайте мои слова: она просто берет вопрос, превращает его в контекст и генерирует следующее наиболее вероятное слово из тех данных, на которых её обучили».

Ещё один парадокс, который имеет непосредственное отношение к использованию ИИ в оценке персонала: автоматизированные системы действительно могут быть более честны и объективны, чем люди, когда отбирают кандидатов из демографической группы с лучшими результатами. Распределение будет реальным, т.к. человеческих предубеждений у системы нет.

Есть еще один парадокс, который может возникать при использовании подобных систем. Их результаты могут быть посчитаны необъективными и предвзятыми на основании того, что они не соответствуют видению использующего их, хоть как раз система может быть абсолютно непредвзята.

1.png

Влияние на бизнес (Business impact)

  • Качество решений. Неверные факты/расчёты → ошибки в планировании, закупках, ценообразовании, KPI
  • Юридические риски. Неправильные интерпретации норм/условий → некорректные письма, договорные обязательства, претензии
  • Комплаенс и регуляторика. Отсутствие прозрачности и следа принятия решений → сложнее пройти аудит/проверку
  • Данные и интеллектуальная собственность. Ввод/копипаст внутренних материалов → риск утечки конфиденциальности, коммерческой тайны, авторских материалов
  • Киберугрозы. «Умные» атаки (социнжиниринг, вредоносные инструкции, подмена запросов через письма или документы) → сбои и компрометация процессов
  • Репутационные риски. Публичная ошибка/неэтичный ответ → удар по бренду, доверие клиентов и сотрудников

Ограничения и риски: как проявляются ошибки ИИ

  • Звучит уверенно, но при этом неверно (даты/законы/цифры). Модель выдаёт конкретику без встроенной проверки фактов. Симптом: точные утверждения без источника/расчёта.
  • Сдвиг критериев задачи по пути. Меняет рамку: игнорирует ограничения, подменяет цель, отвечает «на другой вопрос». Симптом: вывод не соответствует исходным требованиям (формат, условия, ограничения).
  • Заполняет пробелы домыслами. При неполном контексте достраивает детали и допущения, не маркируя их как гипотезы. Симптом: появляются новые факты/параметры, которых не было во входе.
  • «Automation bias» — человек перестаёт проверять. Скорость и «экспертный тон» снижают критичность: черновик становится финальным решением. Симптом: готовность отправить/вставить без валидации.
  • Подмена причинности корреляцией. Строит убедительное объяснение без доказательной базы. Симптом: причинные выводы без данных/методики и без проверки альтернатив.
  • Смешивает факты и допущения. Ответ выглядит однозначным, но часть тезисов основана на предположениях. Симптом: неясно, что подтверждено данными/источниками, а что является интерпретацией.

2.png

Ландшафт использования нейросетей в оценке персонала. Результаты клиентского исследования

Компания «Бизнес Психологи» продолжает исследование применения ИИ в оценке персонала, чтобы узнать, как компании используют нейросетевые инструменты в этой сфере, какие задачи они в принципе готовы доверить ИИ, насколько они знакомы с возможностями автоматизации процессов оценки, чего ждут от ИИ в оценке персонала в ближайшем будущем и так далее.

3.png

На основе анализа бесед с представителями более чем 40 компаниями с выстроенной системой оценки персонала удалось сформулировать следующие наблюдения и выводы:

  • В большинстве компаний присутствует высокая разнородность инструментов оценки, а также отсутствует единая методология и стандартизация подходов.
  • Чаще всего HR-ы используют ИИ для генерации текста: создают описания вакансий, должностные инструкции, краткие описания компетенций, отчеты. В области оценки нейросетевые решения чаще всего применяются в рамках Центров оценки для автоматизации рутинных и самых трудозатратных процессов, таких как транскрибация аудиозаписей и подготовка отчетов. Интерпретация поведения людей с помощью ИИ — вне зоны доверия.
  • Большинство клиентов компании «Бизнес Психологи» не доверяют к результатам оценки, полученным с помощью ИИ, что обусловлено опасениями деградации качества оценки и высокой ценой ошибок. Задачи, связанные с оценкой поведения и демонстрацией компетенций, оценщики либо не решают с использованием нейросети, либо проводят дополнительные проверки вручную.
  • Чем больше данных (слова, кейсы) HR-ы предоставляют нейросети, тем выше вероятность получения «похожих на правду» оценок, однако содержание и качество этих оценок не всегда точны и релевантны.
  • Интеграция нейросетей не заменяет оценщика-человека, а служит поддерживающим инструментом, позволяющим снизить трудозатраты на подготовительный и анализирующий этап.
  • Широкое внедрение ИИ в HR и оценку персонала останавливают законодательные требования к защите персональных данных и информационной безопасности, однако внутри компаний отмечается интерес к способам уменьшения рутинной нагрузки и поддержки экспертизы.
  • Среди негативных факторов выделяются высокая цена ошибок, деградация профессиональных навыков, потеря контроля методологии и сложности в объяснении решений нейросетей.

Заключение

Проведенное исследование подтвердило существование значительных барьеров внедрения нейросетевых решений в области оценки персонала. Сейчас основная роль нейросетей — это автоматизация рутинных, стандартизируемых задач и поддержка HR-специалистов. Внедрение технологий ИИ требует высокой экспертной подготовки. Для внедрения в HR-процессы (не только в оценку) необходима стандартизация подходов к использованию нейросетевых инструментов. Автоматизированные решения сохраняют прозрачность и воспроизводимость результатов. Компания «Бизнес Психологи» планирует продолжать мониторинг ситуации с ИИ в оценке персонала.

Присоединяйтесь к нам в соцсетях!

Оставайтесь на связи с нами и будьте в курсе последних новостей.
На связи с вами!