Эксперт предупредил о рисках использования ИИ при найме: от штрафов до дискриминации

Внедрение искусственного интеллекта в HR-процессы может обернуться для компаний серьезными проблемами, включая крупные штрафы и потерю репутации. Об этом рассказал руководитель отдела персональных данных Алексей Масланов.

По словам эксперта, основная сложность связана с тем, что ИИ-ассистенты работают с массивами чувствительной информации: персональными данными соискателей, поведенческими метриками, психометрическими тестами и даже записями интервью. В России эта деятельность регулируется ФЗ-152 «О персональных данных» и Трудовым кодексом.

Ключевая проблема — непрозрачность алгоритмов. Если компания отказывает кандидату или принимает кадровое решение на основе вывода ИИ, она должна уметь объяснить логику этого решения. Как напоминает Масланов, статья 86 ТК РФ прямо запрещает основывать решения, затрагивающие интересы работника, исключительно на данных автоматизированной обработки. ИИ может помогать, но итоговое слово должно оставаться за человеком.

Отдельный блок рисков связан с безопасностью. При интеграции с внешними сервисами возможны утечки данных и использование информации для дообучения моделей без согласия субъектов. Это грозит не только штрафами, но и падением доверия соискателей.

Кроме того, существует опасность алгоритмической дискриминации. Если исторические данные компании содержат предвзятости (например, компания реже нанимала женщин на технические позиции или людей старше 45 лет), ИИ воспроизведет эту логику, что противоречит статье 3 ТК РФ о запрете дискриминации.

Чтобы минимизировать риски, эксперт рекомендует:

  • Сохранять человеческий контроль за итоговыми решениями.
  • Регулярно аудировать модели на предмет предвзятости.
  • Исключать из обучения чувствительные признаки, ведущие к дискриминации.

Источник: Битрикс24

В контент лист
0

Рекомендуемые материалы