Cuando se trata de análisis de personal, el abanico de áreas legales que se tocan va desde la ley de protección de datos y el derecho laboral hasta la Ley General de Igualdad de Trato. Así que hay muchas cosas que se pueden hacer mal. Los investigadores de la organización Algorithmwatch llevan dos años estudiando cómo deben evaluarse estos análisis de software por parte del empleado. La conclusión: muchas empresas pueden estar actuando de forma ilegal en este sentido.
A finales del año pasado, la empresa de venta de moda online Zalando saltó a los titulares negativos después de que apuntara a sus empleados con el software de personal Zonar, desarrollado por ella misma. Allí debían evaluar los puntos fuertes y débiles de cada uno. Esto conduce a una sensación de vigilancia, presión por el rendimiento y estrés, ya que los empleados temen tanto por el empleo como por la posibilidad de que los salarios se reduzcan.
Diferencia entre los sistemas de gestión de personal y el software de análisis de personal
Los programas de análisis de personal se encuentran a menudo en una zona gris legal. A menudo, el empleado ni siquiera sabe que se está utilizando y cómo se produce el análisis.
En primer lugar, es necesario aclarar la diferencia entre los sistemas clásicos de gestión de personal y las variantes modernas con la adición de la "analítica". Los sistemas anteriores pueden proporcionar información sobre datos directamente disponibles, como los días de formación de los empleados o las calificaciones finales de las personas en proceso de solicitud. Las afirmaciones claramente definidas se derivan de los datos.
Los nuevos sistemas hacen afirmaciones adicionales cuya conexión con los datos subyacentes no es inmediatamente obvia. Estas afirmaciones van desde evaluaciones y recomendaciones, como sugerencias a medida para la formación continua o la preselección de aplicaciones, hasta decisiones automáticas o fuertemente predeterminadas.
Entre otros, programas como Office 365 Workplace Analytics de Microsoft, Watson Talent Insights de IBM o SAP Success Factors People Analytics pueden contribuir a este análisis. La productividad de los trabajadores puede registrarse con gran detalle mediante el uso de este software de oficina.
El dilema es especialmente claro con Microsoft Office, ya que casi ninguna empresa puede prescindir de él. Microsoft "Graph" puede recoger, analizar y procesar datos en segundo plano en la mayoría de las aplicaciones. Con la ayuda del programa "Workplace Analytics" de Office 365, los supervisores pueden crear evaluaciones del comportamiento laboral de sus empleados y ver, por ejemplo, quién realizó qué acciones en los programas de Office y cuándo, quién leyó qué correos electrónicos y cuándo, de dónde procedía el respectivo mensaje, y mucho más. Por supuesto, esto también permite comparar a los empleados entre sí en términos de su productividad.
En algunos estados federales, la protección de los empleados con respecto a estos programas ya se está retocando. Imke Sommer, comisaria de protección de datos del estado de Bremen, es una espina clavada en este tipo de software de análisis y quiere poner fin a su uso indebido.
El problema de la IA y los secretos de los fabricantes de software
"Para proteger a los empleados de las posibilidades y, sobre todo, del inmanentemente alto potencial de control que se asocia al software de IA y a los algoritmos de autoaprendizaje, es inevitable una ampliación de los derechos de participación y codeterminación existentes por parte del legislador", coincide Peter Wedde, especialista en derecho laboral y digitalización.
Si la inteligencia artificial también se utiliza en ese software de análisis, hay más problemas. Porque para analizar y predecir cómo trabajarán las personas o los equipos o si lograrán sus objetivos, los proveedores de los sistemas utilizan métodos estadísticos de reconocimiento de patrones y cálculo de probabilidades, como el aprendizaje automático o las "redes neuronales profundas". Los proveedores suelen mantener en secreto los modelos e hipótesis en los que se basan estas previsiones y los datos utilizados para entrenar los sistemas, normalmente con el argumento de que necesitan protegerse de los imitadores y de que los empleados podrían manipular las declaraciones realizadas por los sistemas si supieran cómo funcionan.
Entonces, ¿qué está permitido?
En el estudio "Gestión de personal automatizada y codeterminación", financiado con fondos de la Fundación Hans Böckler, cercana a los sindicatos, Algorithmwatch llega a las siguientes conclusiones sobre la cuestión de la legalidad:
- Los empleados deben estar de acuerdo individual y voluntariamente cuando se utilizan los llamados procedimientos de análisis de personas. Sin embargo, cabe suponer que este consentimiento no se da con mucha frecuencia. Alternativamente, el tratamiento de los datos de los empleados en el contexto de la analítica de personas también podría legitimarse mediante acuerdos de empresa. Sin embargo, no son ejecutables porque falta un derecho de codeterminación relevante.
Los comités de empresa y las empresas deben comprobar si el uso de los sistemas de IA es conforme a la ley. Es de esperar que en muchos casos los empresarios no puedan proporcionar información a los empleados y a sus representantes elegidos en la medida en que lo exige la ley porque los proveedores de IA no facilitan esta información.El gobierno federal debe aclarar en la ley que los empleadores deben garantizar la transparencia sobre los métodos utilizados incluso si los fabricantes del software no quieren proporcionar información.
- Los fabricantes deben desarrollar activamente y ofrecer formas de hacerlo para poder proporcionar tanto a los empleados como a sus comités de empresa la información adecuada sobre el funcionamiento de los sistemas basados en IA.
Los comités de empresa tienen que hacer valer activamente sus derechos de información frente a los empresarios que ya están en la fase de planificación de los sistemas de IA, ya que la eficacia práctica y la aplicabilidad de sus derechos de codeterminación se reducen en cuanto se introducen los sistemas.
- Las empresas y los comités de empresa tienen que asegurarse de que los trabajadores y la dirección de recursos humanos tienen la competencia adecuada para sacar las conclusiones correctas de esta información. Los sindicatos deberían apoyarlo tanto a nivel empresarial como político.
Algorithmwatch, junto con representantes de la Universidad Técnica de Braunschweig, ha publicado una "Guía para revisar las características esenciales de los sistemas basados en la IA para los comités de empresa y otros representantes del personal", que entra en detalle sobre la situación legal. Esta guía puede descargarse gratuitamente en formato pdf.