Se ha demostrado que aplica sesgos

Contrato y despido a golpe de algoritmo: así entra la IA en la negociación colectiva

Al menos cuatro de cada diez empresas utilizaban el análisis de datos en España para monitorizar la actividad de sus trabajadores o agilizar procesos en 2020, pero la IA apenas ha sido incluida en un puñado de convenios.

contrato-despido-golpe-algoritmo-entra-ia-negociacion-colectiva
Contrato y despido a golpe de algoritmo: así entra la IA en la negociación colectiva.
Europa Press

Hablar del uso de la inteligencia artificial en las relaciones laborales no es comentar futuribles, sino abordar una realidad que lleva años asentándose en las empresas, también en las españolas. Un 8,32% de las compañías de más de 10 trabajadores ya empleaban esta tecnología en 2021, según los datos recopilados por el INE, mientras que otra encuesta elaborada dos años antes por Eurofound eleva este porcentaje por encima del 60% y sitúa a España en primera posición frente al resto de la UE. Sin embargo, la información difundida al respecto en el marco de la negociación colectiva es escasa. 

"Los algoritmos aplicados a las decisiones laborales, hoy por hoy, son una caja negra y lo  que es peor, representa una práctica cada vez más generalizada", apunta el responsable de Digitalización en el Trabajo de UGT, José Varela. Este hace referencia a los datos del INE para señalar que un 40% de esas empresas los emplean para automatizar flujos de trabajo, al tiempo que son menos de un 10% las que dicen emplearlo para la gestión de recursos humanos. "El problema es que se les atribuye una suerte de infalibilidad, cuando no son más que cálculos matemáticos basados en probabilidades, a veces inexplicables, lo que encierra altísimos márgenes de error". 

Los algoritmos no pueden tomar una decisión de contratación o despido, dado que el reglamento europeo de protección de datos establece que "todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado", es decir, que la última palabra la debe tener una persona. No obstante, el profesor de Derecho del Trabajo en la Universidad de Valencia y autor de 'Algoritmos productivos y extractivos. Cómo regular la digitalización para mejorar el empleo e incentivar la innovación', Adrián Todoli, sostiene en conversación con este medio que este no es un derecho muy reconocido, lo que tiene diferentes implicaciones.

"Se utilizan para reclutamiento, cuando subes un currículum a una plataforma el primero que lo lee es un algoritmo que decide si pasa a la siguiente fase o no y se ha demostrado que en algunas ocasiones han discriminado a mujeres con la misma formación o experiencia", explica. "Son propensos a generar sesgos porque muchas veces los algoritmos se alimentan de datos que hay en la sociedad y lo que hace es replicarlos, incluidos los patrones discriminatorios", señala Todoli, quien detalla que el uso de estas tecnologías está muy extendido en el trabajo a través de plataformas digitales -conductores de VTC, repartidores de comida- pero también en centros logísticos o incluso entre el personal de limpieza para medir su productividad. 

"Si el algoritmo calcula que hay un tiempo óptimo y la trabajadora o el trabajador tarda más, su dispositivo le notificará de que debe hacerlo más rápido. Se trata de una vigilancia constante que puede acabar provocando accidentes de trabajo si no está bien programado y no tiene en cuenta factores como el tiempo de descanso o la edad del trabajador", explica el profesor de Derecho. Estos registros pueden precipitar el despido de parte de la plantilla, pero Todoli apunta a que en algunos casos es la propia plataforma la que desconecta al trabajador si tiene una mala reputación digital o no cumple con los tiempos prefijados. 

Inteligencia artificial en la negociación colectiva

La ley 15/2022 prohíbe la discriminación derivada de la utilización de la IA y mecanismos de toma de decisión automatizado en el ámbito de las administraciones públicas y obliga tanto a estas como a las empresas privadas a promocionar un uso "ético, confiable y respetuoso con los derechos humanos", indica el socio del área laboral de Ceca Magán Abogados Àlex Santacana a La Información. Patronal y sindicatos se hicieron cargo de este principio en el V Acuerdo para el Empleo y la Negociación Colectiva (AENC) firmado en el mes de mayo, en el que se recoge que las empresas informarán a los representantes de los trabajadores sobre los procedimientos empleados para la contratación, evaluación, promoción y despido.

Lo cierto es que están obligados a hacerlo, de acuerdo con el real decreto legislativo 2/2015 que amplía el Estatuto de los Trabajadores y obliga a comunicar al Comité de Empresa los "parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones". Sin embargo, los sindicatos denuncian que encuentran una alta resistencia por parte de las empresas para trasladar estos datos y apuntan a que apenas se ha recogido en un puñado de convenios en todo el país, por lo que tanto UGT como CCOO preparan ya guías para que sus negociadores sepan qué tienen derecho a exigir en materia de inteligencia artificial.

"La ley rider es producto del diálogo social y es pionera en Europa, además tenemos el Acuerdo Marco Europeo de los interlocutores sociales de digitalización en el que se pacta un proceso completo para que la empresa no se limite a informar, sino que también entre en juego la negociación con los trabajadores", explica Raquel Boto de la Secretaría de Acción Sindical de CCOO. Actualmente, la Comisión Europea trabaja en una directiva de inteligencia artificial que saldrá a la luz en los próximos meses, lo supone un nuevo avance para el sindicato, si bien, reclaman una normativa que trate de forma específica el uso de esta tecnología en el marco laboral.

No ha llegado a los tribunales

"Es un tema muy novedoso y de momento no nos consta que haya habido conflictos judiciales al respecto", reconoce el socio de Ceca Magán Abogados, quien valora que los sesgos aplicados por la IA pueden conducir a este tipo de enfrentamientos en los próximos años. Sin embargo, sí existen precedentes en Países Bajos. "Un tribunal holandés ha resuelto que el Estado ha discriminado a sus ciudadanos al decidir determinadas ayudas sociales en función de un perfil de riesgo que calculaba la probabilidad de que la solicitud fuera un fraude. El ciudadano clasificado como potencialmente estafador formaba parte de un colectivo categorizado como problemático, en base a su barrio de residencia y estos eran vigilados de forma automática". 

En este sentido, la colaboradora de Sagardoy Abogados y profesora de Derecho del Trabajo, Gemma Fabregat, reconoce cierta preocupación entre los trabajadores acerca del control que pueda ejercer esta tecnología o la discriminación que puedan sufrir. "Personalmente, lo que más preocupa es que el algoritmo te impone tener el conocimiento para saber si la solución que te está dando o lo que está proponiendo es cierto. El problema es que si reducimos el nivel de conocimientos por delegar en estas tecnologías, podría ser que lo que indicase el algoritmo pasase a ser la verdad porque no hubiese ninguna persona con capacidad de decir que está equivocado". 

La experta defiende que la historia prueba que no puede negarse la entrada de la tecnología al ámbito laboral, pero advierte que la inteligencia artificial afecta al yo inconsciente y por tanto, al derecho laboral, como ha investigado su compañero Ignasi Beltran. "Supone un salto cualitativo de la historia, que te lleva a tomar decisiones o llevar a cabo movimientos sin que seas plenamente consciente de ello". También alerta sobre ello la socia laboralista de AE abogados, Alejandra Gútiez. "Una decisión basada en un algoritmo puede extralimitar la esfera de ciertos derechos fundamentales o no tener en cuenta ciertas variables subjetivas que escapen de su programación, lo cual se traduciría en consecuencias legales graves para la empresa que pueden acarrear sanciones o acciones judiciales", concluye.

Mostrar comentarios