Exigir un perfil libre de Covid-19 supone un peligroso precedente de discriminación laboral.

coronavirusEntre las hipótesis acerca de cómo será la desescalada o la vuelta a la normalidad social y laboral cuando superemos la crisis, se ha llegado a barajar recientemente la implantación de una especie de pasaporte inmunológico que podría permitir a quien ya ha pasado el virus (sobre todo a quienes ocupan puestos críticos o desempeñan trabajos esenciales) volver a la actividad progresivamente. El usuario de esa certificación de inmunidad que tuviera anticuerpos podría demostrar así que no se puede contagiar ni diseminaría el coronavirus.

El pasaporte inmunológico no se ve con buenos ojos, sobre todo porque forma parte de esa clase de medidas preventivas que invaden la intimidad de los trabajadores o la protección de datos.

Las reticencias a aplicar esta certificación se extienden también a las entrevistas de trabajo. Exigir un pasaporte de inmunidad frente al covid-19 sería lo mismo que a uno le preguntaran durante la entrevista por su condición sexual, su adscripción política, sus creencias o su estado de salud. Todo ello es ilegal.

Estamos hablando por tanto de la posibilidad de poner un obstáculo desproporcionado de acceso al trabajo que además no respeta los derechos fundamentales de las personas.

Alberto Novoa, socio de Laboral de Ceca Magán, se pregunta si realmente se puede exigir este tipo de acreditación sobre el estado de salud. La respuesta es que no: “No se puede obligar a nadie a someterse a esta clase de control médico. Sólo podría ser en casos en los que se exija un determinado estado de salud. Y, evidentemente, afecta a la protección de datos de cada individuo.

Novoa cree además que se puede dar una trampa poco edificante: “Si se exige que estés sano, bajo esa apariencia se puede esconder una discriminación. Se podría estar usando el Covid-19 para abrir una caja de Pandora peligrosa”.

Tampoco vale el argumento de la prevención de riesgos. El deber de vigilancia del empresario no hace necesaria una prueba que certifique que uno no es positivo en Covid-19, porque un trabajador puede abstenerse de ir a trabajar si está enfermo siempre que informe a su médico y pida la baja laboral. Esta medida, ya establecida, impide cualquier riesgo de contagio. Además está la separación entre trabajadores, el uso de mascarillas y otras precauciones y medidas de higiene. No hace falta una prueba médica que certifique la inmunidad.

En todo caso, las prácticas invasivas y exageradas en cuestiones que afectan a la salud de los empleados y a su intimidad empiezan a ser una norma para compañías que exceden los límites y el control.

Algunas empresas pagan a sus empleados un extra si éstos acceden a remitir sus datos biométricos y de salud a la compañía; otras ofrecen sobresueldos a empleadas que decidan enrolarse en actividades denominadas “asesoría de embarazo”, o a quienes se apunten a programas de “gestión de enfermedades”.Y las hay que monitorizan a ciertos trabajadores con algunos dispositivos que les proporciona la firma, o que controlan los “hábitos saludables” de sus empleados llegando a disponer de los datos de consumo de sus profesionales. Si, por ejemplo, alguien adquiere una prenda de vestir considerada de talla grande, se activa una especie de plan de salud diseñado para un “usuario con obesidad potencial” y se le envían correos con posibles soluciones al supuesto problema.

La mayoría de medidas de este tipo excede la vida laboral de los empleados y eso hace que sea posible cuestionar la naturaleza salarial de las cantidades que se pagan por facilitar los datos personales.

En todo caso, la cesión de esa información de los trabajadores se produce de forma voluntaria y libre, y su participación en los distintos programas se ve incentivada por una contraprestación, por lo que no podríamos hablar de un consentimiento viciado, presuponiendo que se ha recibido la información correcta sobre los fines a los que se van a destinar los datos que el trabajador facilita. Otra cosa sería que la empresa obligara a todos los empleados, lo que sería contrario a derecho, por mucho que se vistiera artificiosamente con un documento de consentimiento por parte del trabajado.

En la mayor parte de los países europeos la información sobre la salud se considera material sensible, y sin una autorización especial no se puede recoger y procesar ésta.

Si la finalidad de esas prácticas es ayudar a una vida más sana y eso supone un beneficio social voluntariamente admitido por el empleado que ofrece sus datos, todo eso resulta aceptable. Es adecuado si redunda luego en la productividad, pero no puede ser que ésta sea lo primero para la compañía.

Todo esto nos lleva a las nuevas posibilidades de control por parte de las compañías, que tienen que ver con el hecho de que la inteligencia artificial ya puede dominar mecanismos y procesos de control, o intervenir en los procesos de selección, incluida la entrevista de trabajo.

Hay que recordar que las máquinas son un medio, pero nunca un fin. Un robot está al servicio de la persona o de la empresa, y el uso indiscriminado y sin filtros para procesos de selección no puede ser apropiado. Puede tener un uso menos objetivo que el seleccionador humano.

Aquellos que creen que la inteligencia artificial afina mejor en los procesos de selección, porque puede eliminar determinados sesgos que se contienen en los procesos sólo humanos, deben saber que un algoritmo no tiene sesgos, pero tiene posibilidades de discriminar, por género, adscripción política u orientación sexual. Un algoritmo tiende a replicar los sesgos que hay en la sociedad, y replica la realidad. Si le preguntamos a quién elegiría como presidente de una compañía del Ibex 35, al 90% escogería a un hombre y no a una mujer. el algoritmo infiere información procedente de otras actuaciones o informaciones. La dirección en la que vive un individuo ofrece pistas sobre su posición económica, o incluso sobre su raza, y también la información que proporcionamos en Facebook o en otras redes.

Además, cuando se deja aprender a una máquina y no se ponen filtros o módulos de control se dan casos como el de Amazon, que usó una herramienta basada en inteligencia artificial para procesar un alto número de currículos y seleccionar así a los candidatos ideales. Pero la máquina tenía un sesgo en favor de los hombres al examinar aspirantes para puestos de desarrollador de software y otras ocupaciones de carácter técnico. El sistema aprendió que eran preferibles los candidatos de género masculino, penalizando los currículos de mujeres. También está el caso de Tay, el ‘bot’ parlante de Microsoft, que aprendía de sus conversaciones con la gente y evolucionó para mal, convirtiéndose en una especie de monstruo de la inteligencia artificial.

(Noticia extraída de Expansión)