Una investigación valenciana analiza los peligros específicos para la salud de los trabajadores causados por los algoritmos. Entre ellos, la monitorización y sentirse observado o la intensificación del trabajo causada por las decisiones tomadas por programas. Pero también la discriminación a pesar de la aparente neutralidad algorítmica y los posibles errores de funcionamiento.
Adrián Todolí, profesor de Derecho del Trabajo de la Universitat de València, propone una normativa específica europea en protección de estos riesgos laborales. Una necesidad en un sistema cada vez más impregnado por la inteligencia artificial. El estudio, publicado en la revista internacional de Economía y Derecho Transfer, señala los riesgos específicos para la salud de los trabajadores. Como especifica el docente, los nuevos métodos de IA carecen de “empatía ni conocimiento de los límites del ser humano”.
Pero ¿por qué se están tratando tanto ahora asuntos que parecen sacados de las leyes de la robótica que inventó el novelista Isaac Asimov? Desde la Universitat de València recogen la propuesta de Todolí porque esta es una de las principales carencias de la propuesta de Reglamento por la Comisión Europea sobre IA. Esta salió a la luz en abril del año pasado y ahora se está negociando con el resto de autoridades europeas para su aprobación definitiva.
El control constante
En la investigación de Todolí se enumeran hasta seis grupos de riesgos con sus posibles consecuencias. Un ejemplo es la constante monitorización, lo que puede causar efectos negativos psicológicamente como sentirse siempre observado o invadido por la tecnología. Pero también resalta que los posibles errores de funcionamiento de los algoritmos son uno de los factores que provocan problemas en cuanto a estrés y ansiedad.
Otros riesgos que el artículo pone de manifiesto son la reducción de la autonomía de la persona o la intensificación del trabajo, ante la falta de empatía humana. A esto se añaden los sesgos causados por los algoritmos. Porque, añade, aunque se supone que pasan el filtro de la neutralidad, el estudio demuestra que no lo superan. Tal y como ejemplifica Todolí: “Para seleccionar a un candidato de un grupo minoritario, un algoritmo de contratación exigirá por defecto más cualidades, aptitudes o conocimientos que los requeridos a un integrante de un grupo mayoritario. Simplemente porque es más fácil predecir estadísticamente el comportamiento de un candidato perteneciente a este último grupo”.
Las soluciones
El profesor de la UV defiende la necesidad de una regulación específica a nivel europeo para proteger la salud de los trabajadores gestionada por IA. Según indica de estos problemas “muchos pueden reducirse o evitarse si se tienen en cuenta a la hora de programar un algoritmo”. “Una nueva normativa de este tipo debe estipular que dicha programación tenga en cuenta estos riesgos laborales y de salud, entre ellos el derecho a la intimidad. De la misma manera que los supervisores tienen que recibir formación en materia de prevención de riesgos para poder realizar su trabajo, el algoritmo también debe estar programado para sopesarlos”, concreta Todolí.
La investigación explicita que la IA debe estar bajo el control humano. De ahí que apueste por una normativa concreta sobre la seguridad de los algoritmos. “Esto enviaría un mensaje sobre la importancia de los riesgos específicos. Por el contrario, si la Unión Europea no considera oportuno adoptar una nueva normativa en este ámbito concreto, se podría trasladar el mensaje contrario y plasmar que los algoritmos no provocan riesgos para la salud, cuando no es así”, sentencia el experto. En esta línea, el docente también hace mención a la relación del artículo con la reciente aprobación de la Agencia Estatal de Supervisión de la Inteligencia Artificial y control de los algoritmos en España. Un aspecto que está incluido en los Presupuestos Estatales para 2022.