La inteligencia artificial al servicio de la emocional en el trabajo: ¿prohibición o condiciones para usos preventivos?

Dra. Estefanía González Cobaleda.
Profesora de Derecho del Trabajo y de la Seguridad Social.
Coordinadora del Laboratorio-Observatorio de Riesgos Psicosociales del IAPRL.
Universidad de Jaén.


1 Seguro que, si hiciésemos una encuesta a la población en general, y a la población activa en particular, más si disponen de trabajo, a fin de preguntar si creen que tanto el reconocimiento correcto de las emociones como su gestión inteligente forman parte del bienestar, dentro y fuera de las empresas, la respuesta mayoritaria sería muy positiva. Por lo tanto, el cuidado de la salud emocional cada vez tiene mayor presencia en las políticas de bienestar de las empresas, no solo por razones de responsabilidad social en la promoción de la salud de su personal sino también por su convicción de que incide muy positivamente en la productividad. Favorecer las condiciones que aseguren la calidad de los entornos de trabajo y la calidad de las relaciones en su seno, así como una cultura de gestión inteligente de las emociones de las personas empleadas en las empresas y organizaciones (públicas), constituyen, así, relevantes “factores de bienestar emocional”.

Un lugar de trabajo saludable, psicosocial, pero también físicamente, seguro y saludable, depende igualmente, entre otros factores, de la capacitación individual y colectiva de gestión inteligente de las emociones, las propias y las de las demás personas compañeras en la empresa, incluso de la clientela, y viceversa. Si antes de la triple tragedia pandémica no quedaba suficientemente clara esta necesidad, no solo conveniencia, tras la profunda “huella emocional” que ha dejado la Covid19, en especial en ciertos colectivos de profesionales, si bien afecta  todas las personas y profesiones, nadie dudaría de las virtudes, sociales y económicas, de contar con una política, o algún instrumento, capaz de promover las condiciones para hacer realidad una organización emocionalmente inteligente.

Ahora bien, si al mismo tiempo preguntáramos a la referida población trabajadora qué piensa de que las empresas, también la suya, puedan recurrir a sistemas de inteligencia artificial (SIA) para facilitar esa tarea de reconocimiento y abordaje de las emociones, incluso para ayudar a mejorar el bienestar, no solo por razones de mejora del rendimiento, estamos convencidas de que la respuesta podría ser diferente, mucho más cautelosa, incluso contraria a dejar que sea un algoritmo el que vigile, controle e, incluso, prediga nuestros estados emocionales en el trabajo.  Si algo forma parte de nuestro núcleo más íntimo, y por tanto protegido frente a toda injerencia, incluso conocimiento de personas terceras, más si son nuestras empresas, son las “emociones” y la gestión que cada cual hace de las mismas. ¿Inteligencia emocional para la mejora del bienestar sí, trasparencia digital de las emociones no?


2 Este conflicto, no solo eventual o potencial sino real, entre la conveniencia de políticas que promuevan una gestión inteligente de las emociones en el seno de las organizaciones de trabajo y las profundas reservas o cautelas de hacerlo a través de los sistemas hoy con mayor capacidad para llevarlo a cabo del modo más eficaz, la inteligencia artificial, se ha presentado en la actualidad en un doble plano. El primero práctico. Diversos medios se han hecho eco de una noticia un tanto impactante, por el contenido de la misma y por la sanción récord resultante. En efecto, la Agencia de Protección de Datos de Hungría ha condenado a una sanción muy abultada, más de 600.000 euros, a una entidad financiera, por la gestión automatizada de las emociones de las personas, de sus clientes y de sus personas empleadas.

Aunque los objetivos pueden ser legítimos (mejorar la calidad de los procesos de gestión de la entidad, añadiendo valor a sus sistemas de gestión de quejas y reclamaciones, sea en relación a la clientela sea en el control de la efectividad de los servicios de su personal), los medios empleados no habrían contado con las garantías de uso adecuadas para la protección de los derechos fundamentales de las personas clientes. En este sentido, la práctica temporal de utilización de un software especial de procesamiento de señales de voz basado en la gestión propia de inteligencia artificial (IA), para evaluar los estados emocionales de las personas clientes a través de sus llamadas y las palabras utilizadas principalmente en ellas, no atendió a una diligente evaluación previa de su impacto en los derechos de las personas afectadas. En conclusión, la Autoridad destacó que “la inteligencia artificial es generalmente difícil de entender y monitorear debido a la forma en que funciona, e incluso…plantea riesgos particulares para la privacidad. Esta es una de las razones por las que…requiere una atención especial…práctica”

Entonces ¿está prohibido este reconocimiento analítico de las emociones en el seno de las organizaciones, incluso si se plantean por exigencias de vigilancia de la salud integral de las personas empleadas, de su bienestar –concesión de descansos adicionales, medidas de rotación de tareas, reordenación de cargas de trabajo, etc.-? Sabemos que hay empresas que ya lo están incorporando a sus sistemas de gestión de personal, como un número creciente de empresas chinas (monitorización de ondas cerebrales del personal mediante una tecnología más propia de la organización militar o de la organización de un futuro “feliz”), al tiempo que desarrollan las grandes compañías tecnológicas aplicaciones que permiten indicar estos estados de ánimo (ansiedad, estrés, tristeza, etc.), como las gafas de Google  (Google Glass) o la App Prosit. Pero que exista, se haga y se difunda cada vez más ¿quiere decir que está permitido legalmente?

Del plano práctico pasamos así al normativo. La respuesta no es tampoco clara en este. En unas orientaciones de política del derecho comunitario regulador de los sistemas de inteligencia artificial parece contemplarse una visión más posibilista, reconociendo los riesgos de los sistemas de reconocimiento artificial de emociones, también en los entornos de trabajo, pero sin prohibirlos en todos los casos (art. 6.2 de la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial: Ley de Inteligencia Artificial). En otras, también en el Derecho de la UE (ej. art. 6.5 de la Propuesta de Directiva europea sobre la mejora de las condiciones laborales en el trabajo en plataformas de 9 de diciembre de 2021), parece clara la prohibición prohíbe de forma expresa a la empresa respecto de la gestión de cualquier dato personal sobre el estado emocional o psicológico de la persona trabajadora de la plataforma (art. 6. 5, letra a) Propuesta de Directiva).


3 Como es evidente,ante la importancia creciente de esta cuestión, es importante contar con reglas normativas, y científico-técnicas claras. Los manifiestos riesgos de los sistemas de inteligencia artificialpara derechos fundamentales de las personas trabajadoras cuando se trata de datos tan personales (los datos sobre emociones son datos biométricos, incluso pueden ser datos de salud, que tienen una especial protección en el art. 9 Reglamento de Protección de Datos personales) exigen atención especial cuando se diseñan sistemas de tratamiento, hasta incluso contemplar su prohibición. Ahora bien, es evidente que, según la finalidad perseguida, como puede ser una mejora de la vigilancia de la salud emocional ex art. 22 LPRL, cuando así sea adecuada al diseño de esta técnica preventiva y de promoción del bienestar, cabe establecer unas condiciones de uso o de tratamiento que permita compatibilidad los intereses en juego.

Precisamente, por la relevancia de esta cuestión, la Universidad de Jaén, junto con el IAPRL, organizarán un seminario y un taller práctico sobre estos desafíos de la digitalización a sistemas y políticas de gestión de riesgos laborales en general, y psicosociales en particular. Se celebrará el 29 de junio de 2022, tanto presencial como online. Una de las ponencias, a cargo de la profesora especialista en la materia, la Dra. Ana Belén Muñoz Ruiz, profesora titular de la Universidad Carlos III de Madrid, versará, sobre esta tensión entre el reconocimiento de las emociones como técnica de vigilancia de la salud psicosocial de las personas empleadas y como factor de riesgo grave para los derechos de protección de dato personales y otros derechos fundamentales, como la intimidad. Les animamos a participar activamente en las sesiones, que serán teóricas y prácticas.