Decisiones algorítmicas y neurotecnología en el trabajo

Decisiones algorítmicas y neurotecnología en el trabajo

El I Congreso Foro GRC organizado por la Asociación Española para la Calidad (AEC), celebrado el pasado 26 de febrero, fue escenario de una reveladora mesa redonda sobre «Privacidad y Sistemas IA en el ámbito laboral»

El I Congreso Foro GRC organizado por la Asociación Española para la Calidad (AEC), celebrado el pasado 26 de febrero, fue escenario de una reveladora mesa redonda sobre «Privacidad y Sistemas IA en el ámbito laboral». Este encuentro contó con la participación de tres destacados expertos: Eva Román (International Talent Acquisition Lead in Technology, Cybersecurity & HR, Korn Ferry), Ignasi Beltrán (Catedrático de Derecho del Trabajo y de la Seguridad Social, Decano de los Estudios de Derecho y Ciencia Política, UOC) y Elena Gil (Co-Founder, Data Guardians).

A continuación, desarrollaremos las principales aportaciones expuestas durante sus intervenciones en torno a las complejas intersecciones entre las tecnologías de IA, la protección de datos y los derechos fundamentales en el entorno laboral.

Aplicaciones y enfoques de la IA en el ámbito laboral: entre automatización y amplificación

Eva Román distinguió entre dos ámbitos diferenciados. Por un lado, la automatización, centrada en «la sustitución de tareas humanas para una mejora de estandarización de procesos y ahorros de costes»; por otro, la amplificación, entendida en el sentido de «como empoderamos a las personas de nuestras organizaciones en el uso de la IA para que puedan aportar un valor añadido más rápido de manera más eficiente».

Esta distinción resulta crucial para entender que la IA no solo representa una herramienta de sustitución de tareas, sino también de potenciación del talento humano.

En el ámbito práctico, Eva identificó distintas aplicaciones actuales:

Sin embargo, enfatizó que el principal reto no es tecnológico sino humano: «implica muchos cambios en nosotros (las personas), hay una gestión del cambio fundamental». Esta transformación abarca cambios en los modelos de aprendizaje, en las estructuras organizativas y en el desarrollo de nuevas habilidades, particularmente la «agilidad del aprendizaje» para afrontar contextos desconocidos.

La neurotecnología y el «Yo inconsciente»: impacto en la autonomía individual

Ignasi Beltrán presentó una visión centrada en la intersección entre neurociencia e IA. Su aproximación partió de cinco ideas fundamentales que revelan profundas implicaciones éticas y legales.

La primera idea apunta a nuestra limitada consciencia: «no tenemos, no tenéis control consciente de vuestra vida (el 95% de vuestra actividad cerebral es inconsciente)». «El yo consciente es un actor secundario que se cree el protagonista de la película». Esta realidad neurológica nos hace vulnerables ante tecnologías capaces de acceder a nuestros procesos inconscientes.

La segunda idea describe nuestra actual exposición digital: «estamos en un marco de una psicometría implacable y pegajosa», compartiendo a través de dispositivos móviles y plataformas digitales «mucha información de nosotros mismos que seguramente no compartiríamos ni con nuestros seres más queridos».

La tercera idea plantea cómo los algoritmos extractivos procesan nuestra información digital: las tecnologías están «tunelando en los estratos más profundos de las mentes de las personas a unos niveles, a unas brazadas de profundidad que ni nosotros mismos somos capaces de acceder a través de la introspección».

La cuarta idea se refiere a la exposición del «yo inconsciente» (ese 95% de nuestra actividad mental): «puede ser visibles a terceros a través de huellas digitales». «Es posible el uso de herramientas subliminales (…) para modificar la conducta».

En su quinta idea, Ignasi postuló que «el mundo laboral está llamado a ser nuestros canarios en la mina de carbón» porque reúne todas las condiciones para la introducción intensiva de neurotecnologías.

En este sentido, menciona diferentes aplicaciones ya existentes:

Esta realidad plantea profundas cuestiones éticas: «¿En ese contexto mi libertad está amenazada? ¿Hasta qué punto soy consciente y consiento las cosas que hago? ¿Soy responsable de mis actos que han sido subliminalmente condicionados? ¿Cómo me protejo frente a mí mismo?», cuestiona Beltrán

Las neurotecnologías y los datos mentales

Ignasi introdujo el concepto de neurotecnologías como «interfaces que hacen una interconexión entre el cerebro y un ordenador», describiendo cómo estas tecnologías dan acceso a datos mentales con características particulares:

Por estas características, Ignasi argumentó que estos datos «son distintos a los personales porque (…) es los que nos hacen humanos».

Análisis crítico del Artículo 5 del Reglamento de IA: prohibición de técnicas subliminales

Ignasi ofreció un análisis crítico del Artículo 5 del Reglamento de IA, que prohíbe el uso de técnicas subliminales para alterar el comportamiento.

Su primera observación es reveladora: «La existencia de este artículo ya es sintomático de que no se trata de un riesgo distópico. Hay dos opciones: o ya está pasando o sabemos que va a pasar, por lo tanto, ya hemos establecido un mecanismo de protección».

«El artículo 5 prohíbe estas conductas (uso técnicas subliminales) siempre y cuando altere solo la conducta». En este sentido, Ignasi identifica una serie de escenarios que podrían quedar fuera del marco de esta regulación:

  1. «No prohíbe herramientas de IA que modifiquen subliminalmente las emociones».
  2. «No prohíbe herramientas de IA que modifiquen los pensamientos».
  3. La prohibición solo aplica si altera «una cosa que tú ya tenías previsto hacer», lo que plantea un problema probatorio: «¿Cómo mido qué era lo que yo iba a hacer si he sido susurrado subliminalmente?»
  4. «Solo se prohíbe si te produce un perjuicio. Si te beneficia, el Art. 5 no te lo prohíbe».

Esta última observación tiene implicaciones particularmente inquietantes: «si todos empezamos a bailar como el flautista de Hamelin y somos felices, la UE no lo prohíbe».

El RGPD y las decisiones automatizadas: el Artículo 22

Elena Gil centró su análisis en el marco normativo del RGPD, destacando que «casi todo (…) acaba siendo un dato personal». Particularmente relevante es el Artículo 22, que regula las decisiones automatizadas y que «ni siquiera venía con el RGPD, ya existía en la normativa previa anterior, que es de los años 90».

Para que se apliquen las garantías del Art. 22, deben cumplirse dos requisitos principales:

  1. Que la decisión afecte de forma significativa al individuo.
  2. Que sean decisiones totalmente automatizadas.

Sin embargo, Elena identificó, a efectos de determinar si una decisión es automatizada, un problema práctico fundamental: «es difícil comprobar si realmente hay un ser humano con poder para intervenir en una decisión de manera que no sea automatizada y desde afuera no se sabe ( …) si el ser humano controla lo suficiente como para contradecir una decisión algorítmica, si tiene la capacidad dentro de la organización como para atreverse a justificar porque contradijo la solución de un algoritmo muy caro y novedoso que hemos instalado».

A su vez, Elena detalló las garantías que deberían aplicarse cuando las decisiones son totalmente automatizadas:

  1. Informar a los afectados de que esto está ocurriendo.
  2. Explicar cómo funciona el sistema (al menos en amplio espectro).
  3. La empresa debe justificar que el proceso automatizado es necesario.
  4. Obtener consentimiento o tener alguna base legal que lo avale.

Sin embargo, Elena señaló críticamente que estas garantías rara vez se aplican en la práctica: «Nunca me he enfrentado a un proceso de selección donde alguien me dijera (…) hay un sistema automatizado y funciona así, tu CV se va a descartar por x motivos».

¿Necesitamos más regulación sectorial?

Un punto de consenso entre los ponentes fue que no es necesario establecer más normativas sectoriales específicas. La postura de Elena es que ya tenemos herramientas suficientes y que «más regulación no nos ayuda». Además, señaló que las regulaciones actuales «están intentando adelantarse, durar muchos años» lo que las hace «muy ambiguas» creando «muchas normas que no nadie sabe cómo aplicar».

Ignasi coincidió: «lo que deberíamos hacer es aplicar la normativa y hacerlo bien y utilizar los instrumentos». «Lo que pasa es que estamos haciendo normas a futuro y la verdad es que hay tal incertidumbre que es muy difícil poder predecir esto».

Conclusión: equilibrio entre innovación y protección

La mesa redonda revela la complejidad de abordar la IA en el ámbito laboral desde perspectivas tecnológicas, éticas y normativas. Mientras Eva Román destaca el potencial transformador de la IA para amplificar capacidades humanas, Ignasi Beltrán advierte sobre los riesgos de manipulación subliminal y control de la autonomía individual. Elena Gil, por su parte, señala que las regulaciones existentes proporcionan un marco teórico adecuado pero que presenta dificultades prácticas de aplicación y verificación.

El desafío radica en aplicar adecuadamente los marcos existentes, generando confianza y transparencia en un contexto de rápida evolución tecnológica.

Sebastian Pellet
Govertis, part of Telefónica Tech

  • Compártelo