Cuando ya hemos leído mucho sobre las bondades, las maldades, los retos y los desafíos que plantea la introducción de la Inteligencia Artificial generativa (IAG) en el ámbito de las relaciones laborales, propongo destacar los elementos que, a mi juicio, deben prevalecer para que dejemos de ver a este fenómeno como una amenaza y lo abracemos desde una perspectiva práctica y, por qué no, humanista. Se ha hablado en exceso de que el algoritmo puede convertirse en empleador, lo cual es científicamente falso. Los algoritmos que están detrás de la IA son el mecanismo que permite al verdadero empleador, una persona física o jurídica, actuar de un modo más eficiente en la implantación de las políticas y relaciones de toda índole con sus empleados, pero no podemos olvidar que detrás de cualquier elemento de IA nos encontraremos siempre a una persona que representa, diseña y utiliza el algoritmo en las relaciones de trabajo. Es quizás en el área de la selección y de la productividad donde las herramientas de IAG se han introducido más intensivamente y también las que se han revelado susceptibles de incorporar sesgos que pueden incorporar elementos discriminatorios. Es conocido el caso de Amazon que utilizaba un software para contratar a trabajadores del que resultó que había una contratación de hombres muy superior al de mujeres, encontrado la explicación en que el software utilizado estaba diseñado por ingenieros pertenecientes a una determinada clase social, color de piel, edad, etc., que inconscientemente le imprimían un sesgo discriminatorio en la selección de candidatos y que, en consecuencia, violaba el principio de igualdad en el trabajo. Otros softwares o elementos de IAG permiten analizar los niveles de absentismo, medir el rendimiento del trabajador, proponer soluciones para organizar el trabajo y conseguir grados de eficiencia óptimos. Con estos instrumentos se pueden medir posibles incumplimientos laborales de los cuales se puede derivar la imposición de sanciones, pero tales consecuencias serán siempre decidas y ejecutadas por la empresa y no por el algoritmo. Y es que para evitar los abusos que los más temerosos de la IAG pronostican ha venido la legislación adoptada desde diversos ámbitos, tanto competenciales como geográficos, que persigue limitar el uso abusivo de estas nuevas herramientas. Por un lado, y a modo de ejemplo, el Reglamento General de Protección de Datos reconoce el derecho de toda persona a no ser objeto de una decisión únicamente basada en el tratamiento automatizado de sus datos si ello produce efectos jurídicos, u otros de naturaleza similar, en la persona. No cabe duda de que, para evitar esos efectos, las empresas deberán contar con profesionales, obviamente personas físicas, cuya labor consistirá en tratar de mitigar y/o eliminar tales efectos. A ello se suma la obligación de las empresas de informar a sus trabajadores sobre la existencia de decisiones automatizadas, incluida la elaboración de perfiles además de proporcionar información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para los empleados. El propio Estatuto de los Trabajadores concede a los representantes de los trabajadores el derecho a ser informados sobre los parámetros, reglas e instrucciones de los algoritmos o sistemas de inteligencia artificial que puedan incidir en las condiciones de trabajo, el acceso y el mantenimiento del empleo.
En definitiva, no podemos caer en la trampa agorera de quienes temen a la AIG por sus perniciosos efectos en el ámbito de las relaciones laborales; siempre nos quedará el legislador que intentará ponerle límites razonables y la inteligencia humana que seguro sabrá cómo utilizarla.