14/05/2021

¿Puede la inteligencia artificial ser menos artificial y más humana?

popr Beatriz Martínez García

El teletrabajo y la automatización que provocó la emergencia sanitaria han acelerado años el avance de la Inteligencia Artificial en todo el mundo. Sin embargo, hay un tema escasamente discutido y que la pandemia ha dejado un poco de lado en nuestro país: ¿cómo impacta la IA en el mundo del trabajo?.

Para algunos de quienes llevamos muchos años en el mundo de la gestión humana, probablemente la IA sea lo menos humano que nos podemos imaginar. Porque son las personas quienes hacemos la diferencia en una organización y la convertimos en algo real, en algo complejo, cambiante y poco predecible. Eso la hace humana.

Uno de los grandes retos de las organizaciones en general y particularmente de las áreas de Gestión Humana en la actualidad es la de ser capaces de entender mejor, e incluso prever, el comportamiento de las personas. Conocer nos permite gestionar y activar acciones estratégicas, como la gestión del talento, el desarrollo de perfiles (upskilling), el "reciclaje" para nuevos puestos (reskilling), la incorporación de nuevos perfiles,  las políticas de bienestar, salud y seguridad o incluso, para conocer a los colaboradores de manera de poder entender sus motivaciones y actuar en consecuencia.

Sin información, las empresas están ciegas, sin una brújula que los oriente. Eso lo vemos frecuentemente cuando emprenden acciones generales (que dieron resultados en otros lados), sin conocer exactamente a las personas, al clima y a la cultura de quienes allí trabajan. Pero la inteligencia artificial no ha podido - hasta ahora - suplantar a la acción humana. ¿Han discutido alguna vez con un bot? (por ejemplo cuando están haciendo una compra remota) ¿Han preguntado, algo enojados y cuando no obtienen respuesta, si están hablando con un bot o con una persona? (yo sí lo he hecho). Si les ha pasado algo de eso, podrán entender qué sucede cuando la interacción es exclusivamente con un robot y no hay posibilidades de intercambiar humanamente con alguien. La IA sin dudas puede ayudar y mucho en la gestión, pero cualquier acción de ese tipo que las organizaciones decidan iniciar debería contar siempre con la supervisión y la interacción humana, necesarias para comprender, contener, empatizar... y reconocer errores.

Despedido por una máquina

Miremos lo que pasó en 2018, cuando Ibrahim Diallo, un desarrollador de software de California fue despedido de su trabajo... por un algoritmo. Eso derivó en que Diallo escribiera la historia en su blog y hasta un libro ("La máquina me despidió", link en Fuentes).

Resumidamente, todo empezó cuando su tarjeta magnética de entrada al edificio de la oficina no funcionó y le pidió al guardia de seguridad que lo dejara entrar. Esto pasó varias veces, y su jefa le dijo que le encargaría una nueva tarjeta. Pero esto no ocurrió y días después se cerró su sesión en el equipo, un compañero le comentó que aparecía como "inactivo" en el sistema y la empresa que lo había seleccionado recibió un mail que decía que su contrato había sido rescindido. Pocos días después, todos sus accesos y sistemas habían sido bloqueados, y dos personas se le acercaron diciéndole que habían recibido un correo con la orden de escoltarlo fuera del edificio.

"Me despidieron", escribió Diallo. "No había nada que mi gerente pudiera hacer al respecto. El director no podía hacer nada. Se quedaron impotentes mientras yo guardaba mis cosas y salía del edificio".

Sus jefes tardaron tres semanas en averiguar qué había pasado. La empresa estaba cambiando los sistemas, y su gerente anterior, quien había sido despedido, no había renovado el contrato en el nuevo sistema. Ningún ser humano lo revisó. Después de eso para las "máquinas" Diallo fue un ex empleado. Y aunque finalmente Diallo fue admitido nuevamente, decidió renunciar al poco tiempo, por todo lo que había vivido (por esa falla en el sistema, había estado 3 semanas sin poder volver a su trabajo y sin salario).

Pero ese no es el único ejemplo. Más recientemente, en el Reino Unido, el Gobierno de Boris Johnson utilizó un algoritmo para sustituir las pruebas de ingreso a la universidad que no se habían podido realizar por el Covid. El algoritmo ponderaba el resultado del alumno - además de la evaluación de sus profesores - con otros factores, como el historial de todo el centro educativo. Esto perjudicó gravemente a los mejores alumnos de las escuelas situadas en entornos más modestos, hasta el punto que algunas notas de ingreso se vieron reducidas en un 40%.

Por otro lado, en Holanda, el gobierno aplicó un sistema de IA que rastreaba posibles casos de fraude entre beneficiarios de ayudas sociales en barrios desfavorecidos. El algoritmo y los datos identificaron erróneamente como infractoras a personas que tenían el mismo "perfil" social que los infractores reales, incluyéndolas durante dos años en unas bases de datos que podían consultar los gobiernos locales para tomar decisiones.

La importancia de legislar y gestionar ... antes que sea tarde

Si bien los casos de uso de la IA pueden ser muy convincentes y los riesgos relativamente bajos, lo que está en juego es mucho mayor cuando se utiliza en la empresa para tomar decisiones, sin la intervención humana.

Nadie puede discutir que la IA tiene el potencial de reducir el sesgo humano (aunque es alimentada por humanos con sesgo humano) y mejorar la precisión en las predicciones de la gestión. Sin embargo, casos como los mencionados ponen el foco en la posibilidad de encontrarnos con errores, o aún más, falta de transparencia ética o hasta legal.

¿Cómo hacer para que un algoritmo asegure por ejemplo, la ética, la transparencia, la no discriminación o la privacidad de los datos? En ciudades como Barcelona, Ámsterdam, Nueva York, Helsinki, Toronto y Seattle se ha trabajado en la construcción de un modelo de inteligencia artificial y tecnologías emergentes con énfasis en las personas y en los derechos humanos. En estos momentos de pandemia, donde se ha puesto el foco sobre muchos aspectos relativos a las libertades (responsables y de las otras) y a los derechos individuales y colectivos, se hace necesario pensar en los distintos impactos de la IA. Y en un mundo del trabajo en el que las organizaciones deben acercarse más que nunca a sus colaboradores, urge atender estos temas.

La tecnología por si sola no puede dar respuesta a ésto. Como sugiere Ben Shneiderman (1), científico e investigador de la Universidad de Maryland, existe la necesidad de un enfoque de IA centrado en el ser humano que requiera un mayor equilibrio entre el control humano y los sistemas de información. En otras palabras, la tecnología debe usarse siempre para que el lugar de trabajo sea (todavía) un lugar humano. 

En términos generales, la legislación uruguaya tendrá que reflejar cómo queremos que sean nuestras empresas en el futuro, y no repetir historias como la de Diallo, Holanda, o Reino Unido. Pero además, las empresas deben empezar a pensar cómo gestionar el uso de la inteligencia artificial para que sigamos siendo las personas quienes hacemos de una organización algo real, un sistema complejo, poco predecible... y cada vez más humano.

Fuentes:

  • (1) Ben Shneiderman es es catedrático de Informática en el Human-Computer Interaction Laboratory en la Universidad de Maryland en College Park. Se graduó en el Bronx High School of Science; se licenció en Matemáticas/Física en el City College of New York en 1968, y comenzó a estudiar en la State University of New York at Stony Brook, donde se licenció en Informática en 1972 y se doctoró en 1973.
  • https://www.bbc.com/news/technology-44561838
  • https://idiallo.com/blog/when-a-machine-fired-me
  • https://www.elperiodico.com/es/opinion/20210421/gobernar-algoritmos-11672485
  • https://www.iproup.com/innovacion/17588-recursos-humanos-implicaciones-eticas-de-la-ia-y-el-aprendizaje-automatico
  • https://elpais.com/internacional/2020-08-18/los-estudiantes-britanicos-propician-la-primera-gran-derrota-de-johnson.html

Compartir: