El pasado 9 de enero de 2020, Robert Williams llegó a su casa después de un día de trabajo. Cuando acababa de aparcar su camioneta en un barrio residencial a las afueras de Detroit, un coche patrulla le cerró el paso. Los agentes le mostraron una orden de arresto con su nombre, le esposaron y se lo llevaron. Williams pasó la noche encerrado en un centro detención sin saber por qué. Ahora lo sabemos: el sistema de reconocimiento facial del Departamento de Policía de Detroit lo había confundido con un atracador. El atracador y Williams tenían únicamente dos cosas en común: ambos eran corpulentos y personas de color.
Hace unos años, Amazon tuvo que prescindir de una inteligencia artificial de reclutamiento de talentos cuando se percataron de que discriminaba a las mujeres. Sucedió algo parecido con la tarjeta Apple Card, una tarjeta de crédito de esta firma tecnológica cuyo algoritmo de concesión de crédito discriminaba a las mujeres asignándoles menos valor crediticio que a los hombres en igualdad de condiciones.
En Reino Unido, un algoritmo usado para evaluar a los estudiantes de bachillerato trajo de cabeza a las autoridades académicas del país cuando se descubrió que había discriminado a los de entornos desfavorecidos.
Quien cita estos casos de “discriminación algorítmica” es Toju Duke, toda una autoridad en el uso responsable de la inteligencia artificial, exdirectora de IA responsable de Google y actual CEO de Diverse AI, una ONG creada por ella misma para fomentar la diversidad en este ámbito. Duke ofreció una conferencia en EnlightED en la que habló sobre los sesgos de la IA y la importancia de desarrollar soluciones responsables e inclusivas para que el desarrollo de estas tecnologías no deje a nadie atrás.
“El potencial de la IA para mejorar la vida de las personas es muy grande: en salud, seguridad., medio ambiente, educación… Pero también tiene problemas serios.” Estos problemas están relacionados con los sesgos. Por eso, es necesario detectarlos y corregirlos entrenando los sistemas.
Un marco responsable para la inteligencia artificial
La IA es una realidad que no podemos ignorar. Y se va a quedar aquí con nosotros. Por eso, debemos comprenderla bien antes de usarla. Hay que aprovechar sus ventajas y reducir el daño que puede causar a la sociedad. ¿Y cómo lo hacemos? “Necesitamos un marco responsable para la inteligencia artificial, especialmente en lo que tiene que ver con educación.”
¿Cómo debe ser ese marco? ¿Qué debe tener en cuenta? “La IA responsable debe seguir un marco en el que se cuide la ética de los datos, la equidad, la seguridad, la transparencia y la privacidad”, explica Duke.
Como nos explicaba el experto de Telefónica Tech, Carlos Martínez, en este post, existen tres conceptos fundamentales a este respecto: la ética, la transparencia y la explicabilidad de los algoritmos. Para que un algoritmo sea ético es crítico asegurar que los datos que van a enseñar a ese algoritmo carecen de sesgos y son datos que están conformados de una manera ética, de una forma justa, diversa e inclusiva, contando con todos los colectivos, sobre todo cuando tratamos con datos de personas.
Además de éticos, los algoritmos de inteligencia artificial deben ser transparentes y explicables. No pueden ser “cajas negras” en cuyo interior no sabemos bien qué ocurre. Tenemos que entender cómo funciona el algoritmo, qué resultados está generando y por qué generan los resultados que generan. Se trata, en suma, de entender el comportamiento que están teniendo, las fórmulas, la matemática que hay detrás.
“Fomentar la diversidad en hogares y universidades”
¿Cómo podemos crear una tecnología inclusiva? El problema fundamental aquí es que la mayoría de las personas que crea la tecnología son hombres blancos. “Hay pocas niñas y jóvenes estudiando ciencias informáticas en la universidad”, opina Duke. “Nos movemos en un entorno bastante misógino y faltan modelos de mujeres líderes que representen a las minorías. Por eso hay que empezar en los hogares, en las escuelas y en las universidades. Hay que fomentar esa diversidad desde distintos ámbitos para después poder generarla en el ámbito profesional.”
“Necesitamos equipos multidisciplinares y diversos”
“Hay que acabar con los silos. Y esta situación no va a cambiar si lo dejamos únicamente en manos de los técnicos. Los desarrolladores solo buscan un producto que funcione y ser los primeros. Por eso no se paran a hacer las pruebas necesarias para analizar los resultados y las respuestas. Necesitamos equipos legales, especialistas en derechos humanos. Tenemos que tener un equipo multidisciplinar con diferentes puntos de vista.
La IA responsable también beneficia a las empresas que la desarrollan
“Todas las organizaciones quieren ganar dinero y eso se consigue creando productos útiles no dañinos. Así amplias el alcance de tu producto. También están los riesgos reputacionales. Los problemas con la IA estropean tu reputación y esto daña el valor de tus acciones. Así que las empresas también salen beneficiadas cuando crean productos que se mueven dentro de estos marcos de ética y responsabilidad.”
“El sector educativo debe entender la IA para usarla en su beneficio”
“La inteligencia artificial hay que usarla, nos guste o no nos guste. Por eso es importante comprender qué es y cómo podemos usarla en nuestro beneficio”, afirma Duke. En términos parecidos se expresaba nuestro experto, Carlos Martínez, en esta entrevista al afirmar que, “al igual que aprendimos a utilizar las innovaciones introducidas por anteriores revoluciones industriales, y hoy sabemos usar un ordenador, un teléfono inteligente, un coche o una lavadora, debemos aprender cómo funcionan estas inteligencias llamadas a transformar nuestro mundo de forma tan radical.” Y para eso, la educación es clave. Por eso, desde la edad infantil, igual que se está empezando a introducir la formación en programación e informática, las niñas y niños deben aprender sobre pensamiento computacional, algoritmos e inteligencia artificial.