Inicio  /  Historias
CIENCIA Y TECNOLOGíA

Las máquinas se han vuelto machistas y racistas… y todo es nuestra culpa

Todos los días usamos diferentes tipos de inteligencias artificiales en internet y con nuestro celular que nos ayudan a realizar nuestras tareas cotidianas. Ahora se sabe que por el uso que les hemos dado se han vuelto racistas y machistas.

Científicos han descubierto que los sistemas de Inteligencia Artificial de uso generalizado tienen sesgos sexistas y racistas. Entre estos sistemas están los de reconocimiento de voz, mensajes de texto, autocorrectores, servicios de traducción en línea, etcétera.

Todas estas inteligencias artificiales han aprendido lo peor de la humanidad debido al uso que le dan los millones de personas que utilizan sus servicios (sobre todo por el lenguaje racista y sexista que usamos de manera inconsciente).

El “aprendizaje automático” es un campo de las ciencias de la computación que permite a las máquinas descubrir pautas en los datos masivos preexistentes. El problema es que las máquinas reproducen la sesgada distribución por género y por raza que los humanos hacemos de forma inconsciente tanto en temas diversos como la elección de una carrera profesional o la selección de candidatos a un empleo.

La buena noticia es que Aylin Caliskan y su equipo de la Universidad de Princeton (los científicos que descubrieron esto) han desarrollado la manera de detectar este sesgo y, tal vez, corregirlos.

El gran problema hasta ahora es que tanto los buscadores como las redes sociales e incluso los reproductores de música utilizan texto y tienen un código cerrado (sólo lo conocen los programadores de Facebook, Google, Spotify, Apple Music, Instagram, etcétera). Así que es difícil saber la forma exacta en que incorporan el texto en sus sistemas (y la manera en que el sesgo impacta en su funcionamiento).

La manera de detectar el sesgo es utilizar un test desarrollado en los 90 por el psicólogo Anthony Greenwald llamado Test de Asociación Implícita. Este test ayuda a encontrar los sesgos inconscientes en los cerebros humano. El equipo de Greenwald pudo hacer una variante para inteligencias artificiales.

La base del test para humanos es presentar pares de palabras a los voluntarios y pedirles que pulsen una tecla si los encuentran relacionados y otra si los encuentran inconexos. El tiempo de respuesta varia si la relación es inconsciente.

El test de las máquinas sirve para medir el grado de asociación que la máquina otorga a dos palabras mediante una técnica estadística basada en la concurrencia de ambas palabras en un texto.

Gracias a este método se ha descubierto que las máquinas han construido los mismos estereotipos inconscientes que los humanos revelaron en el test para humanos. Algunos no tienen valor moral como la asociación entre flores y placer y entre insectos y malestar. El problema es que varias relaciones tienen valor moral, por ejemplo, los nombres de varones estadounidenses de origen europeo se asocian más a términos placenteros que los nombres de afroamericanos; los nombres de mujeres se asocian más a la familia que a la carrera profesional y a las mujeres se les asocia más a las artes que a la ciencia.

¿Cuál es el problema?

Si las inteligencias comienzan a tener segos machistas y racistas sus servicios se verán afectados pues tanto el machismo como el racismo son lógicas que le dan prioridad a un grupo humano sobre otro (incluida la distribución de las oportunidades).

De hecho, el sesgo sexista tiene resultados correlacionados con el porcentaje de mujeres en 50 empleos en Estados Unidos, lo que es problemático porque esto podría haber sido soportado por un “prejuicio” de las intelgiencias artificiales.

Si cada vez utilizamos más los servicios de las las inteligencias artificiales ¿qué clase de mundo tendremos si terminan por tener el mismo sesgo que ha afectado tanto a la humanidad?

Puedes consultar el artículo con la investigación aquí (en inglés).