Los algoritmos también pueden ser racistas y machistas
DATOS. Pese a ser matemáticos, pueden repetir tendencias sesgadas de los seres humanos.
Como trabajan con datos y realizan operaciones matemáticas, impera la idea de que los algoritmos son objetivos y neutrales, pero la verdad es que, tal como los seres humanos, pueden reproducir sesgos y prejuicios: a veces sus resultados están impregnados de machismo, racismo o información no veraz.
Servicios de imágenes que etiquetan como gorilas a personas de raza negra, anuncios de puestos de trabajo de alta calificación que se muestran más a hombres que a mujeres, predicciones de reincidencia criminal que castigan el doble a la población afroamericana, propagación de noticias falsas o posicionamiento de páginas antisemitas, son algunos ejemplos de estos sesgos.
Para qué sirven
Un algoritmo es un programa de software que funciona a partir de unos datos y sigue unas instrucciones determinadas para hacer algo.
Así trabajan el buscador de Google -que destaca unos resultados de búsqueda sobre otros-, el timeline de Facebook -que determina el orden en que aparecen las publicaciones- o las recomendaciones de compra de sitios como Amazon.
Los algoritmos se utilizan en medicina, en procesos penales, en investigación policial, en concesión de hipotecas o en procesos de selección de personal. Y la industria tecnológica defiende que la actividad algorítmica está libre de desviaciones, algo que actualmente es ampliamente cuestionado.
Sesgos humanos
Los algoritmos los programan seres humanos subjetivos y funcionan con datos que no siempre son veraces ni representativos de la realidad.
"Los algoritmos pueden generar resultados sesgados en función de distintos factores tales como su diseño e implementación y los datos que utilizan. La información con la que funcionan puede contener prejuicios o sesgos", explicó a agencia Efe la investigadora de la Universidad de Nueva York y de Microsoft Research, Kate Crawford.
La elite de Silicon Valley, donde están la mayoría de las empresas tecnológicas de Estados Unidos, está integrada en su mayoría por hombres jóvenes de raza blanca y eso puede afectar la creación de estas herramientas.
Además un algoritmo puede ofrecer resultados sesgados por trabajar con conjuntos de datos imprecisos o no representativos por no tener en cuenta a determinados colectivos.