0

Hace ya varias semanas desde que volvió a estallar el movimiento antirracista Black Lives Matter, pero existe un punto en el que poca gente parece fijarse: la tecnología. No parte de la nada, la creamos nosotros, los humanos. La tecnología también se ve afectada por el racismo estructural de nuestra sociedad.

El primero de los casos trata la discriminación en la conducción autónoma: los algoritmos de detección de peatones fallan más con las personas negras, según un estudio de Georgia Tech.   Los sistemas de conducción autónoma son hasta un 10% menos precisos a la hora de reconocer peatones IV, V y VI (véase la imagen). Aunque es de justicia reconocer que estos sistemas no funcionan únicamente con cámaras, sino también con escáner LIDAR y mapeo.

No es la primera vez que vemos casos en los que la tecnología es, de forma involuntaria, racista. Hace unos años, Google se veía obligado a tomar medidas ya que su algoritmo detectaba imágenes de personas negras como gorilas, como explicaba el diario británico The Guardian. Otras empresas como IBM y Amazon han incluso abjurado de la tecnología de reconocimiento facial por sus tendencias discriminatorias hacia las personas negras, en especial a las mujeres.

Es cierto que a priori esto no parece ser un problema mayor, pero la Inteligencia Artificial cada vez está en más aspectos de la vida cotidiana. Sin ir más lejos, ya existen cámaras con reconocimiento facial e IA que dan alerta sobre posibles personas sospechosas. Como advierte un estudio del MIT, la discriminación racial tecnológica desembocará en problemas mayores de identificación: dificultades para pedir un préstamo, alquilar una vivienda o incluso conseguir un puesto de trabajo. Son solo algunas de las consecuencias que tendría el no remediar en este momento el sesgo de datos que alimenta a los algoritmos.

No vale excusarse en que la tecnología no tiene conciencia para ser racista. La tecnología no nace de la nada, es el fruto de incontables horas de trabajo humano, en las que no se hace lo suficiente por lograr un sistema responsable e igualitario. Si los algoritmos se entrenaran con datos no sesgados, no estaríamos ante un problema de dimensiones tan grandes.

Jorge Vicente
No importa de dónde vengo ni a dónde voy, sino lo que hago y porqué. Amante incondicional de la tecnología de consumo, el invierno y los sábados. No me preguntes por qué, pero siempre tengo un boli encima.

¿Qué perfil es el más susceptible de ser víctima de noticias falsas?

Artículo anterior

Las canciones del verano 2020, según Spotify

Siguiente artículo

Comentarios

Deje su respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Puede que te interese

Más en Sociedad