Hoy en día, el análisis políticosocial requiere tener en cuenta las herramientas tecnológicas que intervienen en nuestro día a día, y es por eso que hay que plantearnos cómo se utiliza la tecnología, puesto que por sí misma no puede ser autoritaria ni racista. La tecnología la creamos nosotros, las personas. 
 
 
ALGORITMOS TRANSPARENTES Y RESPONSABLES
 
En anteriores artículos hablábamos de que la IA y la ética tienen que ser parte de una misma unidad como decisión política, donde la regularización garantice el cumplimiento de los derechos humanos y donde el poder sea capaz de transmitir a la sociedad el valor de la Inteligencia Artificial, haciendo valer la vida y la justicia social en el centro de las decisiones. A la vez afirmaban que el optimismo por la progresión de la sociedad implica respetar la autonomía humana desde diseños transparentes, responsables y robustos hasta la aplicación de la IA. Con tecnologías justas, responsables e inclusivas será toda la sociedad quien se beneficie de la Inteligencia Artificial.
 
Así pues, sabemos que la Inteligencia artificial no es una masa homogénea, ni una herramienta, ni una aplicación, ni siquiera una metodología. Son un conjunto de técnicas que aplican las personas. Por lo tanto, la voluntad de recaudar estas variables para analizarlas, no es de la IA sino de las personas. Los algoritmos tomarán decisiones importantes y participarán de la política, la economía y la sociedad en la que vivimos, de forma coherente a cómo se los prepara y/o autoriza. 
 
Es por eso que cuando hablamos de tecnología hace falta también que nos planteamos por quién está creada y a quién va dirigida, a quienes beneficia y por tanto, si discrimina también a colectivos y cuáles son.
 
Atendidas las circunstancias vividas en los últimos meses y el goteo constante de abusos y situaciones de racismo cruzamos esta variable con los recursos tecnológicos para plantearnos si estos también están manchados de supremacismo y/o racismo. Para plantearnos si la tecnología es racista hay que ser conscientes que hablar de tecnología e innovación se traduce en la oportunidad de habla de transparencia y futuro justo, pero por eso hay que  repensar desde qué valores y con qué objetivos se utiliza esta tecnología a sabiendas de que no solo analiza grandes volúmenes de información sino que tiene capacidad de tomar decisiones de manera autónoma. Destacamos pues que realmente los nuevos algoritmos que se crean no son por sí herramientas de segregación y priorización, puesto que las decisiones y los algoritmos estarán sesgados, si los propósitos en su desarrollo lo son. 
 
Sabiendo que los sistemas de inteligencia artificial a gran escala se desarrollan en su mayoría en empresas y laboratorios de élite, ubicados en Occidente y Oriente, es necesario intentar ampliar la creación de sistemas tecnológicos, hacia un modelo donde se incluyan personas diversas en los equipos de trabajo y laboratorios tecnológicos, con una mirada interseccional sobre la sociedad.
 
 
 
RECONOCIMIENTO FACIAL CON SESGO DE RAZA 
 
Uno de los ejemplos más mediáticos los últimos meses ha sido el tema del reconocimiento facial. De hecho, IBM y Amazon abjuran de la tecnología de reconocimiento facial por el sesgo racista. 
 
IBM considera que luchado contra el racismo es más urgente que nunca y es por eso que anunció que no avala el uso de ninguna tecnología con fines de vigilancia masiva, discriminación racial y/o violaciones de los derechos humanos.
 
Varios estudios han demostrado que la tecnología de reconocimiento facial discrimina a las personas negras y otras etnias no-blancas, y especialmente a las mujeres, a las que tiene más problemas para distinguir y por tanto, identificar. 
 
Un estudio del MIT Media Lab concluyó el 2018 que, aunque la precisión mediana de estos productos oscila entre el 93,4% y el 87,9%, las diferencias en función del color de piel y el sexo son notables, hasta el punto que el margen de error entre identificar un hombre blanco y una mujer negra es del 34% mayor en el caso del software de IBM; el 93% de los errores cometidos por el producto de Microsoft afecta personas de piel oscura, y el 95% de los errores de Face ++, una alternativa china, se refería a mujeres.
 
Una identificación incorrecta presa a partir de algoritmos puede tener graves consecuencias como por ejemplo: condenas penaltis y discriminaciones de acceso en términos de vivienda, estudios, trabajo o préstamos, que afectan directamente a las condiciones de vida de las personas racializadas y estigmatizadas socialmente.
 
Así pues, hay que tener presente que los algoritmos pueden contener sesgos, conscientes e inconscientes, porque han sido diseñados a partir de información generada por las personas. Hacerlo ,es responsabilizarse y comprometerse a no reproducir en el entorno digital las discriminaciones sociales.