vchalup - stock.adobe.com

Evaluar Conozca los pros y contras de las tecnologías, productos y proyectos que está considerando.

¿La tecnología acrecenta el problema del racismo y la discriminación?

De acuerdo con una publicación del MIT Technology Review, la tecnología promueve el racismo. La mayoría de los algoritmos de reconocimiento facial discriminan a la población negra. Y hasta ciertos conceptos o terminología tecnológica tienden a ser ofensivos, resaltando la “supremacía blanca”.

La tecnología fue diseñada para perpetuar el racismo. Así lo señala una reciente publicación del MIT Technology Review en Español, escrita por Charlton McIlwain, profesor de medios, cultura y comunicación en la Universidad de Nueva York (EE.UU.) y autor de 'Black Software: The Internet & Racial Justice, From the AfroNet to Black Lives Matter'.

El artículo explica cómo la población negra y la comunidad de latinos en Estados Unidos son víctimas de la configuración de herramientas tecnológicas, como el reconocimiento facial, el cual está programado para analizar los rasgos físicos de personas y, en muchos casos, generar alertas de posibles riesgos al detectar a individuos cuyos rasgos faciales los identifiquen como negros o latinos.

“Hemos diseñado tecnologías de reconocimiento facial que buscan a sospechosos criminales en función del el color de la piel. Hemos entrenado sistemas automatizados de perfiles de riesgo que señalan de forma desproporcionada a personas de origen latino como inmigrantes ilegales. Hemos ideado algoritmos de calificación crediticia que identifican, también desproporcionadamente, a las personas negras como posibles riesgos y les impiden comprar una casa, conseguir un préstamo o encontrar trabajo”, escribió McIlwain.

En el artículo, el autor abunda sobre los orígenes del uso de algoritmos en la política para ganar elecciones, entender el clima social y preparar campañas psicológicas para modificar el ánimo social, que a finales de los 60´s estaba tenso en los Estados Unidos. Estos esfuerzos, sin embargo, pavimentaron el camino hacia la vigilancia a gran escala en las zonas donde había más disturbios, en ese momento, la comunidad negra.

De acuerdo con McIlwain, “este tipo de información había ayudado a crear lo que se conoció como ‘sistemas de información de justicia penal’. Estos sistemas se han multiplicado a lo largo de las décadas, sentando las bases para la creación del perfil racial, la vigilancia predictiva y la vigilancia racialmente selectiva. Su legado incluye a millones de mujeres y hombres negros y mulatos encarcelados.”

La amenaza de las razas en la pandemia

Las tecnologías de rastreo de contactos y mapeo de amenazas diseñadas para monitorear y contener la pandemia de Covid-19 no ayudaron a mejorar el clima racial. Al contrario, estas aplicaciones mostraron un alto índice de contagios entre personas negras, latinas y la población indígena.

Si bien esta estadística podría interpretarse como una carencia de servicios médicos de calidad y oportunos para los miembros de las comunidades mencionadas, lo cierto es que la información se divulgó como si los negros, latinos e indígenas fueran un problema nacional y una amenaza de contagio. El mismo Donald Trump hizo comentarios al respecto, y pidió reforzar la frontera sur para evitar que los mexicanos y latinos ingresen a su país y aumenten el número de enfermos de Covid-19, que de por sí ya es bastante alto.

El temor de McIlwain –y de otros miembros de la comunidad negra en Estados Unidos– es que las nuevas aplicaciones creadas a raíz de la pandemia se utilicen para reconocer a los militantes de una manifestación, para posteriormente “sofocar la amenaza”, seguramente se refiere a persecuciones y capturas, que bien pueden terminar en la cárcel, o en desapariciones.

“Si no queremos que nuestra tecnología se use para perpetuar el racismo, entonces debemos asegurarnos de no mezclar los problemas sociales como el crimen, la violencia o las enfermedades con las personas negras y mulatas. Si lo hacemos, corremos el riesgo de convertir a esas personas en un problema para el que implementamos nuestra tecnología para resolverlo, en una amenaza para la que diseñamos la tecnología con el objetivo de erradicarla”, concluye el autor.

El largo camino por delante para los algoritmos

Si bien, la inteligencia artificial y el aprendizaje automático alimentan las aplicaciones para enriquecerlas, lo cierto es que la programación original la hace un humano (o varios). Quien define, de inicio, los parámetros para los algoritmos, son las personas que crearon el programa o aplicación. La falta de criterios bien definidos puede resultar en generalismos, y ello puede derivar en acciones discriminatorias o racistas.

El diario británico The Guardian contó, hace unos años, que uno de los algoritmos de Google detectaba imágenes de personas negras como gorilas. Otras empresas, como IBM y Amazon, evitan utilizar la tecnología de reconocimiento facial por sus tendencias discriminatorias hacia las personas negras, en especial a las mujeres.

“Creemos que es el momento de comenzar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por las agencias de policía nacionales y en qué condiciones”, escribió el director ejecutivo de IBM, Arvind Krishna, en una carta enviada al Congreso en junio. “Luchar contra el racismo es más urgente que nunca”, afirmó Krishna, a la vez que anunció que IBM ha puesto fin a sus productos “generales” de reconocimiento facial y no avalará el uso de ninguna tecnología con fines de “vigilancia masiva, discriminación racial y violaciones de derechos humanos”.

Si consideramos que el margen de error entre identificar a un hombre blanco y una mujer negra es del 34% en el caso del software de IBM, de acuerdo con un estudio del MIT Media Lab, la decisión de IBM no solo parece justa desde el punto de vista racial, es también un reconocimiento del camino que queda por delante en cuanto a la programación de algoritmos cada vez más precisos.

El estudio del MIT Media Lab, de 2018, concluyó que, aunque la precisión media de estos productos oscila entre el 93,4% y el 87,9%, las diferencias en función del color de piel y el sexo son notables; el 93% de los errores cometidos por el producto de Microsoft afectaba a personas de piel oscura, y el 95% de los fallos de Face++, una alternativa china, se refería a mujeres.

Joy Buolamwini, coautora del estudio del MIT y fundadora de Algorithmic Justice League, considera que la iniciativa de IBM es un primer paso para conseguir que las empresas sean responsables y promuevan una inteligencia artificial imparcial y responsable. “Es un dulce reconocimiento de que la tecnología de reconocimiento facial, en especial en manos de la policía, se ha usado para violar los derechos humanos y hacer daño a los ciudadanos negros en particular, así como a los indígenas y gente de color”, dijo.

Es hora de cambiar la terminología de TI

Otro de los temas relacionados con discriminación en la industria de TI tiene que ver con el lenguaje utilizado para definir ciertos componentes de una red o arquitectura de sistemas. Conceptos como Amo/Esclavo (master/slave) están siendo reformulados para cambiarse por una terminología menos agresiva. Lo mismo sucederá con los conceptos de “listas negras, listas blancas”. Ahora, los programadores deberán utilizar términos como líder/seguidor, y “lista permitida, lista bloqueda”.

El sistema operativo de código abierto Linux incluirá una nueva terminología inclusiva en su código y documentación. Linus Torvalds, encargado oficial del mantenimiento del kernel de Linux aprobó el 10 de julio esta nueva terminología, de acuerdo con ZDNet.

Github, una empresa de desarrollo de software propiedad de Microsoft, también anunció hace unas semanas que está trabajando para eliminar este tipo de términos de su codificación.

Estas acciones ponen de manifiesto el compromiso de la industria de tecnología para crear herramientas que ayuden al crecimiento de la sociedad, con sistemas y aplicaciones inclusivos y tecnologías que ayuden a combatir la discriminación en vez de fomentar el racismo.

Investigue más sobre Desarrollo de aplicaciones

Close