Tecnología

El racismo en las tecnologías de reconocimiento facial

Experiencia de Usuario 4 min. de lectura

Tras el “estallido” estadounidense provocado por la muerte de George Floyd, Amazon e IBM, tomaron medidas sobre el uso e investigación de sus herramientas de reconocimiento facial, altamente utilizadas en investigaciones policiales. ¿Cuándo estamos frente a inteligencias racistas?

Dos caras, feliz y triste, de test oscuras y blanca, representan el racismo tras las inteligencias de reconocimiento facial.

s las. El gigante de la tecnología Amazon, anunció el 10 de junio, a través de un comunicado oficial, la suspensión y prohibición del uso de Rekognition, su algoritmo de reconocimiento facial, para la policía. Esta decisión, fue anunciada en medio de las protestas por el uso indiscriminado de la fuerza policial en Estados Unidos y el resurgimiento del movimiento #BlackLivesMatter tras la muerte de George Floyd. 

Una decisión que ocurrió días después de que IBM, anunciara el cese de su investigación en reconocimiento facial, debido a su uso en la vigilancia masiva y de perfil racial. En un breve comunicado, Amazon explicita que los motivos tras esta suspensión, se deben a la poca regulación de este tipo de tecnología, que ha sido ampliamente cuestionada por sus sesgos culturales a la hora de detenciones e investigaciones policiales.  

El contexto en que ambas compañías expresaron estas políticas, se relaciona con el sesgo racial de las tecnologías de reconocimiento facial. Un hecho que la comunidad de investigadores mundial, ha dado a conocer durante los últimos años.

El sesgo racial en el reconocimiento facial

Como todas las tecnologías, la inteligencia artificial es generada y creada por personas. Tal como lo hemos analizado antes, los sesgos son inherentes al ser humano y eso se ha visto fuertemente reflejado en diferentes tecnologías. Primero porque son programadas por personas con sus propios sesgos. 

En segundo lugar, debemos considerar las bases de datos que se utilizan para nutrir su aprendizaje y automatizar respuestas. Entre ellas, las bases de datos de detenciones policiales, de cientos de años, donde comparativamente, los afrodescendientes son más sentenciados a condenas que el resto de la población.

Las IA de reconocimiento facial poseen un evidente sesgo racial. Desde los inicios de su uso, ha demostrado tener errores en el reconocimiento de personas asiáticas y afroamericanas. A ellas, los sistemas las identifican enojadas cuando sonríen, e inclusive, no pueden diferenciar entre varios rostros diferentes. 

Estos errores se repiten en el caso de niños y ancianos. Ante esto, el factor cultural parece ser determinante, ya que IA provenientes de comunidades afrodescendientes o asiáticas, no generan este tipo de error en el reconocimiento, pero si frente a otras etnias. 

Lo preocupante, es que en general, el grupo con mayor cantidad de falsos positivos, es decir, con mayor cantidad de resultados de identificación 100% incorrectos; son respecto a personas de etnia nativo americana. Estos errores son realmente graves si pensamos en una tecnología incipiente que ha sido utilizada mayormente para identificar delitos en gran parte del mundo. 

Con esto, quiero decir que día a día, tanto en aeropuertos como en investigaciones policiales, podrían identificarse rostros e identidades sin relación alguna a hechos delictivos; sencillamente por el sesgo tras los algoritmos de inteligencia artificial. Peor aún, más allá de identificarse, podrían resultar culpables y ser condenadas.

Tecnología racista y etnocentrista

La razón por la que Amazon e IBM deciden suspender el uso y desarrollo de estás tecnologías, es por su repercusión real y cotidiana en nuestra sociedad. De parte de Amazon, se incita a las autoridades a legislar leyes que puedan controlar las repercusiones de su tecnología en la sociedad. Es decir, tener normas legales que enmarquen su uso. Por su parte, IBM reconoce su potencial racista.

Como ciudadanos del mundo y de las redes, debemos observar y cuidar el poder que las tecnologías otorgan a las instituciones sociales. Cualquier innovación debería buscar soluciones. Sin embargo, a veces su uso puede ser contraproducente y acrecentar aún más las brechas y conflictos de derechos humanos por los que se ha luchado década tras década.

Los datos mencionados en este artículo, fueron investigados y desarrollados por NISTIR durante el año 2019, con resultados certeros, disponibles en la publicación, “Face Recognition Vendor Test (FRVT)”, en el que el Instituto Nacional de Estándares y Tecnología (NIDT) de Estados Unidos, analizó 189 algoritmos de 99 desarrolladores. Entre los que se encuentran Microsoft e Intel. A su vez, existen más investigaciones académicas que concluyen el mismo problema.

Acerca del Autor

Investigamos las tendencias en proyectos y estrategias digitales para complementarlas con nuestra experiencia en artículos informativos. Nuestro objetivo es aportar al desarrollo del área, discutiendo la efectividad de las tecnologías y técnicas aplicadas.

Agregar un comentario