Un estudio del gobierno de EE. UU. Confirma que la mayoría de los sistemas de reconocimiento facial son racistas

El Instituto Nacional de Estándares y Tecnología de EEUU (NIST) probó más de 200 algoritmos en dos de las tareas más comunes para el reconocimiento facial. La primera, conocida como coincidencia “uno a uno”, que consiste en hacer coincidir una foto de alguien con otra foto de la misma persona en una base de datos. Esto se usa para desbloquear teléfonos inteligentes o verificar pasaportes, por ejemplo. La segunda, conocida como búsqueda “uno a muchos”, implica determinar si una foto de alguien tiene alguna coincidencia en una base de datos. Los departamentos de policía suelen utilizarlo para identificar sospechosos en una investigación.

La agencia estudió cuatro conjuntos de datos faciales utilizados actualmente en aplicaciones del gobierno de los Estados Unidos: fotos de personas que viven en los Estados Unidos; fotos de solicitud de personas que piden beneficios de inmigración; fotos de solicitud de personas que solicitan visas; y fotos de personas que cruzaban la frontera hacia los Estados Unidos. En total, los conjuntos de datos incluyeron 18.27 millones de imágenes de 8.49 millones de personas.

Lo que encontraron: NIST compartió algunos resultados del estudio. Los principales:

1. Para la comparación uno a uno, la mayoría de los sistemas tenían una tasa más alta de coincidencias de “falsos positivos” para rostros asiáticos y afroamericanos que para rostros caucásicos, a veces por un factor de 10 o incluso 100. En otras palabras, tenían más probabilidades de encontrar una pareja de imagen cuando no lo era.

2. Esto cambió para los algoritmos de reconocimiento facial desarrollados en países asiáticos, que produjeron muy poca diferencia en falsos positivos entre caras asiáticas y caucásicas.

3. Los algoritmos desarrollados en los Estados Unidos fueron malos para igualar rostros asiáticos, afroamericanos y nativos americanos. Los nativos americanos sufrieron las tasas más altas de falsos positivos.

4. Los sistemas de reconocimiento de uno a muchos tuvieron las peores tasas de falsos positivos para las mujeres afroamericanas, lo que pone a esta población en el mayor riesgo de ser acusada falsamente de un delito.

Por qué esto es importante: el uso de sistemas de reconocimiento facial está creciendo rápidamente en la persecución del delito, el control de fronteras, y en utilización de otras aplicaciones en la sociedad. Si bien varios estudios académicos han demostrado previamente que los sistemas comerciales populares están sesgados en cuanto a raza y género, el estudio de NIST es la evaluación más completa hasta la fecha y confirma estas teorías. Los resultados ponen un manto de incertidumbre respecto a la utilización de éstos sitemas para el control de la seguridad.

En estos años será importante que los gobiernos avancen en la búsqueda de la mejor manera de regular estas nuevas tecnologías; y si se decide continuar con su utilización, exigir a los desarrolladores de reconocimiento facial realizar investigaciones más profundas sobre cómo mitigarse estos errores.

Deja un comentario