Una nueva tecnología en debate: el reconocimiento facial

Durante los disturbios en el Capitolio de Estados Unidos se aplicó reconocimiento facial para identificar a quienes participaron en la protesta. De ahí en más, la tecnología de reconocimiento facial ha estado en debate.

Pese a que en caso de graves atentados contra los Estados del mundo esta herramienta puede ser efectiva, también es peligrosa. Su uso es tan extendido que ya es costumbre que en ciudades como Londres o la misma Montevideo se cuente con su propio sistema de cámaras. 

Tanto así que IBM y Amazon fueron el principal foco de los disturbios contra el racismo y la brutalidad policial en Estados Unidos. Los algoritmos, según denunciaron muchos protestantes tras el ascesinato de George Floyd, incorporaron el racismo de las personas a las fuerzas de choque. Las cámaras apuntaban más al reconocimiento de personas afro que el de personas blancas. 

IBM fue cuestionada por el sesgo racista que se divisaba en esta tecnología. A raíz de estos cuestionamientos, el director ejecutivo de la empresa sostuvo que “es el momento de comenzar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por las agencias policiales nacionales y en qué condiciones”. 

Es que los sistemas de reconocimiento facial son cuestionados constantemente por institutos y organizaciones especializadas en Derechos Humanos. En 2018, la Unión de Libertades Civiles de América (ACLU, por su sigla en inglés) sostuvo en un informe que el programa de Amazon Recognition al ser aplicado en el Congreso de Estados Unidos, identificó de manera incorrecta a 28 personas como autores de delitos. Al darse cuenta del error algorítmico los supuestos responsables ya estaban en prisión. 

Uno de los estudios más controversiales fue en el MIT Lab donde realizó un examen a los softwares de reconocimiento facial. En este informe se señala que la tasa de error es del 0.8 por ciento para los hombres de piel clara y del 34.7 por ciento para las mujeres de piel oscura. 

Junto a la Universidad de Stanford se analizaron tres programas de reconocimiento facial que se venden de manera comercial en el mundo. De esta manera, los investigadores sostuvieron que el algoritmo utilizado por las compañías tenía varios sesgos de discriminación racial y de género. 

Los tres sistemas trataron la clasificación de género como una decisión binaria, masculina o femenina, lo que hizo que su desempeño en esa tarea fuera particularmente fácil de evaluar estadísticamente. Pero los mismos tipos de sesgos probablemente también afecten el desempeño de los programas en otras tareas.

El punto de que el margen de error entre identificar a un hombre blanco y una mujer negra es del 34 por ciento mayor en el caso del software de IBM; el 93 por ciento de los errores cometidos por el producto de Microsoft afectaba a personas de piel oscura, y el 95 por ciento de los fallos de Face++, una alternativa china, se refería a mujeres.

Por otra parte, en la Unión Europea grupos de defensores de la privacidad presentaron demandas contra Clearview AI, alegando que los datos biométricos utilizados incumplían la normativa europea. Los activistas reclamaron ante agencias de datos de Francia, Austria, Grecia, Italia y Gran Bretaña. Allí la empresa almacenó unos 3.000 millones de personas sin autorización al “recortar” las imágenes de sitios web. 

“Extraer nuestros rasgos faciales únicos o incluso compartirlos con la policía y otras empresas va mucho más allá de lo que podríamos esperar jamás como internautas”, indicó Ioannis Kouvakas, abogado del grupo con sede en Londres Privacy International.

Más datos:
Nest Hub Max de Google emplea la tecnología de reconocimiento facial para, literalmente, buscar al usuario. Casi del mismo modo que se activa la escucha permanente para poder identificar un «OK, Google».

Deja una respuesta

Your email address will not be published.

Últimos artículos de Suplementos