Amnistía Internacional reclama que se prohíba el uso de tecnología de reconocimiento facial

809

Amnistía Internacional lanza hoy una campaña global para pedir que los estados prohíban el uso de sistemas de reconocimiento facial, una forma de vigilancia masiva que afecta fuertemente el ejercicio de los derechos humanos.

Los sistemas de reconocimiento facial con fines de identificación son una forma de vigilancia masiva que viola el derecho a la privacidad y amenaza los derechos a la libertad de expresión, reunión pacífica y asociación, y el derecho a la igualdad y a no sufrir discriminación. La campaña Ban the Scan (“Veto al escaneo”) fue lanzada hoy en la ciudad de Nueva York, donde Amnistía Internacional, junto a un conjunto de organizaciones, reclama la promulgación de una ley que prohíba que los organismos oficiales utilicen tecnología de reconocimiento facial para vigilancia masiva en la ciudad.

En el plano local, en octubre del 2020, Amnistía Internacional Argentina y diversas organizaciones de la sociedad civil se manifestaron en contra de la reforma de la Ley 5688 del Sistema Integral de Seguridad Pública de la Ciudad de Buenos Aires, que proponía la incorporación del Sistema de Reconocimiento Facial de Prófugos . A pesar de las preocupaciones de la sociedad civil, el 22 de octubre de 2020, la Legislatura porteña aprobó la reforma y legitimó el uso de tecnologías que legitiman la vigilancia masiva en el espacio público-.
141189851_892487448229452_5226970689422279158_oEl uso de reconocimiento facial para la vigilancia masiva es una tecnología desproporcionada que recolecta datos sensibles y vulnera la presunción de inocencia y el debido proceso ya que las personas son consideradas sospechosas hasta tanto se analizan sus datos biométricos y se concluye que son inocentes. Asimismo, se ha demostrado que producen errores que menoscaban el derecho a la igualdad y pueden llevar a la criminalización de personas incorrectamente identificadas. El uso de estas tecnologías puede generar un efecto inhibidor y desincentivar gravemente formas de disidencia dificultando el ejercicio del derecho a la libertad de reunión, la libertad de asociación y la libertad de expresión.

“Los sistemas que adoptaron la Ciudad de Buenos Aires y otras ciudades del mundo procesan información biométrica de toda persona que pase frente a las cámaras. Esta tecnología es invasiva y viola los derechos humanos: pone a personas inocentes en una suerte de rueda policial de reconocimiento permanente y viola el derecho a la privacidad”, afirmó Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina.

Ante el considerable riesgo que la tecnología de reconocimiento facial significa para los derechos humanos, Amnistía Internacional pide a los estados que impongan una prohibición total del uso, desarrollo, producción, venta y exportación de tecnología de reconocimiento facial con fines de identificación y vigilancia masiva.

La tecnología de reconocimiento facial puede desarrollarse reuniendo millones de fotos de perfil de las redes sociales por ejemplo, sin el consentimiento de las personas retratadas en ellas. Luego, un programa informático hace un análisis facial de las imágenes tomadas por las cámaras de videovigilancia u otros sistemas similares y busca posibles coincidencias contrastando con la base de datos de las fotos de perfil reunidas.

A pesar de que algunas ciudades de Estados Unidos, como Boston, Portland y San Francisco ya han prohibido el uso de tecnología facial por los organismos encargados de hacer cumplir la ley, muchas otras ciudades incluidas Nueva York y la Ciudad de Buenos Aires continúan utilizando esta tecnología. El lanzamiento de la campaña Ban the Scan de Amnistía Internacional va acompañado de la creación de un sitio web donde los vecinos y vecinas de Nueva York podrán generar solicitudes de información pública para ver dónde se utiliza tecnología de reconocimiento facial en sus comunidades. El sitio se ampliará en mayo de 2021, con Amnesty Decoders, una red mundial de activistas digitales que ayudarán a geolocalizar en Nueva York dispositivos de vigilancia con capacidad de reconocimiento facial para que los ciudadanos y ciudadanas sepan exactamente dónde se utiliza la tecnología. El sitio contiene también recursos para ayudar a la gente a protegerse mejor en las protestas y contra el uso de tecnología de reconocimiento facial.

Derechos humanos afectados:

? Derecho a la privacidad: la tecnología de reconocimiento facial con fines de identificación procesa información biométrica de toda persona que pase frente a sistemas de vigilancia. Es, por lo tanto, una modalidad de vigilancia masiva y su implementación no es necesaria ni proporcionada en ninguna circunstancia.

? Libertad de expresión: el hecho de estar bajo constante vigilancia puede generar un efecto inhibitorio y desincentivar fuertemente la disidencia pacífica, sobre todo de aquellas personas críticas de las autoridades que tienen el control de estas tecnologías.

? Libertad de reunión pacífica y asociación: la tecnología de reconocimiento facial puede dificultar de forma significativa el derecho de reunión pacífica y asociación al eliminar el anonimato e impedir el libre ejercicio de estos derechos por el miedo a futuras represalias.

? Derecho a la igualdad y no discriminación: se ha demostrado que esta tecnología tiene dificultades para distinguir personas de tez oscura, lo cual deriva en un sinnúmero de falsos positivos y afecta de forma desproporcionada a grupos que ya se encuentran en situación de vulnerabilidad.

? Presunción de inocencia y debido proceso: la tecnología de reconocimiento facial con fines de identificación asume que todas las personas son sospechosas hasta tanto se analizan sus datos biométricos, vulnerando así la presunción de inocencia y el debido proceso.

? Derecho a un recurso efectivo: la tecnología de reconocimiento facial menoscaba este derecho ya que es posible que las personas no sepan dónde han sido captados sus rostros, y aunque lo sepan y deseen impugnarlo, generalmente no existen mecanismos y procesos para hacerlo.

Amnistía

Más notas sobre el tema