Detrás de las ventajas que se promocionan alrededor del uso de sistemas de reconocimiento facial están la pérdida de privacidad, la inversión de la presunción de inocencia y un mayor control policial sobre los ciudadanos. En Buenos Aires, la implementación es criticada por sus errores, no tuvo debate legislativo y tampoco hubo estudios de impacto previos.
Agencia TSS – El 25 de junio pasado, Leonardo Colombo Viñas estaba por subir a un vagón del subte porteño en la estación Callao cuando se le acercaron dos policías para pedirle su documento: había sido identificado por el sistema de reconocimiento facial en vía pública que el Gobierno de la Ciudad de Buenos Aires utiliza para encontrar a personas con pedido de captura. Tras varias horas, que incluyeron una visita a una comisaría para tomar sus huellas digitales, Colombo Viñas fue “liberado” y su caso fue un aparente error de carga en la base de datos del Registro Nacional de Reincidencia (CONARC), que hasta hoy permanece de esa manera. “Aparentemente, fue un error de carga en un juzgado, figuraba mi documento pero los demás datos eran de otra persona, todavía no lo corrigieron”, le dijo a TSS este profesional y docente de informática, quien considera que “este tipo de sistemas tendrían que estar para ayudar a la gente y no sé cuánto ayuda esto, porque falta información y es poco transparente cómo funciona. Yo lo tomé con calma, pero con el pasado que tiene este país en cuanto a las detenciones en la vía pública no sé qué tanto ayuda usar algo así”, agregó.
El sistema de reconocimiento facial que está implementando el Gobierno porteño –primero en las calles, posteriormente en estaciones de subte y ahora en ferrocarriles– dista de ser una novedad en el mundo. Ciudades como Londres no han hecho más que aumentar el uso de cámaras en la calle desde los años ochenta y países como China han construido un gran sistema de vigilancia mediante el uso de sistemas capaces de reconocer los rostros en la vía pública. Pero comienza a ser cada vez más cuestionado, al punto que una ley en la ciudad estadounidense de San Francisco prohibió su uso por parte de las fuerzas de seguridad en mayo pasado.
Según declaraciones a Télam del vicejefe de Gobierno porteño, Diego Santilli, quien también está a cargo del Ministerio de Justicia y Seguridad, el sistema no afecta la intimidad de los ciudadanos ya que solo «busca» en la base de datos de la CONARC. A mediados de julio, el sistema había puesto a disposición de la Justicia a 1.043 prófugos, según Santilli.

Durante una visita a la Argentina, en mayo pasado, el Relator Especial de la ONU sobre el Derecho a la Privacidad, Joseph Cannataci, criticó el sistema de reconocimiento facial que se comenzó a implementar en 300 de las cerca de 7000 cámaras que hay en la ciudad, y se refirió a que el sistema fue desplegado sin una evaluación del impacto en la privacidad y al hecho de que en los cerca de 46.000 archivos que hay en la base de datos de la CONARC hay menores, delitos no graves e inexactitudes en la carga de información. Buenos Aires no es el único caso en la Argentina en implementar estas tecnologías: en Tigre también se avanza en la implementación de un sistema similar, al que inclusive se pretende utilizar para detectar “recorridos sospechosos”.
Ante la consulta de TSS, Eduardo Bertoni, director de la Agencia de Acceso a la Información Pública, coincidió con Cannataci en “la importancia de la realización de estudios de impacto previo a la implementación de un sistema”, aunque aclaró que la Agencia no tiene jurisdicción sobre los tratamientos de datos personales que efectúen las autoridades provinciales o municipales.
Cámara oscura
Un sistema de reconocimiento facial utiliza algoritmos para evaluar los rasgos de cada persona y contrastarlos para determinar el nivel de probabilidad en la identificación. En la Ciudad Autónoma de Buenos Aires, el Sistema de Reconocimiento Facial de Prófugos comenzó a funcionar el 24 de abril, con la publicación de la Resolución 398/19 del Ministerio de Justicia y Seguridad y su Anexo, sin pasar por un debate en la Legislatura porteña.
En abril pasado, el Gobierno porteño publicó la “contratación directa de un servicio de análisis integral de video”, que fue adjudicada a la empresa Danaide, por un monto de 1.511.300 dólares. La Asociación por los Derechos Civiles (ADC) realizó varios pedidos de información sobre el funcionamiento del sistema, a los que respondió el Ministerio de Justicia y Seguridad. Entre las respuestas, se aclara que el software utilizado se llama “UltraIP“ y que es desarrollado por Danaide, que el sistema funciona en simultáneo en las 300 cámaras y que se encuentra por encima del 90% de aciertos en la identificación de personas.

TSS intentó comunicarse sin éxito con el área de prensa del Ministerio de Justicia y Seguridad. Hernán Carzalo, presidente de Danaide, consultado sobre las características del sistema y el proceso de selección, fue lacónico al teléfono: “No puedo contestar a las preguntas porque tengo firmado un acuerdo de confidencialidad, pero puedo decir que nuestra empresa tiene un área de investigación y desarrollo dedicada al análisis de imágenes”, dijo.
“Una de nuestras principales críticas es la desproporción de la implementación, es una tecnología muy invasiva para lo que viene a solucionar”, le dijo a TSS Leandro Ucciferri, abogado e investigador de ADC. “Hay mucha opacidad en cómo son adquiridas y reguladas estas tecnologías, además de que la ley de identificación de personas es producto de una dictadura (Ley 1671) y en todos estos años tampoco ha sido revisada para analizar el impacto de las nuevas tecnologías”, agregó.
“Creo que me favoreció mi condición de hombre de clase media, rubio”, dijo Colombo Viña con respecto al buen trato que recibió por parte de los policías cuando fue detenido. Sin embargo, las consecuencias de una identificación equivocada pueden no ser siempre tan amables.
En la Defensoría del Pueblo de la Ciudad de Buenos Aires acumulan varias denuncias por personas demoradas por mal funcionamiento de este sistema. “Son por titulares de documentos que no se corresponden con la foto, también por falsos positivos. A veces no se sabe muy bien de dónde viene el error. También sabemos de casos de testigos en juicios que han sido buscados por este sistema, algo que no corresponde porque es una base para prófugos. Tiene que haber un protocolo claro y monitoreado, el sistema debería ser más transparente”, le dijo a TSS Carolina Arias, coordinadora de Seguridad Cudadana y Violencia Institucional del organismo.

La Defensoría del Pueblo inició en julio una auditoría sobre el sistema que llevará alrededor de seis meses, según estiman. “Habría sido interesante poder conocer el sistema de antemano”, dijo Arias, quien a partir de la auditoría confía en poder determinar los protocolos que se están llevando a cabo, en aspectos como quién accede a los datos personales de los ciudadanos y la confidencialidad de los mismos, así como su destrucción cuando ya no son necesarios. “Necesitamos corroborar que la base de datos que se usa esté actualizada y que se resguarden todas las garantías legales”, agregó María Julia Giorgelli, del Centro de Protección de Datos Personales de la Defensoría.
Mala cara
“Mientras que una mujer tenga que andar cuidando su cartera, un ciudadano tenga que tener cuidado de hablar por teléfono en la calle y un chico tenga que usar su mochila hacia adelante es un desafío que tenemos”, dijo Santilli ante un salón lleno con alrededor de 80 asistentes que promediaban los 50 años de edad. La convocatoria para conocer el funcionamiento del sistema de reconocimiento facial, a la que asistió TSS, había sido cursada a través de invitaciones por correo electrónico y redes sociales.
La jefa de Monitoreo Urbano, Raquel Cesanelli, que acompañaba a Santilli junto con el periodista y entrevistador Mauro Federico, sostuvo: “Si la identificación coincide con los datos de la persona se hace la consulta al fiscal o al juez que requiera la presencia de esa persona y ellos son los que deben resolver si queda presa en el momento, si ya no es requerida su presencia o si se le notifica que debe presentarse en un juzgado en un día determinado. Hay que pensar si esa pequeña molestia (por la detención policial) no es en beneficio de las grandes ventajas que tiene el sistema”, dijo Cesanelli.
Así, el discurso que apela a la inseguridad y al miedo de la población se asocia con el optimismo por las nuevas tecnologías. Pero, ¿qué sucede con las garantías individuales? ¿Un sistema de estas características avanza sobre la presunción de inocencia? ¿En qué medida su uso en la vía pública pone en riesgo no sólo el derecho a la intimidad de las personas, sino también los de libre asociación y circulación?

“Aunque se trate del espacio público, la gente tiene derecho a circular anónimamente y a que su imagen sea resguardada”, dijo Giorgelli, de la Defensoría. Enrique Chaparro, de la Fundación Vía Libre, coincidió y fue más allá: “A mi juicio, el reconocimiento facial es inconstitucional en el espacio público, porque la protección de la vida privada no se limita al hogar, no especifica que esté reducida a las acciones privadas en su casa, sino que uno traslada su esfera privada al ámbito público”.
Más allá de su posible inconstitucionalidad y de los errores que presentan este tipo de sistemas actualmente, que con el tiempo seguramente irán reduciéndose a medida que se perfeccione la tecnología, Chaparro encuentra más objeciones al reconocimiento facial en la vía pública: “Cada falso positivo es un gran costo para los contribuyentes, más el potencial efecto de las demandas de los afectados, que puede ser discutida como privación ilegal de la libertad. Además, tenemos el sesgo en los algoritmos de estos sistemas –existen estudios sobre discriminación hacia minorías étnicas y en género–, y que se vende a estas tecnologías como inevitables pero no sabemos qué tanto reducen o previenen el delito. Desde mi punto de vista, no se puede delegar en la tecnología la resolución de problemas sociales y políticos. Por algo en el Congreso de Estados Unidos los legisladores están pidiendo poner en pausa el reconocimiento facial federal”, dijo, en relación con un pedido de moratoria de legisladores demócratas y republicanos en el uso de estos sistemas.
Para Ucciferri, la mejora en estas tecnologías también puede traer problemas, como un control más estricto y reacciones como las que recientemente se vieron en las protestas en Hong Kong, donde se atacaban cámaras y se buscaba impedir la identificación mediante el uso de láseres, para evitar represalias por parte de la policía. “Cuando exista un sistema muy preciso tendremos también uno que podrá servir para oprimir minorías y la disidencia política, un sistema que podría ser discriminatorio o favorecer el control y la manipulación de las personas en su vida cotidiana. Tendríamos que preguntarnos si queremos algo así”, sostuvo.
Informes: Matías Alonso
01 ago 2019
Temas: ADC, Biometría, Control social, Privacidad, Reconocimiento facial, Seguridad