CABA: la Legislatura porteña debate un polémico proyecto sobre tecnologías de reconocimiento facial
18.9.2020
La Comisión de Seguridad de la Legislatura porteña se reunió este jueves para tratar la incorporación del Sistema de Reconocimiento Facial (SRF) a la modificación el sistema de seguridad público de la ciudad, que consiste en utilizar sistemas de inteligencia artificial y reconocimiento facial en manos del Ministerio de Seguridad porteño. El proyecto de ley fue presentado por Claudia Neira, Claudio Américo Ferreño, Victoria Montenegro y Santiago Luis Roberto, del Frente de Todos. La Fundación Vía Libre propone prohibir su uso porque en “diversos lugares del mundo estas tecnologías en poder de las fuerzas de seguridad están siendo cuestionadas, en particular por los marcados antecedentes de vigilancia desproporcionada en la esfera pública y discriminación de todo tipo, pero muy especialmente racial y de clase”. Por su parte la legisladora del PTS-FIT Myriam Bregman señaló: “¿se puede regular algo tan peligroso? Ese sistema fue parte del sistema de espionaje que puso en marcha el macrismo. El uso de estas tecnologías fue promovido por Patricia Bullrich, a pesar de que no fueron exitosas en ningún lado. Hay graves denuncias sobre su uso discriminatorio: por ejemplo, en EE.UU., para la persecución de inmigrantes, y ahora para identificar manifestantes del #BlackLivesMatter”.
El Sistema de Reconocimiento Facial (SRF) ya fue puesto en marcha en modo piloto el 25 de abril de 2019 por el Ministerio de Justicia y Seguridad de la Ciudad, cuyo Centro de Monitoreo ubicó en el barrio porteño de Chacarita. Se activó un sistema de reconocimiento facial en 300 cámaras de vigilancia de la Ciudad. Pero el sistema presentó fallas en el reconocimiento de personas consideradas sospechosas, arrojando falsos positivos, por lo que el Registro Nacional de Reincidencia ordenó depurar la base de datos del SRF, suspendió la publicación de datos personales y ordenó interrumpir el Sistema de Consulta Nacional de Rebeldías y Capturas (CoNaRC) en noviembre de 2019.
Ahora, a partir de un proyecto presentado por Claudia Neira, Claudio Américo Ferreño, Victoria Montenegro y Santiago Luis Roberto, del Frente de Todos, la Comisión de Seguridad de la Legislatura porteña se reunió este jueves para tratar la incorporación del Sistema de Reconocimiento Facial (SRF) a la modificación el sistema de seguridad público de la Ciudad. Y rápidamente comenzó la polémica en torno a la utilización de sistemas de inteligencia artificial y reconocimiento facial en manos de fuerzas de seguridad.
La Fundación Vía Libre, junto con el respaldo de organizaciones como AccessNow, ADC, el Centro de Estudios Legales y Sociales (CELS) y ODIA, expresó: “entendemos que antes de avanzar en esta regulación se debe dar otra discusión todavía más profunda: ¿es aceptable instalar tecnologías de esta naturaleza en la esfera pública? Esta pregunta no es nueva y no somos los primeros en hacerla. Varios distritos y ciudades se han dado esta discusión en los últimos meses y en muchos casos la respuesta fue un rotunto no. En los EE.UU., a nivel de Estados Federales y Municipales se han dado diversas legislaciones sobre esta práctica. En el Estado de California, una ley prohibe el uso de cámaras colocadas en chalecos de los oficiales de policía. En varias ciudades se prohibió directamente el uso de sistemas de reconocimiento facial. El puntapié inicial lo dio San Francisco, pero la acompañan Alameda, Berkeley y Oakland. A su vez, en el estado de Massachusetts, estas tecnologías fueron directamente prohibidas en Boston, Springfield, Cambridge, Easthampton, Northampton, Brookline y Somerville”.
Asímismo, la organización agregó: “desde la Fundación Vía Libre instamos a la Legislatura porteña a dar este debate y ampliar las voces que participen del mismo, a la vez solicitamos que se haga lugar a una posición más firme en relación a estas tecnologías. En la regulación planteada no se pone sobre la mesa de debate el impacto en Derechos Humanos, no se solicita una evaluación de impacto sobre los mismos, ni siquiera se ha cursado el proyecto a la Comisión de Derechos Humanos, Garantías y Antidiscriminación, sede natural de un proyecto de este tipo”.
La fundación también recordó la posición sobre el tema de Joseph Cannataci, tras su visita en Argentina como Relator de Naciones Unidas para el derecho a la privacidad de las personas: “soy consciente de la necesidad de detener a las personas sospechosas de haber cometido delitos y llevarlas ante la justicia, pero no veo la proporcionalidad de instalar una tecnología con graves implicaciones para la privacidad para buscar en una lista de 46 mil personas, que actualmente incluye a menores y delitos no graves, y que no se actualice y compruebe cuidadosamente su exactitud”, expresó, en referencia a la activación que realizó el GCBA en abril de 2019 de un sistema de reconocimiento facial en 300 cámaras de vigilancia de la ciudad, conectado a la CONARC, la base de datos pública de personas buscadas por la justicia, compuesta por 46.000 archivos.
En este sentido, Vía Libre expresó: “¿Por qué decimos que es indispensable una moratoria / prohibición de uso de sistemas de reconocimiento facial? Porque son sistemas que impactan directamente sobre los Derechos Humanos de toda la ciudadanía, incluyendo aspectos centrales como el derecho a la privacidad, el debido proceso, la presunción de inocencia, la libre circulación y la libertad de reunión en el espacio público. Porque nunca en democracia se había instalado un sistema tan invasivo de los derechos de libre circulación en la esfera pública. Porque estos sistemas registran, analizan y evalúan según la fisonomía de las personas, con un retroceso notable en materia de discriminación. Porque no hay evidencia de que estos sistemas cumplan con los objetivos previstos ni información clara sobre su utilización de los mismos en la C.A.B.A. Porque la conformación de bases de datos biométricas supone la vulneración de derechos fundamentales en materia de protección de datos sensibles de la ciudadanía y la dinámica de implementación impide a las personas tener conocimiento acabado sobre la recolección, procesamiento, uso y eventual destrucción de los datos recolectados en la esfera pública. Porque en diversos lugares del mundo estas tecnologías en poder de las fuerzas de seguridad están siendo cuestionadas, en particular por los marcados antecedentes de vigilancia desproporcionada en la esfera pública y discriminación de todo tipo, pero muy especialmente racial y de clase”.
Por su parte, la legisladora del PTS-FIT Miryam Bregman expresó: “el Frente de Todos quiere tratar un proyecto para regular el sistema de cámaras instaladas en la Ciudad. ¿Se puede regular algo tan peligroso? Ese sistema fue parte del sistema de espionaje que puso en marcha el macrismo con su grupo Super Mario Bros. En el país, el uso de estas tecnologías fue promovido por Patricia Bullrich a pesar de que no fueron exitosas en ningún lado. Hay graves denuncias sobre su uso discriminatorio: por ejemplo en EE UU para la persecución de inmigrantes, y ahora para identificar manifestantes del #BlackLivesMatter. Es un sistema peligroso porque arroja falsos positivos, por la posibilidad de hackeo y porque es altamente invasivo de la privacidad. El reconocimiento facial instaurado por Larreta es duramente cuestionado por organismos de derechos humanos por persecutorio y violatorio de la libertad e intimidad. Aunque se regule, le están dando la posibilidad de continuar usando y proveyéndose de ese sistema al jefe de los fiscales, Juan Bautista Mahiques, envuelto en el escandaloso caso de manipulación de causas judiciales. ¿En serio no piensan que es peligroso?”, se preguntó.
En tanto, la Defensoría del Pueblo de la Ciudad envió una carta a la diputada del FTD Claudia Neira con una serie observaciones y recomendaciones, donde insta a los y las legisladoras a que “la normativa debe inspirarse en y cumplir con los principios de proporcionalidad y razonabilidad para generar un marco de implementación adecuado y que el SRF no devenga en acciones desmedidas, instrusivas o violatorias de las garantías constitucionales”. Asimismo, sostiene que “el documento explicita la necesidad de adoptar medidas para garantizar la seguridad de la información, en cuanto al tratamiento y almacenamiento de las bases de datos, así como el diseño de planes de contingencia frente a eventuales incidentes informáticos”.