El reconocimiento facial y el panóptico
8.11.2020
Por Javier Occhiuzzi
El jueves 22 de octubre en la Legislatura porteña se aprobó una ley de video vigilancia que incorpora la tecnología de reconocimiento facial. El Frente de Todos presentó un proyecto para aplicar una técnica repudiada y cuestionada en todas partes del mundo y por ONG varias. La Ciudad de Buenos Aires regularizó su propio sistema de espionaje y control social. Vigilar y castigar, y además monitorear y experimentar. Haremos un breve recorrido por esta nueva tecnología, sus fallas, sus defectos y su uso político en tiempos de crisis.
El filósofo Michel Foucault analizó el cambio económico y social que surgió con la Revolución industrial conocido como capitalismo, que generó un aumento de la riqueza y llevó a que la burguesía se tensione más en combatir los crímenes contra la propiedad que los crímenes contra sujetos individuales. El castigo ya no puede concebirse como una venganza, sino que se justifica a partir de la defensa de la sociedad y de su utilidad para el cuerpo social. Aparece, así, la importancia de la prevención del delito. Por lo tanto, según Foucault, lo que piden los reformadores a lo largo de todo el siglo XVIII es:
No castigar menos, sino castigar mejor; castigar con una severidad atenuada, quizá, pero para castigar con más universalidad y necesidad; introducir el poder de castigar más profundamente en el cuerpo social [1].
Este nuevo temor de la burguesía nació en la forma de la sociedad carcelaria. La estructura más difundida de esta es el “panóptico”, que permite crear un “sentimiento de omnisciencia invisible” sobre los detenidos, en donde cada sujeto se reduce a su mínima unidad y, gracias al panóptico, se garantiza el orden y no hay peligro de complots. El panóptico puede ser también utilizado como máquina de hacer experimentos y modificar el comportamiento o reencauzar la conducta de determinados individuos. Es un lugar privilegiado para hacer posible la experimentación con humanos. En cierta forma es un laboratorio de poder.
La video vigilancia y el panóptico
Las tecnologías digitales empleadas para el monitoreo no son algo exclusivo de nuestra década, sino que surgieron a mitad del siglo XX. El ejército nazi utilizó en 1942 por primera vez cámaras de vigilancia en circuitos cerrados de tv para monitorear lanzamientos de misiles. El límite que tenían estos circuitos cerrados era que no se podían monitorear a la distancia; había que estar dentro de ese circuito para ver las imágenes. Es decir: no hay posibilidad de acceder desde ningún monitor ni dispositivo fuera de dicho circuito.
Con el surgimiento de los avances en telecomunicación, empezaron a surgir los primeros grabadores con tarjeta de red, con los cuales, a través de aplicaciones, ya se podían visualizar las cámaras desde monitores o computadoras externas a la instalación. Comenzó a surgir el acceso remoto y, por lo tanto, se hizo posible acceder a la visualización a distancia desde cualquier aparato electrónico en cualquier parte del mundo. El antiguo circuito cerrado de TV ha pasado a ser un sistema de video-verificación: si aparece en la imagen de la pantalla, es verdad.
Breve historia del reconocimiento facial
En 1960 se comenzó a trabajar en una tecnología que podía identificar los rasgos humanos en una imagen. Por medio de un lápiz óptico se marcaban las coordenadas de los ojos y la boca; era un sistema preciso, pero manual. En los ‘80, junto con el nacimiento de la programación informática, surgió el primer programa de identificación facial. En 1991 surgió el primer algoritmo que podía identificar un rostro humano en una fotografía: nació el reconocimiento facial automático. De a poco, esta nueva tecnología se fue introduciendo en los sistemas de seguridad, hasta el 2001. Luego del atentado a las Torres Gemelas del 11 de septiembre de ese año, el Estado comienza a incorporar estos sistemas de vigilancia en los aeropuertos y lugares de transbordo, las nubes de información daban la capacidad de almacenamiento para cruzar bases de datos y verificar a los pasajeros.
Pero la tecnología de reconocimiento facial no llegó al público en general sino hasta 2010, cuando Facebook la incorporó para etiquetar gente. Ciertamente se volvió un tema polémico a partir de los cuestionamientos que surgieron en la población por la violación de la privacidad. Para no entrar en esa polémica, Facebook, desde septiembre de 2019, deja que cada usuario decida si quiere o no que el algoritmo lo etiquete.
El ojo blindado que nos mira mal
Al día de la fecha, de entre el software de reconocimiento facial se pueden identificar dos grandes grupos.
El primero de ellos es el sistema “uno a uno”, cuyo objetivo es verificar que uno es quien dice ser. El ejemplo más claro son los smartphones que se desbloquean con reconocimiento facial o los sistemas de pago bancarios. El ejemplo más extremo de esto es Singapur, en donde el reconocimiento facial es el nuevo método oficial reconocido por el gobierno con el que los ciudadanos pueden identificarse para acceder a servicios gubernamentales y privados.
El otro grupo de algoritmos que maneja el reconocimiento facial es el “uno a x”, que utilizan los sistemas de seguridad en los espacios públicos. Estos sistemas cuentan con una base de datos previa de personas registradas, que al momento de verificar son cruzadas (big data mediante) con las imágenes de los que transitan el espacio para ver si alguna coincide con las que componen esas bases.
Los algoritmos también son racistas
Si bien es cierto que el reconocimiento facial se ha expandido a lo largo del mundo, su uso y aplicación con fines de “seguridad” es desigual en distintas partes del planeta.
En 2015, un usuario de Google Photos descubrió que el programa etiquetaba a sus amigos afroamericanos como si fueran gorilas: la inteligencia artificial (IA) era incapaz de distinguir una tez oscura de otra. A principios de 2018, una investigación de la Universidad de Darmouth confirmó el sesgo racista de Compass (el sistema que usan los jueces estadounidenses para apoyar sus decisiones). El software sugería la no libertad a los afroamericanos (a quienes además perjudicaba con falsos positivos, pronosticando más reincidencias que las reales) con mayor frecuencia que la de los blancos, a quienes beneficiaba con falsos negativos. En otras palabras, podemos decir que si “la estadística” arroja que la mayoría de los acusados son afroamericanos, el algoritmo asume que es más probable que los culpables sean personas de tez oscura.
Es muy importante destacar estos casos, ya que dan cuenta que los algoritmos y la tecnología en general no surgen de la nada, sino que son obra de personas con intereses e ideología que se filtran en su creación a través de lo que se conoce como “sesgo digital”. Dicho de otra manera: los prejuicios individuales y generales de los programadores que se combinan con los de otras personas en una escala masiva y se amplifican. Esta naturalización tecnológica oculta la detección de los sesgos y la discriminación se enmascara.
Todos estos temas no están resueltos y, al contrario, parece que se potencian en momentos de crisis donde la represión estatal está a la orden del día. Tanto es así que Microsoft se negó a producir este tipo de software para la policía debido a que no hay todavía una reglamentación sobre derechos humanos que la regule. Amazon suspendió la comercialización de esta tecnología hasta que se profundice una regulación sobre ella. Y, en el mismo sentido, IBM también se sumó a esta “moratoria” por idéntica razón.
San Francisco fue la primera ciudad de EE. UU. que prohibió el uso del reconocimiento facial por la policía en 2019 debido a las violaciones a los derechos humanos. Este año también se sumó Boston, y la disputa sigue creciendo.
El falso positivo y la ciber-portación de rostro en la ciudad de Buenos Aires
Buenos Aires este año ganó el título de ser la primera ciudad del mundo en experimentar el reconocimiento facial en niños. Según denunció la organización Human Rights Watch el 9 de octubre de este año, el sistema de monitoreo facial de la ciudad incluye en su base de datos de personas a “identificar” a menores de edad.
Las bases de datos se alimentan con el listado de “capturas pendientes” del CONARC (Consulta Nacional de Rebeldías y Capturas) donde figura el nombre completo, el DNI y la fotografía del DNI, la cual es usada por el algoritmo para compararla con todas las caras que pasan por las cámaras de este sistema (por ejemplo, en la terminal de trenes del barrio de Constitución). Y, por si todo esto fuera poco, el listado incluye a menores de edad con nombre completo; la enorme mayoría de ellos por delitos leves, como hurto.
En una carta enviada por Human Rights Watch al jefe de Gobierno de la Ciudad, Horacio Rodríguez Larreta, se le extiende un completo informe en donde se demuestran todos los defectos y errores del sistema:
En la actualidad, la Ciudad Autónoma de Buenos Aires está utilizando el sistema a pequeña escala por cuestiones presupuestarias. La Unión Europea ha estimado que cuando la tecnología de reconocimiento facial se utiliza en lugares transitados por millones de personas, como un sistema de estaciones de subte, incluso una tasa de error relativamente baja como el 0,01 % podría resultar en que cientos de personas sean erróneamente identificadas una vez que el sistema se implemente a gran escala. En una declaración oficial, el gobierno de la Ciudad Autónoma de Buenos Aires ha admitido tasas de error del 3 % o más.
El falso progresismo y el ciber-espionaje
El 22 de octubre pasado, con 36 votos a favor y 18 en contra, la Legislatura porteña aprobó la ley de regulación del reconocimiento facial, tan repudiada por organismos de derechos humanos nacionales e incluso internacionales.
El bloque político que presentó el proyecto fue el del Frente de Todos, de la mano de la diputada Claudia Neira. Al parecer, podemos afirmar que hay una doble vara para medir el ciber-espionaje. Cuando se es oposición es malo, pero cuando se es gobierno es bueno. Doble discurso y el fin de un relato de progresismo e inclusión que habilita mecanismos de control y discriminación repudiados en el mundo entero.
Podemos decir que el reconocimiento facial cumple el sueño de todo régimen autoritario que consiste invertir la carga de la prueba: si el algoritmo lo dice, se es culpable hasta que se demuestre lo contrario, como dijo Myriam Bregman, legisladora del PTS en el FITU, en la sesión que discutió dicho proyecto.
A modo de cierre y conclusión
Los dispositivos de control masivo nacen con el Estado moderno, ya que su objetivo principal es administrar los negocios de una pequeña minoría, y para eso se debe tener control sobre la amplia mayoría de la clase trabajadora. Desde el nacimiento del banco de datos con huellas digitales, pasando por el documento único de identidad y llegando al reconocimiento facial, el objetivo es el mismo: presuponer que hasta que no se es correctamente identificado, se es potencialmente peligroso.
Estas técnicas han tomado diversas formas y estilos de aplicación a lo largo de las últimas décadas, pero siempre de lo que se trata es de cómo se establece la relación de fuerzas para su aplicación. La tecnología no flota en el aire, las ideas no caen del cielo. Estos dispositivos se ubican en los lugares de tránsito donde la clase trabajadora se mueve, en los lugares en donde protesta, se manifiesta y sobre todo lucha. Su razón de ser es la cohesión y la intimidación.
Que esta nueva técnica se aplique, va a depender de cómo la clase vigilada y castigada se organice y luche, ya que la aplicación de las nuevas técnicas depende del resultado de la lucha por una relación de fuerzas. En resumen, como dijo la legisladora Myriam Bregman: “Al reconocimiento facial no se lo regula, sino que se lo prohíbe”.
NOTAS AL PIE
[1] Foucault Michel, Vigilar y Castigar. Nacimiento de la prisión, Bs. As., Ed. Siglo XXI, 2005, p. 86.