Una campaña contra el uso de sistemas de seguridad reconocimiento facial En la ciudad de Buenos Aires, la calle des Ties fue construida en contra de su uso. Se trata de «reconoceme.org», liderado por las organizaciones Democracia en Red y el Observatorio de Derecho Informático Argentino (ODIA), que apunta a concientizar a través de la escala de un código QR.
el Sistema de reconocimiento facial de profesores (FPRS)implementado para detectar e identificar a profesionales de la justicia y delincuentes, encontrándose suspendidos por la justicia porteña en las noticias, mientras que una audiencia con especialistas y representantes del Ministerio de Seguridad porteño determinará en marzo de este año que hoy no fue informada sobria. Cómo utilizar y auditar esta tecnología.
Su uso es cuestionado por organizaciones de la sociedad civil que han resaltado falencias en el sistema. El caso emblemático ocurrido en 2019, cuando un ciudadano estuvo una semana acudiendo porque lo confundieron con un delincuente que tenía el mismo nombre, Guillermo Ibarrola. Durante el último año el tema pasó a la agenda, esta vez a nivel nacional, cuando el gobernador Javier Milei logró implementar este tipo de tecnologías biométricas para identificar manifiestos y penalizarlos con el retiro de planos sociales.
A partir de un proceso de acceso a la información pública realizado en 2019 por la asociación civil ODIA, y luego una acción de amparoexisten una serie de procesos legales también utilizados por el Centro de Estudios Legales y Sociales (CELS) y Fundación Vía Libre que desembocaron en la suspensión de su uso en territorio porteño. Los auditores de Danaide SA, que administran el software, planifican esfuerzos para estas organizaciones, que son enviados a la audiencia.
Clarín Consultaron las fuentes del Ministerio de Seguridad Pública porteño, quienes aseguran que las tarjetas están presentes en la calle: «Vimos la campaña y fallar en la verdad. La herramienta de reconocimiento a los profesionales de la salud (mal llamada «facial») está destinada pura y exclusivamente a las herramientas de la justicia para tratar a los infractores encontrados por los profesionales del derecho.
La campaña: “Reconocème”
La campaña de ODIA pretende concienciar sobre el sistema de reconocimiento facial y los derechos de los ciudadanos: «Esta iniciativa pretende generar conciencia y es un llamado a la acción para mitigar los riesgos inherentes a estas tecnologías y movilizar a la sociedad para exigir transparencia, un uso adecuado, un mecanismo de control». que limita su uso. ODIA y Democracia en Rojo se han convertido en actores clave en la lucha por un futuro digital justo y respetuoso de los derechos humanos en Argentina”.
“A través de la información, el conocimiento y la movilidad ciudadana garantizamos que los avances tecnológicos no se conviertan en una herramienta de control y represión, sino en un instrumento de servicio a la sociedad que permita fortalecer las libertades de todos”, agrega.
Para ello, invita a los usuarios a ingresar a la web reconoceme.org o escanear el QR que hay en la calle para imprimir máscaras de famosos, en estilo pixelado, para ayudar a financiar el reclamo: los modelos de Axel Kicillof y Cristina Kirchner y Patricia Bullrich y Eduardo Feinmann. .
En cuanto a los datos biométricos, explicó Tomás Pomar, presidente de ODIA, una Clarín: “El uso independiente de datos biométricos se refiere al acto, por parte de individuos u organismos públicos, de parte de nuestra información personal respecto del procesamiento y uso sin el consentimiento de su titular. En algunos casos nos encontramos, como mínimo, ante una flagrante vulneración del derecho a la intimidad que asiste a los ciudadanos.
Tenga en cuenta que estos datos personales están mucho más comercializados. Y que, gracias a los avances en inteligencia artificial generativa, las imágenes en particular cobran mayor relevancia: “En los últimos años, la aparición de sistemas de Aprendizaje automático o Planteo un nuevo escenario y un escenario desafiante. En Brasil, por ejemplo, la autoridad de protección de datos personales ordenó a Meta (Facebook) que mantuviera su sistema de inteligencia artificial activado con información de los usuarios de sus plataformas”.
Uno de los temas más discutidos por las asociaciones civiles Democracia en Red y ODIA es el ver con la audiencia del sistema, algo que generó este año una suspensión del uso del SRFP.
La respuesta del gobierno porteño a la campaña
Desde la Secretaría de Seguridad Pública de la Ciudad, se asegura que la campaña confunde el reconocimiento facial con tecnología con la identificación de profesionales: “No debemos confundir los sistemas de inteligencia artificial (IA) con el sistema de identificación de profesionales y es fundamental saludar: el sistema de reconocimiento facial se llama incorrectamente; es un sistema de reconocimiento de profesionales. Es importante que el ciudadano de la región se distinga«.
«El sistema no funciona en buscar o rastreando caras deciviles sino que impacta contra una base donde están los registros de los ciudadanos profugos de la justicia. Este es el núcleo del proyecto y es importante aclarar que pretendemos buscar profesionales para esto. es el compromiso que durante su uso. Descubrimos a más de 1700 personas. que este es el caso del sistema judicial», agregó.
Según ODIA, es este escenario: “La ciudad de Buenos Aires tiene un caso único a nivel global. No es fácil encontrar en la bibliografía o jurisprudencia un caso donde un organismo público haya implementado un sistema de características con un alto nivel de desapego a las buenas prácticas y medidas mínimas de seguridad que se han implementado en la industria del desarrollo de software”, afirma Pomar. .
Por ello, las organizaciones están intentando conocer esta tecnología y sus riesgos, así como los especialistas en ciberseguridad. asegúrese de que no sea seguro consultar los códigos de circulación pública.
“La campaña de Instagram hace que las personas escaneen un código QR para obtener más información. Aunque en este caso no haya malas intenciones, no se recomienda analizar códigos QR que aparecen en lugares públicos sin un origen claro”, dijo un hacker a esta comunidad.
“Un código QR puede dirigir a una persona, por ejemplo, a un sitio que contiene multas por “phishing”, que implica solicitar información confidencial o sensible con intenciones maliciosas. También se puede utilizar este mismo mecanismo para permitir al usuario instalar una aplicación que en la superficie parece benigna, pero que en realidad no lo es”, dijo.
Reconocimiento facial en América Latina
El reconocimiento facial como tecnología de control urbano está siendo cuestionado en varias partes del mundo. En América Latina existe una tendencia creciente hacia la aplicación de la ley para su uso. “La aplicación del reconocimiento facial ha aumentado significativamente en América Latina sin los resguardos necesarios. Proviene principalmente de la implementación de medidas de seguridad y vigilancia pública en espacios públicos, así como del transporte, la asistencia social y la migración”, declaró a este medio Paloma Lara Castro. , director de Políticas Públicas de la organización Derechos digitales.
“Estos sistemas, generalmente implementados sin consentimiento, consultados por estudios de impacto en derechos humanos, representan riesgos importantes para la privacidad y los derechos fundamentales, afectando particularmente a grupos en situaciones vulnerables. La falta de precisión y supervisión de estas tecnologías ha provocado detenciones no especificadasperpetuando desequilibrios estructurales y limitando el acceso a los derechos. Antes de eso, la sociedad civil sigue exigiendo transparencia y rendición de cuentas”, añadió.
En su momento, esta organización publicó información sobre la revisión del estado del reconocimiento facial en América Latina y sobre uno de los nombres comunes que corren riesgo de transparencia tanto en la adquisición de software como de oyentes.
Estas discusiones no se dan sólo en esta región: sólo por ejemplo, el 21 de octubre se supo que en el estado de Virginia, en Estados Unidos, una organización de libertades civiles presentó una solicitud, en la ciudad de Norfolk, para que uso de cámaras que registran lo que hacen los ciudadanos, también cuentan con la ayuda de IA para completar una base de datos.
A nivel regional”, en ParaguayEl Sistema Automatizado de Reconocimiento Facial (SMARF) operó brevemente en la Triple Frontera y ahora opera en el Aeropuerto Internacional Silvio Pettirossi, utilizando bases de datos de la policía nacional. fr. EcuadorLas cámaras de vigilancia del sistema ECU 911 implementan tecnologías de reconocimiento facial desde 2002, principalmente para la seguridad pública. «Sin embargo, los protocolos para operar este sistema han sido declarados reservados hasta 2028, lo que genera falta de transparencia y limita la posibilidad de verificar su uso sobre bases biométricas», cierra Derechos Digitales.
En Buenos Aires, el gobierno de Jorge Macri apunta a que la suspensión suba: «Desde que asumimos esta nueva gestión (diciembre de 2023), hemos estado en coordinación con el partido libertador completando todos los pasos y procesos para restablecer el sistema de reconocimiento docente. Hemos avanzado con varios métodos, hemos informado a los técnicos. «Hemos trabajado con todas las exigencias que nos acechan y confiamos en que la recuperación sea porque es una herramienta que nos permite generar confianza», asegura la fuente del ministerio que dirige el ministro de Seguridad, Waldo Wolff.
“En definitiva, se tratará de cumplir la ley y aplicar la ley en quien esté en ese momento, lo que implica que trabajaremos junto con la Justicia para dar más herramientas para salir adelante”, afirmó -declaró.