Manifiesto contra el uso de la Inteligencia Artificial (IA) en la frontera sur

Actualidade
14 Xaneiro 2022

Recientemente ha aparecido en prensa la noticia relativa a la voluntad del gobierno español de construir una "frontera inteligente", utilizando herramientas de inteligencia artificial (IA), para incrementar los controles de seguridad en las fronteras de Ceuta y Melilla. Esta “frontera inteligente” serviría a las autoridades para saber realmente quién entra y sale por los pasos fronterizos. Contaría, entre otras herramientas de tecnología, con cámaras de reconocimiento facial, y permitiría el cruce de los registros informáticos de entradas y salidas por la frontera, con los controles de identidad en el puerto y helipuerto/aeropuerto, que es puerta de entrada al espacio Schengen.

Al conocer esta noticia, más de 400 organizaciones sociales y personalidades relevantes están impulsando el manifiesto que está a continuación. En él expresan su preocupación y alertan de los peligros derivados de estas decisiones políticas ya que el uso de la IA puede generar serias vulneraciones de los derechos humanos.

MANIFIESTO

Recientemente ha aparecido en prensa la noticia sobre la voluntad del gobierno español de aplicar la llamada «frontera inteligente» en los pasos fronterizos de Ceuta y Melilla con el fin de ejercer un mayor control de seguridad mediante el uso de inteligencia artificial a través de la recogida de datos biométricos (reconocimiento facial, huellas dactilares…). Frente a esta noticia, las abajo firmantes manifestamos nuestra preocupación y creemos necesario alertar de los peligros asociados a este tipo de decisiones políticas que conlleva el uso de la inteligencia artificial.

 

Los duros controles fronterizos son espacios de potencial vulneración de derechos:

  1. Vulneración de derechos fundamentales: el impacto en los derechos básicos que puede tener en un futuro la recopilación de datos biométricos como ya ocurre en aplicación del Convenio de Dublín. Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos biométricos, como sus huellas dactilares.
  2.  Violación de la privacidad: los datos biométricos son datos intrínsecos a las personas. La recopilación de datos biométricos en personas sin pasaporte europeo no cumple con el principio de proporcionalidad. Estas personas se encuentran a menudo en situación de vulnerabilidad y no se tienen en cuenta las consecuencias no deseadas de disponer de unos datos biométricos de personas que no cuentan con mecanismos de protección, garantía, y reparación adecuados.
  3. Discriminación y criminalización: La aplicación de la “frontera inteligente” como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español. Las políticas antiterroristas a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada. Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas. La utilización de IA (inteligencia artificial) para el control fronterizo profundizaría la estigmatización y criminalización de grupos de personas que ya se encuentran en una gran situación de vulnerabilidad y/o exclusión.
  4. Transparencia y auditabilidad: El procedimiento adolece de una falta de transparencia tanto en la forma, como en el fondo. Tampoco se menciona la auditabilidad y publicidad de los algoritmos. Por las informaciones conocidas, no se habla de que los algoritmos que se empleen sean auditables y/o explicables, tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos.
  5. Mecanismos de control y revisión. Resulta imprescindible incorporar mecanismos de control y revisión de los procedimientos algorítmicos que permitan enmendar errores de manera ágil por grupos de personas independientes en los que han de poder participar entidades en defensa de los derechos humanos y antirracistas. El uso de estos sistemas de reconocimiento facial supone una doble securitización del proceso, que estigmatiza pero también diluye la responsabilidad humana y política ante los daños, efectos indeseados o consecuencias negativas de su uso.

Por todo ello, la aplicación de mecanismos de inteligencia artificial en el control fronterizo supone un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad. Por ello exigimos:

  1. La aplicación de la regulación de la IA y protección de datos elaborada por la Comisión Europea también a contextos y situaciones que se consideran de tipo “securitario”, no puede haber vacío legal en este ámbito.
  2. La derogación del Reglamento UE 2017/2226 del Parlamento Europeo y del Consejo 30/11 /17 que permite el reconocimiento facial.
  3. La necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar.
  4. Incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera.
  5. Aplicación de tecnologías explicables y auditables, auditoría y control externo de las tecnologías aplicadas, los datos e imágenes almacenadas.
  6. Para que la tarea de fiscalización y control por parte de la sociedad civil se pueda llevar a cabo de manera rigurosa, los procesos de diseño y pruebas de los sistemas, incluyendo las bases de datos utilizadas para calibrar los algoritmos, deben ponerse a disposición de auditorías independientes y personas afectadas.

Fuentes: web APDHA y redes sociales; imagen: El Pais, A. Nance