O recoñecemento facial masivo na UE pon en xaque o dereito á privacidade

Bruxelas negocia un acordo para impulsar unha base de datos común.
No Estado, a Garda Civil conta desde 2020 cun sistema de recoñecemento facial nos grandes eventos. (Foto: Concello de Calatayud)
photo_camera No Estado, a Garda Civil conta desde 2020 cun sistema de recoñecemento facial nos grandes eventos. (Foto: Concello de Calatayud)

A tecnoloxía de recoñecemento facial a grande escala xa leva anos entre nós. No Estado español, desde 2020, a Garda Civil utiliza estes sistemas en eventos multitudinarios. Porén, non é o único, até 32 países europeos usan ou cando menos probaron esta tecnoloxía, principalmente, co gallo de xestionar a seguridade pública.

Estas experiencias, denuncia Esculca, Observatorio para a defensa dos dereitos e liberdades, permitiron ás autoridades destes Estados obter unha importante base de datos que agora, advirten, poderían pórse en común, aumentando os riscos de violación dos dereitos fundamentais.

As investigadoras Saioa Echebarria e Alberto Urrea debullaron o proxecto que, nese sentido, está a desenvolver a Unión Europea, como parte das negociacións para unha segunda convención de Prüm, un acordo de 2005 para permitir o intercambio de información e a colaboración entre as forzas policiais dos Estados en delitos como terrorismo.

Neste novo tratado, o Código de Cooperación Policial concentra a maior parte das críticas, ao abrir a porta dun marco común onde a Policía dos Estados que asinen o convenio poderán acceder ás imaxes faciais do resto e aplicar algoritmos de recoñecemento, para o que xa contan cunha ampla base de datos, como foi desvelado durante as negociacións: 30 millóns de fotos en Hungría, 17 millóns en Italia ou 6 millóns en Francia.

O especialista en temas tecnolóxicos de Esculca, Paulo Vázquez, explica en declaracións a Nos Diario que esta proposta “vulnera o dereito á intimidade” e ten carácter “coercitivo”, e alerta de que, incluso no caso de que a UE quixese “utilizar este sistema de forma ética”, agrupar un volume de información sensíbel tan destacado provoca riscos a nivel de seguridade informática, pondo o exemplo de Costa Rica, que sufriu un hackeo dos sistemas públicos en abril e aínda non foi quen de recuperalos.

Así e todo aclarar que a mellor alternativa é que non se faga un proxecto destas características, di Vázquez, que indica que un acordo deste tipo tería que contar polo menos nos seus órganos de xestión con entidades en defensa dos Dereitos Humanos que garantan un comportamento ético 
neses sistemas.

"Se un Goberno quere utilizar ese sistema para vixiarnos, agora pode facelo dunha forma automatizada e a unha escala maior", alertan desde Esculca

Malia que a Comisión Europea di que o cruzamento de imaxes estará dirixido a convictos e sospeitosos e non se estenderá á poboación xeral, o director da división de Intelixencia Artificial Ética de Salesforce, Yoav Schlesinger, apunta que se “un Goberno quere utilizar ese sistema para vixiarnos, agora pode facelo dunha forma automatizada e a unha escala maior da que nunca antes foi posíbel”, e sinala que  "se es home branco é máis fácil pensar que estas tecnoloxías contribúen á seguranza, mais se non estás  nese grupo, as cousas poden ser diferentes”.

Mulleres e poboación negra, a máis prexudicada

Confirma esta afirmación a avogada Ela Jakubowska, que dirixe as campañas da asociación European Digital Rights (Dereitos dixitais europeos), que afirma que varios estudos sosteñen que a posibilidade de erro nos sistemas de recoñecemento facial aumenta no caso de mulleres, persoas cunha tonalidade escura de pel ou persoas novas, o que xera graves consecuencias ao tratarse de ferramentas policiais que levan a detencións e até acusacións.

O sexo inflúe no algoritmo. (Foto: Intel)
O sexo inflúe no algoritmo. (Foto: Intel)

O vencello entre recoñecemento facial e prácticas racistas

O sistema de recoñecemento facial utilizado pola Policía de Nova York (Estados Unidos) vulnera o dereito á intimidade con maior probabilidade no caso das mulleres, da poboación racializada ou daquelas que viven nun barrio onde a poboación branca é minoritaria, concluíu un informe de Amnistía Internacional presentado en febreiro, que critica o uso indiscriminado desta ferramenta.

comentarios