"As nosas crianzas están sendo o produto de grandes multinacionais que venden datos a terceiros"

Gemma Galdón, analista de políticas pública e especializada na vixilancia, o impacto social, legal e ético da tecnoloxía (Imaxe: Cedida).
Gemma Galdón é analista e consultora de políticas públicas no ámbito dixital. Residente na Coruña, está especializada no impacto social, legal e ético da tecnoloxía é socia fundadora de Éticas Research & Consulting. Participou das charlas do ciclo Distopías Cotiás que organiza Coruña Dixital co apoio das Bibliotecas Municipais da Coruña coa intervención “Tecnoloxía e privacidade en tempos da COVID-19”.

Da charla despréndese que a chegada da pandemia deixou ao descuberto os deberes sen facer das Administracións públicas en materia de dixitalización.

Desde os 80 déronse grandes avances a nivel tecnolóxico. O aumento da capacidade de procesamento de datos permiten realizar cousas que eran impensábeis, abrindo novas posibilidades de traballo. Porén, observamos moi poucas políticas ao respecto. Cada hospital, cada Concello, cada Comunidade Autónoma contan co seu software e non houbo unha preocupación porque os datos de todas elas se poidan intercambiar. Non se planifica máis alá da xestión do propio. Agora que temos que recoller información ao minuto sobre o número de camas, de test realizados ou de profesionais sanitarios en activo carecemos desa arquitectura. E non hai motivos técnicos para esa carencia.

Non houbo unha preocupación porque os datos de todas as Administraciós se poidan intercambiar

Sinalou que no emprego da tecnoloxía polas Administracións estase a caer no “teatro pandémico”. A que se refire?

Traballei no ámbito das tecnoloxías aplicadas á seguridade e do xestión de riscos e nel falamos de teatro securitario. Un exemplo é o dos aeroportos, con múltiples cámaras de seguridade ou instrumentos de recoñecemento facial. Tecnoloxías que sabemos que funcionan moi mal, pero que se venden como se fosen solucións chegadas do futuro. Creadas máis para xerar a sensación de seguridade que para ofrecela realmente. Na pandemia o mellor exemplo son as cámaras de infravermellos, empregadas para supostamente detectar a alguén con febre mais que só miden a temperatura a nivel superficial, que non ten que ver coa interior. E cando a nivel epidemiolóxico o problema está nas persoas asintomáticas.

Tamén salientou a necesidade de apostar polo desenvolvemento de software público, auditable e ético. Na urxencia da pandemia, existe o risco de que se incremente a dependencia de softwares privados que non cumpran estas características?

É o que me temo. Presenciamos unha ofensiva comercial moi forte por parte de vaias empresas para “colar” os seu software á Administración pública. Evidentemente, cando este momento pase comezarán a cobrar, creando legados técnicos na Administración moi difíciles de solventar. Cada empresa vende a súa solución, que para protexer o modelo de negocio non son doadamente convertíbeis porque tampouco hai unha lexislación que as obrigue. Para mudar dun a outro polo xeral hai que facer un novo investimento e regresar ao principio. Hai Administracións reféns de decisións tecnolóxicas tomadas hai moito tempo con empresas que xa non actualizan os seus sistemas ou que non lles permiten adaptalos.

Hai Administracións reféns de decisións tecnolóxicas tomadas hai tempo con empresas que non actualizan os seus sistemas

No eido do ensino a distancia, como pode afectar a falta de software público para uso educativo aos dereitos das menores?

As conversas, imaxes e opinións do docente van parar a servidores sobre os que se carece de control. Moitos docentes empregan aplicacións comerciais gratuítas, nas que se non pagas con cartos falo con datos, ti es o produto. Se empregas unha plataforma comercial todos eses datos, a cara, a voz, o que fan e onde viven os menores pódese recoller e destinar a un servidor do que non se ten ningún control. As nosas crianzas están sendo o produto de grandes multinacionais que venden eses datos a terceiros. Por non falar das aplicacións telefónicas, que poden exixir permisos de acceso ao micrófono ou á cámara. Detectáronse casos de persoas pedófilas que se introducen en aulas virtuais de menores, accedendo aos seus contactos. Empregamos infraestruturas sen garantías de seguridade. Zoom, por exemplo, mellorou a súa privacidade durante a pandemia. O seu director xeral admitiu que no deseño da aplicación non se tiveran en conta posíbeis problemáticas de seguridade que agora están a parchear.

A OMS sinalou en diversas ocasións a importancia dos test e da recollida de datos para elaborar estudos eficaces da evolución da pandemia e as políticas a implementar. Un mes após decretarse o estado de alarma o Goberno estatal publica un protocolo de recollida deses datos. Que está a fallar?

Penso que foi un fallo importante que cando se decretou o estado de alarma non se acompañase dun protocolo de recollida de datos de calidade. Sorprendeume, porque era unha receita para o desastre, máis sabendo Sanidade é unha competencia descentralizade e a diversidade de softwares que hai nas autonomías. Que se publique un mes despois fala da dificultade á hora de seguir protocolos. Desde a miña experiencia, en situacións de crise hai uns protocolos, non dependes do bo tino do corpo técnico. Con todo, isto non tería solucionado completamente o problema da dificultade de intercambiar eses datos.

Penso que foi un fallo decretar o estado de alarma sen un protocolo de recollida de datos

O anuncio dun estudo da mobilidade da poboación en base aos datos das compañías telefónicas por parte do Estado espertou as alarmas por unha posíbel desprotección da privacidade. Faltan transparencia e pedagoxía á hora de explicar estas decisións?

Penso que compre pedagoxía, máis sensibilidade de cara a cidadanía, pero tamén un xornalismo de calidade que explique como se empregan os datos. Entendo que falamos de cuestións técnicas que a poboación xeral non ten que comprender, por iso me centro nos xornalistas, que actúan tradutores. Ese estudo non emprega nin un só dato persoal, non hai risco sobre a privacidade, mais houbo medios que o retrataron como un Gran Irmán. Non axuda que a forma de informar en materia de datos parta sempre da alarma, porque en ocasións empréganse ben. Tamén penso que o Instituto Nacional de Estatística se trabucou no xeito de liberar os datos, amosando quen sae de cada vila e levando á xente a pensar “que saben de min?”. Cun certo desprezo de cara á poboación. Google fíxoo mellor, cun estudo con moitos máis datos e procesos de recollida máis invasivos, devolvendo o seu estudo nun resultado que non xera esa inquedanza.

Esa preocupación da cidadanía pola privacidade ou o destino dos datos recollido varía de se quen os manexa é o Estado ou unha multinacional, como Google ou Facebook?

A figura do Gran Irmán sempre estivo máis ligado ao Estado que as empresas, que percibimos como provedoras. Ti podes escoller non ter un teléfono cun determinado sistema operativo. E seguramente temos máis interiorizado ese intercambio entre o servizo que recibo e a miña privacidade. Ao Estado exíxelle mais, ao Goberno votámolo entre todos e é normal que o escrutinio das decisións públicas sexa maior. Tamén porque o risco dun mal uso nunha contorna democrática é maior. Pero é que ademais as grandes empresas son, en ocasións, moito máis conscientes que os países da importancia da confianza das persoas nos seus sistemas. Aprenderon a facer máis pedagoxía, a solicitar consentimento, a xerar mecanismos para que resolvas as túas dúbidas ou a recibir auditorías externas. En cuestión de datos, hai unha maior sensibilidade polas empresas de cara á clientela que da Administración de cara á cidadanía.  

En cuestión de datos, hai unha maior sensibilidade polas empresas de cara á clientela que da Administración de cara á cidadanía.  

Por parte da Administración, falla a transparencia á hora de explicar con que empresas tecnolóxicas se asinan os contratos para a xestión de datos? Explicar, por exemplo, de quen é o servidor onde se almacena o meu historial clínico?

A cuestión é que moitas veces esa transparencia non a ten nin a propia Administración pública, que descoñece onde están os servidores que almacenan eses datos. Eu fago auditoría de algoritmos coa miña equipa, e moitas veces atopamos que cando auditamos o algoritmo dunha Administración pública o provedor négase a facilitarnos información. Resulta que no contrato de prestación de servizos nunca se falou de transparencia nese sentido, ninguén se preocupou por limitar nin estabelecer que protocolos de seguridade ou de transparencia se deben introducir. A licitación é moi mala.

Outro debate que se intensificou durante a pandemia é o do control dos bulos e das fake news (noticias falsas) que se comparten a través das redes sociais ou foros. A Garda Civil anunciou que traballaba “perseguindo” estas informacións, ademais doutras “susceptíbeis de xerar desafección a institucións do Goberno”. Cal é para vostede o camiño para tratar esta cuestión?

Coa xeneralización do uso da internet increméntase a capacidade de mentir e manipular. Hai dúas opcións: que esta nova realidade a xestionen empresas privadas como Facebook ou Google ou que o fagan os propios países. Diría que é máis democrático estabelecer normas legais que determinen os límites do engano e a manipulación. Xa existe unha enorme censura de contidos, pero non de opinións políticas senón de desinformación, por parte das plataformas. Non deberían as autoridades públicas, que escollemos por vía democrática, as que regulen esta cuestión? Se non nos gusta que o fagan as empresas privadas deberemos permitir que o Estado lexisle e despois criticar as súas propostas se estamos en desacordo.

Non deberían as autoridades públicas, que escollemos por vía democrática, as que regulen os límites da manipulación?

A nivel europeo trabállase para deseñar unha aplicación que rastree o movemento da poboación e permita saber se estivo en contacto con doentes da COVID-19. Vostede sinalou que para que sexa efectiva ten que empregala 60% da poboación. Sen base legal para obrigar á cidadanía a usala, que características debe cumprir para que as usuarias confíen nela?

Para comezar, ser moi transparentes e moi respectuosas coa privacidade e explicar exactamente como funciona. Se o que creas é un sistema de alerta epidemiolóxica este debe servir tamén para que unha persoa acceda a un test do mesmo xeito que cando chaman ao 061. Niso están a traballar os expertos. E ten que haber cero dúbidas de que se empregará con outros fins. É a nosa loita actualmente, pois hai países que queren ter acceso a máis datos da poboación e non se decatan de que por ese camiño a poboación non a empregará, facéndoa inútil.