A ONU pide unha moratoria na IA que ameaza os dereitos humanos

Informe da Alta Comisionada Michelle Bachelet.
reclaim_your_face
photo_camera Concentración en Berlín para reclamar a prohibición da vixilancia biométrica masiva (Foto: Reclaim Your Face / Twitter)

"As tecnoloxías de IA [Intelixencia Artificial] poden ter efectos nocivos e mesmo catastróficos cando se empregan sen prestar a debida atención á súa capacidade de vulnerar os dereitos humanos", declarou a Alta Comisionada das Nacións Unidas para os Dereitos Humanos

Na presentación, esta cuarta feira, dun informe que analiza o impacto da IA nas sociedades, Michelle Bachelet subliñou a urxente necesidade de estabelecer unha moratoria á venda e ao uso destes sistemas "que ameazan gravemente os dereitos humanos", até que se poñan en vigor as medidas de control adecuadas. 

Ademais, pediu a prohibición dos programas que non cumpran a lexislación en dereitos humanos. "Mentres maior sexa o risco para os dereitos humanos, máis estritos deben ser os requisitos legais para o uso da tecnoloxía de IA", argumentou, engadindo que "dado que a avaliación dos perigos e como superalos pode levar aínda algún tempo, os Estados deberían estabelecer desde agora moratorias sobre o uso das tecnoloxías que presentan un potencial de risco alto".

O informe ─que estuda como a elaboración automática de perfís e a aprendizaxe das máquinas pode afectar o dereito á intimidade, á saúde e á educación, e ás liberdades de movemento, reunión, asociación e de expresión─ reclama ao sector privado e aos Estados maior transparencia sobre as investigacións neste eido.

Limitacións na UE

Na UE, campañas como Reclaim Your Face ("Reclama a túa cara")  avogan pola prohibición total na vixilancia biométrica como "única solución para un futuro onde as nosas eleccións sexan feitas por nós, non por algoritmos". Reclaim Your Face chegou a semana pasada ás 60.000 sinaturas.

A Comisión Europea presentou o 21 de abril unha proposta de regulamento para limitar o uso de IA dentro da UE con niveis de restrición en base ao risco: "Canto maior sexa o risco que a IA implique para as nosas vidas, máis firme e estrita será a norma”, explicaba na altura a comisaria de Competencia, Margrethe Vestager.

A norma inclúe catro niveis. No máis alto están os sistemas de IA que son unha "ameaza para a seguridade, os medios de vida e os dereitos das persoas". Por exemplo, aqueles que poden manipular o comportamento humano e incitar á violencia, como un xoguete con asistencia de voz que fomente o comportamento perigoso dos menores.

Non obstante, o regulamento ─que aínda debe ser negociado na Eurocámara e cos Estados─ non será de aplicación nas tecnoloxías de uso militar.

Comentarios