La història ens adverteix des de fa dècades dels perills de la tecnologia quan és usada per a controlar als ciutadans. Els temors anticipats el segle passat en les novel·les distòpiques d'Huxley i Orwell s'ha anat materialitzant en l'actualitat. Mercadona, per exemple, va tractar d'instal·lar un sistema de reconeixement facial per a prohibir l'entrada a gent amb antecedents penals, però la justícia ho va tombar en considerar que era un ús desproporcionat que “viola la privacitat” dels seus clients. És en aquest escenari on la normalització d'aquests sistemes d'identificació biomètrica planteja un repte majúscul.

És una amenaça o una oportunitat? Això és el que s'ha debatut aquest dimecres en el Mobile World Congress (MWC) que se celebra a Barcelona i l'Hospitalet de Llobregat. L'acte, organitzat per la Autoritat Catalana de Protecció de Dades (APDCAT) en el marc del Four Years From Now (4YFN), ha reunit diferents posicions per a avaluar quins usos positius es pot donar a aquests sistemes i quin potencial perill suposen per a la privacitat.

En els últims deu anys s'ha perfeccionat el reconeixement facial, però també la detecció de veu, d'objectes i del llenguatge automatitzat. “Ara les cares poden ser reconegudes encara que portin màscares, ulleres, amb mala il·luminació, poca qualitat d'imatge i fins i tot amb enfocaments no frontals”, ha assenyalat Carles Fernández, director tècnic de Herta Security, companyia catalana especialitzada en aquests sistemes.

Regulació europea

Encara que l'evolució d'aquestes tecnologies és una realitat, també ho és el camí de regulació que està seguint la Unió Europea (UE). L'abril passat la Comissió Europea (CE) va plantejar una normativa que prohibeix l'ús massiu del reconeixement facial i només ho permet en casos de “alt risc” com serien en la recerca de casos criminals o la prevenció d'atacs terroristes. No obstant això, l'activista i cofundadora de Xnet, Simona Levi, assenyala que és llei és “massa tecnocéntrica” i contempla “massa excepcions per a usos policials”. “Els drets humans no poden ser danys col·laterals de la digitalització”, ha remarcat.

I és que encara que hi hagi una llei això no garanteix que es compleixi. Succeeix amb els mecanismes que grans plataformes com Amazon, Facebook o Google apliquen per a no respectar el Reglament General de Protecció de Dades Europeu (RGPD) i pot passar ara amb el reconeixement facial. “A Espanya la regulació administrativa no està adaptada a la RGPD i se'ns demanen molts més dades dels que hem de cedir”, ha explicat Levi. “Si no es protegeix una cosa tan bàsica hem de ser molt acurats sobre com el Govern usa la vigilància biomètrica”.

Biaixos i vigilància

Encara que la precisió d'uns certs sistemes de reconeixement facial es xifra en fins a un 99,8%, un altre dels reptes d'aquesta tecnologia és l'amplificació de biaixos classistes, de raça o de gènere ja existents en la societat. “Moltes vegades l'algorisme és opac i és difícil veure quins biaixos tenen fins i tot per a la gent que els fabrica i avalua”, ha confessat Fernández. És per això veu necessari que les bases de dades representin la diversitat social i que la UE apliqui certificats que assenyalin l'objectiu amb el qual s'usarà cada algorisme.

El camí pres per la UE s'allunya de l'autoritarisme digital de la Xina i de la via dels Estats Units, on es barreja la prohibició total en alguns Estats amb la permissivitat en el seu ús privat en uns altres. Levi adverteix que, encara així, “s'estan prenent usos molt invasius” amb la privacitat ciutadana. Pérez, que treballa en el sector, considera que aquests sistemes poden tenir usos positius, com el de restringir de forma segur l'accés a llocs perilloses com una central nuclear.

La sessió ha tancat amb una reflexió clau de Josep Domingo-Ferrer, director de la Càtedra UNESCO de Privacitat de les Dades de la Universitat Rovira i Virgili (URV): “No tot el que és possible tecnològicament és èticament acceptable en les nostres societats”.