Politie moet stoppen met test gezichts-herkenning

Uit De Standaard zaterdag 21 september 2019. Auteurs Nikolas Vanhecke en Dominique Deckmyn

Brussel Na de aanslagen van 22 maart 2016 werden de veiligheidsmaatregelen in en rond de luchthaven van Zaventem grondig herzien. Automatische gezichtsherkenning, waarbij reizigers geïdentificeerd worden aan de hand van software die hun ­gezicht analyseert, maakte deel van uit van het nieuwe systeem van ‘veiligheids­ringen’: een getrapt systeem van maatregelen. ‘Samen met Brussels Airport Company werd er in 2017 beslist om een testfase voor gezichtsherkenning op te starten’, aldus de persdienst van de federale politie.

De ­commissaris-generaal van de federale politie, Marc De Mesmaeker, toonde zich in juli in een interview met het weekblad Knack nog zeer optimistisch over het ­project. ‘Een wetswijziging is niet nodig’, zei hij. Maar het Controleorgaan op de Politionele ­Informatie (COC), dat toezicht houdt op het cameragebruik van de politie, ziet dat anders. Na een bezoek aan de federale politie op Brussels Airport kwam het COC tot de conclusie dat het project rond ­gezichtsherkenning niet door de beugel kan. Het heeft de politie opgedragen om het systeem tijdelijk stil te leggen, wat ondertussen ook gebeurd is.

Valse positieven

‘Er is geen juridische basis voor dit ­systeem’, zegt Frank Schuermans, lid-raadsheer bij het COC. ‘Zelfs voor een testfase zijn er geen juridische gronden. Daarnaast zijn er ook enkele technische onduidelijkheden. Dat maakt dat we gevraagd hebben om de gezichtsherkenning, of wat daarvoor moet doorgaan, volledig stop te zetten.’ Omdat het COC gebonden is aan het ­beroepsgeheim, kan het niet meer details over de evaluatie van het project vrijgeven.

Federale politie had zelf geen inschatting van privacygevolgen gemaakt

Volgens onze informatie liep het bij dit project grondig mis. Om te beginnen had de federale politie zelf geen ‘Data Protec­tion Impact Assessment’, een inschatting van de privacygevolgen gemaakt. Daarmee gaat een instantie na welke risico’s de verwerking van persoonsgegevens meebrengt en hoe die risico’s beperkt kunnen worden.

De politie ging ook in de fout met het aanleggen van een databank met de ‘templates’ van gezichten van reizigers. Zo’n template is de digitale verwerking van een beeld: op basis van vaste ijkpunten in ­iemands gezicht – de grootte van het voorhoofd, de stand van de ogen – wordt een biometrische afdruk gemaakt. Die biometrische afdrukken sloeg de politie tijdelijk op in een technische databank, en dat mag niet.

Volgens de wet is op dit moment alleen de opslag van gegevens uit herkennings­systemen voor nummerplaten, de zo­genoemde ANPR, toegelaten. Zelfs een ­korte opslag van biometrische gegevens is een inbreuk op de regels.

De gebruikte herkenningssoftware stond ook niet helemaal op punt, waardoor er veel valse positieven waren: reizigers werden gelinkt aan de foto van iemand ­anders. Dat alles resulteerde in een negatief tussentijds rapport.

Heisa in Londen

‘Op dit ogenblik buigt de federale politie zich samen met de betrokken partners ­(onder andere Brussels Airport Company, red.) over het advies van het COC’, zegt Jana Verdegem, de woordvoerster van de federale politie. ‘We zullen ook overleggen met de politieke overheden en de Vaste Commissie van de Lokale Politie.’

In elk geval blijft de federale politie van plan om gezichtsherkenning in te zetten: ‘De commissaris-generaal herhaalt dat hij blijft streven naar een adequaat gebruik van technologie voor gezichtsherkenning, met respect voor de mensenrechten en vrijheden. Dat was ook het opzet van de voorzichtige en beperkte testfase die op­gestart was na de aanslagen.’

De technologie voor de herkenning van gezichten is de afgelopen vijf jaar sterk verbeterd door de ontwikkelingen op het vlak van artificiële intelligentie. De jongste maanden bleek dat de technologie steeds vaker ingezet wordt door zowel overheden als bedrijven. Zo werden camera’s met ­gezichtsherkenning gebruikt in het King’s Cross-winkelcentrum in het centrum van Londen, zonder dat voorbijgangers daarover ingelicht werden. De Londense politie moest eerder deze maand toegeven dat het daarvoor een database met gezichten van eerder gearresteerde personen door­gegeven had aan de uitbaters van King’s Cross ‘om te helpen misdrijven te voorkomen’.

Organisaties als European Digital Rights (EDRi) vinden dat het gebruik van gezichtsherkenning in openbare ruimtes verboden moet worden. Een advies aan de Europese Commissie, geschreven door een groep van experts, heeft in april aangedrongen om ‘helder af te bakenen of, wanneer en hoe artificiële intelligentie gebruikt mag worden voor de automatische herkenning van personen’.

 

Wet van 21 maart 2007. Wet van 21 maart 2018. Gecoördineerde versie van 25 mei 2018
Hoofdstuk IV Gemeenschappelijke bepalingen. Artikel 8/1

Art. 8/1. Het gebruik van intelligente bewakingscamera's gekoppeld aan registers of bestanden van persoonsgegevens is enkel toegestaan met het oog op de automatische nummerplaatherkenning, op voorwaarde dat de verwerkingsverantwoordelijke deze registers of bestanden verwerkt met inachtneming van de regelgeving met betrekking tot de bescherming van de persoonlijke levenssfeer.