Tags

(Rik Kuiper met Interview Paul Hofstra, Ten Eerste/de Volkskrant, 15-4-21)

Er zou sprake kunnen zijn van ‘vooringenomen uitkomsten’ bij de algoritmes die de gemeente Rotterdam gebruikt. Hoe ernstig is deze constatering?

De Rekenkamer Rotterdam concludeert dat een bepaalde vooringenomenheid in het gemeentelijke systeem kan sluipen door de algoritmes die de gemeente gebruikt. ‘Zorgelijk’, zegt voorzitter Paul Hofstra.

Bent u een nieuwe toeslagenaffaire op het spoor? Bij de Belastingdienst selecteerde een algoritme vooral mensen met een dubbele nationaliteit voor nader onderzoek.

‘Zo erg is het in Rotterdam niet. Maar onze bevindingen vragen op z’n zachtst gezegd wel aandacht.’

Ambtenaren beseffen nauwelijks dat er ethische risico’s zijn bij het gebruik van algoritmes, schrijft u. Dat is een stevige conclusie.

‘Het beeld is inderdaad zorgelijk. Er kan veel misgaan waar het ethische principes als verantwoordelijkheid, transparantie en eerlijkheid betreft. Wat ons betreft moet er wel wat gebeuren.’

Over wat voor algoritmes hebben we het?

‘Rotterdam gebruikt bijvoorbeeld een algoritme om uitkeringsfraude op te sporen. Dat algoritme berekent op basis van gegevens uit verschillende systemen wat het risico is dat iemand onterecht een uitkering ontvangt. Het algoritme geeft aan wie opnieuw aan een onderzoek onderworpen moet worden.’

Wat kan daarbij misgaan?

‘Iedereen is zich ervan bewust dat het algoritme bepaalde kenmerken niet mag meenemen, zoals bijvoorbeeld afkomst of nationaliteit. Dat is in strijd met de wet. Maar intussen gebruikt het algoritme wel kenmerken die ‘meelopen’ met afkomst, zoals laaggeletterdheid. Daardoor kunnen toch relatief veel mensen met een migratieachtergrond de klos zijn. Er kan een bepaalde vooringenomenheid in het systeem sluipen. En dat is een probleem.’

*Hieruit volgt een duidelijke conclusie, te weten dat het gaat om oude data van veel mensen ‘met een migratieachtergrond’ de klos zijn. Met andere woorden het gaat om letterlijk om verkeerde data met dezelfde kenmerken, maar die nooit getoetst zijn of de wel op een andere doelgroep, c.q. uit andere gemeente mogen worden toegepast. En daar gaat dus ieder algoritme-dataverzameling de mist mee in.

Dus net als in de toeslagenaffaire worden mensen op basis van hun achtergrond geselecteerd voor nader onderzoek?

‘Juist. En dat is in strijd met een ethisch principe: eerlijkheid. Dus dat moet anders.’

Wordt daar onvoldoende over nagedacht?

‘Er wordt wel over nagedacht, maar niet naar gehandeld. Er zijn bijvoorbeeld plannen om een algoritmeregister aan te leggen, inclusief de bijbehorende risico’s en hoe daarmee moet worden omgegaan. Alleen is dat register er nog niet.’

Welke andere algoritmes gebruikt de gemeente Rotterdam?

‘Dat zou uit zo’n register moeten blijken. Nu is het onduidelijk. Ook bij de gemeente zelf heeft niemand het overzicht.’

In het rapport adviseert u om werk te maken van dat register van algoritmes. Ook moet iemand verantwoordelijk worden voor het ontwikkelen van algoritmes en het toezicht erop.

‘Ja. We hebben zes aanbevelingen. Er moet vooral beter samengewerkt worden tussen de afdeling die het algoritme ontwikkelt en de afdeling die het gebruikt. Nu neemt niemand de verantwoordelijkheid. Ze wijzen soms naar elkaar als het fout dreigt te gaan.’

Het college heeft al laten weten alle adviezen over te nemen.

‘Klopt. En dat gebeurt echt niet bij al onze rapporten.’

https://krant.volkskrant.nl/titles/volkskrant/7929/publications/1231/articles/1335292/10/2