Tags

Jan Middendorp, Opinie/fd, 11-6-19
Opinie | Jan Middendorp, Kamerlid VVD

‘Vorige week deed ik in deze krant een oproep om de menselijke grip op algoritmen te herstellen (FD, 29 mei). Dat lokte veel reacties uit en dat is goed nieuws gezien het belang van dit onderwerp. De reacties liepen uiteen van positief tot kritisch, zoals altijd als je met nieuwe ideeën komt. Twee reacties in deze krant gaven de kampen in het debat treffend weer. Met aan de ene kant ‘nu wetgeving over algoritmen maken waarin normen worden gesteld’ (Jovović, FD 31 mei), en aan de andere: ‘niets doen want we hebben te weinig kennis over die ingewikkelde algoritmen’ (Pheijffer, FD 2 juni). Beide punten benoem ik in mijn initiatiefnota ‘Menselijke Grip op Algoritmen’. Toch kom ik tot andere conclusies.

Is er wel sprake van de (poging tot herstel) menselijke grip op algoritmen te herstellen als er nog helemaal geen start was gemaakt?

‘Bedrijven en overheidsinstellingen kunnen met het gebruik van algoritmen de grenzen van waarden, normen en wetgeving overschrijden. Daarover ben ik het eens met Jovovic. Om te zien waar dat gebeurt en hoe we onze wetgeving moeten aanpassen, is kennis nodig. Wie bepaalt bijvoorbeeld de standaarden waaraan we algoritmegebruik willen toetsen? De voorstellen van de VVD zijn gericht op het opbouwen van inzicht en zijn daarmee een eerste stap in het proces van aanpassing van de wet.’
‘Hoogleraren accountancy kunnen zich er bij neerleggen dat een effectieve aanpak van algoritmen te hoog gegrepen is voor onze overheid. Politiek en mensen in het land niet’
Pheijffer bekijkt het van een radicaal andere kant. Waar zijn observaties over administratieve lasten en accountants waardevol genoemd kunnen worden, is zijn hoofdconclusie onjuist. Hoogleraren in de accountancy kunnen zich er misschien bij neerleggen dat zoals Pheijffer schrijft, ‘een effectieve aanpak van algoritmen, kunstmatige intelligentie, high tech en fintech te hoog gegrepen’ is voor onze overheid. Politiek en de mensen in het land kunnen dat niet. En dat hoeft gelukkig ook niet. Pheijffer merkt terecht op dat mijn nota de kloof tussen de overheid en het bedrijfsleven blootlegt. Dat is echter niet, zoals hij schrijft, onbedoeld. Integendeel, die observatie was het beginpunt voor de nota. De VVD-voorstellen helpen juist om die kloof tussen overheid en bedrijfsleven te overbruggen.

Spijtig genoeg wordt hierbij geen toelichting gegeven waarom die VVD-nota juist helpen bij het overbruggen van de kloof tussen overheid en bedrijfsleven. Moet die nota bij de VVD-fractie worden aangevraagd, of heeft FD daar al een bespreking aan gewijd?

‘Bedrijven en overheidsdiensten moeten dus zelf kritisch naar hun gebruik van algoritmen kijken en daarover communiceren met de samenleving. Op die manier snappen we beter waar de problematiek ligt en wat er beter kan. Niets doen omdat algoritmen nieuw en ingewikkeld zijn of juist teveel zonder te weten wat we doen zijn beide onwenselijk.’

Of het juist is om vast te stellen dat bedrijven en overheidsdiensten zelf kritisch naar hun gebruik van algoritmen moeten kijken is voor mij een vraag omdat het begrip vanuit de zijde van het bedrijfsleven omgeven wordt door geheimhouding vanwege ‘bedrijfsbelangen’ en dus concurrentieaspecten en de overheid wat mij betreft al zoveel blunders heeft gemaakt met ICT dat ik die overheidsinstellingen geen vertrouwen kan toekennen wat ’kennis van zaken’ betreft.

[Jan Middendorp is lid van de Tweede Kamer voor de VVD.]
https://fd.nl/opinie/1304075/debat-over-algoritmen-is-zinvol-en-urgent

——————–
Er moet snel wetgeving komen tegen algoritmische discriminatie
Marko Jovović, Opinie/fd, 31-5-19

‘Het algoritme wikt en het algoritme beschikt, [klinkt het] steeds vaker. Het wikken is echter vaak ondoorgrondelijk en de beschikkingen kunnen discriminatoir zijn. Het Europees Parlement verkent daarom wetgevingsstrategieën en de VVD wil, net als de Amerikaanse democratische partij, toezicht op algoritmen. Is wetgeving echter wenselijk?

Uit onderstaande passage blijkt dat ‘wenselijkheid’ geen relevante opmerking is.

‘Algoritmische discriminatie is nu al niet toegestaan. De huidige non-discriminatiewetgeving is juist voldoende breed, open en (dus) wendbaar om nieuwe technologische ontwikkelingen te kunnen bijhouden. Indirecte discriminatie, waarbij een beschermde groep disproportioneel wordt benadeeld door een op het eerste gezicht neutraal middel (zoals een geautomatiseerd systeem), is niet toegestaan.

Wat hier staat is te zwart-wit geredeneerd omdat alleen om ‘formele redenen’ algoritmische discriminatie nu al niet is toegestaan; waarom niet? Omdat het een te nieuw begrip is om daarover nu al (definitief) uitsluitsel te geven. We zijn er nu pas achter gekomen dat aandacht noodzakelijk is omdat sinds de verkiezing van Trump en manipulatie van die campagne via Cambridge Analytica gebleken is dat er veel meer maatschappelijke gevolgen denkbaar zijn dan algemeen gedacht.

‘De meeste mensen komen alleen op voor hun rechten als ze daar voldoende belang bij hebben’

‘Daarbij komt dat degene die een ondoorzichtig (‘black box’) systeem hanteert doorgaans de bewijslast zal hebben dat hij niet gediscrimineerd heeft. Mensen die menen ten onrechte door een geautomatiseerd systeem te zijn afgewezen voor een baan, krediet of woning zullen daarom naar verwachting sterk staan in procedures. Zelfs als het non-discriminatierecht geen soelaas biedt, zijn er nog altijd de open normen van redelijkheid en billijkheid en de algemene rechtsbeginselen. Het bestaande recht is dus al voldoende wendbaar om de uit automatisering voortvloeiende veranderingen bij te benen. Toch is nieuwe wetgeving wenselijk en wel om drie redenen.

‘Ten eerste zullen de meeste mensen alleen opkomen voor hun rechten als ze daar voldoende (financieel) belang bij hebben, waarbij dat belang moet opwegen tegen de kosten en moeite die horen bij een juridische procedure. Algoritmische discriminatie is echter vaak klein: een iets hogere prijs voor een product of een iets lagere ranking. Zo kan structureel discriminatie plaatsvinden zonder dat daartegen wordt opgetreden.

‘Ten tweede zal – ondanks de privacywetgeving AVG – in sommige gevallen niet duidelijk zijn of iemand onderworpen is aan geautomatiseerde besluitvorming, laat staan of het systeem daarachter eerlijk is. De meeste mensen interesseren zich immers niet in de ‘nitty gritty’ details van de vaak zeer complexe systemen die op de achtergrond van onze samenleving draaien.

‘Tot slot hebben we nieuwe wetgeving nodig omdat de handhaving van de fundamentele uitgangspunten van onze democratische rechtsstaat niet kan worden overgelaten aan private partijen.

Dit zijn allemaal juiste en overtuigende argumenten die een parlementair debat noodzakelijk maken.

‘Een algemene norm, gehandhaafd door een onafhankelijke toezichthouder, zou een duidelijk signaal afgeven dat rechtvaardigheid technologieneutraal moet zijn.

Hier wordt door de auteur terecht gewezen op de noodzaak van complexere wetgeving omdat maatschappelijke omstandigheden eveneens – maar wel als aanleiding! – complexer is geworden.

[Marko Jovović is advocaat bij de digital economy group en de praktijkgroep arbeidsrecht van Stibbe.]


Voorstel voor toezicht op algoritmen zal ineffectief blijken
Marcel Pheijffer, Opinie/fd, 2-6-19

‘Tweede Kamerlid Middendorp (VVD) wil inzicht in het gebruik van algoritmen verkrijgen door een versteviging van toezicht. Hij ziet daarbij een belangrijke rol voor accountants weggelegd en pleit daarnaast voor de oprichting van een ‘algoritmetoezichthouder’. Hij ziet ook mogelijkheden om algoritmegebruik in de jaarlijkse rapportagecyclus van (overheids-)instellingen te laten meenemen.
‘Toen ik over deze voorstellen las dacht ik: ach, weer zo’n losse flodder van een politicus die is losgezongen van de praktijk. Maar om niet te snel te oordelen en louter af te gaan op mediaberichten, zocht ik de initiatiefnota van Middendorp op. Gelukkig maar, want die kan niet zomaar worden afgedaan als een losse flodder. Daarvoor heeft het Kamerlid in de elf pagina’s die de nota telt, te veel energie en ijver gestopt. Zijn intenties zijn goed, hij wil mensen niet ‘in een digitale jungle overlaten aan de sturing van algoritmen’, zeker niet daar waar deze hen emotioneel of financieel kunnen benadelen.

Circus

‘Inhoudelijk overtuigen de argumenten van Middendorp mij echter totaal niet. Hij wijst zonder overdrijving op het bestaan van ‘miljoenen algoritmen’. Hij wil deze niet allemaal controleren, maar naar risicoprofiel inzicht verwerven in wat algoritmen precies doen: welke kansen ze bieden en welke de samenleving juist kunnen schaden. Vooral dat laatste raakt de verantwoordelijkheid van de overheid.

Terecht opgemerkt.

‘Middendorp voorziet in een drietrapsraket. De eerste trede in overheidstoezicht is volgens Middendorp rapportage van instellingen die algoritmen gebruiken. Zij dienen te rapporteren over algoritmen met een hoog risicoprofiel, risicobeheersing en de resultaten van algoritmen. Externe accountants en ‘in-control-verklaringen’ vormen de tweede trede en een algoritmetoezichthouder de derde.

‘Je afhankelijk maken van zelfrapportages is niet meer dan een zwaktebod’

‘Anno 2019 is er bijna geen instelling denkbaar die zonder automatisering en algoritmen werkt. Hoe lang zal het duren voordat er geen instelling meer is die zonder de toeppassing van kunstmatige intelligentie functioneert? Wat zullen de administratieve kosten zijn van dit circus van rapportage, controle en toezicht?

‘Middendorp geeft beperkt antwoord op dergelijke vragen: hij wil het mkb ontzien, geen onnodige administratieve lasten creëren en hij verwacht met een kleine organisatie het toezicht uit te voeren. Daarbij negeert hij dat misbruik juist ook in het mkb kan plaatsvinden en dat rapportages en accountants geld kosten.

Misbruik wordt natuurlijk over de hele linie, van mkb tot en met multinationals gepleegd, omdat het immer(s) – en als vanouds – gaat om het bereiken van concurrentievoordeel en winst- en omzetmaximering.

‘Hoe serieus neem je het probleem eigenlijk als je denkt dat het met een kleine toezichtsorganisatie valt op te lossen? Waaraan kan de maatschappij vertrouwen ontlenen dat instellingen actief en eerlijk zullen gaan rapporteren over algoritmen met een hoog risico, gebreken in interne beheersingssystemen en negatieve resultaten van algoritmen?

Terechte vraag en ook wel direct te beantwoorden: omdat algoritmen een complexe technologie betreft en ook ICT-specialisten vergt om speurwerk te doen, ligt het eerder voor de hand om algoritmen-teams te formeren die binnen de FIOD aan de slag gaan binnen een aparte afdeling (als ze daar al niet bestaan…).

‘Zijn accountants er wel toe uitgerust om, zoals Middendorp het noemt, ‘mee te kijken’ met algoritmegebruikende instellingen of kunnen zij hun tijd en energie beter steken in adequate controle van de financiële verslaglegging? Zijn in control-verklaringen in die financiële verslaggeving inmiddels niet dusdanig ineffectief gebleken, dat daarin nog geen begin van een oplossing ligt?

Volkomen terecht opgemerkt, wat uit mijn vorige kanttekening ook al bleek.

Prehistorisch

‘Naar mijn mening zijn de VVD-voorstellen voor toezicht op het gebruik van algoritmen onvoldoende doordacht en zullen ze bij invoering ineffectief blijken, hooguit schijnzekerheid geven. De meerwaarde van de voorstellen zit dan ook niet in de inhoud ervan. De achterliggende intenties, de samenleving beschermen tegen misbruik van algoritmen en kunstmatige intelligentie, zijn goed.

‘De overheid zou zelf in staat moeten zijn de belangrijkste risico’s die aan algoritme kleven, te benoemen’

‘Het is nodig het probleem op de politieke agenda te zetten. Misbruik van algoritmen en kunstmatige intelligentie ligt iedere dag op de loer en we zien daar steeds vaker, zowel bij overheid als bedrijfsleven, voorbeelden van. De initiatiefnota toont echter onbedoeld de grote kloof tussen de overheid en het bedrijfsleven, dat op dit punt veel verder is in denken en doen.

Is Jan Middendorp nou inderdaad zo naïef, of heeft hij nog geen benul wat erachter schuil gaat? Hij heeft natuurlijk ook de schijn tegen zich, aangezien hij niet voor niets de markt-verdedigende VVD’er is die alles in het werk stelt om de greep van de staat op het maatschappelijke gebeuren te minimaliseren. Nog een na-ijlend ‘spoor’ van het klassieke liberalisme dat altijd dreigt bij die partij.

‘De overheid loopt, zoals zo vaak, achter de feiten en ontwikkelingen aan. Deze kennis- en expertisekloof dient te worden gedicht. De overheid zou zelf in staat moeten zijn de belangrijkste risico’s die aan algoritme kleven, te benoemen en het beleid daarop af te stemmen. Je afhankelijk maken van zelfrapportages is niet meer dan een zwaktebod.

Wederom terecht opgemerkt.

‘Het ICT-gebruik van de Belastingdienst illustreert die kloof: aanpassingen van tarieven voor omzetbelasting zullen geautomatiseerde processen en systemen doen vastlopen. Zolang de overheid op dit vlak prehistorisch acteert, lijkt mij een effectieve aanpak van algoritmen, kunstmatige intelligentie, hightech en fintech te hoog gegrepen.

Een prachtige afsluitende samenvatting waar weinigen relevant tegengas op kunnen geven omdat die afdoende in deze beschouwing zijn gediskwalificeerd.

https://fd.nl/opinie/1303255/voorstel-voor-toezicht-op-algoritmen-zal-ineffectief-blijken

En tot slot:
Risico’s van 5G-netwerk van Huawei @fd #digitisering https://aquariuspolitiek.wordpress.com/2019/06/08/risicos-van-5g-netwerk-van-huawei-fd-digitisering/ (08 Saturday Jun 2019)

Australische lessen voor de omgang met China (Maarten van Dun, Inzicht/fd, 7 juni)

‘Geen ander westers land is economisch zo verweven met China als Australië. Nu Nederland zich beraadt op zijn houding ten opzichte van de grootmacht, rijst de vraag: wat kan Nederland leren van Australië?

In het kader:

(…) ‘Tijdens een simulatie zagen de analisten hoezeer het land via het 5G-netwerk te ontregelen was. Daarop sloot Australië Huawei en het Chinese telecombedrijf ZTE uit van enige rol bij 5G. (…)’

https://fd.nl/achtergrond/1303460/australische-lessen-voor-de-omgang-met-china

Advertisements