Tags

Samenleving: Joost van Velzen, Trouw – 17:48, 12 mei 2019

Interview * Nu we nog kunnen zien hoe data onze beslissingen beïnvloeden, wordt het tijd om keuzes te maken, stelt specialist Sander Klous.

We struikelen erover in het dagelijks leven, zonder ons er altijd van bewust te zijn: algoritmes. Maar wat zijn het precies, wat kunnen ze en wat voor invloed heeft kunstmatige intelligentie op onze natuurlijke slimheid? In gesprek met Sander Klous, specialist big data bij KPMG en hoogleraar ‘Big Data Ecosystems for Business and Society’ aan de Universiteit van Amsterdam (UvA).

Wat zijn algoritmes?

“Ik hanteer bewust een hele brede definitie van het begrip algoritmes omdat ik vooral geïnteresseerd ben in het risicoprofiel. Is een algoritme betrouwbaar, uitlegbaar en ethisch verantwoord? Om dat goed uit te zoeken kun je maar beter zoveel mogelijk onderliggende technieken meenemen. Daarom zeg ik: Algoritmes zijn een automatisch uitgevoerde set van instructies die een beslissing nemen of ondersteunen.”

Hieraan voeg ik toe een ‘automatisch uitgevoerde set van* patroonzoekende* instructies’, die door computerprogrammeurs zijn ontwikkeld om daarmee commerciële successen te kunnen zoeken middels de gevonden consumptiepatronen. Met deze meer uitgebreide omschrijving geef ik ook aan – zonder dat ik een specialist genoemd kan worden op dit terrein, want geen ICT’er, dat er nog veel meer mogelijkheden zijn om andere soorten patronen te gaan zoeken, waarmee China al volop mee bezig is in verband met bevolkings- en staatsveiligheidscontrole en naast Silicon Valley als de oorspronkelijke bedenkers van winst- en omzetverhoging.

Die algoritmes zijn overal, zegt Klous. “De poortjes op de stations, navigatiesystemen in de auto, liften doen het op algoritmes, medische diagnoses. Geavanceerdere algoritmes leren vaak van historische gegevens of van de praktijk, zogenaamde machine learning. En hoe geavanceerder ze worden, hoe meer ze menselijk handelen en beslissingen kunnen overnemen, vaak wordt dan gesproken over kunstmatige intelligentie”.

Met deze passage ‘hoe meer ze menselijk handelen en beslissingen kunnen overnemen’ heb ik moeite omdat ik het hiermee oneens ben. Menselijke handelingen en beslissingen kunnen niet en nooit worde overgenomen omdat de mens – als het goed is – altijd zelfstandig en autonoom voor bepaalde handelingen kiest en uitvoert. Dat die handelingen gaandeweg aangepast worden doet niet af aan het feit dat niemand gemanipuleerd kan worden. Volgens mijn vaste overtuiging is hier dus sprake van een ‘misverstand’, waarvan het eerste ‘bewijs’ nog moet worden aangeleverd. Ik ben hierover ook stellig in mijn formulering omdat ik een manuscript aan het afronden om het aan te bieden aan een uitgever, waarin ik precies dit thema aankaart. Daarom heb ik op basis van onze dagbladen, waarop ik geabonneerd ben, ook alle artikelen gelezen waarbij ik kan verwijzen naar mijn website onder de categorie #KI/AI en #algoritme

De zoekresultaten van Google, de films en series die we voorgeschoteld krijgen door Netflix, de muziek die ons door Spotify gidst, webwarenhuis Bol.com dat suggereert ‘wat anderen bestelden’; het zijn de algoritmes die de menukaart van ons leven samenstellen.

Hier wordt weer een bewering gedaan, die volgens mij niet klopt. Al die zoekresultaten van met name Google (ook door mij veelvuldig gebruikt om mijn beweringen in blogs te staven en controleren), en Bol.com brengen mij op de hoogte van alle nieuwe boeken en ‘tweedehandsjes’ die mijn aandacht kunnen hebben omdat ik die thema’s al jaren lang aan het verzamelen ben. Ik heb dus voordeel van die algoritmen omdat ik – klimaatverandering – essentieel vind voor mijn eigen nieuwsgaring omdat ik anders politiek maar wat lukraak aan het roepen ben. Ik heb dus nog nooit last gehad van een overbodige hoeveelheid advertenties waarvoor ik nooit belangstelling heb getoond. Ik ben waarschijnlijk een zeer gericht zoeker die nooit uit nieuwsgierigheid zomaar wat aanklik, zodat ik ook geen overdadige hoeveelheid rommel toegestuurd krijg.

Is het al mogelijk de beste sollicitant aan te nemen op basis van algoritmes?

“Er zijn pogingen om kandidaten automatisch te beoordelen, maar dat is nog niet zo eenvoudig. Dat komt doordat het niet makkelijk is om ‘de beste sollicitant’ te definiëren. Om dat op te lossen, laten we de computer leren wat de beste sollicitant is uit historische data van recruiters. Het gevolg is dat kunstmatige intelligentie net zo bevooroordeeld is als wij mensen, totdat we voor die complexe effecten kunnen corrigeren. Alleen algoritmes zijn consequenter. Mensen hebben nog de mogelijkheid om hun keuze op een sociaal wenselijke manier te verantwoorden, bij algoritmes is dat niet zo.”

Wat deze sollicitatieprofielen betreft, daarin heb ik geen ervaring met algoritmen omdat ik niet tot de hedendaagse generatie behoor, maar omdat ik al vaker blogs heb geschreven over medische algoritmen weet ik wel waar de grenzen van dat soort liggen en daarover wordt dus op basis van mijn gevoel voor logisch denken veel onzinnigs geschreven.

Een beetje zoals bij de Stemwijzer, dus.

“Ja, dat is een goede vergelijking. Daar komt vaak een partij als beste uit de bus die we gevoelsmatig liever niet stemmen. Daar hebben algoritmes geen boodschap aan, die halen de ambiguïteit eruit. Of denk aan online dating, daar komt net als bij politiek het vraagstuk van autonomie naar voren. Het algoritme beslist welke partij goed voor je is of met wie je op stap gaat.”

U doet/kijkt bij KPMG ook niet voor niets naar de risico’s van algoritmes. Het gaat om vertrouwen.

“Ja. 100 jaar geleden hadden we dezelfde discussie, toen de accountants hun intrede deden. Kunnen we de jaarrekening van een organisatie wel vertrouwen? Nu is zo’n derde partij niet meer weg te denken. Een zekere mate van wantrouwen is wel gezond, wantrouwen en vertrouwen zijn niet noodzakelijkerwijs elkaars vijanden. Wantrouwen leidt tot het inrichten van systemen en organisaties op een manier die we kunnen vertrouwen. Dat gaat niet direct over meer transparantie maar over het zo veel mogelijk uitbannen van negatieve ervaringen. Als ik piloot ben wil ik niet dat de algoritmes van het veiligheidssysteem het toestel laten neerstorten, als ik in een zelfrijdende auto zit, wil ik iedere dag zonder problemen naar mijn werk en naar huis. Als ik afgewezen word voor een baan, wil ik weten dat geslacht en etniciteit geen rol hebben gespeeld, bijvoorbeeld door me te vertellen wat ik moet doen om bij mijn volgende sollicitatie wel succesvol te zijn.”

Hier wordt een belangrijke vraag over het hoofd gezien als hier over de rol van accountants geschreven wordt bij hun entree in de moderne maatschappij: ‘Kunnen we de jaarrekening van een organisatie wel vertrouwen?’. Hier geldt namelijk het omgekeerde, dan hier gesuggereerd wordt, namelijk kun je het moderne management wel vertrouwen dat zij eerlijke jaarrekeningen opmaken? Als je in de huidige ‘overgecommercialiseerde’ samenleving geen accountants had gehad, dan wist je bij de huidige kennis van deze maatschappij dat je door ieder bedrijf belazerd en bedonderd – het is de standaard ethiek geworden dat je ieder en allen belazert omdat iedereen dat doet – wordt waar je bij staat en dat de inmiddels wettelijke regeling van toezicht door accountants en formele toezichthouders dat proberen te voorkomen. Zo erg is deze beschaving al afgezakt.

Zodra computers veel van ons weten, klinkt direct de discussie over privacy. Volgens u is het meer onze autonomie die onder druk staat. Leg eens uit?

“Privacy is met de komst van de AVG al best goed geregeld. Rondom autonomie zijn de uitdagingen veelzijdig. We noemen dat onzichtbaar prikkeldraad. Stel, je hebt een appartement geboekt en daarna zie je steeds als je online gaat een advertentie voor datzelfde appartement voor de helft van de prijs. Die irritatie die dat oproept is het prikkeldraad dat even zichtbaar wordt. Het algoritme stuurt je een kant op die je niet op wil. Helemaal een probleem wordt het als we zelf niet meer door hebben dat ons suggesties worden gedaan. Daarom moeten we nu, nu het prikkeldraad nog zichtbaar is, keuzes maken wat we als maatschappij willen.”

Die irritatie die hier wordt beschreven wordt in mijn ogen dus gekenmerkt door overbodige luxe die nergens voor nodig is en dus hebben alleen mensen die zich deze luxe kunnen veroorloven er last van. Maar voor Jan Modaal is het een ver van mijn bed show. En dus is mijn stelling: met het juiste en alleen noodzakelijke gebruik van internet, heb je hiermee niet te maken. Dit artikel bewijst wederom het aantal ondeugdelijke aannames die in een gemiddelde krant te lezen valt. Zelfs KPMG’ers houden van overdrijving. Of ze hebben ook niet door wat algoritmen precies zijn, namelijk gewone menselijke producten en nuitvindingen. Ze schuiven de bewijslast door naar de onkundige beoordelaars.

Welke beslissingen zou u nooit aan een algoritme overlaten?

“Als beslissingen om empathie vragen wordt het heel lastig. Denk aan de discussie over de Armeense kinderen die in Nederland mochten blijven. Omdat we het als maatschappij niet menselijk vonden om ze terug te sturen, ondanks de regels. Ik kan me niet voorstellen dat we het aan een algoritme overlaten om te gaan beslissen wat menselijk is. Die grens gaan we niet over, denk ik.”

Empathische vragen kunnen niet door algoritmen beantwoord worden, omdat empathie en emoties niet in algoritmen te vangen zijn. Hoe kom ik aan dit inzicht? Omdat ik meerdere artikelen en beschouwingen in kranten heb gelezen over medische algoritmen en daaruit valt de duidelijke conclusie te trekken dat de betrokken programmeurs geen idee hebben waarmee ze bezig zijn, evenmin trouwens als de betrokken medisch specialisten. Geen specialist weet hoe precies hersens en het hart werken, en dat geldt eigenlijk dus ook voor alle specifieke deelgebieden waar men met algoritmen aan het experimenteren zijn. Japan is qua robotisering in de zorgsector het verst ontwikkeld vanwege de vergrijzende samenleving en daar is men inmiddels nuchter genoeg geworden om te beseffen dat het nog generaties aan onderzoek kost om een bijna perfect gelijkende robot – als de mens – te ontwikkelen, want dat lijkt een schier onmogelijke opdracht te zijn. Omdat ook dit type zorgrobots nog steeds menselijke producten zijn en dus instrumenten zijn zoals ook een auto als voertuig – die we ook nog lang niet zelfsturend kunnen maken – is het een kwestie van schimmenspel geworden omdat éénoog koning is in het land der blinden.

Uw laatste boek heet ‘Vertrouwen in een slimme samenleving’. Moeten we dat – met dit alles in ons achterhoofd- hebben?

“Zonder vertrouwen werkt een samenleving überhaupt niet. Ik neem dagelijks wel duizend beslissingen en 995 daarvan neem ik ongeïnformeerd. Vertrouwen is ons grootste goed en dat blijft ook zo in een maatschappij waarin algoritmes een grote rol spelen.”

Jammer dat hier geen voorbeelden worden genoemd omdat gesuggereerd wordt dat ze mens zoveel ongeïnformeerde beslissingen genomen worden, terwijl we de maximaal geïnformeerde maatschappij vanwege onze hoogtechnologische beschaving zijn geworden, of dat pretenderen te zijn. Maar tot slot mogen we Trouw dankbaar zijn voor dit inzicht scheppende artikel, want mij heeft het weer bevestigd in een groot aantal misverstanden die sluipenderwijs onze maatschappij infiltreren of neutraler uitgedrukt: ‘ongemerkt’ binnensluipen. Ook die kennis is nuttig.

Een algemene slotopmerking ten aanzien van de titel van dit artikel: Hoe autonoom zijn we nog, als computers dankzij algoritmes onze keuzes maken? Mijn antwoord luidt dat we niets aan autonomie hebben ingeleverd, omdat we onder alle omstandigheden er zelf bij zijn, de een wat meer zelfbewust dan de ander, maar toch in algemene zin: zelfbewust. Uit dit artikel blijkt dat de geheimen van de techniek ons onbekend zijn en dat is nergens voor nodig omdat we zelf die techniek in het leven hebben geroepen. We zijn elkaar op het nieuwe terrein van algoritmen elkaar aan het napraten en dus zijn we als een kip zonder kop daarmee bezig.

https://www.trouw.nl/samenleving/hoe-autonoom-zijn-we-nog-als-computers-dankzij-algoritmes-onze-keuzes-maken-~a0e316b8/

Advertisements