Tags

, , , , ,

‘Een robot is een slaaf – en dat moet zo blijven’ (Nick Kivits, Katern Morgen/fd, 10 september)

We staan aan de vooravond van de opkomst van de zelfdenkende machine. Belangrijkste taak voor de mens: de controle niet uit handen geven.

Grappig is dat hier als vanzelfsprekend wordt dat er zelfdenkende machines gaan ontstaan, want die ‘innovatieve’ of ‘evolutionaire’ logica bestaat helemaal niet. Mijn axioma luidt dat de machine is een technisch product is, dat in het geval van computers en ict-apparaten afhankelijk zijn van programmering(en). Menselijk denken is kortom, samenvattend, een uniek menselijk vermogen, dat door instrumenten nooit nagebootst kan worden, laat staan ‘gekloond’. Dat de inleidende zin toch op deze manier wordt geformuleerd (en nota bene door een wetenschapsjournalist) betekent waarschijnlijk dat hier nog geen wetenschappelijke consensus over bestaat en dat er de nodige twijfelaars bestaan.

# Ethici en techneuten reageren soms wat vermoeid als je ze het ‘trolleyprobleem’ voorlegt. Het is een bekend voorbeeld van een moreel dilemma dat je met goed fatsoen niet aan een computer kunt overlaten: een tram (‘trolley’) dendert in volle vaart op een groep mensen af. Een ramp is alleen te voorkomen door snel een wissel om te gooien, waardoor maar één persoon wordt overreden. Wie red je? En wie offer je op?

Zoals hier boven aangegeven is dat een programmeerkwestie, dat wil zeggen niet de kwestie van het morele dilemma, maar een kwestie van het zelfsturend vermogen van de auto, die nooit tegen ‘een’ massa mensen kan en mag aanrijden. Wederom een fictief voorbeeld. De angst voor zelfdenkende robots is vanwege de nieuwe techniek een angstfobie geworden, die door de mens zelf gecreëerd is vanwege zijn gebrek aan kennis van het functioneren van menselijke hersenen, dus dan komen we op het terrein van de neurowetenschap. Een nieuwe wetenschapstak zullen we maar zeggen.

Computerbeurs

# In de VS en Europa wordt zo’n 75 van de waarde van alle aandelen gekocht en verkocht door computerprogramma’s. Vooral grote spelers gebruiken dergelijke algoritmes, maar ook kleinere en onafhankelijke handelaren grijpen steeds vaker naar software. Dat is mede te danken aan gecrowdsourcede projecten als Quantopian en QuantConnect die zelf algoritmes laten ontwikkelen.

Betere gevechtspiloten

# Sommige kunstmatige intelligentie is nu al beter in luchtgevechten dan mensen. Het door de Universiteit van Cincinnati ontwikkelde ALPHA was in tests de gepensioneerde Amerikaanse luchtmachtgeneraal Gene Lee te slim af. Lee, die al sinds de jaren 1980 KI-systemen test, was onder de indruk: ‘Het leek precies te weten wat ik van plan was.’

Omdat ik een leek ben op KI-terrein, maar afga op mijn intuïtie en mensbeeld, herkende de computer het denkwerk van de generaal, maar ontdekte klaarblijkelijk ook dat de generaal gepensioneerd is en daarmee achterloopt op de nieuwste innovatie binnen de programmatuur. Maar in de kern is en blijft het een kwestie van programmatuur, waardoor minder ervaren mensen op dit terrein het altijd afleggen, zoals de superschaakcomputers (robots?) altijd van de meeste grootmeesters kunnen winnen als ze zelf hun menselijke fouten maken.

Bug van -440 miljoen

# Computeralgoritmes aandelen laten verhandelen is niet zonder risico’s. In 2012 zag de investeringsgroep Knight Capital 440 miljoen dollar (ongeveer vier keer de netto omzet van 2011) van zijn kapitaal verdampen door een fout van een computersysteem. De bug zorgde ervoor dat het systeem aandelen hoog inkocht en laag verkocht.

Hier staat het bewijs dat er computerfouten bestaan in de programmering.

# ‘Enige uitzonderingen daargelaten heeft de mens een diep moreel besef. Maar een zelfdenkende robot heeft dat besef niet‘, waarschuwt Michael Bratman, hoogleraar en filosoof aan de Amerikaanse Stanford Universiteit. ‘We verwachten van soldaten dat zij weloverwogen keuzes maken op het slagveld. Maar een machine ziet alleen de taak die hij moet uitvoeren. Je kunt wel voorwaarden programmeren waar hij rekening mee moet houden, maar we zijn nog lang niet zo ver dat we op dit vlak de nuances van het menselijk brein kunnen nabootsenals ons dat ooit al gaat lukken.’

Nogmaals: een ‘zelfdenkende’ robot bestaat niet en zal nooit (gaan) bestaan. Noch het nabootsen van nuances van het menselijk brein!

# Om het wat concreter te maken: je kunt wel programmeren dat een drone een terrorist niet opblaast als die kinderen gijzelt. Maar wat doe je als de terrorist tijdens die gijzeling op een knop dreigt te drukken die een atoombom laat afgaan? Volgens Van Harmelen is dit het moment om het hierover te hebben. ‘We gaan ons vaak pas druk maken over de gevolgen van een nieuwe technologie als hij voor de deur staat. Dat kunnen we ons met kunstmatige intelligentie niet veroorloven.’

Deze casus lijkt me ook niet zo’n probleem: een terrorist temidden van een (grote) mensenmassa zal zichzelf altijd willen opblazen en dan is de drone rechtstreeks op dat doel gericht. Maar het bezit van een ‘atoombom’ is op dit moment een volkomen onwaarschijnlijk scenario, maar mocht dat ooit realiteit worden, dan moet de drone die bom kunnen herkennen, want een programmeerbare kwestie. Maar ook hier staat de – in mijn ogen zinloze en suggestieve – angst voor de KI duidelijk geformuleerd. Verstandiger is het om eerst de onverwachte nieuwe ontwikkelingen af te wachten van wat mogelijk zal blijken en wat niet. Ik hoop dus niet dat de lezer het mij kwalijk neemt dat ik een voorschot durf te nemen vanuit mijn mensbeeld wat mogelijk is en wat niet!

Bij de algoritmen die aandelen kopen, snapt de programmeur soms niet meer hoe het precies werkt

# Nog even en KI duikt overal op. In de vorm van zelfrijdende auto’s, maar ook zorgrobots, avatars in het onderwijs en geautomatiseerde beurshandelaren staan binnen een paar jaar op de stoep. Of zijn er nu al. Steeds meer van die systemen zijn zelflerend: ze zien waar het beter kan en passen hun handelingen aan.

Weer een herhaling van eerdere opmerkingen: die systemen zijn niet zelflerend, maar kunnen alleen geprogrammeerde feiten met elkaar verbinden en daarom kunnen ziekenhuisrobots artsen alleen verslaan als die arts die dag niet op z’n best is, of afgeleid wordt door iets anders, waardoor hij alternatieve diagnoses over het hoofd ziet. Maar een artsenbrein die super fit is, maakt dat soort fouten niet.

# ‘Er zijn nu al algoritmes geschreven die het beste moment kiezen om aandelen te kopen of verkopen. Maar in sommige gevallen begrijpt zelfs de programmeur niet meer precies hoe het algoritme tot zijn beslissing komt’, weet Ibo van de Poel, hoogleraar ethiek en technologie aan de TU Delft. Zulke systemen hebben maar één doel: zo veel mogelijk verdienen aan aandelen. Het grote plaatje zien ze niet.’

Dat die algoritmes dat kunnen doen vloeit alleen voort uit de logica die verborgen of ingebouwd zit in de programmatuur. Anders niet. En dan kunnen op een hectische beursdag veel betere prognoses door robots worden gemaakt omdat de handelaren veel te gespannen en gestrest zijn om foutloos te functioneren.

# Robot die zelf beslissingen nemen zonder dat de makers ervan weten hoe ze tot die beslissingen komen is iets wat we niet moeten willen. Dat schreven Tesla-oprichter Elon Musk, natuurkundige Stephen Hawking en Apple-oprichter Steve Wozniak samen met duizend hoog aangeschreven robotonderzoekers eerder dit jaar in een brandbrief. Daarin pleitten ze voor een verbod op autonome wapens, zoals zelfdenkende drones die op eigen houtje doelwitten kunnen kiezen en uitschakelen.

Vanuit mijn logica via mijn mensbeeld is er geen sprake van ‘zonder dat de makers ervan weten hoe ze tot die beslissingen komen is iets wat we niet moeten willen’, want daar komen de makers uiteindelijk altijd wel uit, aangezien de programmatuur door henzelf is aangebracht. Maar bij uiterst complexe programma’s zijn er steeds minder mensen die het overzicht nog hebben.

Onderzoekers willen een verbod op autonome wapens, zoals drones die zelf doelen kiezen en uitschakelen

# ‘Zulke complexe beslissingen zouden altijd bij een mens moeten liggen’, vindt Miriam Struik van de vredesbeweging PAX, dat net als Musk en consorten pleit voor een verbod op autonome wapens. ‘We zijn niet tegen het gebruik van álle drones, maar er zijn grenzen aan wat we robots zelf moeten laten beslissen.’

Ook op dit punt zal de toekomst uitwijzen wie er gelijk krijgt en hoe die nieuwe werkelijkheid eruit ziet. Op dit moment valt er geen zinnig woord over te zeggen omdat we niet in de toekomst kunnen kijken. Maar dat er veel te speculeren valt op dit gebied, is ondertussen heel duidelijk. En wat mij betreft valt het nu nog onbekende geheim van de KI-logica alleen af van het mensbeeld waar de (neuro)wetenschap nog niet aan toe is gekomen. Samengevat: de mens is een bezield wezen en de computer en KI niet. Dat is het verschil.

# Menselijke waarden en normen overbrengen naar slimme machines wordt een helse taak, vindt ook Joanna Bryson, onderzoeker aan de Bath University in Groot-Brittannië. En we moeten dat ook niet willen. ‘Als we robots menselijke eigenschappen meegeven, lopen we het risico dat we ze als vriend gaan zien. Maar een robot is geen vriend. Hij kan zich ook niet inleven in wat het is om mens te zijn. Hoe goed je hem ook programmeert. Robots zijn slaven en moeten dat blijven.’

Hier bevinden ons met het ‘overbrengen’ naar slimme machines als een ‘helse taak’ ook op de onzichtbare grens die niet overschreden kan worden. Menselijke waarden en normen horen bij creatief en scheppend denken, dat nooit door robots kan worden overgenomen. We kunnen robots dus geen menselijke eigenschappen meegeven, want dat is met machines niet mogelijk, zo luidt mijn stelling.

[Nick Kivits is freelancewetenschapsjournalist.]

https://fd.nl/morgen/1166788/een-robot-is-geen-vriend-maar-een-slaaf-dat-moet-zo-blijven

Advertisements