Tags

‘Welke normen gaan in killerrobot?’ (Laurens Verhagen, Wetenschap/de Volkskrant, 10=10-17)

Hoe de mens ervoor kan zorgen dat killerrobots niet op eigen houtje over leven en dood gaan beslissen (Laurens Verhagen, de Volkskrant, 9 oktober 2017, 19:32

Majoor Ilse Verdiesen onderzoekt hoe de mens ‘in control’ kan blijven

Dragen autonome wapens bij aan een schone, humane oorlogsvoering of openen we hiermee de doos van Pandora? Majoor Ilse Verdiesen onderzoekt hoe de mens ‘in control’ kan blijven.

Ilse Verdiesen is majoor bij de landmacht, maar onderzoekt ondertussen ook aan de TU Delft hoe zogeheten autonome wapens zo moeten worden ontworpen dat de mens ‘in control’ blijft. Het onderwerp lijkt actueler dan ooit. Afgelopen zomer pleitte een groep experts (onder wie niet alleen Teslabaas Elon Musk, maar ook roboticabedrijven) voor een verbod op killerrobots door de Verenigde Naties. Verdiesen is aanstaande maandag een van de gasten in het KennisCafé van de Volkskrant in De Balie in Amsterdam, dat gaat over deze zogenoemde killerrobots.

Want het debat hierover is ernstig gepolariseerd. Aan de ene kant zijn er dus de mensen als Elon Musk die aandringen op een verbod voordat het te laat is. Maar aan de andere kant staan mensen die deze stellingname afdoen als dystopische sciencefiction: de mens zit immers nog altijd aan de knoppen.

Dus eerst maar even: wat zijn autonome wapens eigenlijk?

‘Daar is lang niet iedereen het over eens. Autonome wapens zijn in mijn definitie wapens die volgens vooraf gestelde criteria op eigen houtje doelen kunnen uitschakelen. De mens programmeert ze dus nog wel en beslist ook wanneer ze worden ingezet.’

Het is geen kwestie dat de mens ze nog wel programmeert, maar dat ze hem blijven programmeren, want de robot blijft techniek, door de mens bestuurd. De mens blijkt dit fenomeen nog nooit tot in alle finesses te hebben doordacht.

En worden ze zo ook gebruikt?

Hoe de mens ervoor kan zorgen dat killerrobots niet op eigen houtje over leven en dood gaan beslissen.

‘Voorzover ik weet, geeft de mens nu nog altijd het laatste zetje. Neem bijvoorbeeld de Goalkeeper. Dit wapensysteem van Nederlandse bodem kan het hele proces voor zijn rekening nemen, van surveillance en detectie tot vernietiging. Maar een militair bepaalt waar zo’n systeem gebruikt wordt en die drukt op de knop.’

Zogenoemde ‘killerrobots’ zijn al lang geen sciencefiction meer, zegt bijvoorbeeld de Britse robotoorlogdeskundige Noel Sharkey. En Musk en consorten willen een verbod voordat we zijn overgeleverd aan systemen die geheel op eigen houtje beslissen over leven en dood.

De vraag is dus: zijn we nog wel op tijd?

Elon Musk en consorten willen een verbod voordat we zijn overgeleverd aan systemen die geheel op eigen houtje beslissen over leven en dood.

‘Dat denk ik wel, ja. Maar het is wel van groot belang dat we nadenken over het ontwerp van die systemen. Hoeveel vrijheid krijgt het systeem om zelf te beslissen? Waar in het proces moet nog menselijke controle worden ingebouwd? Dit zijn de belangrijkste vraagstukken in de kunstmatige intelligentie.’

Is een van de grootste problemen niet dat we niet precies weten hoe zelflerende machines tot een conclusie komen? Dat we feitelijk geen inzicht hebben in de algoritmen?

‘We kunnen ons niet neerleggen bij de constatering dat de algoritmen per definitie niet transparant zijn. Bij een verantwoorde artificial intelligence (AI) hoort inzicht in de algoritmen die ten grondslag liggen aan beslissingen. Bedrijven moeten op de een of andere manier gedwongen worden hierover duidelijkheid te verschaffen. Gelukkig zie je steeds meer aandacht voor de ethische kant van kunstmatige intelligentie. Kijk maar naar Googledochter DeepMind, die een aparte ethische afdeling opricht.’

Nog los van die algoritmen: techniek is niet neutraal. Wie bepaalt de normen en waarden waarmee killerrobots worden volgestouwd? Vinden we het toelaatbaar als een machine autonoom beslist over leven en dood? Hoe autonoom mag een wapen zijn?

‘Ik heb geen flauw idee wie dat heeft gedaan bij de bestaande autonome wapens. Dat is ook voor mij totaal onbekend. Het is hoog tijd dat hier iets verandert. Welke normen stoppen we in machines? Het maakt allemaal nogal uit. Zo maak je boven zee een andere afweging dan in een scenario waarbij een drone boven dichtbevolkt gebied vliegt. Hoeveel nevenschade is nog toelaatbaar? Of: vinden we het toelaatbaar als een machine autonoom beslist over leven en dood? Hoe autonoom mag een wapen zijn? Iemand moet daar toch ideeën over hebben en daarmee de wapens programmeren. We moeten kortom vooraf nadenken welk waarden we inbouwen.’

En gebeurt dat ook?

‘Eigenlijk nog nauwelijks. Zelf heb ik een eerste aanzet gegeven door te inventariseren hoe mensen denken over deze vragen. Dit onderzoek moet nog veel breder. Daarom ben ik ook blij dat de discussie eindelijk gevoerd wordt. Niet alleen in de academische wereld, maar ook bij de Verenigde Naties en bij bijvoorbeeld DeepMind.’

Dus een volledig verbod is wat u betreft niet aan de orde?

‘Nee hoor. Er is principieel niets tegen autonome wapens, zolang AI maar doet wat wij willen dat het doet. Dat kan alleen door al in het ontwerp rekening te houden met deze eis.’

KennisCafé Robotoorlog!

Maandag 16 oktober, 20-22 uur

De Balie, Amsterdam.

Kaarten en info: debalie.nl.

https://www.volkskrant.nl/wetenschap/hoe-de-mens-ervoor-kan-zorgen-dat-killerrobots-niet-op-eigen-houtje-over-leven-en-dood-gaan-beslissen~a4520918/

 

Advertisements