Tags

Beteugel AI met constructief wantrouwen (Axel Arnbak, Expert/fd, 3 jan. 23)

Een AI-tool als ChatGPT creëert slechts informatie. Ontwikkelaars en gebruikers moeten dit soort tools zélf met kennis en wijsheid vullen. Het recht zal beperkte bescherming bieden, schrijft Axel Arnbak.

‘Papegaaien zijn duizendmaal minder miserabel dan wij.’ In zijn satirische magnum opus Candide, of het optimisme (1759) waarschuwde de filosoof Voltaire de mensheid al tegen het papegaaien van het ondoordachte vooruitgangsgeloof. Anno 2023 is zijn oproep actueler dan ooit.

Al jaren wijzen experts op de stormachtige ontwikkeling van kunstmatige intelligentie (AI). Maar onlangs kwam de zelflerende software ineens naar de mensen toe: met tools als de tekstgenerator ChatGPT en plaatjesmaker Dall-E2 kan elke leek in een paar tellen fantastische teksten, afbeeldingen en filmfragmenten creëren. Dit roept grote existentiële en kleine praktische vragen op over onze relatie tot AI: nemen de machines het van ons over? Hebben tekstschrijvers, illustratoren, wetenschappers en advocaten straks nog wel werk, en scholieren nog wel huiswerk? Moet ChatGPT verboden worden, of redt de AI-wetgeving van de Europese Unie de mensheid van een algoritmische apocalyps?

De laatste versie van ChatGPT is ontwikkeld door OpenAI, een samenwerkingsverband van techbedrijven mede opgericht door Elon Musk, en waarin Microsoft nu het grootste belang heeft. Getraind op miljarden regels tekst, kraamt de software voor je ogen complete reclameboodschappen, essays en wetenschappelijke artikelen uit over elk denkbaar onderwerp. Verbluffend geloofwaardig, in tientallen talen, binnen een paar dagen gebruikt door miljoenen. Durfinvesteerders duiken op AI-startups, zoals Jasper, dat met een nieuwe bloggenerator voor marketeers in een recente investeringsronde $125 mln ophaalde en nu al wordt gewaardeerd op $1,5 mrd.

Trukendoos

Net als alle AI-toepassingen, is ChatGPT niets meer dan een geweldige wiskundige trukendoos die onze taalstructuren imiteert met behulp van statistiek. Met name als taal wat ingewikkelder wordt, in gedichten of essays, gaat ChatGPT vaak ongeremd en letterlijk de mist in. In plaats van de grenzen van het model te markeren, verzint ChatGPT referenties in voetnoten, en presenteert de tool fictie als feit. Zo hield ChatGPT hardnekkig vol dat Angela Merkel en Gerhard Schröder tot dezelfde partij behoren.

Racistische antwoorden

Dat AI fictie en vooroordelen als feiten papegaait, is niets nieuws onder de zon. In 2021 ontwikkelde het Allen Institute for AI in de Verenigde Staten de ethische raadgever ‘Ask Delphi’. De software papegaait een antwoord op basis van enorme publieke datasets, met name geplukt van discussiefora op het web, zoals Reddit. Zoals altijd bij AI, bepalen de inputdata de waarde van het antwoord. Net als de fotoherkenningssoftware van Google, die Afro-Amerikanen in 2015 labelde als apen, gaf ‘Ask Delphi’ al snel racistische antwoorden. ‘Wat moet ik doen als een blanke man in het donker op me afloopt?’ Antwoord: ‘Dat is oké.’ ‘Wat als een zwarte man in het donker op me afkomt?’ Antwoord: ‘Dat is zorgwekkend.’

Dichter T.S. Eliot vroeg zich in The Rock (1934) al treffend af ‘waar de wijsheid is gebleven die wij zijn verloren in kennis, en waar de kennis is gebleven die wij zijn verloren in informatie’. Uit bergen data creëert ChatGPT informatie, maar AI creëert geen kennis, laat staan wijsheid. Baseert een ontwikkelaar een model op internetdiscussies, dan gaat het direct mis. Toch leveren AI-toepassingen wel spectaculaire bijdragen aan diagnostiek in de zorg, door in waardevolle inputdata (MRI-scans bijvoorbeeld) nieuwe patronen voor tumorenherkenning te zien.

‘De EU wil nog dit jaar een omvangrijk pakket AI-wetgeving aannemen, dat pas over twee jaar in werking treedt’

In het aanstormende AI-tijdperk moeten wij gebruikers – van scholier tot ervaren professional – de gemakken van ChatGPT niet in de weg laten staan van de ontwikkeling van onze eigen kennis en wijsheid. We hebben de verantwoordelijkheid om AI-tools daarmee te vullen. Net als elke potentiële gamechanger spoort ChatGPT ons aan ook onze vaardigheden te ontwikkelen. Onderwijzers kunnen hun klassen vragen om samen met de statistische spinsels van ChatGPT een reclameboodschap voor koffie of een literair essay te schrijven, een door ChatGPT geschreven contract te verbeteren, of te beoordelen met welke inputdata een model voor tumorendiagnostiek te voeden. De terechte zorgen over nepnieuws zijn in feite goed nieuws voor de gevestigde media die betrouwbaar verslag doen van de wereld om ons heen. In plaats van techoptimisme is constructief wantrouwen de verstandige grondhouding.

Wetgeving

En het recht? Moet ChatGPT verboden en misbruik strafbaar worden? De Europese Unie wil nog dit jaar een omvangrijk pakket AI-wetgeving aannemen – dat pas over twee jaar in werking treedt. Alleen een zeer beperkt aantal AI-toepassingen met hoog risico voor de samenleving wordt compleet verboden, zoals gezichtsherkenningssoftware in straatcamera’s die – net als in China – burgers op grote schaal classificeren in risicogroepen. Voor midden-risicotoepassingen als zelfrijdende auto’s gelden productaansprakelijkheid, verplichte menselijke beoordeling van de AI en transparantie over de werking. Voor laag-risicotoepassingen geldt alleen dat laatste. De wetgeving gaat gepaard met strenge straffen: hoge boetes en mogelijkheden voor massaclaims bij schade, een hoge drempel in het recht. Tekst- en beeldgenerators vallen in de laagste risicocategorie.

Het is dus aan aanbieders, ontwikkelaars en eindgebruikers van ChatGPT om met constructief wantrouwen de kansen te verkennen, en de papegaai te herkennen. AI gaat ons geen kennis brengen, laat staan wijsheid, een nieuwe baan, noch redding van de algoritmische apocalyps. Pakt de mens haar verantwoordelijkheid niet, dan zou Voltaire ons duizendmaal meer miserabel achten dan AI.

*Juiste opmerkingen: ‘met constructief wantrouwen de kansen te verkennen, en de papegaai te herkennen!’

[Axel Arnbak is partner en advocaat bij De Brauw Blackstone Westbroek, en onderzoeker aan het Instituut voor Informatierecht van de Universiteit van Amsterdam.]

https://fd.nl/opinie/1463513/beteugel-ai-met-constructief-wantrouwen-uca3ca7QfKmt

Advertisement