Tags

Stelling: De vraagstelling kan beter en dus niet de ‘dokter of de computer’, want dat is volgens mij een valse tegenstelling, maar daarover kan het debat beginnen. Waarom een valse tegenstelling? Omdat algoritmen, waar het in het artikel over gaat, een digitaal instrument is dat geprogrammeerd op bepaalde op te sporen profielen, dus een ‘profielenzoeker’, om het misschien te kort door de bocht te formuleren. Waar je via je smartphone dagelijks wordt gebombardeerd door reclames die op je eigen internetgedrag en –profiel zijn afgestemd, maakt de commerciële wereld daarvan gebruik door te proberen je tot aankoop van hun producten te verleiden.

Maar omdat het artikel zelf een heel praktische inzage geeft hoe de medische wereld met algoritmen werkt en omgaat, wil ik eerst een ander praktijkvoorbeeld geven, te weten de reuzendoder in de schaakwereld, toen bleek dat supercomputers in staat waren gebleken van grootmeesters en wereldkampioenen schaak te winnen. En volgens mij zat daarin een voorfase van het algoritme verborgen, aangezien die computers veel sneller dan welke schaakgrootmeester ook in staat was de juiste zetten ‘vooruit’ te denken, omdat alle historische partijen in het geheugen waren gebracht en dus erin geprogrammeerd.

In dit verband kan men zich ook de vraag stellen: hoezo ‘kunstmatige intelligentie’, omdat er mijns inziens geen sprake is van ‘intelligentie’ die de mens kent, maar alleen van bij elkaar brengen van die data die je op dat moment nodig hebt. Deze indruk heb ik overgehouden na lezing van alle artikelen over kunstmatige intelligentie (KI of AI) die ik in onze kranten lees en bijhoud. Maar omdat de sciencefiction films graag uitgaan van zelfstandig denkende robotmachines met een ‘eigen’ intelligentie – vanwege het zogenoemde ‘leervermogen’ -, is de mensheid daarmee op het verkeerde been geplaatst: KI is geen zelfstandige intelligentie maar een in- of aangebrachte serie data via de bestaande programmatuur.

Werkt dat zo ook in een ziekenhuis of bij een huisarts? Mijn stelling is ontkennend: het gaat in de doktersspreekkamer niet om ‘vervolgzetten’, maar om een combinatie van de kennis van de arts die ook aanvoelt dat diagnoses bepaalde uitzonderingsopties kennen, om het zo maar ‘onmedisch’ uit te drukken. De medische computers en algoritmen zijn volgestouwd met duizenden patiëntendossiers, waar het algoritme bepaalde trefwoorden opzoekt en die binnen een paar seconden te pakken heeft. Maar dat heeft natuurlijk niets met diagnosevorming te maken, want dat is een vaardigheid die alleen een arts beheerst en toe bevoegd is. Dat kan een algoritme nooit overnemen, want is maar een simpel instrument gemaakt door de programmeur. De algoritme is eigenlijk in mijn gevoel en vermoeden als een soort wegwijzer, zoals op de grote wegen.
Overigens schrijf ik deze beschouwing vanuit mijn filosofische invalshoek en vanuit het publieke belang dat hier aan de orde is, en niet als arts, die ik niet ben.

Nu het artikel:

Omslagblad Katern Economie: Wie beslist: de dokter of de computer? (Liza van Lonkhuyzen, omslagblad, Katern Economie/nrc.nl, 26-1-19)

Artikel zelf: Deze patiënt krijgt straks een aanval, weet de computer

De computer weet: deze patiënt krijgt straks een aanval

Digitale gezondheidszorg | Agressie bij verwarde mensen voorspellen of levensgevaar op de intensive care. Ziekenhuizen verwachten veel van data-analyse met kunstmatige intelligentie.

‘Als ik dit op de afdeling vertel, vallen de monden open. Computers die agressie voorspellen? (…) Vincent Menger (29), datawetenschapper bij de Universiteit Utrecht, lacht bescheiden.

Hij heeft een algoritme ontwikkeld dat beter dan behandelaars kan voorspellen wat de kans is dat patiënten agressief worden. Een mooie innovatie, vinden medewerkers van de afdeling psychiatrie van het UMC Utrecht. Maar ze worstelen er ook mee: hoe gaan ze het op een ethische manier in de praktijk inzetten?

Vanuit mijn inleiding kan al worden vastgesteld dat het in deze passage niet gaat om ethische vraagstukken of ‘op ethische manier in de praktijk inzetten’. Algoritmen als patroonzoekers – zoals ik dat kortheidshalve blijf aanduiden – kunnen alleen bepaalde patronen opsporen die bij een bepaald ziektepatroon herkenbaar zijn, maar verder kunnen ze niets.

De arts weet wel hoe hij met bepaalde kennis, feiten en verschijnselen kan/dient om te gaan. Daarom is mijn vervolgstelling dat ethische kwesties alleen een rol spelen bij genetische ‘aanpassingen’ en ‘ingrepen’, zoals de – bij wijze van spreken – vergroting van de denk- en hersencapaciteit. Dat heeft niets te maken wanneer een ‘volgende aanval’ plaatsvindt, die de computer kan aanwijzen en de arts natuurlijk niet, want geen kennis, maar een specifiek patroon. Vervolgens komen we bij een volgende tweetal passage aan waarmee praktijkverschijnselen worden beschreven, en die neem ik over omdat het de lezer een beeld geeft wat er in ziekenhuizen op het terrein van computermodellen gebeurt. Dat is nuttig om te weten.

Academische en topklinische ziekenhuizen door het hele land experimenteren met de voorspellende kracht van data-analyse. Zo schat het UMC Maastricht met een computermodel het risico op zwangerschapsdiabetes en -vergiftiging in. In het Radboud UMC in Nijmegen krijgen patiënten op sommige afdelingen al een persoonlijke risicoscore. Die voorspelt continu of ze de komende vier tot zes uur stabiel blijven, voor- of achteruitgaan.

Er bestaan al algoritmen die het levensgevaar van een patiënt in het ziekenhuis berekenen, de ernst van een telefoontje naar de huisartsenpost en de kans dat een patiënt zelfmoord pleegt. Ziekenhuizen financieren de innovatie voor het grootste deel nog zelf. Zorgverzekeraars tonen zich geïnteresseerd.
De berekening van kansen op levensgevaar lijkt me een nuttig, maar niet noodzakelijk gegeven voor een dienstdoende arts. Maar dat hij dat zelf niet weet, is een vanzelfsprekendheid.

[Deze passage is als ‘bijsluiter’ aan de zijkant op E10 bijgevoegd] Kunstmatige intelligentie is bij uitstek het terrein waar techreuzen uit alle macht een voortrekkersrol proberen te bemachtigen. De enorme hoeveelheid beschikbare gezondheidsdata maakt de zorg een interessante speeltuin. Alphabet, het moederbedrijf van Google, is een van de bedrijven die op dit terrein actief zijn. Vorig jaar presenteerde het een studie waarin het claimt bij de opname van een patiënt redelijk te kunnen voorspellen om welke diagnose het gaat, en of de persoon het ziekenhuisbezoek overleeft. Het putte uit dossiers van meer dan tweehonderdduizend volwassenen en elf jaar historische data van twee Amerikaanse ziekenhuizen.

Dat de techreuzen hier hun inbreng hebben is logisch, want daar worden applicaties ontwikkeld, en niet in ziekenhuizen of andere zorgsectoren. Maar de privacy van patiënten is hier wel in het geding en daarop dient zowel toezichthouder als Tweede Kamer een functie te hebben.

Alphabet heeft ook software ontwikkeld die moet voorspellen welke patiënten last krijgen van nierfalen. Daarnaast werkt het aan opsporing van kanker en oogaandoeningen. Langzaamaan bewegen zich meer bedrijven op deze markt. Microsoft heeft bijvoorbeeld samen met Indiase onderzoekers een algoritme ontwikkeld dat bij patiënten het risico op hart- en vaatziekten inschat. [einde invoeging]

De toekomst zal moeten uitwijzen of deze ‘bevindingen’ enig nut hebben, want de voorspelling van het ‘mogelijk krijgen van’ bijvoorbeeld nierfalen, is niet te voorspellen voor de arts, en alleen gebaseerd op andere patiënten, en dus heeft dus alleen een functie bij algemene verschijnselen en daar is niets op tegen, als het op den duur maar nut blijkt te hebben. Commerciële bedrijven zullen daar hun businessmodel aan kunnen ontlenen.

Raadselachtig

Levens redden, ziektes voorkomen of eerder opsporen: de beloftes van data-analyse in de zorg zijn aantrekkelijk. Maar als het om de praktische toepassing gaat, blijven ziekenhuizen en zorginstellingen vaak nog weifelend op de drempel staan. Soms zijn er praktische redenen, zoals de noodzaak voor aanvullend wetenschappelijk onderzoek, maar ook omdat een computer op de doktersstoel ethische bezwaren oproept.

Of ‘de beloftes van data-analyse in de zorg aantrekkelijk zijn’ , moet nog worden afgewacht, want de hier genoemde voorbeelden zijn nog niet aansprekend voor mij als burger. Het lijkt een fase van experimenteren te zijn waar je toevallig op uitkomt. Enige systematiek lijkt nog niet aanwezig, laat staan een helder doel.

Zo ook in Utrecht. Faay en Menger zitten in een overleggroep die nadenkt over hoe en wanneer het algoritme zal worden ingezet op de afdeling psychiatrie. Het ziekenhuis praat er ook met patiënten over. Een van de vragen die voorligt: zouden zij wel of juist niet willen weten dat het de computer is die hen aanwijst als potentieel agressief?

Dat de afdeling psychiatrie hier aan de orde is, bevreemdt mij omdat het mij toeschijnt dat dit vakgebied dat meer de psychische aspecten van de mens moet behandelen, helemaal niets met algoritmen kan doen. Daar zal de MRI-scan meer inzicht geven hoe de patiënt afwijkt van normaal en vooral sociaal denkende mensen.

Het algoritme is een black box, ongelooflijk ingewikkeld. Het heeft zichzelf met drieduizend dossiers geleerd te voorspellen wie van de psychiatrisch patiënten een hoge kans heeft binnen een maand agressief te worden. De computer zocht met kunstmatige intelligentie verbanden in de notities van behandelaars in dossiers. Dat het algoritme werkt, is aangetoond door het behalve in het UMC Utrecht ook in een Rotterdamse GGZ-instelling te valideren. Maar hoe de computer precies tot zijn oordeel komt, bleef raadselachtig.

Dat zal ook raadselachtig blijven, want heeft volgens mij niets met diagnostieke ‘wetenschap’ te maken. En die drieduizend dossiers – zijn er alternatieven? – dat lijkt weer op die superschaakcomputer. De schaakcomputer is een ideaal simulatiespel om op hoogste niveau toch de ‘verborgen’ strategieën van de tegenstander te leren kennen, maar in de medische wereld… Spielerei?

Rood: noodmedicatie

Een student informatiekunde aan de Universiteit Utrecht heeft daarom tien weken aan een tweede algoritme gewerkt, om inzichtelijk te maken hoe het eerste tot z’n conclusies komt.

„Zal ik het je laten zien?”, zegt Menger tegen Faay. Hij klapt zijn laptop open. „Kijk, deze tabel gaat over een patiënt met een laag risico op agressie. De groene woorden aan de linkerkant zijn, in relatie tot de rest van de tekst, indicatoren voor een laag risico. De rode woorden rechts van de streep staan voor een hoog risico.”

Het nut hiervan?

Groen zijn de woorden: ‘genieten’, ‘piekeren’, ‘leven’ en ‘suïcidaal’ [???]. Rood: ‘schopt’, ‘gevaar’ en ‘noodmedicatie’.

„Het algoritme kijkt naar de woorden en geeft die een bepaald gewicht in de context van de hele tekst. Dat is de crux, daarom is het zo moeilijk uit te leggen”, zegt Menger. „Het woord ‘contact kan bijvoorbeeld positief of negatief zijn.”

Hij schakelt over op een patiënt bij wie de computer waarschuwt voor agressie. Een groen woord is: ‘associatief’. Rode woorden zijn: ‘politie’ en ‘grensoverschrijdend’. Maar ook: ‘vragen’ en ‘deur’. „Deur herken ik wel uit de praktijk”, zegt Faay. „Patiënten die deuren dichtslaan bijvoorbeeld.”

‘Vragen en deur’? Trefwoorden misschien bij gevallen van ondernemersaanleg, want die vragen altijd en deuren moeten geopend worden!

De kansberekening zou als vrijblijvende waarschuwing kunnen dienen voor behandelaars, legt Faay uit. „In overleg met de patiënt kan worden afgesproken hoe agressie wordt voorkomen: extra medicatie, familie die blijft slapen op de afdeling, sporten of gewoon af en toe een wandeling.”

En deze vormen van inschatting maakt een arts iedere dag en daarvoor heb je de computer niet nodig. Om daarmee ook aan te geven dat de titel(vraag) ‘dokter of computer’ niet terzake doende is. En dat vanwege de feitelijke omstandigheid dat de behandelend arts te allen tijde verantwoordelijk is voor het welzijn en gezondheid van de patiënt. Die verantwoordelijkheid kan nooit bij de computer berusten. Dat is het kernverschil.

Zelfmoord voorspellen

Het algoritme van Menger werkt door text mining: data-analyse van lappen tekst. Het Nederlands instituut voor onderzoek van de gezondheidszorg Nivel deed in een proef iets vergelijkbaars: zelfmoorden voorspellen op basis van huisartsendossiers. Twee op de drie keer werd, in een onderzoek met data uit het verleden, door de computer herkend dat de patiënt een zelfmoordpoging zou doen. De huisarts herkende dat risico tijdens het laatste consult ‘maar’ bij één op de drie gevallen.

In dit voorbeeld staat helaas niet aangegeven of de computer gelijk had of niet. Er is hier dus geen ‘hard bewijs’ – what’s in a name? – voor het gelijk van de huisarts of computer. Het zijn ook onzinnige data; experimenteerfasen zullen we maar zeggen.

De computer woog onder meer mee of het merendeel van de consulten over psychische problemen ging en of patiënten überhaupt veel consulten hadden. Het algoritme wordt nu verder gevalideerd. De onderzoekers willen het eerst doorgronden voor ze het durven aanbieden aan huisartsenpraktijken.

Het is nuttig om dit eerst te onderzoeken, want zoals het hier beschreven wordt zou geen enkele huisarts toehappen, zo vermoed ik.

Willem Herter, promovendus bij het Leids UMC en ondernemer in databedrijf Pacmed, maakt ook zo’n algoritme met text mining. Hij wilde iets doen tegen de drukte op huisartsenposten. Die zijn bedoeld voor ernstige problemen. Alleen: patiënten gaan er vaak voor wissewasjes heen, omdat ze niet tijdens werktijd hun huisarts willen bezoeken. Een triagist, een mbo-geschoolde doktersassistent, moet de urgentie taxeren, maar schat die gemiddeld hoger in dan nodig.

Een nuttige ontwikkeling van het algoritme kan zijn dat de computer uitspraken kan doen, die een arts moeilijk minder snel en effectief kan bedenken en vervolgens verwoorden. Vooral in huisartsenpraktijken in het weekend als er sprake is van onnodige bezoekers. Die kunnen dan met deze ‘truc’ worden doorverwezen naar de maandagochtend.

Herter maakte een algoritme dat tijdens het telefoongesprek, aan de hand van de aantekeningen van de telefonist, berekent hoe ernstig de situatie is. „Naast huisartsenposten tonen ook meldkamers interesse voor zulke algoritmes”, zegt Herter.

Hij doet promotieonderzoek naar machine learning in de zorg. „Deze innovatie hangt boven de markt, maar de stap tussen software ontwikkelen en op de markt brengen is best wel groot.”

Hier wordt eindelijk eens een keer duidelijk gemaakt wat ‘machine learning’ betekent, want het gaat om het programmeren van alle aal bestaande, zinvolle onderzoeksresultaten, die bruikbaar zijn in iedere artsenpraktijk.

Dat herkent Paul Elbers, arts op de intensive care van Amsterdam UMC, locatie VUmc. Zijn dataproject draait wél in de praktijk, zij het als proef. Het gaat om software die voorspelt hoeveel antibiotica een patiënt op de intensive care nodig heeft.

Dit kunnen natuurlijk intensivisten goed doen en dan is de computer hooguit evenwaardig aan de arts.

Artsen op de intensive care krijgen nu advies van de computer over de antibioticadosering. „Wij vonden het verbazingwekkend dat elke patiënt een standaardhoeveelheid antibioticum krijgt”, legt hij uit. „Ridicuul, als je erover nadenkt. Naast lengte of gewicht verschilt ook de mate van afbraak door het lichaam als je ziek wordt. Bij een one size fits all-benadering weet je zeker dat je voor een heleboel patiënten niet goed zit.”

Constructiefoutje, bedankt…!

Hoe logisch ook, het duurde nog een jaar voor de voltooide software aan het bed beschikbaar kwam. Elbers: „Aanpassingen waren nodig aan de IT-infrastructuur, we moesten goedkeuring krijgen van een ethiekcommissie, het moest voldoen aan de privacywetgeving, er waren administratieve barrières en er horen goedkeuringen bij medische apparaten. Een beetje knettergek werden we er wel van.”

Hier is de vraag aan de orde welke rol de ethiekcommissie hierin heeft, want dat lijkt bij dergelijke technische ingrepen onnodig. Niets dat in dit artikel wordt besproken roept om de noodzaak tot gebruik van algoritmen; alles wat hiervoor stond omschreven was de experimenteerfase om te bezien wat de programmatuur zoal oplevert.

Kans op overlijden

Bij het Amsterdam UMC lopen ook andere data-analyseprojecten. Vergevorderd is het project om te voorspellen of het veilig is patiënten op de intensive care terug te sturen naar andere afdelingen in het ziekenhuis, of dat dan de kans op heropname of overlijden groot is.

Ook weer iets dat het IC-team normaal doet en dat heel goed zelf af kan. Maar ik kan me vergissen als gewoon burger, maar het gaat hier wel om zorggelden die beter besteed kunnen worden; tenzij er echt sprake is van een dwingende inzet van algoritmen in de toekomst bij minder personeel. Maar de computer kan nooit zelf beslissen of een ‘beschikking’ afgeven. Of hooguit een ‘triagist’ behulpzaam zijn.

De intensive care is een afdeling waar continu allerlei data verzameld worden, rechtstreeks uit de apparatuur aan het bed. „Door ervaring en medische kennis worden intensivisten goed in bepalen wie we veilig terug kunnen sturen naar de normale afdelingen”, zegt Elbers. „Maar ik denk dat een machine dat uiteindelijk vaker goed zal inschatten.”

De enige factor waarom dit logisch lijkt te zijn is de moeheidsfactor als de intensivist een heel moeilijke nacht achter de rug heeft, waardoor het inschattingsvermogen niet meer optimaal is.

Het Amsterdam UMC ontwikkelde samen met data-analysebedrijf Pacmed een algoritme door een computer verbanden te laten zoeken in gegevens van 20.000 patiënten. Een overzicht op een beeldscherm geeft straks per patiënt aan hoeveel procent kans er is op heropname of overlijden als die naar een andere afdeling gaat.

Alsof alles technologisch voorspelbaar is, want het algoritme heeft geen zicht op de ‘natuur’ – vasthoudendheid, weerbaarheid, doorzettingsvermogen – van de patiënt. En het overlijden is al helemaal niet te voorzien want hoe vaak gebeurt het niet dat een patiënt veel langer blijft leven dan aanvankelijk voorspeld werd. Daarin kan een algoritme geen verandering aanbrengen, want het blijft toch het verlengstuk ten dienste van de arts die al beschikt over een veelheid van data van de huidige apparatuur.

De computer maakt z’n berekening met onder meer informatie over de ziekte en prestaties van de vitale functies, maar bleek ook naar verrassende dingen te kijken. „Zoals niet alleen de temperatuur, maar ook hoe váák de temperatuur gemeten is”, zegt Elbers. „En dus of er zorgen waren om de patiënt. Normaal kijken artsen alleen naar waardes, niet het aantal metingen.”

De vraag is dan of deze gegevens al iets nuttigs hebben opgeleverd.

Het ziekenhuis hoopt de druk op de intensive care in de toekomst te kunnen verlagen. Personeel is lastig te vinden en bovendien is het een dure afdeling; zorgverzekeraars betalen tussen de 2.600 en 2.700 euro per zieke per dag.

Dit laatste is erg nuttig om te weten vanwege de groeiende zorgkosten, die dus bijna een autonoom karakter dragen.

Pionieren

Hoe nuttig voorspellen van zelfmoord of gezondheidsrisico’s ook kan zijn, er zijn nadrukkelijk kanttekeningen te maken bij deze vorm van pionieren. Zo gebeurt toekomst voorspellen slechts met data uit het verleden. En belangrijker: het algoritme kijkt nooit naar de héle situatie.

Dit laatste is filosofisch gesproken natuurlijk dubieus; leef- en voedingspatronen kunnen veranderd zijn. Dan moet gezocht worden naar de oorzaken van verandering.

Data-analyse gaat meestal over kwantitatieve data, zoals bloeddruk die wordt gemeten als de patiënt binnenkomt. „Maar wanneer een patiënt bleek ziet en een raar geurtje heeft, is dat context, kwalitatieve data”, zegt Herter. „Die kan nog belangrijker zijn.”

Daarom vinden veel ontwikkelaars dat een computermodel niet zelfstandig beslissingen mag nemen. „Het moet beslisondersteuning zijn, in plaats van een beslisser”, zegt Elbers. „Artsen moeten kunnen besluiten ertegenin te gaan. Een dokter, die vroeg bij de ontwikkeling van het algoritme betrokken was, kan een goede barrière zijn, zodat er niks misgaat.”

Om te zorgen dat artsen een goede afweging kunnen maken, zijn experts het ook over iets anders eens: de arts móét begrijpen hoe het algoritme tot een oordeel komt. Zodat, zegt Willem Herter, „de arts ook de beperkingen van een algoritme begrijpt. We mikken daarom op algoritmes die je aan de arts kan uitleggen.”

Dit staat hier weliswaar wel praktisch en handig omschreven, maar wat volkomen helder is geworden en wat het algoritme ooit zou kunnen opbreken is het puur technologische karakter van het instrument, dat nooit de ervaringswereld van de arts kan vervangen. Mijn conclusie is daarom dat de schaakcomputer eindeloos veel effectiever is en zal blijven dan de medische algoritmen ooit zullen worden. Er mogen geen – nooit – wonderen hiervan verwacht worden. Het zijn twee compleet verschillende denkwerelden van arts en computer, zoals hieronder duidelijk verwoord wordt.
.

Menger kon tijdens zijn onderzoek naar het voorspellen van agressie kiezen tussen verschillende algoritmes, van een relatief overzichtelijke ‘beslisboom’ tot een héél ingewikkeld model – dat het best presteerde. Hij koos het laatste. Nu werkt hij samen met het UMC Utrecht, om de medewerkers van de afdeling psychiatrie beter te kunnen uitleggen hoe het werkt.

„Er zijn algoritmen die zo complex zijn dat ze uitgeprint duizenden A4’tjes beslaan en over honderden kenmerken gaan”, zegt Herter. „De arts moet de belangrijkste redenen snappen die ervoor zorgen dat de patiënt in de richting van een bepaalde uitslag wordt geduwd. Bijvoorbeeld door het op een slimme manier te visualiseren.”

Wat hier staat begrijp ik niet. Een patiënt moet in een ‘bepaalde uitslag geduwd worden’?

Eenvoudig is het niet, blijkt in het UMC. Menger: „Het openen van de black box is een redelijk nieuw vakgebied.”

Dat is zo klaar als een klontje! Maar hoeveel écht bruikbare gegevens hebben al deze experimenten inmiddels opgeleverd?

PLANNING

Kunstmatige intelligentie kent in de zorg niet alleen toepassingen om medische redenen. Uit onderzoek van Bart Geerts, anesthesioloog van het Amsterdam UMC, blijkt dat het weer invloed heeft op de toestroom van gewonden. Zo komen er na een zonovergoten voorjaarsweekend meer motorrijders met botbreuken op de eerste hulp, en als het weer omslaat juist griepgevallen.

Bekende ervaringsgegevens zou ik zeggen!

Het ziekenhuis wil drukte op de spoedeisende hulp kunnen voorspellen. Handig voor roostermakers, of om te weten hoeveel bedden nodig zijn. Geerts ontwikkelt daarom een algoritme dat tientallen variabelen meeweegt, waaronder temperatuur, luchtdruk en windsnelheden. Hij wil ook evenementen in de regio toevoegen, zoals sportwedstrijden of festivals.

Ook op afdelingen radiologie kan kunstmatige intelligentie nuttig zijn. Zo gebruikt het Leids UMC een systeem van Philips waardoor radiologen niet alleen op het eigen ‘blote oog’ hoeven afgaan. Het systeem analyseert beelden met onder meer data over het ziekteverleden van de patiënt.

Dat staat toch meestal al opgeslagen in het databestand van het ziekenhuis! Maar ter afsluiting was dit een heel instructief artikel van NRC, waarvoor dank en hulde!

https://www.nrc.nl/nieuws/2019/01/25/de-computer-weet-deze-patient-krijgt-straks-een-aanval-a3651750

Advertisements