AI is niet te vertrouwen (en dat is juist de kracht)
De mythe van slimme technologie
Tekst Dave Schut Beeld Hilbert Krane
Veel bedrijven en overheden hopen met kunstmatige intelligentie (AI) snel hun werk te verbeteren of processen te automatiseren. Maar wie AI goed wil inzetten, moet eerst begrijpen wat de technologie niet kan. Noëlle Cicilia, oprichter van Brush AI en uitgeroepen tot AI Person of the Year, pleit voor een nuchtere, ethiek-gedreven benadering: ‘Je moet weten waar de risico’s zitten, anders neem je klakkeloos beslissingen op basis van voorspellingen die misschien helemaal niet kloppen.’
Noëlle Cicilia: ‘AI lijkt nu een soort oplossing voor alles maar dat is het dus niet’
‘Het gebruik van AI is geen kwestie van alles of niets’
Eerst de ethiek, dan de techniek. Met deze gedachte begon Noëlle Cicilia Brush AI, een Amsterdams bedrijf dat verantwoorde AI-oplossingen ontwerpt voor mensgerichte toepassingen. Dat was nog tijdens haar studie Data Science aan de Technische Universiteit in Eindhoven. ‘Ook daar werden we vooral opgeleid om AI-systemen op een technische manier te evalueren,’ vertelt ze. ‘Aan de impact op de maatschappij werd weinig aandacht besteed.’ Inmiddels werkt ze samen met publieke organisaties zoals Veilig Thuis en de gemeente ’s-Hertogenbosch. Om uit te leggen hoe haar bedrijf AI gebruikt, noemt ze een project voor een farmaceutisch bedrijf. ‘In de farmaceutische industrie is betrouwbaarheid superbelangrijk. Dit bedrijf krijgt heel veel vragen via de klantenservice, en zij kunnen het zich niet permitteren om foute antwoorden te geven. Maar ze hadden wel interesse in AI, zodat ze meer mensen te woord kunnen staan.’ Cicilia ontwierp een AI-oplossing die mogelijke antwoorden voorlegt aan een medewerker van de klantenservice, inclusief bronvermelding. ‘Je kunt dus heel precies terugvinden waar het antwoord op is gebaseerd. Zo maken we van betrouwbaarheid toch nog een technische implementatie.’
Misvattingen Er bestaan veel misvattingen over AI, zegt Cicilia. ‘Veel mensen denken dat je bij gebruik van AI meteen een volledig geautomatiseerd proces moet accepteren. Maar dat is niet zo. Je kunt ook een deel automatiseren, terwijl je de rest door mensen laat doen. Het is geen kwestie van alles of niets.’ Zo bestaan er meer mythes, vertelt ze. ‘AI lijkt nu een soort oplossing voor alles. Nou, dat is het dus niet. Ook is er het idee dat we bij gebruik van AI al onze data weggeven aan de Amerikanen – en voor we het weten, zijn we overgenomen door robots. Daarom blijf ik herhalen dat er ook een middenweg is: AI-gebruik voor makkelijke, repetitieve taken, waarbij je weinig risico’s neemt.’
Keuzeruimte Cruciaal is de manier waarop je de technologie inricht. ‘Ook een overheidsinstantie heeft hierin veel keuzeruimte. Je kunt zelf bepalen hoe je het AI-systeem opzet en gebruikt. Je kunt AI desnoods op een lokale laptop laten draaien, dan geef je helemaal niets weg aan een Amerikaans bedrijf. Het gaat erom dat je de waarden van een organisatie vertaalt naar de technologie.’ Dat we geneigd zijn om AI te overschatten, komt volgens Cicilia omdat we de technologie niet goed begrijpen. ‘Veel technologieën kun je gewoon vertrouwen, zeker die van vroeger. Als je een auto hebt, kun je ervan uitgaan die die meestal zonder problemen rijdt. Of nog simpeler, als je een hamer gebruikt, ook een technologie, weet je vrijwel zeker dat die werkt. Een AI-systeem is iets totaal anders, omdat AI is gebaseerd op voorspellingen. En inherent aan voorspellingen is dat die onbetrouwbaar zijn.’
‘Als ik naar de huisarts ga, wil ik geen AI-bot’
‘We zijn aan het ontdekken wat de tekortkomingen zijn’
Google ChatGPT gebruiken als een soort Google, is dus al een vergissing, zegt Cicilia. ‘Omdat je niet weet of de informatie die je krijgt, wel echt klopt. Maar als je nu uitgaat van die onbetrouwbaarheid, dan kun je AI op zo’n manier implementeren dat je de risico’s van die onbetrouwbaarheid waar mogelijk wegneemt.’ Dat betekent dus ook dat AI voor sommige toepassingen volkomen ongeschikt is. ‘Als ik naar de huisarts ga, wil ik geen AI-bot aantreffen. De huisarts kan natuurlijk wel een AI-systeem gebruiken om bepaalde informatie naar boven te halen over mijn klachten. Maar dan moet de huisarts wel kunnen herleiden waar die informatie vandaan komt.’
Gezichtsherkenning Een andere tekortkoming van AI, zegt Cicilia, is dat het altijd werkt met gemiddelden. ‘AI is perfect voor de gemiddelde mens, perfect in het bedienen van de massa. En dus ook in het verwerken van simpele dingen zoals de aanvraag van parkeervergunningen. Maar zodra iemand afwijkt van die norm, begint AI fouten te maken. Zeker overheidsinstanties zouden zich hier bewust van moeten zijn.’ Ze noemt gezichtsherkenningssystemen als voorbeeld. ‘De gezichten van witte mannen worden verreweg het best herkend. Daarna komen witte vrouwen, dan zwarte mannen en daarna pas zwarte vrouwen. Terwijl een overheid nu juist de rol heeft om iedereen even goed van dienst te zijn. Daarom zal face-to-face-contact, van mens tot mens, altijd nodig blijven. Een ingebouwde mogelijkheid om buiten het AI-systeem om te opereren.’
Blind vertrouwen Cicilia maakt een vergelijking met TomTom, het eerste populaire navigatiesysteem voor auto’s. ‘Toen de TomTom net was geïntroduceerd, had je continu mensen die in het water of tegen een muur op reden. Omdat ze blind vertrouwden op het systeem.’ ‘Wij zitten nu in diezelfde fase bij AI. We zijn nog aan het ontdekken wat de tekortkomingen zijn. Dat we zelf moeten blijven nadenken. En dat AI altijd slechts een ondersteuning dient te zijn, terwijl er een mens aan het stuur zit. Waarmee ik overigens niets wil afdoen aan de technologie. Want AI is wel degelijk heel krachtige technologie. Ik denk alleen dat je AI pas echt goed kunt toepassen als je begrijpt wat de tekortkomingen zijn.’ ◼
Deel dit artikel