Koester realistisch verwachtingen o ‘AI moet saai zijn’, zegt Dr Scott Robbins over een technologie waar juist enorm veel hooggespannen verwachtingen, gebaseerd op fantasierijke voorstellingen, van bestaan. De potentie is groot, met name die van machine learning (ML), maar om er optimaal gebruik van te kunnen maken is het zaak er op een realistische manier naar te kijken. Dan kan bijvoorbeeld ML bruikbaar zijn in toepassingen als terrorismebestrijding. Auteur: Marco van der Hoeven
“A
rtificial Intelligence (AI) spreekt al heel lang tot onze verbeelding”, zegt dr. Scott Robbins, Research Fellow, CASSIS, University of Bonn. “Wanneer we aan AI denken, denken veel mensen aan robots die alles kunnen wat wij ook kunnen. En uiteindelijk zullen zij partners worden, en op den duur zelfs slimmer zijn dan wij. Tenminste, dat moet de hype eromheen doen geloven. Maar als je je echt in AI gaat verdiepen dan zijn de dingen die het goed doet behoorlijk saai.” Hij wijst erop dat AI bijvoorbeeld erg goed kan zijn in het categoriseren van afbeeldingen, zoals zoeken of er een kat op een foto staat. Of AI kan tekstanalyse uitvoeren om bepaalde woorden te vinden, of die tekst vertalen. “Ik wil niet zeggen dat vertalen saai is, het is eigenlijk heel spannend. Maar vergeleken met de verwachtingen over universele AI en ‘robots die de wereld overnemen’ is het nogal saai.” ■ Deur openen “We moeten niet vergeten dat robots pas heel recent hebben geleerd hoe ze een deur moeten openen. En dan kun je de robot nog steeds misleiden door de deurknop te veranderen. Het is niet zo spannend als in een science fiction-film. Overigens vind ik het ook belangrijk dat AI juist saai is. We kunnen het veel effectiever gebruiken om bedrijven te helpen, of het onderwijs, of het gebruiken bij terrorismebestrijding.” “Dan bedoel ik niet AI-terroristen opsporen, voordat ze zelf weten dat ze terroristen zijn, om ze vervolgens uit te schakelen. AI kan bij uitstek de saaiere taken uitvoeren die nodig zijn om erachter te komen of iemand een tekst heeft geschreven waarin staat dat hij iets slechts gaat doen. Dat is niet echt spannend werk voor mensen, en AI kan het ook nog eens veel sneller.” ■ Machine learning “AI die echt veelbelovend is, is machine learning. Wat voor mij nieuw is aan deze variant van AI dat we voor het eerst de machine niet alleen vertellen iets te doen om een foto te labelen of een tekst te vertalen, maar dat we die machine laten kiezen. Ik gebruik ‘kiezen’ onder voorbehoud, ik denk niet dat machines daadwerkelijk kiezen, maar ze bepalen wèl welke overwegingen tot een bepaalde output leiden. Dus in plaats van de machine te vertellen dat we alle dieren met twee oren en snorharen op foto’s ‘katten’ noemen, zeggen we: vertel me maar op welke foto’s katten staan.” Hij benadrukt dat het hiermee niet zijn bedoeling is om AI te antropomorphiseren. “Maar welke overwegingen er ook worden gebruikt, uiteindelijk resulteert dit in output. Wij weten niet hoe dit resultaat tot stand komt. Alleen de machine is daar-
[ 4 0 ]
T h e
F u t u r e
o f
B u s i n e s s
Te c h n o l o g y
voor verantwoordelijk. Dus dat is voor mij het nieuwe aspect aan machine learning. En daarom is er veel opwinding maar ook angst over de potentie van deze technologie.” ■ Terrorismebestrijding In zijn recent verdedigde proefschrift gaat hij dieper in op het gebruik van AI in terrorismebestrijding. “Ik heb dit voorbeeld gebruikt om een aantal ethische kwesties met betrekking tot AI, en dan vooral machine learning, naar voren te brengen bij inzet ervan door de staat. Terrorismebestrijding is dan een goed voorbeeld, omdat we dan te maken hebben met een context waarin niemand wil dat terrorisme plaatsvindt. We hebben er dus allemaal veel voor over om een terroristische aanslag te voorkomen. En het is een terrein waar machine learning op zijn minst intuïtief lijkt te kunnen helpen.” “In het kader van dit voorbeeld stel ik de vraag wat de ethische richtlijnen zouden moeten zijn, en hopelijk vertaalt dat zich in de wettelijke vereisten voor het gebruik van deze technologie. En nog belangrijker, waar komen alle gegevens vandaan om deze algoritmen te trainen? En hoe wordt dit verzameld, en gebeurt dat verantwoord? Een probleem met toezicht op het gebruik van machine learning door de staat zal er altijd zijn. Dus ik behandel in mijn onderzoek het hele spectrum, van de data om het algoritme te trainen tot en met het daadwerkelijke gebruik van het algoritme, en de context waarin we AI zouden moeten gebruiken. “ ■ Wapenwedloop “Machine learning bij terrorismebestrijding is een soort wapenwedloop, maar dan in het herkennen van potentiële terroristen. Want hoe identificeer je mensen? Hoe doe je dat op een ethische manier? Je wilt kunnen beoordelen of het algoritme effectief is of niet. Wanneer je begint te voorspellen wie een terrorist wordt lopen we tegen een aantal serieuze problemen aan. Want het zou ook een self-fulfilling prophecy kunnen zijn - door iemand aan te pakken op basis van een algoritme dat aangeeft dat het een potentiële terrorist is.” “Ik begrijp heel goed dat we informatie moeten verzamelen om te weten waar we onze surveillance-activiteiten op moeten richten. Maar als we het hebben over het daadwerkelijk aanwijzen van mensen, vooral op het gebied van terrorismebestrijding, zou het uiteindelijk als gerechtvaardigd kunnen worden beschouwd om deze mensen te doden als we echt geloven dat ze een terroristische aanslag gaan plegen. Maar als iemand dood zou gaan alleen omdat een algoritme ze een bepaald label geeft, en dat was de enige rechtvaardiging, dan is dat duidelijk in strijd met onze liberale democratische principes.”