Page 11

‘Hoe zorgen we er nu voor dat het straks niet uit de hand loopt met technieken die zo slim zijn dat ze een bovenmenselijke prestatie kunnen leveren?’ is de manipulatie van objecten. Denk aan kranen in een containerpark. Het pad van een container aan de kraan kun je ook heel mooi optimaliseren met voorspellende regeltechniek. Misschien waait het heel hard, en sommige paden zijn gevoeliger voor zijwind dan andere, dan kies je het pad dat je de grootste kans geeft op veilige aankomst. Het kortste pad is niet noodzakelijk het beste. De interactie tussen robot en mens is iets waar we veel onderzoek naar doen. Robots moeten kunnen inspelen op mensen. Andersom is het ook zo dat de mens moet kunnen begrijpen hoe de robot denkt. Daarvoor moet een robot aan de mens laten zien wat hij van plan is, met behulp van beweging, spraak of met licht of een projectie, dat kan allemaal. De mens hoeft dat vervolgens niet te accepteren. De robot moet dan ook weer voldoende adaptief zijn om te zeggen: ik snap het; ik ga doen wat jij wilt. Dus een robot moet zijn intenties tonen, adaptief zijn, kunnen inschatten wat de mens van plan is; daar moet je een simpel model van menselijk gedrag voor inbouwen of aanleren. Daar komt best veel bij kijken, niet alleen modelvorming, maar ook psychologie. Een zekere mate van autonomie voor robots is wel wenselijk. Anders moet je ze voortdurend bij de hand nemen

11

en vertellen wat ze moeten doen; dat schiet niet op. Soms moet een robot ook op grote afstand kunnen functioneren. Een robot moet dus een deel van de tijd zelfstandig beslissingen kunnen nemen, waarvan sommige heel gemakkelijk zijn: ik zie een obstakel en ik rij eromheen. Andere beslissingen zijn juist heel moeilijk. Bij zelfrijdende auto’s zijn daar bekende voorbeelden van: moet zo’n auto de bestuurder opofferen om drie voetgangers te redden? Daar kom je ethisch niet uit. Volledige autonomie is dus eigenlijk niet wenselijk, want je wilt als mens controle hebben over de robot. Hij moet zelfstandig zijn, maar geen dingen helemaal zelf gaan bedenken. Waar ligt dan de grens? Hoe zorg je dat de interactie tussen de bijna-autonome robot en de mens goed verloopt? Als die auto 99 procent van de tijd zelfrijdend is, maar die ene procent van de tijd op de mens vertrouwt, kan het goed mis gaan. Die mens is dat niet meer gewend, of is nietsvermoedend iets anders aan het doen. In de luchtvaart is dat een bekend scenario. Als er iets fout gaat, neemt de piloot het van de automatische piloot over, maar de piloot is daarop getraind. Als je nu robots in de maatschappij brengt, kun je niet verwachten dat gebruikers er helemaal bovenop zitten en elk detail van de robot begrijpen.

Kijk je naar de maatschappij, naar het tempo waarin dingen zich ontwikkelen en in hoeverre we begrijpen wat er allemaal gaande is, dan kunnen we dat ook haast niet bijhouden. Neem real-time trading, waarbij bedrijven veel geld verdienen met transacties die op een tijdschaal van microseconden plaatsvinden. Niemand begrijpt hoe dat werkt of wat de precieze gevolgen hiervan kunnen zijn. Hoe zorgen we er nu voor dat het straks niet uit de hand loopt met technieken die zo slim zijn dat ze een bovenmenselijke prestatie kunnen leveren? Dat zijn interessante discussies, die je niet moet vermijden. De complexiteit van het brein is weliswaar zo enorm, dat het nog twintig jaar kan duren, maar het gaat een keer gebeuren. Dat zet ons wel voor een lastig filosofisch probleem, want als die Kunstmatige Intelligentie in de ‘cloud’ zit, kun je het niet zomaar uitzetten. Een verstandig uitgangspunt is dat je bij elke stap die je maakt, in het onderzoek of bij de implementatie, er zeker van bent dat het de juiste stap is. Dat je bewijsbaar kunt aantonen dat het systeem niet uit de hand kan lopen en dat je zo min mogelijk risico neemt bij het verbeteren van dat systeem. Dat principe kun je niet loslaten.

Highlights 2015 NL  

Highlights TU Delft 2015

Read more
Read more
Similar to
Popular now
Just for you