Wetenschap

Moralistische robots

Robots nemen steeds meer taken van ons over. Maar kunnen ze ook zelfstandig morele beslissingen nemen? Drs. Vincent Wiegel van Techniek, Bestuur en Management (TBM) zocht dat uit in een filosofisch experiment.

Robots kunnen voor ons stofzuigen, computerchips maken of zware dingen tillen. En binnen een paar decennia ook hulp verlenen bij rampen, denkt drs. Vincent Wiegel (TBM). Na de zware aardbeving in het noorden van Pakistan en India in 2005 konden mensen maar moeilijk het onherbergzame gebied in. “Straks kunnen we een soort maanlanders sturen, robots die hulp bieden”, zegt Wiegel. Die robots moeten dan ook morele beslissingen nemen. Als ze een beperkte hoeveelheid drinkwater moeten verdelen over teveel mensen, bijvoorbeeld. Kan een robot zo geprogrammeerd worden dat hij dergelijke beslissingen kan nemen?

Aan die vraag werkt econoom en filosoof Wiegel. Maandag promoveert hij op zijn onderzoek naar de mogelijkheid om machines te maken die zelfstandig morele beslissingen nemen. Het is nodig daarover na te denken, vindt Wiegel, omdat machines steeds meer taken van de mens overnemen. “Dat kunnen sciencefictionachtige robots zijn, maar ook computers die informatie verwerken. Ik kijk naar alle artificial agents, alle niet-menselijke actoren met een eigen doel die daarnaar handelen.”

De Zuid-Koreaanse regering verwacht dat de intelligentie van robots zich snel zal ontwikkelen en stelt alvast een ethische gedragscode voor de machines op. Dat zou in Nederland ook verstandig zijn, denkt Wiegel. “En ook breder dan dat, de code moet niet ophouden bij de Nederlandse grens.”
Zelfstandig oordelen

Aan een ethische code die aangeeft wat een robot wel of niet mag doen, waagt Wiegel zich niet. Hij wil juist software ontwikkelen waarmee ‘agenten’, bijvoorbeeld robots, met verschillende morele opvattingen kunnen worden geprogrammeerd. “We hebben nog een lange weg te gaan. We richten ons voorlopig op ‘expliciete ethische agenten’ met een basaal moreel redeneervermogen, die rekenschap over hun beslissing kunnen afleggen.” De zelfstandige agent programmeren is gelukt ‘in een eerste bescheiden vorm’, maar het is moeilijk, benadrukt de promovendus. De wereld waarin de robot zich beweegt is zo complex en onvoorspelbaar, dat software hem niet meer kan aansturen met: ‘als dit gebeurt, dan doe je dat’. Hij moet zelfstandig een oordeel vormen en een beslissing nemen. “Voor een mens is dat vaak makkelijk. Als een jongen op straat een kat schopt weet je dat dat verkeerd is”, legt Wiegel uit. “Maar hoe maakt een robot onderscheid tussen een schop tegen een kat of tegen een bal?”

Wiegel richtte zijn eigen Sopholab op en experimenteert daarin vrijuit met agenten met verschillende morele opvattingen. Het is geen laboratorium met rondrennende eigenwijze robots. De onderzoeker wijst op zijn laptop: “Mijn laboratorium zit hierin.” In zijn Sopholab maakt Wiegel virtuele agenten die zich gedragen volgens een bepaalde filosofische theorie. Zo schept hij bijvoorbeeld agenten vanuit het utilisme, een theorie waarin iemand de maximalisatie van het nut als moreel criterium hanteert. “Ik laat de agentjes opdrachten uitvoeren om te zien welke beslissing ze nemen. Zo doe ik proeven, net als een scheikundige die met metingen hypotheses toetst.”

Als de software van Wiegel nog verder is ontwikkeld, kunnen programmeurs die gebruiken om robots met de gewenste moraal te maken. Dat die intelligente robots er komen, staat voor hem vast. “We krijgen zoveel informatie te verwerken, dat we wel intelligente agenten nodig hebben om ons te helpen.” Maar als machines straks zelfstandig morele beslissingen gaan nemen, waar ligt dan nog de grens met de mens? Bij de ‘Geminoid’, een robot die de Japanse professor Hiroshi Ishiguro naar zijn eigen evenbeeld maakte, is het verschil nog nauwelijks te zien. Kosten nog moeite werden gespaard om de robotkloon zo realistisch mogelijk te laten bewegen. Hij kreeg zelfs de haren van de professor geïmplanteerd om echt te lijken. En niet alleen robots worden steeds menselijker. Wiegel: “Er zijn mensen met robotarmen of die door een geïmplanteerde chip weer iets kunnen zien. Hoeveel van een mens kun je vervangen tot het geen mens meer is?”

Gezellig afspreken met een robot op een terrasje? Zo ver is het nog lang niet. Maar filosoof Vincent Wiegel werkt al wel aan een manier om machines een moraal te geven. Zo kunnen ze zelfstandig situaties beoordelen en beslissingen nemen. (Foto: Klaas Fopma/Hollandse Hoogte)

Robots kunnen voor ons stofzuigen, computerchips maken of zware dingen tillen. En binnen een paar decennia ook hulp verlenen bij rampen, denkt drs. Vincent Wiegel (TBM). Na de zware aardbeving in het noorden van Pakistan en India in 2005 konden mensen maar moeilijk het onherbergzame gebied in. “Straks kunnen we een soort maanlanders sturen, robots die hulp bieden”, zegt Wiegel. Die robots moeten dan ook morele beslissingen nemen. Als ze een beperkte hoeveelheid drinkwater moeten verdelen over teveel mensen, bijvoorbeeld. Kan een robot zo geprogrammeerd worden dat hij dergelijke beslissingen kan nemen?

Aan die vraag werkt econoom en filosoof Wiegel. Maandag promoveert hij op zijn onderzoek naar de mogelijkheid om machines te maken die zelfstandig morele beslissingen nemen. Het is nodig daarover na te denken, vindt Wiegel, omdat machines steeds meer taken van de mens overnemen. “Dat kunnen sciencefictionachtige robots zijn, maar ook computers die informatie verwerken. Ik kijk naar alle artificial agents, alle niet-menselijke actoren met een eigen doel die daarnaar handelen.”

De Zuid-Koreaanse regering verwacht dat de intelligentie van robots zich snel zal ontwikkelen en stelt alvast een ethische gedragscode voor de machines op. Dat zou in Nederland ook verstandig zijn, denkt Wiegel. “En ook breder dan dat, de code moet niet ophouden bij de Nederlandse grens.”
Zelfstandig oordelen

Aan een ethische code die aangeeft wat een robot wel of niet mag doen, waagt Wiegel zich niet. Hij wil juist software ontwikkelen waarmee ‘agenten’, bijvoorbeeld robots, met verschillende morele opvattingen kunnen worden geprogrammeerd. “We hebben nog een lange weg te gaan. We richten ons voorlopig op ‘expliciete ethische agenten’ met een basaal moreel redeneervermogen, die rekenschap over hun beslissing kunnen afleggen.” De zelfstandige agent programmeren is gelukt ‘in een eerste bescheiden vorm’, maar het is moeilijk, benadrukt de promovendus. De wereld waarin de robot zich beweegt is zo complex en onvoorspelbaar, dat software hem niet meer kan aansturen met: ‘als dit gebeurt, dan doe je dat’. Hij moet zelfstandig een oordeel vormen en een beslissing nemen. “Voor een mens is dat vaak makkelijk. Als een jongen op straat een kat schopt weet je dat dat verkeerd is”, legt Wiegel uit. “Maar hoe maakt een robot onderscheid tussen een schop tegen een kat of tegen een bal?”

Wiegel richtte zijn eigen Sopholab op en experimenteert daarin vrijuit met agenten met verschillende morele opvattingen. Het is geen laboratorium met rondrennende eigenwijze robots. De onderzoeker wijst op zijn laptop: “Mijn laboratorium zit hierin.” In zijn Sopholab maakt Wiegel virtuele agenten die zich gedragen volgens een bepaalde filosofische theorie. Zo schept hij bijvoorbeeld agenten vanuit het utilisme, een theorie waarin iemand de maximalisatie van het nut als moreel criterium hanteert. “Ik laat de agentjes opdrachten uitvoeren om te zien welke beslissing ze nemen. Zo doe ik proeven, net als een scheikundige die met metingen hypotheses toetst.”

Als de software van Wiegel nog verder is ontwikkeld, kunnen programmeurs die gebruiken om robots met de gewenste moraal te maken. Dat die intelligente robots er komen, staat voor hem vast. “We krijgen zoveel informatie te verwerken, dat we wel intelligente agenten nodig hebben om ons te helpen.” Maar als machines straks zelfstandig morele beslissingen gaan nemen, waar ligt dan nog de grens met de mens? Bij de ‘Geminoid’, een robot die de Japanse professor Hiroshi Ishiguro naar zijn eigen evenbeeld maakte, is het verschil nog nauwelijks te zien. Kosten nog moeite werden gespaard om de robotkloon zo realistisch mogelijk te laten bewegen. Hij kreeg zelfs de haren van de professor geïmplanteerd om echt te lijken. En niet alleen robots worden steeds menselijker. Wiegel: “Er zijn mensen met robotarmen of die door een geïmplanteerde chip weer iets kunnen zien. Hoeveel van een mens kun je vervangen tot het geen mens meer is?”

Gezellig afspreken met een robot op een terrasje? Zo ver is het nog lang niet. Maar filosoof Vincent Wiegel werkt al wel aan een manier om machines een moraal te geven. Zo kunnen ze zelfstandig situaties beoordelen en beslissingen nemen. (Foto: Klaas Fopma/Hollandse Hoogte)

Redacteur Redactie

Heb je een vraag of opmerking over dit artikel?

delta@tudelft.nl

Comments are closed.