Geschreven door Christine Boshuijzen-van Burken / 

14 december 2017 / 

Word je liever doodgeschoten door een mens of door een robot?

Word je liever doodgeschoten door een mens of door een robot? Nou, als je het mij vraagt word ik het liefst helemaal niet doodgeschoten. Maar als ik dan toch dood moet, dan lijkt doodgeschoten worden mij prettiger dan stikken of op een andere manier langzaam doodgaan. Achter de vraag of doodgeschoten worden door een robot die voor dat doel ontworpen is – een killerrobot – prettig is of niet, schuilt een oceaan aan diepere vragen. Ik vis er één uit.

Die vraag is, hoe je moet omgaan met robots die mensen doden. We kunnen bij robots namelijk lastig gebruik maken van de gebruikelijke gang van zaken bij mensen. Als ik een ander mens dood, moet ik terechtstaan en verdedigen waarom ik dat deed. Afhankelijk van de redenen die ik aanvoer, krijg ik wel of geen straf. Of misschien een lichte straf. Als ik noodweer aanvoer, dus als iemand een levensbedreigende dreiging voor mij was, kan het zijn dat het doden van de ander niet leidt tot straf. Ook mijn hoedanigheid telt mee. Als ik militair zou zijn, dan zou ik een unieke positie hebben. Dan mag ik namelijk doden binnen de regels van het oorlogsrecht. Als burger heb ik die positie niet.

Verantwoording kunnen afleggen

Hoe zou zoiets werken bij een robot? Kan je een robot voor de rechter dagen en eisen dat het verantwoording aflegt van zijn daden? Lambèr Royakkers suggereert iets dergelijks en stelt dat enige vorm van kunstmatige intelligentie (waar ik een intelligente robot gemakshalve onder schaar) te allen tijde moet kunnen uitleggen hoe het tot een bepaalde daad is gekomen, “op een manier die voor mensen begrijpelijk is”. Zie daarvoor de TEDx talk die hij in juli hield in Veghel (zie ook hieronder). Wat Royakkers voorstelt is een soort ‘robo respondens’, dus een robot die verantwoording kan afleggen.

Deze benadering doet me denken aan een andere filosoof, Henk Geertsema, die een deel van zijn werk gewijd heeft aan het unieke van een mens, op een niet-reductionistische manier. Geertsema wierp de term ‘homo respondens’ op. Het idee van homo respondens is dat de mens voortdurend antwoordt (respondeert) op dat wat gegeven is in de wereld. In de wereld zitten tal van aspecten opgesloten waarop geantwoord kan worden, zoals: hoe ga je goed om met je medemens, hoe ga je goed om met geld en goed, hoe ga je goed om met je emoties, hoe ga je goed om met je gezin, dat wat je gelooft, je contract of de natuur. Mensen kunnen op diverse manieren antwoorden en daarbij hoort bijvoorbeeld ook dat een mens kan besluiten te antwoorden met vergeving.

In een TEDx-talk die Lambèr Royakkers eerder dit jaar in Veghel hield, pleit hij voor robots en kunstmatige intelligentie die verantwoording kunnen afleggen, de ‘robo respondens’.

‘Verwijt je het de robot?’

Hoe zou dat werken bij een robot? Kan een robot vergeven worden dat hij mij onterecht heeft doodgeschoten? In de derde aflevering van de VPRO-serie Robo Sapiens stelt filmmaker/presentator Jelle Brandt Corstius een soortgelijke vraag aan Bill Holbrook. Deze man verloor in 2015 zijn vrouw door een ‘fout’ van een industriële robot. De lasmachine verdrukte haar hoofd terwijl ze onderhoud aan het plegen was. “Verwijt je het de robot?”, was Jelles vraag aan Holbrook. Die antwoordde dat hij er (nog) niet zo over had nagedacht, maar concludeerde in het gesprek wel dat er rond en voor robots weinig regels zijn opgesteld. Dat maakte het voor hem lastig om goed met de dood van zijn vrouw om te kunnen gaan.

Terug naar onze casus. Stel, we vergeven de robot níét dat hij mij heeft doodgeschoten. De vraag is dan wat we moeten doen als de robot niet naar tevredenheid kan uitleggen hoe het tot zijn actie is gekomen. Moet de robot dan opnieuw geprogrammeerd worden? En moeten, aangezien robots in serieproductie kunnen verschijnen, alle soortgelijke types/modellen dan teruggeroepen en eveneens opnieuw geprogrammeerd worden? Of moeten we de verantwoordelijkheid bij de ontwerper(s) van de robot leggen? Het idee van kunstmatige intelligentie (artificial intelligence) is dat er sprake is van voortschrijdend inzicht, maar dat kan soms hopeloos fout gaan.

Spannend en angstaanjagend tegelijk

Zoals chatbot TayTweets, die zich binnen 24 uur tot een holocaust-ontkennende nazi ontwikkelde. Als een robot alleen handelt volgens vooraf ingegeven kenmerken en gemakkelijk etnisch kan profileren, kan dat al snel tot enorme problemen leiden. Ook zijn er verhalen van robots die een eigen codetaal gingen ontwikkelen die voor mensen onbegrijpelijk bleek. Een ontwikkeling die door experts “spannend en tegelijkertijd angstaanjagend” werd genoemd. Recent nog gaven onderzoekers uit Lausanne, Zwitserland, toe dat het leerproces van kunstmatige intelligentie uit de hand kan lopen. “Kunstmatige intelligentie zal altijd proberen om menselijk ingrijpen te voorkomen”, zeiden ze. Waarbij zich dus situaties kunnen voordoen waarin kunstmatige intelligentie besluit om de mens te overrulen.

Wat ik me verder afvraag is, of een robot zich iets zou kunnen aantrekken van dreigingen. Dus, of je een robot kunt dreigen met straf, of zelfs met de dood. Immers, alleen bij mensen die zich iets kunnen voorstellen bij ‘de dood’, werkt het dreigen met deze ultieme consequentie van bepaald gedrag? Bij kleine kinderen of volwassenen met een verstandelijke beperking werkt een waarschuwing of dreiging met de dood niet, omdat ze zich er niets bij kunnen voorstellen. Het schrikt hen niet af. Als dat bij mensen al zo moeilijk is, hoeveel lastiger is het dan voor robots om te ‘beseffen’ wat dood is? En hoe ziet een straf voor een robot er dan uit?

In animatiefilms lijkt het alsof robotachtige types een eigen karakter hebben. Maar werkt dat zo bij échte robots in het échte leven, vraagt Christine Boshuijzen-van Burken zich af. Hebben robots bijvoorbeeld besef van wat ze doen?

Wie is verantwoordelijk voor robots?

Met opzet zet ik hierboven het woord ‘beseffen’ tussen aanhalingstekens. Want ik heb moeite met dat woord bij robots. Besef is meer dan doorhebben wat de consequentie is van een bepaalde handeling. Het heeft ook iets te maken met een houding, een neiging tot, wat weer te maken heeft met karakter. In de animatiefilmpjes met pratende auto’s waar mijn peuterzoon graag naar kijkt, lijkt het alsof deze robotachtige types allemaal een eigen karakters hebben. Maar werkt dat zo bij échte robots in het échte leven?

Bovendien, mensen hebben er al veel moeite mee om situaties goed in te schatten. Neem bijvoorbeeld dit incident in Somalië, waarin beveiligers van een minister per ongeluk het vuur openden op een andere minister, omdat het voortuig waarin de collega-minister zat de weg ophield en er sprake was van een zekere dreiging. Als tussen mensen zulke misverstanden al voorkomen, dan lijkt het onvermijdelijk dat ook robots soms verkeerde inschattingen maken.

Ik wil dit artikel afsluiten met deze vraag: wie is verantwoordelijk wanneer het gaat om robots? De robot zelf? De eigenaar? De programmeur? Een vraag waarop een antwoord nodig is wanneer we op een goede manier willen leven met steeds meer robots en robotica om ons heen.

Christine Boshuijzen-van Burken

Christine Boshuijzen-van Burken werkt als postdoctoraal onderzoeker aan de Technische Universiteit Eindhoven. Haar onderzoek richt zich op technologie en ethiek. Ze heeft een BSc in Bewegingstechnologie (De Haagse Hogeschool, 2002), een BSc in Werktuigbouwkunde (Fontys Hogeschool Eindhoven, 2004), een MA aan de Vrije Universiteit van Amsterdam, faculteit Wijsbegeerte (2006) en een PhD aan de Technische Universiteit Eindhoven (2014). Haar proefschrift ging over ethiek en militaire technologie. Ze werkte tot 2017 als postdoctoraal onderzoeker aan de Linnaeus University in Zweden. Christine is tevens assistent-directeur van de OZSW (Nederlandse Onderzoeksschool voor Wijsbegeerte) en reservist bij het Korps Nationale Reserve. Ze werkte verschillende jaren als werktuigbouwkundig ingenieur, voorafgaand aan haar doctoraatsstudies.

Nu jij!

Wat denk jij? Reageer hieronder!