Geschreven door Christine Boshuijzen-van Burken /
31 augustus 2023 /
Word je liever doodgeschoten door een mens of door een robot?

In onze samenleving wordt steeds meer werk gedaan door robots. Bijvoorbeeld in fabrieken en in de zorg. Robots kunnen veel werk efficiënter en beter doen dan mensen. Maar wat doen we wanneer robots fouten maken, zelfs met ernstige gevolgen? Wie is dan verantwoordelijk? Kunnen we robots überhaupt verantwoordelijk houden voor hun daden?
Christine Boshuijzen-van Burken is onderzoeker op het gebied van technologie en ethiek. Ze schreef de onderstaande blog over dit vraagstuk.
Robots die mensen doden
Word je liever doodgeschoten door een mens of door een robot? Nou, als je het mij vraagt word ik het liefst helemaal niet doodgeschoten. Maar als ik dan toch dood moet, dan lijkt doodgeschoten worden mij prettiger dan stikken of op een andere manier langzaam doodgaan. Achter de vraag of doodgeschoten worden door een robot die voor dat doel ontworpen is (een killerrobot) prettig is of niet, schuilt een oceaan aan diepere vragen. Ik vis er één uit.
Die vraag is hoe je moet omgaan met robots die mensen doden. We kunnen bij robots namelijk lastig gebruik maken van de gebruikelijke gang van zaken bij mensen. Als ik een ander mens dood, moet ik terechtstaan en verdedigen waarom ik dat deed. Afhankelijk van de redenen die ik aanvoer, krijg ik wel of geen straf. Of misschien een lichte straf. Als ik noodweer aanvoer – dus als iemand een levensbedreigende dreiging voor mij was – kan het zijn dat het doden van de ander niet leidt tot straf. Ook mijn hoedanigheid telt mee. Als ik militair zou zijn, dan zou ik een unieke positie hebben. Dan mag ik namelijk doden binnen de regels van het oorlogsrecht. Als burger heb ik die positie niet.
Verantwoording kunnen afleggen
Hoe werkt zoiets bij een robot? Kun je een robot voor de rechter dagen en eisen dat het verantwoording aflegt van zijn daden? Lambèr Royakkers suggereert iets dergelijks en stelt dat enige vorm van kunstmatige intelligentie (waar ik een intelligente robot gemakshalve onder schaar) te allen tijde moet kunnen uitleggen hoe het tot een bepaalde daad is gekomen, “op een manier die voor mensen begrijpelijk is”. Zie daarvoor de TEDx talk die hij in juli 2017 hield in Veghel (zie ook hieronder). Wat Royakkers voorstelt is een soort ‘robo respondens’. Dus een robot die verantwoording kan afleggen.
Deze benadering doet me denken aan een andere filosoof, Henk Geertsema, die een deel van zijn werk wijdde aan het unieke van een mens, op een niet-reductionistische manier. Geertsema wierp de term ‘homo respondens’ op. Het idee van homo respondens is dat de mens voortdurend antwoordt (respondeert) op dat wat gegeven is in de wereld. In de wereld zitten tal van aspecten opgesloten waarop geantwoord kan worden, zoals: hoe ga je goed om met je medemens? Hoe ga je goed om met geld en goed? Hoe ga je goed om met je emoties? En hoe ga je goed om met je gezin, dat wat je gelooft, je contract of de natuur? Mensen kunnen op diverse manieren antwoorden en daarbij hoort bijvoorbeeld ook dat een mens kan besluiten te antwoorden met vergeving.
Verwijt je het de robot?
Hoe zou dat werken bij een robot? Kan een robot vergeven worden dat hij mij onterecht heeft doodgeschoten? In de derde aflevering van de VPRO-serie Robo Sapiens (bekijk de aflevering hier) stelt filmmaker en presentator Jelle Brandt Corstius een soortgelijke vraag aan Bill Holbrook. Deze man verloor in 2015 zijn vrouw door een ‘fout’ van een industriële robot. De lasmachine verdrukte haar hoofd terwijl ze onderhoud aan het plegen was. “Verwijt je het de robot?”, was Jelles vraag aan Holbrook. Die antwoordde dat hij er (nog) niet zo over had nagedacht, maar concludeerde in het gesprek wel dat er rond en voor robots weinig regels zijn opgesteld. Dat maakte het voor hem lastig om goed met de dood van zijn vrouw om te kunnen gaan.
Terug naar onze casus. Stel, we vergeven de robot níét dat hij mij heeft doodgeschoten. De vraag is dan wat we moeten doen als de robot niet naar tevredenheid kan uitleggen hoe het tot zijn actie is gekomen. Moet de robot dan opnieuw geprogrammeerd worden? En moeten, aangezien robots in serieproductie kunnen verschijnen, alle soortgelijke types/modellen dan teruggeroepen en eveneens opnieuw geprogrammeerd worden? Of moeten we de verantwoordelijkheid bij de ontwerper(s) van de robot leggen? Het idee van kunstmatige intelligentie (artificial intelligence) is dat er sprake is van voortschrijdend inzicht, maar dat kan soms hopeloos fout gaan.

Spannend en angstaanjagend tegelijk
Zoals chatbot TayTweets, die zich binnen 24 uur tot een holocaust-ontkennende nazi ontwikkelde. Als een robot alleen handelt volgens vooraf ingegeven kenmerken en gemakkelijk etnisch kan profileren, kan dat al snel tot enorme problemen leiden. Ook zijn er verhalen van robots die een eigen codetaal gingen ontwikkelen die voor mensen onbegrijpelijk bleek. Een ontwikkeling die door experts “spannend en tegelijkertijd angstaanjagend” werd genoemd. Ook onderzoekers uit Lausanne, Zwitserland, gaven toe dat het leerproces van kunstmatige intelligentie uit de hand kan lopen. “Kunstmatige intelligentie zal altijd proberen om menselijk ingrijpen te voorkomen”, zeiden ze. Waarbij zich dus situaties kunnen voordoen waarin kunstmatige intelligentie besluit om de mens te overrulen.
Wat ik me verder afvraag is, of een robot zich iets zou kunnen aantrekken van dreigingen. Dus, of je een robot kunt dreigen met straf, of zelfs met de dood. Immers, alleen bij mensen die zich iets kunnen voorstellen bij ‘de dood’, werkt het dreigen met deze ultieme consequentie van bepaald gedrag? Bij kleine kinderen of volwassenen met een verstandelijke beperking werkt een waarschuwing of dreiging met de dood niet, omdat ze zich er niets bij kunnen voorstellen. Het schrikt hen niet af. Als dat bij mensen al zo moeilijk is, hoeveel lastiger is het dan voor robots om te ‘beseffen’ wat dood is? En hoe ziet een straf voor een robot er dan uit?



Wie is verantwoordelijk voor robots?
Met opzet zet ik hierboven het woord ‘beseffen’ tussen aanhalingstekens. Want ik heb moeite met dat woord bij robots. Besef is meer dan doorhebben wat de consequentie is van een bepaalde handeling. Het heeft ook iets te maken met een houding – een neiging tot – wat weer te maken heeft met karakter. In de animatiefilmpjes met pratende auto’s waar mijn peuterzoon graag naar kijkt, lijkt het alsof deze robotachtige types allemaal een eigen karakters hebben. Maar werkt dat zo bij échte robots in het échte leven?
Bovendien, ménsen hebben er al veel moeite mee om situaties goed in te schatten. Neem bijvoorbeeld dit incident in Somalië, waarin beveiligers van een minister per ongeluk het vuur openden op een andere minister, omdat het voortuig waarin de collega-minister zat de weg ophield en er sprake was van een zekere dreiging. Als tussen mensen zulke misverstanden al voorkomen, dan lijkt het onvermijdelijk dat ook robots soms verkeerde inschattingen maken.
Ik wil dit artikel daarom afsluiten met deze vraag: wie is verantwoordelijk wanneer het gaat om robots? De robot zelf? De eigenaar? De programmeur? Een vraag waarop een antwoord nodig is wanneer we op een goede manier willen leven met steeds meer robots en robotica om ons heen.
Dit artikel verscheen oorspronkelijk in december 2017 op deze website.
Christine Boshuijzen-van Burken
Christine Boshuijzen-van Burken promoveerde in de ethiek en filosofie van technologie. Ze heeft een BSc in Human Kinetic Engineering (Haagse Hogeschool), in Werktuigbouwkunde (Fontys Hogeschool, Eindhoven) en een MA in Christian Studies of Science and Society aan de VU Amsterdam. Momenteel is ze senior onderzoeker aan de Universiteit van New South Wales (UNSW) aan de Australian Defence Force Academy (ADFA) in Canberra, Australië.
Hiervoor werkte ze in onderzoeks- en onderwijsfuncties aan de TU Eindhoven, TU Delft, Koninklijke Militaire Academie, Technische Universiteit van Queensland in Australië en de Linnaeus Universiteit in Zweden. Haar onderzoeksonderwerpen gaan onder ander over ethiek van (militaire) technologie. Christine werkte enkele jaren in het bedrijfsleven als werktuigbouwkundig ingenieur en was van 2014-2018 adjunct-directeur van de Nederlandse Onderzoekschool voor Wijsbegeerte. Naast haar academische werk is ze reservist bij de Koninklijke Landmacht.