Geschreven door Redactie / 

7 december 2017 / 

Kan leerproces kunstmatige intelligentie uit de hand lopen?

Kan het leerproces van kunstmatige intelligentie uit de hand lopen? Dat is goed mogelijk, aldus Rachid Guerraoui, professor en onderzoeker aan de EPFL (Ecole Polytechnique Fédérale de Lausanne) in Zwitserland. “Kunstmatige intelligentie zal altijd proberen om menselijk ingrijpen te voorkomen en een situatie te creëren waarin het niet gestopt kan worden.” Dat zei hij tegen Science Daily.

Kunstmatige intelligentie leert als volgt. Een machine voert specifieke acties uit, observeert de uitkomst en past zijn gedrag daarop aan. Om vervolgens de nieuwe uitkomst te observeren en zijn gedrag daar weer op aan te passen, enzovoort. Guerraoui maakt deel uit van een team dat research doet naar menselijk ingrijpen in dit leerproces. Samen ontwikkelden ze een methode die ingrijpen mogelijk maakt, zonder dat dit invloed heeft op het leerproces van machines.

Gedrag aanpassen

De onderzoekers geven een voorbeeld van twee zelfrijdende auto’s die elkaar volgen op een smalle weg. Ze moeten hun bestemming zo snel mogelijk bereiken, kunnen elkaar niet passeren en mogen geen verkeersregels overtreden. De inzittenden van de auto’s kunnen op elk moment de controle overnemen. Als de inzittende van de eerste auto vaak remt, zal de tweede auto zijn gedrag daarop aanpassen. Hij zal verward raken en steeds minder goed weten wanneer hij moet remmen. Daardoor zal hij te langzaam gaan rijden, of juist te dicht op zijn voorganger.

Hoe zorg je dat je als mens controle houdt over bijvoorbeeld zelfrijdende auto’s, zonder dat je het gedrag en leerproces van dit soort machine verstoort? Dat onderzoeken researchers aan de EPFL in Lausanne.

Mens moet het laatste woord hebben

Dergelijke problemen proberen de onderzoekers op te lossen via ‘veilige onderbreekbaarheid’. Hun methode komt erop neer dat mensen de leerprocessen van kunstmatige intelligentie kunnen onderbreken wanneer dat nodig is. Echter, zonder dat dit de manier waarop machines leren (van de omstandigheden en van eigen acties/keuzes) verandert. De methode levert een belangrijke bijdrage aan de ontwikkeling van bijvoorbeeld veilige zelfrijdende auto’s, of drones die in groepsverband moeten vliegen.

Bijkomend vraagstuk is hoe programmeurs kunnen voorkomen dat machines uiteindelijk leren menselijke commando’s te omzeilen. Ingrijpen moet altijd mogelijk blijven, menen de onderzoekers. Mensen moeten steeds het laatste woord hebben.

(Bron en meer lezen: Science Daily)

Redactie

De redactie van De Grote Vragen zijn de vrijwilligers achter de schermen. Ze plaatsten en redigeren content.

Nu jij!

Wat denk jij? Reageer hieronder!