Volautomatisch morele keuzes maken

De mens evolueert tot een gemakzuchtig wezen. Daar is hard werken aan vooraf gegaan. Nadenken over hoe dingen makkelijker gemaakt konden worden, uitvindingen doen en toepassingen fabriceren. Maar de resultaten mogen er zijn. Al heel wat lastige en vervelende klusjes worden inmiddels door machines gedaan. Het zal ook niet lang meer duren of we krijgen de beschikking over de volautomatische hulp in huis. Een robot die klopt, die veegt, die zuigt, de maaltijden bereidt, de kinderen op tijd naar bed brengt en ze ook nog eens een verhaaltje voorleest. In Japan hebben ze voor zo''n € 2800,- al een robot die demente zestigplussers opvrolijkt. Het is niet zo moeilijk tal van bekende, routineuze handelingen door een robot te laten doen. De gemakzuchtige mens laat zich daarvoor graag vervangen door een machine. Eén vervelend klusje moeten we echter nog steeds helemaal zelf doen: keuzes maken. Een robot denkt niet na en maakt dus geen keuzes. Dus als het ding de opdracht ''opruimen'' krijgt, dan doet-ie dat ook onvoorwaardelijk. Hij vergeet de plantjes in de vensterbank water te geven en in plaats daarvan kiept-ie de sanseveria''s in de groenbak. Een robot moet worden aangestuurd door programma''s die wij zelf moeten bedenken. De robot voert onze keuzes uit. Maar wat zou het een opluchting zijn als die robots zelf konden nadenken. Want als we ergens de pest aan hebben, dan zijn dat wel die dagelijks terugkerende keuzes. Wanhoop niet! De oplossing is nabij. Nog even en robots verlossen ons zelfs van de allermoeilijkste klus des levens: de morele keuze.

Stelt u zich een voor dat u die overwerkte co-assistent bent die tijdens het spitsuur op de ehbo van een ziekenhuis moet beslissen welke patiënten als eerste naar de operatiekamer mogen om hun levensreddende behandeling te krijgen. Dat vinden we al onmenselijke situaties, dus dat kunnen we beter aan robots overlaten. Met gemak onthouden die welke operatiekamers vrij zijn, welke specialisten dienst hebben en ze kunnen meten hoe dringend de patiënt de hulp nodig heeft. Het grote voordeel van zulke volautomatische keuzes is dat de zwaar gestresste co-assistent ontlast wordt en mocht men achteraf de gemaakte keuzes moreel verwerpelijk vinden, dan krijgt de computer de schuld. Nou kan ik me niet voorstellen dat robots hun morele besef zelf ontwikkelen. Dat moet toch door ''de mens'' in hun programma worden gestopt. En dan rijst dus de vraag: van welk moreel besef moet een robot worden voorzien? Zou er een prototype moraliteit te bedenken zijn waar geen enkel mens moeite mee heeft en waarmee we dus met gerust hart elke robot kunnen uitrusten? Of zouden we straks kunnen kiezen welke mentaliteit onze huishoudelijke robot kan bezitten? Bijvoorbeeld de mentaliteit van een bekende Nederlander naar keuze. Wacht even, dat laatste was de bedoeling niet. We wilden immers van dat eeuwige keuzes maken af?

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *