Mensen worden geacht moreel te handelen. Van machines werd/wordt dat nog niet verwacht maar kan dat nog wel? Zelfrijdende auto's zijn de eerste robots waarbij het noodzakelijk werd om daarover na te denken.
Sommige nu geproduceerde consumenten auto's zijn nu al in staat om tot op zekere hoogte autonoom te rijden (b.v. Tesla). Dat brengt met zich mee dat de morele dillemma's die normaal bij de bestuurder liggen nu bij de auto, de software, komen te liggen. Wijk je uit voor een hond met het risico dat je zelf verongelukt, wijk je uit voor een overstekend kind? Met deze vragen moet met het maken van de software voor autonome auto's terdege rekening gehouden worden.
Om te vermijden dat de software alleen de morele opvattingen van een groepje software ingenieurs weerspiegelt is het MIT (Massachusetts Institute of Technology) een onderzoek gestart naar de morele voorkeuren van mensen over de hele wereld via de Moral Machine website.
Bekijk de video hiernaast over het Moral Machine onderzoek en doe zelf de test. Ga naar: https://www.moralmachine.net/
Doe de test op een laptop en niet op telefoon of tablet anders kan je de toelichting niet zien. Maak screenshots van de resultaten en lever die in.
Beantwoord ook de vragen op de onderstaande PDF.
Lever de hele opdracht in in een Word bestand.