Zelfrijdende auto's, nog altijd is het pionieren (bron afbeelding: https://commons.wikimedia.org/wiki/File:Cruise_Automation_Bolt_EV_third_generation_in_San_Francisco.jpg)

Zelfrijdende Uber toch fout

Het lijkt erop dat de zelfrijdende Uber die afgelopen maand betrokken was bij een dodelijk ongeluk toch zelf schuldig is. Hoe veilig is dat zelf rijden eigenlijk?

Zoals u kunt lezen in dit bericht is de Uber die afgelopen maart een vrouw in de VS dood reed mogelijk toch zelf schuldig. De sensoren pikten de vrouw namelijk wel degelijk op, maar de auto ‘dacht’ vervolgens dat het een onschuldig object betrof en remde dus niet. Het roept toch weer een hoop vragen op. Want hoe safe is die software eigenlijk? Auto’s zijn ten opzichte van mensen en dieren loodzware projectielen. Zeker bij wat hogere snelheden ook dodelijke projectielen als niet of niet tijdig geremd wordt. Er zijn de afgelopen jaren al meer vage ongelukken met zelfrijdende auto’s geweest. Deels is dat ook zeker te wijten aan de menselijke bestuurders die bijvoorbeeld de automatische piloot van de Tesla misbruiken. Dit onderdeel is namelijk slechts een hulpmiddel en niet bedoeld voor het autonoom rijden van lange stukken. Zo op het eerste gezicht lijkt dat prima te gaan, maar de fabrikant geeft zelf al aan dat het daar allemaal niet voor ontworpen is.

Schuldvraag

Dat die Tesla over software beschikt die je blijkbaar toch voor langere tijd de controle over de besturing kunt geven is ietwat twijfelachtig natuurlijk. Feitelijk zou dat simpelweg niet moeten kunnen, zeker niet als de fabrikant zelf al aangeeft dat het niet voor zelfstandig rijden is ontworpen. In ieder geval wast Tesla daarmee zijn handen alvast in onschuld: de bestuurder is in geval van een zelfrijdende Tesla immers altijd schuldig. Dat is niet het geval bij auto’s die specifiek zijn voorzien van een elektronische bestuurder. In dat geval is de auto – ofwel de fabrikant van de autopiloot – verantwoordelijk. Maar je kunt nou ook weer niet direct zeggen dat de auto altijd schuldig is. Als we kijken naar het bekende filmpje van het Uber-ongeval zien we een vrouw zomaar uit het niets opduiken. Ook een menselijke bestuurder had haar beslist niet kunnen ontwijken. En wellicht ook niet geremd, want voor die actie was het zonder meer te laat. De hamvraag is wanneer de sensoren de vrouw precies in beeld hebben gekregen. Op hetzelfde moment als ze werd geregistreerd door de camera of al (veel) eerder? Als dat laatste het geval is, kan je spreken van een ernstig softwareprobleem. In het eerste geval niet natuurlijk.

Pionieren

Grootste probleem bij zelfrijdende auto’s is dat het allemaal nog pionierswerk is. Zeker in druk en chaotisch stadsverkeer met over de weg zwabberende fietsen, onverwacht overstekende kinderen en een incidenteel op hol geslagen paard heeft een automatische piloot het zwaar. Soms blijft een zelfrijdende auto simpelweg achter een lossende vrachtwagen staan omdat hij denkt in een file te staan. Even doordenken en eromheen rijden is er niet bij. De slimheid is dus beperkt te noemen. En precies dat is een wat griezelige gedachte natuurlijk. Anderzijds: door mensen veroorzaakte (al dan niet dodelijke) ongelukken zijn er natuurlijk ook. Veel meer zelfs. Maar van een machine verwachten we perfectie. Als dat niet het geval is, heeft de machine een probleem. Misschien niet helemaal eerlijk, maar wel een verstandige benadering. Dat ongelukken met zelfrijdende auto’s dan ook minutieus onderzocht worden is een goede zaak. Hopelijk leidt het ooit eens tot een echt veilige automatische piloot. Want niks is mooier dan simpelweg je eindbestemming intikken en  lekker slapen onderweg naar je (vakantie)bestemming. Maar zover is het nog lang niet. Vooralsnog blijft de mens het grootste gevaar op de weg.

Geef een reactie

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.