Het lijkt erop dat de zelfrijdende Uber die afgelopen maand betrokken was bij een dodelijk ongeluk toch zelf schuldig is. Hoe veilig is dat zelf rijden eigenlijk?
Zoals u kunt lezen in dit bericht is de Uber die afgelopen maart een vrouw in de VS dood reed mogelijk toch zelf schuldig. De sensoren pikten de vrouw namelijk wel degelijk op, maar de auto ‘dacht’ vervolgens dat het een onschuldig object betrof en remde dus niet. Het roept toch weer een hoop vragen op. Want hoe safe is die software eigenlijk? Auto’s zijn ten opzichte van mensen en dieren loodzware projectielen. Zeker bij wat hogere snelheden ook dodelijke projectielen als niet of niet tijdig geremd wordt. Er zijn de afgelopen jaren al meer vage ongelukken met zelfrijdende auto’s geweest. Deels is dat ook zeker te wijten aan de menselijke bestuurders die bijvoorbeeld de automatische piloot van de Tesla misbruiken. Dit onderdeel is namelijk slechts een hulpmiddel en niet bedoeld voor het autonoom rijden van lange stukken. Zo op het eerste gezicht lijkt dat prima te gaan, maar de fabrikant geeft zelf al aan dat het daar allemaal niet voor ontworpen is.
Lees verder Zelfrijdende Uber toch fout

Ronald Smit kan dankzij een combinatie van een elektronica- en een journalistieke opleiding (afstudeerrichting radio en nieuwe media) technische zaken op een heldere en eenvoudige manier uitleggen. Zijn jarenlange schrijfervaring voor onder meer Computer Idee geeft u al snel de ‘aha-erlebnis’ waar u wellicht al zo lang naar op zoek was. En wordt het dan toch allemaal wat ingewikkeld, dan loodst hij de lezer snel en zeker langs eventuele barrières en valkuilen. De boeken van Ronald vind je hier.