SHARE

C’est une démonstration tragique : le pilote automatique de Tesla n’est pas infaillible

Le premier accident mortel a eu lieu début mai en Floride, et vient d’être rendu public. La NHTSA, l’organisation américaine en charge de la sécurité routière a diligenté une enquête qui pourrait aboutir au rappel de quelque 25000 véhicules.

En cause, selon les premiers éléments disponibles, un ciel trop clair et lumineux aurait trompé les capteurs de la voiture et les yeux du conducteur, peut-être trop confiant dans la machine. L’apparition d’un camion qui venait de couper la route n’a déclenché aucun freinage automatique. Le conducteur est mort sur le coup.

Mais, dans son malheur, la voiture automatisée de Tesla peut encore se prévaloir de résultats supérieurs aux véhicules classiques : un décès sur 210 millions de kilomètres parcourus c’est encore bien mieux qu’un mort tous les 150 millions de kilomètres, score moyen sur les routes américaines. Si elle n’est pas encore parfaite, la voiture du futur le deviendra probablement, c’est en tout cas ce qu’affirment les ingénieurs de Tesla. Selon Egil Juliussen, directeur de recherche chez IHS Automotive, un des principaux acteurs du secteur, la quasi-perfection technique devrait poindre en 2025, c’est à dire demain.

Pourtant, la véritable frontière de l’intelligence artificielle appliquée aux transports n’est pas d’ordre technique, mais moral

Votre voiture reconnait un car rempli de scouts qui roule à tombeau ouvert et à contre-sens, doit-elle choisir de sauver son conducteur ou une douzaine d’enfants ?

Bien sûr, si on leur laisse le choix, on peut penser que les acheteurs de voitures choisiront plutôt un véhicule qui les protège, eux et leur famille, avant de sauver la vie d’inconnus, même plus nombreux. Mais la collectivité ne devrait pas leur laisser ce genre de choix. Il serait tentant pour l’état de garantir que tous les véhicules du futur choisiront la collectivité plutôt que les intérêts particuliers, au risque de détourner les acheteurs de ce type de véhicule.

Pourtant, à court terme, que ce soit pour les voitures, les machines de guerre, les drones ou l’une ou l’autre des multiples formes que prendront les machines aux « mains » de l’intelligence artificielle, les concepteurs ne pourront bientôt plus faire l’économie d’une réflexion philosophique sur ce que la morale artificielle devrait être.

Les trois lois de la robotique

Cette question est au centre de l’oeuvre d’Isaac Asimov, qui énonce en 1942 les « trois lois de la robotique » : un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

En testant dans ces différents livres l’efficacité de ces trois règles, Asimov se trouva dans une impasse. Dans la nouvelle Les Robots et l’Empire, le robot R. Giskard Reventlov se trouve face à un dilemme tragique et finit par déduire une quatrième loi : la sécurité de l’humanité doit passer avant la survie d’un seul individu. Espérons que l’intelligence artificielle qui vient arrivera à la même conclusion.

LEAVE A REPLY

Please enter your comment!
Please enter your name here