Tesla : l’Autopilot confond la Lune avec un feu orange


Le système de conduite autonome a beau être très impressionnant, il n’est pas immunisé contre les erreurs d’interprétation.

Les voitures autonomes font partie des systèmes qui vont très certainement occuper une place centrale dans le futur de notre société. Aujourd’hui, de nombreux constructeurs commencent à proposer des systèmes d’assistance à la conduite, voire même de pilotage quasiment automatique sur les modèles haut de gamme. C’est par exemple le cas de Mercedes-Benz, Maserati, Cadillac ou Lincoln, qui proposent toutes un certain degré d’automatisation de la conduite.

Mais le plus connu et impressionnant reste certainement le système des véhicules Tesla, la marque d’Elon Musk. Depuis l’introduction de son système Autopilot, ce sont les conducteurs eux-mêmes qui se sont chargés d’en faire la publicité en partageant massivement des images de cette technologie révolutionnaire.

En théorie, l’un de ses principaux avantages est la sécurité : un ordinateur dispose d’un temps de réaction moindre par rapport aux réflexes humains. Il est capable d’agir de façon plus précise sans ressentir la panique liée à un danger imminent. Mais cela ne signifie pas pour autant que les pilotes virtuels sont prêts à nous remplacer. Si la conduite autonome n’est pas encore démocratisée et installée dans tous les véhicules, c’est pour de bonnes raisons.

La peur de l’inconnu

Contrairement à un pilote en chair et en os, les machines disposent d’un défaut rédhibitoire : l’improvisation. Lorsqu’elles se retrouvent dans des situations inconnues ou mal définies, elles peuvent réagir d’une manière totalement incohérente et incompréhensible pour un humain. C’est le cas de la Tesla de Jordan Nelson, dont le système de reconnaissance de la signalisation a fait des siennes lors d’un trajet sur autoroute tout ce qu’il y a de plus banal. La voiture s’est révélée incapable d’identifier la Lune, assez basse dans le ciel en ce début de soirée. A la place, elle y voyait un feu orange, ce que le tableau de bord s’empressait de rappeler toutes les quelques secondes.

L’Autopilot n’a cependant pas décidé de piler pour autant. Fort heureusement, vu les conséquences dramatiques que cela pourrait avoir en pleine autoroute. Ils ‘agit toutefois d’un bon exemple pour illustrer l’infinité de cas concrets que les développeurs ne seront jamais en mesure d’anticiper.

Autre excellent exemple du genre, celui d’Andy Weedman; cet automobiliste a eu la surprise de voir sa Tesla s’arrêter net à la vue d’un panneau-stop… fictif, présent sur un panneau d’affichage. Encore

On peut aussi citer cette scène capturée début juin; on y voit la Tesla d’un internaute très perturbée par un camion transportant des feux de signalisation éteints.

La législation aussi importante que la technologie

Pourtant, la technologie progresse lorsqu’il s’agit de faire la part des choses dans ces cas ambigus pour un ordinateur. Pour savoir quand ils pourront se démocratiser, c’est une autre histoire. Puisqu’il paraît peu réaliste de gérer 100% de ces cas extrêmes, la question sera de savoir où placer le curseur; pourra-t-on considérer que le risque sera acceptable lorsqu’il sera comparable à celui d’un humain ? Dix fois moindre? Proche de zéro ?

Et surtout, il faudra aussi envisager le revers de la médaille qui se présentera un jour à coup sûr. En cas d’accident grave, qui tenir pour responsable ? La réponse à ces questions dépendra en grande partie des conclusions des instances décisionnaires qui réfléchissent déjà à la future législation; un chantier qui s’annonce déjà dantesque.





Source link Journal du Geek