Peut-on piéger l’Autopilot d’une Tesla avec une image de fausse route ?
Tout le monde connaît Tesla pour ses systèmes de conduite semi-autonome, et l’Autopilot fait parler de lui depuis son lancement. Mais que se passe-t-il quand on met ce système face à une expérience un peu insolite ? C’est exactement ce qu’a voulu tester Mark Rober, ingénieur américain devenu YouTuber, avec une série de mises en situation pour voir si l’Autopilot pouvait se faire avoir… par un mur peint pour ressembler à une route. Et le résultat a surpris pas mal de monde.
Sur le même thème :
- Comment cette marque qu’on pensait morte peut-elle sortir l’un des coupés hybrides les plus stylés du marché avec un moteur ultra-rare ?
- C’est absurde ! Ces taxis autonomes conduisent parfaitement mais reçoivent des centaines d’amendes, la raison est totalement folle
- Volkswagen va vendre le jouet pour chien le plus célèbre du monde, et PERSONNE ne soupçonnait le secret qu’il cache
Un YouTuber teste les limites de l’Autopilot de Tesla
L’idée paraît un peu folle, mais elle est simple : que se passe-t-il si on montre à une Tesla un mur qui ressemble à une route ? Un peu comme dans les vieux dessins animés. En gros, si la voiture “voit” une route grâce à ses caméras, est-ce qu’elle va s’arrêter si un obstacle — en l’occurrence un faux mur peint façon bitume — est en plein milieu ? Rober a monté ce petit décor et testé le scénario, d’abord avec une Tesla, puis avec une autre voiture équipée de LIDAR, une technologie qui repose sur des lasers au lieu de caméras.
Tesla Autopilot vs LIDAR : pas le même niveau de perception
Et là, les limites de l’Autopilot basé uniquement sur des caméras sont vite apparues. Dans des situations simples — comme lorsqu’un mannequin d’enfant ou une autre voiture surgit — l’Autopilot réagit bien. Mais face au mur peint ? La voiture continue tout droit, comme si de rien n’était. Une simple illusion visuelle suffit donc à tromper le système. Pas très rassurant si on pense à certaines situations réelles. De son côté, la voiture équipée de LIDAR a parfaitement détecté tous les obstacles, mur compris.
Le Full Self-Driving réagit mieux
L’expérience ne s’est pas arrêtée là. Un autre propriétaire de Tesla a refait le test, mais cette fois avec le système Full Self-Driving (FSD), la version plus poussée que l’Autopilot classique. Et là, changement total : la voiture freine bien devant le mur à chaque fois. Le FSD, dispo sur les derniers modèles comme le Cybertruck, semble beaucoup plus réactif. La grosse différence ? Le FSD tourne avec un hardware plus récent, le HW4, alors que l’Autopilot d’une Model Y de 2022 utilise encore le HW3, une version moins évoluée.
Des limites, mais des questions importantes
Bien sûr, le test n’était pas parfait. Il ne dit rien sur le comportement de la voiture en cas de pluie normale, de brouillard, ou de mauvaise visibilité — des conditions où les caméras peuvent avoir du mal. Mais malgré ça, l’expérience soulève de vraies questions : est-ce que Tesla ne devrait pas intégrer du LIDAR à ses voitures, même si ça coûte plus cher ? Est-ce qu’un système basé uniquement sur des caméras est vraiment suffisant à long terme ?
Cet article revient sur une expérience étonnante où un youtuber teste l’Autopilot d’une Tesla avec un faux mur peint, alors que le système Full Self-Driving, plus récent, a su réagir correctement. Une démonstration qui relance le débat sur les technologies nécessaires pour une conduite autonome fiable.
Images : Mark Rober sur YouTube