Habillage
[C’EST POUR BIENTÔT 3/3] La voiture autonome se crashe et c’est la Ville de Lyon qui crache
Société 

[C’EST POUR BIENTÔT 3/3] La voiture autonome se crashe et c’est la Ville de Lyon qui crache

actualisé le 16/11/2018 à 16h03

L’intelligence artificielle est déjà là. Elle sera bientôt partout ou presque et inévitablement à la barre des tribunaux.

Imaginer le droit et les affaires de demain. C’est ce que tentent d’anticiper la Cour administrative d’appel (CAA) de Lyon et l’Université Catholique de Lyon (Ucly) à travers des procès fictifs. Avec en appui technique les élèves ingénieurs de l’INSA LyonTrois fausses audiences se sont tenues en juin dernier à la CAA de Lyon, assurées par des étudiants en droit dans les rôles des avocats et des magistrats.

Voici le troisième volet, il concerne la voiture autonome et avait déjà fait l’objet d’un procès fictif en 2017.

Trois procès fictifs de l’intelligence artificielle

Le 29 mars dernier, la Cour administrative d’appel de Lyon annonçait la tenue de trois procès fictifs. Un projet mené avec les étudiants en droit de l’Université catholique de Lyon et l’école d’ingénieur INSA Lyon dont les élèves interviennent en qualité d’experts techniques. L’objectif de cette simulation est d’anticiper des affaires qui se présenteront bientôt dans les tribunaux avec au coeur l’intelligence artificielle.

Le premier concerne un robot compagnon d’une résidente d’un EHPAD de Lyon. Après quatre ans de relations ce dispositif thérapeutique et affectif tombe en panne. La réparation est onéreuse et la vieille dame n’en veut pas un autre. Son état de santé se dégrade alors. L’EHPAD est-il tenu de prendre en charge cette réparation ?

Le deuxième concerne le domaine de la domotique. Un étudiant refuse de souscrire au programme de gestion énergétique intelligente de son logement appartenant à la Métropole de Lyon. Il ne veut pas livrer des données personnelles. La Métropole majore alors son loyer.

Le troisième cas est un jugement en appel d’une affaire déjà jugée fictivement en première instance l’année dernière. Une voiture autonome guidée par des bornes sur une voie dédiée change brusquement de trajectoire et percute un lampadaire place Bellecour à Lyon. Qui est responsable ?

En juin 2017, la Ville de Lyon avait été condamnée en première instance par le tribunal administratif de Lyon. Il l’avait jugée responsable de l’accident d’une voiture autonome sortie brusquement de la voie de circulation dédiée à ce type d’engin à cause du dysfonctionnement d’une de ses balises de guidage. Elle avait fini encastrée dans un lampadaire de la place Bellecour à Lyon. La ville avait dû payer 60 000 euros à la compagnie d’assurance. Ceci est le scénario prévu autour du procès fictif.

Le conducteur plus jamais responsable d’un accident ?

Ce procès en appel revenait sur cette affaire dans laquelle la responsabilité des machines et de l’intelligence artificielle peut être mise en cause.

Nous sommes en 2029 et cette voiture autonome circule sur une « zone technologique prioritaire ». Cette voie de circulation dans le centre-ville de Lyon est munie de balises disposées tout au long du trajet permettant de guider par signal les voitures autonomes.

Ce jour-là, une défaillance est intervenue conduisant le véhicule a changé brusquement de direction. La passagère n’a pas repris le contrôle à temps pour éviter la collision.

Sa responsabilité a été une nouvelle fois lors de cette audience en appel très vite écartée.

« Elle n’avait pas les mains sur le volant au moment de l’accident. Mais on ne peut pas le retenir pour qualifier une faute de sa part. Sinon on retire toute raison d’être à ces voitures autonomes », a indiqué le rapporteur.

Plus tôt, il avait posé l’enjeu d’une telle affaire :

« Aujourd’hui, la question n’est pas de savoir si le frein à main est manuel mais s’il y a un pilote dans la voiture ».

Alors, qui pilote la voiture ? La conductrice ? Même si elle peut reprendre le contrôle du véhicule, en cas de défaillance, elle ne peut être vraiment inquiétée, installée dans une voiture programmée pour se déplacer et éviter les obstacles toute seule. L’intelligence artificielle de la voiture qui n’a pas bien reçu ou compris le signal ? Ou bien le signal lui-même émis par la balise en bord de route ?

« Vous risquez la ruine de l’État ! »

Derrière ces questions se joue un enjeu de taille : dans ce type d’affaires à venir, pourra-t-on parvenir à démontrer la responsabilité de l’intelligence artificielle et des constructeurs ? Auquel cas, elle pèsera souvent sur la collectivité (locale ou l’État). C’est ce que pense notamment Marc Clément, magistrat à la CAA de Lyon et ancien ingénieur IA à l’origine de ces procès fictifs :

« Dans des cas comme cet accident fictif place Bellecour, sans blessé ni mort, il n’y aura probablement pas d’expertises poussées. Elles seraient trop coûteuses. Qui est en cause : le logiciel ? Les capteurs de la voiture ? Les bornes sur la route ? La défaillance du véhicule, donc celle du constructeur, sera impossible à démontrer. Cette condamnation encore fictive de la Ville de Lyon montre qu’on peut aller vers une socialisation du risque. Donc une prise en charge globale par la collectivité », nous disait-il en mars 2018.

C’est précisément ce qu’a plaidé l’avocat de la ville de Lyon. La responsabilité de la collectivité avait été retenue en première instance au titre d’un ouvrage défectueux et présentant en lui-même un danger. C’est en effet le dysfonctionnement présumé d’une des balises bordant la voie de circulation réservée aux voitures autonomes qui avait été jugé responsable de l’accident.

« Un dysfonctionnement de balise ne peut pas conduire à lui seul à un accident. La voiture aurait pu réagir si ses propres capteurs n’avaient pas été défaillants. Si vous reconnaissez à nouveau la responsabilité de la ville vous risquez la ruine de l’État ! », a-t-il avancé.

Comment prouver la défaillance de l’intelligence artificielle ?

L’accident est intervenu entre deux entretiens des balises sur la voie. Pour lui, « on ne peut pas prouver que la borne était défectueuse ». Pourtant elle est présumée telle. Un jugement dangereux pour la défense de la Ville pour qui :

« On ne peut pas mettre un mécanicien derrière chaque balise en permanence. L’intelligence artificielle est comme celle humaine, elle est faillible ».

Du côté de la compagnie d’assurance du constructeur, on maintient ses positions expertises à l’appui. Les capteurs du véhicule n’étaient pas défectueux et la conductrice ne pouvait pas matériellement reprendre le contrôle pour éviter la collision.

Cette affaire éclaire un des enjeux à venir : l’indépendance des expertises dans pareils cas. La compagnie d’assurance a apporté des rapports établis par ses propres experts. Comment s’assurer de leur sincérité et de leur exactitude ?

La ville de Lyon condamnée mais moins lourdement

La cour a confirmé la condamnation de la Ville de Lyon. Avec une subtilité juridique près. En première instance elle avait aussi été condamnée car l’ouvrage public incriminé, la balise, présentait selon le tribunal un danger en soi.

En appel, la nature du dispositif n’a pas été reconnue comme dangereuse. En revanche, la cour a retenu un défaut d’entretien normal. La balise en bord de route, même en l’absence de certitude technique absolue, est présumée défaillante.

Si la Ville de Lyon est reconnue responsable, cette différence juridique atténue sa sanction financière. Elle est en effet condamnée à verser 1500 euros à la compagnie d’assurances contre les près de 60 000 euros retenus en première instance.

L'AUTEUR
Bertrand Enjalbal
Bertrand Enjalbal
Journaliste à Rue89Lyon

En BREF

Lyon sous la neige ou un air de fin du monde

par Rue89Lyon. 2 147 visites. Aucun commentaire pour l'instant.

Deuxième « grand soir » pour le site d’infos Prison insider

par Rue89Lyon. 829 visites. Aucun commentaire pour l'instant.

Engagement associatif, débat : un festival des solidarités internationales à Lyon

par Rue89Lyon. 506 visites. Aucun commentaire pour l'instant.