"AI and the 3rd industrial revolution" Challenge.

"AI and the 3rd industrial revolution" Challenge.


Date
Location
Lille, France

Dans le cadre de ma thèse, je travaille sur la prise de décision pour les véhicules autonomes. Alors je vous arrête tout de suite, il ne s’agit pas de résoudre des dilemmes éthiques de philosophie morale : "l’accident est inévitable, est-ce que la voiture autonome doit plutôt sacrifier un cyclise pour sauver deux petits enfants ?" Non, moi je travaille plutôt le problème technique qui consiste à éviter de se retrouver dans genre de situation désespérée. En un mot, comment éviter les accidents, comment garantir la sûreté ?

Et ce qui rend la question difficile, c’est qu’on on partage la route avec des humains dont les comportements sont incertains. Pour garantir la sûreté même en présence d'incertitude, il existe une approche qui s'appelle la prise de décision robuste.

On va illustrer cela avec un exemple : imaginez que vous êtes au volant de votre véhicule et la personne devant vous conduit trop lentement, donc vous prenez la décision de la dépasser. Comment savez-vous à ce moment-là que le conducteur vous a bien vu et ne va subitement décider pas changer de voie au mauvais moment ? Et bien vous ne le savez pas, du moins pas avec certitude.

D'après l'approche robuste, pour garantir la sûreté il faut toujours considérer le pire scénario, donc dans cette situation précise vous n'auriez pas le droit de doubler. Evidemment le problème de ce type de méthode, c'est qu’elle tend à produire des comportements excessivement prudents : vous avez peut-être croisé la navette autonome de Navya sur le campus, elle roule très lentement et pile à la moindre perturbation. Et si on va au bout du raisonnement, on se rend compte que le seul moyen de la garantir la sûreté à 100%, c'est de rester au garage.

D’un autre côté, nous les humains ne restons pas au garage, on conduit efficacement, mais de temps en temps on a des accidents. En fait, on a décidé que le risque d’accident valait la peine d’être pris puisqu’on bénéficie en contrepartie d’un gain d’efficacité, un trafic plus fluide. On voit apparaître un conflit entre ces deux objectifs contradictoires : sécurité et efficacité. Comment arbitrer ce conflit ?

Tout d’abord, on a tout intérêt à tenter de réduire au maximum l’incertitude, puisque c’est le seul moyen de gagner sur les deux tableaux. Pour cela, j’ai proposé une architecture de réseau de neurones qui prend mieux en compte les interactions entre les véhicules. Par exemple ici, on peut considérer que la présence de la moto augmente la probabilité de changement de voie. Mais l'incertitude n'est pas réductible à l'infini, il va falloir se confronter au compromis.

Comment choisir le bon niveau de risque ? En fait cette question n'a pas vraiment de sens. Aujourd'hui les français ont choisi un certain équilibre entre efficacité et sûreté, à travers leur code de la route. Mais ce choix est culturel, et l'on conçoit très bien que d'autres pays, comme l’Allemagne ou l’Italie, puissent préférer des compromis différents.

De la même manière, j'ai développé un nouvel algorithme d'apprentissage qui permet, au lieu d'apprendre un unique comportement de conduite, d'apprendre tout une gamme de comportements avec différents niveaux de risque : cela va de la conduite très prudente d'une personne âgée jusqu’à la conduite extrêmement dynamique d'un pilote de course. A la fin, le constructeur automobile, ou le législateur, disposent d’un curseur qui leur permet de régler en temps réel le niveau de risque désiré.

Avatar
Edouard Leurent
PhD Student in Reinforcement Learning

My research interests include control, statistical learning and robotics.