Comment concevoir la réponse à un dilemme ? En matière de design, comme dans la programmation ou l’ingénierie, les dilemmes arrivent parfois et y répondre est souvent difficile. En effet, répondre de façon logique à deux raisonnements contradictoires nous oblige à faire des choix. Alors, comment une machine peut-elle choisir ?
C’est toute la question abordée par le Docteur Patrick Lin pendant ce TED Ed brillamment illustré. Patrick Lin est directeur de l’Ethics & Emerging Sciences Group à la California Polytechnic State University et travaille sur ce sujet depuis de nombreuses années.
Aujourd’hui, je vois régulièrement passer des startups qui travaillent sur des algorithmes dans lesquels certains ont des marges d’apprentissage. Cependant, ces algorithmes n’ont que rarement un impact immédiat sur la vie des gens (en bien ou en mal) Cela n’est pas le cas avec les voitures autonomes dont on entend souvent parler aujourd’hui. Alors, pour nous préparer à devoir jongler avec ces nouveaux paradigmes algorithmiques, je vous propose cette leçon d’animation sur la question du dilemme éthique et le choix de vie ou de mort décidé par… un algorithme.
Le design du dilemme et les voitures autonomes
On notera qu’à chaque fois que le sujet des décisions algorithmiques est abordé, on le compare à l’instinct humain. Ce à quoi on ajoute à l’instinct, l’expérience humaine, sociale, historique, culturelle et autant d’éléments d’une vie qui – je me pose la question – me semblent difficiles à réduire sous la simple forme de paramètres.
Je ne sais pas de quoi sera constitué nos métiers dans les années à venir mais j’ai l’impression que l’on se retrouvera confronté à ces questions en apparence compliquées mais qui en réalité sont immensément plus profondes à résoudre puisque cela touche à l’expérience humaine de la vie.
Je trouve l’exemple de la voiture autonome assé mauvais. Premièrement il y a une règle du code de la route qui dit « respectez les distances de sécurité » et qui est prévu pour éviter de rentrer en collision avec un obstacle frontale fixe. Deuxièmement une voiture autonome aura sans doute plus de sécurité à bord car elle implique le constructeur en cas d’accident. Et Finalement un système de conduite ne peut réglementairement pas permettre de mettre en danger la vie d’un tiers si l’on suit les lois de la robotique.
C’est du machine learning. La voiture autonome apprend de tous les autres humains qui la conduisent, c’est une sorte d’intelligence en essaim.
C’est pas une suite d’instruction, c’est plus une reconnaissance de motifs et un scoring.
C’est du machine learning, une intelligence en essaim.
C’est pas des algorithmes classiques.
Au choix de vie ou de mort par une machine, suit la question de la justice.
Qui est condamné dans ce cas ?
Dans ce TEDx le sujet des droits des robots est abordé. Si l’algorithme doit être responsable légalement, il doit y avoir une justice pensée pour.
http://www.tedxparis.com/quel-droit-pour-les-robots/