LE DIRECT
Filipe Vilas-Boas and Paul Coudamy, The Punishment (2017)

Comment punir un robot ?

6 min
À retrouver dans l'émission

La question est simple, pas la réponse.

Filipe Vilas-Boas and Paul Coudamy, The Punishment (2017)
Filipe Vilas-Boas and Paul Coudamy, The Punishment (2017)

La question peut paraître incongrue. Mais, Benoît Hamon, vous voulez ouvrir une boîte de Pandore, autant savoir ce qui vous attend. Car taxer les robots comme vous le proposez dans votre programme - c’est-à-dire pas comme des objets de consommation mais comme des travailleurs, pour la valeur qu’ils produisent - cela revient de fait à les constituer en personnes juridiques. En soi, ça n’est pas un problème. Mais, à partir du moment où les robots deviennent des personnes juridiques, se pose toute une série de questions afférentes, dont une : faut-il punir un robot qui contrevient à la loi ? Par exemple un robot doté d'intelligence artificielle qui aurait tué un être humain. La question n’est tellement pas absurde que dans dans un livre publié en 2012 aux Presses du MIT, et intitulé “L’Ethique du robot - des implication sociales et éthiques de la robotique”, les auteurs consacrent un chapitre entier à cette question de la punition des robots. Que disent ces chercheurs ? (j’essaie de vous restituer le raisonnement, sachant que je ne suis pas juriste, et qu’il s’agit en plus de droit anglo-saxon, mais bon, vous me pardonnerez les approximations…)

Les auteurs distinguent trois buts à la punition : 1. celui qui a mal agit paie sa dette à la société 2. il est censé se réformer pour ne pas commettre à nouveau le même acte 3. sa punition est censée dissuader les autres de commettre un tel acte. Mais l’application de ces buts aux robots pose deux problèmes fondamentaux :

1. L’acte criminel requiert une personne morale. Or un robot est-il une personne morale, responsable du choix de ses actes ? C’est compliqué à établir. Mais, pour les auteurs, il n’y a aucune opposition théorique au fait qu’un robot puisse être doté d’une personnalité. Et comme le degré d’autonomie de cette personnalité dépendra de l’intelligence artificielle qui le commandera (et vous savez que les intelligences artificielles développées aujourd’hui sont auto-apprenantes, c’est-à-dire que les robots se développent différemment selon son expérience, constituant des formes d’individualité qui échappent à ceux qui les ont programmés), il reviendra au juge d’évaluer la responsabilité du robot au cas par cas, selon des modalités qui restent à définir. Après tout, on fait cela avec les humains. Le problème, c’est qu’un robot n’est pas humain. Est-ce gênant ? Non puisque qu’il existe un modèle d’entités non humaines qui peuvent être des personnes morales : les entreprises. Pour autant, un robot est-il comme une entreprise ? Pour une part oui, parce que, comme dans une entreprise, la responsabilité peut être partagée entre plusieurs acteurs (celui qui construit le robot, celui qui l’a programmé, celui qui l’a testé etc.). Mais il y a une grande différence entre un robot et une entreprise : un robot a un corps soit matériel, soit symbolique (pour le cas d’une intelligence artificielle non incarnée). On en arrive au second problème fondamental :

2. Si un juge considère un robot responsable d’un acte criminel : comment le punir ? Est-ce que cela a un sens d’infliger aux robots des peines semblables à celles qu’on inflige aux humains, comme la privation de liberté ? Qu’est-ce qu’il en a à faire le robot d’aller en prison ou de porter un bracelet électronique ? Il n’est pas du tout certain qu’une contrainte à l’encontre du corps robot soit la plus efficace. Par ailleurs, régler simplement la question en débranchant le robot n’est pas possible puisque, à partir du moment où il est constitué en personne juridique, le robot est doté de droits, parmi lesquels son intégrité corporelle (les juristes travaillent actuellement au fait qu’il soit interdit de torturer les robots). Faut-il imaginer des peines adaptées aux spécificités du corps robotique ? Lesquelles ? Je vous laisse rêver à ces questions. Deux artistes ont imaginé une punition consister à obliger un robot coupable d’avoir fait du mal à un homme à écrire indéfiniment “je ne ferai pas de mal à un homme”. D’accord, là, se posent d’autres questions : un robot peut-il se réformer ? Et même, une peine infligée à un robot a-t-elle valeur d’exemples pour les autres robots ?

Bref, sans se prononcer sur la pertinence économique de la taxation des robots, je sais juste une chose : du point de vue du droit, c’est se mettre dans un beau merdier. Vous me direz, ce merdier, on y va de toute façon, taxation ou pas. C’est une des conséquences de ce que vous, et tous les autres candidats, appelez “la révolution numérique”, et dont on ne sait jamais vraiment ce que vous mettez dedans. Eh bien dedans, il y a ça.

Chroniques

8H45
3 min

Le Journal de la culture

Le Journal de la culture : Mercredi 5 avril 2017
L'équipe

France Culture

est dans l'appli Radio France
Direct, podcasts, fictions

INSTALLER OBTENIR

Newsletter

Découvrez le meilleur de France Culture

S'abonner
À venir dans ... secondes ...par......