Terminator est déjà encadré par les lois
Une pétition demandant l’interdiction des «robots tueurs» a recueilli des milliers de signatures et a reçu le soutien de personnalités imminentes, de Stephen Hawking à Noam Chomsky en passant par le cofondateur d’Apple, Steve Wozniak. Pourtant, selon Didier Danet, spécialiste de cybersécurité, cet appel ne méritait pas tant.
La pétition visant à l’interdiction des «robots tueurs»a connu un succès aussi spectaculaire qu’inattendu. Lancée dans la torpeur estivale, lors d’une conférence internationale sur l’intelligence artificielle, elle a reçu le soutien de chercheurs spécialisés, de personnalités éminentes du monde scientifique et de magnats de la Silicon Valley. Plus de 1 000 signataires demandaient l’interdiction des «armes autonomes offensives sans contrôle significatif d’un être humain». Cette pétition ne brille pourtant ni par la limpidité des finalités qu’elle poursuit ni par l’argumentation qu’elle déploie. Comment dès lors expliquer les milliers de signatures enregistrées si ce n’est par le fait que le texte n’a été ni vraiment lu ni vraiment compris ?
Les robots tueurs : trop ou pas assez humains ?
En première apparence, la pétition de juillet 2015 réalise une sorte d’union sacrée pour obtenir l’interdiction des programmes de recherche et développement susceptibles d’aboutir à la création de robots tueurs que les auteurs de la pétition définissent comme des «armes autonomes offensives dépourvues de contrôle humain significatif». Mais, derrière cette unité apparente se dissimulent des divergences profondes.
Pour comprendre l’esprit de la pétition, il faut en retracer la généalogie. Ce texte s’inscrit dans la continuité de publications émanant des auteurs ou de certains signataires (Stephen Hawking) de la pétition. Selon eux, les progrès de l’intelligence artificielle risquent d’entraîner le dépassement de l’homme par la machine, la «singularité» dans les termes de Ray Kurzweil, philosophe préféré des entrepreneurs californiens.
Mais la pétition n’est pas exempte de corporatisme. C’est ainsi que le texte insiste, in fine, sur le risque de voir l’apparition de robots tueurs entacher la réputation de l’intelligence artificielle et amoindrir le soutien de l’opinion publique avec les conséquences budgétaires que l’on peut imaginer.
Enfin, sur le fond, la demande d’interdiction met en avant une argumentation tout à fait spécifique. Superintelligents, les robots tueurs seraient également très peu coûteux, ce qui en ferait les «kalachnikovs» du XXIe siècle. Aux mains des dictateurs ou terroristes de tout poil, ils deviendraient les outils privilégiés de l’épuration ethnique, des massacres de masse et de l’oppression des peuples. Mais si l’interdiction se justifie par la crainte que les armes autonomes ne tombent entre de mauvaises mains, a contrario, elle ne devrait pas viser les utilisateurs «légitimes» que sont les forces armées des pays démocratiques. L’argumentation et la conclusion sont ainsi très différentes, pour ne pas dire plus, de celles des ONG qui portent traditionnellement la demande d’interdiction des robots tueurs. Pour ces organisations, Human Rights Watch notamment, le rejet des armes autonomes procède de la conviction que l’intelligence artificielle, en dépit de ses progrès, sera toujours incapable d’intégrer et de mettre en œuvre les principes élémentaires du droit international humanitaire. Ce n’est pas parce que l’intelligence artificielle est trop avancée qu’elle est condamnable mais parce qu’elle ne le sera jamais assez. L’interdiction demandée doit être totale et ne supporte pas d’exception. Loin de réaliser l’union sacrée autour de l’interdiction des robots tueurs, la pétition est génératrice de confusion en ce qui concerne l’esprit, les principes et les modalités des demandes formulées dans ce sens.
Peut-on faire du bon droit avec de bons sentiments ?
Nul ne conteste aux spécialistes de l’intelligence artificielle le droit à prendre parti contre les applications qu’ils jugent non désirables des progrès scientifiques auxquels ils contribuent.
Encore faut-il bien se rendre compte que le passage de la pétition à la loi suppose un processus de création normative dans lequel les bons sentiments et les connaissances scientifiques ne suffisent pas.
Concevoir un cadre juridique suppose, en premier lieu, que l’on sache quel en est l’objet. Or, les systèmes d’armes létaux «pleinement autonomes» n’existent pas, et il est hautement improbable qu’ils puissent exister un jour. L’autonomie véritable, c’est-à-dire l’existence d’une volonté indépendante qui se donne à elle-même ses propres fins, n’est pas envisageable en l’état actuel ni même futur de la technique. Ce que celle-ci autorise, c’est une autonomie réduite à la mise en œuvre de certaines fonctions dans le cadre d’instructions prédéfinies ou améliorables par des processus d’interaction avec l’environnement. Il y a donc abus de langage manifeste lorsque l’on veut ériger le robot en quasi-sujet doué de raison.
Cet abus est d’autant plus inopportun que Terminator est déjà encadré par les lois. Un cadre juridique adapté existe en effet pour ces robots doués d’une autonomie fonctionnelle. Ils sont des objets de droit, conçus par des industriels et mis en œuvre par des militaires dans le cadre d’un conflit où les forces armées sont tenues de respecter les principes du droit international humanitaire. L’emploi de systèmes robotisés s’inscrit dans ce contexte et les éventuels dommages causés par eux ne sauraient faire échapper leurs concepteurs et leurs utilisateurs à leurs obligations et à leurs responsabilités, qu’elles soient civiles ou pénales. L’emploi d’une machine, même dite «intelligente», suppose nécessairement un auteur dont la responsabilité peut être engagée. La question n’est ni difficile dans son principe ni nouvelle dans l’histoire du droit. Elle se trouvait déjà posée aux premiers temps de la révolution industrielle lorsque le recours massif aux machines à vapeur s’est accompagné d’accidents dans l’industrie métallurgique ou textile.
La parution de la pétition a engendré plus de questions qu’elle n’a apporté de réponses. La solution qu’elle préconise, l’interdiction des «armes autonomes offensives dépourvues de contrôle humain significatif», ne recouvre pas la définition habituelle des robots tueurs. Quel est alors le véritable champ de l’interdiction et ses modalités ? Faut-il bannir, par principe et préventivement, tout programme de recherche et développement susceptible d’aboutir à la production de robots tueurs ou, une fois les applications advenues, réguler leur commercialisation pour éviter que ces robots ne tombent entre de «mauvaises mains» ? Faut-il faire une distinction entre armes dites «offensives» et «défensives», à supposer que l’on puisse établir une frontière claire entre les deux ? Comment définir et mesurer précisément la notion «d’autonomie» ? Faut-il prendre en considération le caractère civil ou militaire des programmes de recherche ou faut-il les interdire de manière générale pour éviter les effets de transfert de recherches qui sont nécessairement «duales» ? Sur tous ces points, plusieurs visions incompatibles existent maintenant dans le camp de ceux qui demandent l’interdiction des robots tueurs. On peut douter que leur position en sorte renforcée.