Éthique des machines : les robots doivent-ils décider de la vie et de la mort ?

En raison des progrès de l'intelligence artificielle et de la robotique, les machines seront à l'avenir confrontées à de plus en plus de situations nécessitant des décisions morales. Mais les machines sont-elles autorisées à décider de la vie et de la mort des humains ? L'éthique des machines est une nouvelle discipline à l'interface de l'informatique et de la philosophie, qui s'intéresse au développement d'une éthique des machines par opposition au développement d'une éthique des humains face aux machines. Par analogie avec l'intelligence artificielle, on parle aussi de morale artificielle. L'idée de base est de programmer les ordinateurs pour qu'ils puissent prendre des décisions morales. Les principaux domaines d'application de l'éthique des machines sont les systèmes de soins, les robots de guerre et les véhicules autonomes. Dans ces trois domaines, les systèmes autonomes sont confrontés à des décisions morales fondamentales, parfois même à la vie et à la mort d'êtres humains. Peut-on laisser des machines prendre de telles décisions ? Pouvez-vous ou devriez-vous ? 

Responsabilité

Les machines ne sont pas des acteurs pleinement moraux comme les humains. Il leur manque des compétences telles que la réflexion et la conscience, la capacité d'auto-réflexion et de raisonnement moral et, par conséquent, la liberté de volonté. Ils ne peuvent donc pas assumer la responsabilité de leurs actes. Néanmoins, elles peuvent saper l'attribution de la responsabilité aux personnes. Car il y a un risque que les machines en viennent à des décisions moralement discutables que personne n'a voulu ou prévu et sur lesquelles personne n'a de contrôle direct. Cela pourrait systématiquement conduire à des lacunes en matière de responsabilité, car personne ne serait responsable de la décision moralement désastreuse d'un système artificiel. Cette conséquence est particulièrement problématique lorsqu'il s'agit de décisions concernant la vie et la mort d'êtres humains.

Champ d'action

Il existe d'autres raisons pour lesquelles il est douteux de laisser la décision de vie ou de mort aux machines. Cela limite sérieusement la liberté d'action de l'homme. Car on est obligé de prendre à l'avance des décisions morales contraignantes, qu'on a gardée ouverte jusqu'à présent. Il est possible que cela élimine les problèmes sans rendre justice à la complexité et à la signification existentielle des situations morales dans la vie quotidienne. Cela s'applique, par exemple, aux situations de dilemme dans la conduite autonome. Comment un véhicule autonome est-il censé prendre une décision alors qu'il n'a que deux alternatives : mettre en danger la vie de ses occupants ou celle des enfants qui jouent sur la route ? L'obligation de prendre une décision ex ante semble dans ce cas très problématique d'un point de vue moral. Une personne aurait la liberté de décider dans ces cas en fonction de la situation. Mais le comportement d'un système autonome est déterminé à l'avance. Cela limite notre marge de décision et la possibilité de s'écarter d'une évaluation morale antérieure en fonction de la situation, qu'on ne considère plus comme appropriée dans une situation concrète.

Décisions de vie et de mort

D'un point de vue moral, il est très important de laisser les machines décider de la vie et de la mort des gens. Cette critique est étayée par le fait qu'il n'y a pas d'obligation morale de tuer dans les domaines d'application où l'utilisation de systèmes autonomes est envisagée. Un tel devoir n'existe même pas en temps de guerre. L'opinion dominante dans la théorie de la guerre juste considère qu'il est au mieux moralement permis de tuer d'autres personnes à la guerre, mais pas moralement obligatoire. C'est pourquoi il devrait toujours y avoir la possibilité de s'abstenir d'un acte de meurtre par compassion, par exemple. L'utilisation de systèmes d'armes autonomes exclut inévitablement ce champ de décision.

Des robots de guerre à la conduite autonome ?

Une question importante est de savoir si les objections aux robots de guerre peuvent être transférées à d'autres domaines d'application. Par exemple, le débat établit une analogie entre la programmation de véhicules autonomes à des fins d'optimisation des accidents et le ciblage de systèmes d'armes autonomes. L'argument selon lequel il n'y a pas d'obligation morale de tuer peut-il être appliqué à la conduite autonome ? À cette fin, il est nécessaire de préciser s'il existe une obligation morale de blesser ou de tuer des personnes innocentes, à condition que cela serve à minimiser le préjudice. Cependant, un tel devoir n'est pas seulement problématique sur le plan moral. Elle serait également en tension avec la juridiction allemande. Dans ce contexte, la décision de la Cour constitutionnelle fédérale sur l'abattage d'avions de passagers détournés, destinés par des terroristes à être utilisés comme armes de destruction massive, est particulièrement pertinente. La Loi fondamentale exclut le meurtre délibéré de personnes innocentes sur la base d'une autorisation légale. Au moins à première vue, cet arrêt est en contradiction avec le devoir de minimiser les dommages, qui inclut les blessures ou le meurtre intentionnels de personnes innocentes. Avant de pousser la conduite autonome sans réflexion, il faudrait donc examiner si la conduite assistée ne pourrait pas être aussi efficace que la conduite entièrement automatisée en termes de sécurité routière.

Conclusion : lignes directrices pour une bonne éthique des machines

En résumé, trois lignes directrices peuvent être formulées pour garantir que l'éthique des machines apporte une contribution positive à l'amélioration éthique des technologies et ne restreint pas la dignité et la liberté humaines d'une manière moralement discutable.

Plan du site