Dans l'éthique désordonnée de faire la guerre aux machines
MaisonMaison > Blog > Dans l'éthique désordonnée de faire la guerre aux machines

Dans l'éthique désordonnée de faire la guerre aux machines

Jul 18, 2023

L’IA fait son chemin dans la prise de décision au combat. À qui la faute si quelque chose ne va pas ?

Dans un futur proche – une guerre qui pourrait commencer demain, autant que nous le sachions – un soldat prend position de tir sur un toit vide. Son unité combat à travers la ville pâté par pâté de maisons. C'est comme si les ennemis pouvaient attendre silencieusement derrière chaque coin, prêts à faire pleuvoir le feu sur leurs cibles dès qu'ils tirent.

Grâce à son viseur, le soldat scrute les fenêtres d'un immeuble voisin. Il remarque du linge frais suspendu aux balcons. La radio apprend que son équipe est sur le point de traverser un terrain découvert en contrebas. Alors qu'ils partent, un cadre de délimitation rouge apparaît dans le coin supérieur gauche du viseur. Le système de vision par ordinateur de l'appareil a signalé une cible potentielle : une silhouette se dessinant dans une fenêtre se prépare, semble-t-il, à prendre une photo.

Le soldat n'a pas une vision claire, mais d'après son expérience, le système a une capacité surhumaine à capter le moindre signal concernant un ennemi. Il pose donc son réticule sur la boîte et se prépare à appuyer sur la gâchette.

Dans différentes guerres, peut-être aussi juste à l'horizon, un commandant se tient devant une rangée de moniteurs. Une alerte apparaît depuis un chatbot. Cela apporte la nouvelle que des satellites ont détecté un camion entrant dans un certain pâté de maisons qui a été désigné comme zone de rassemblement possible pour les lancements de roquettes ennemies. Le chatbot a déjà conseillé à une unité d’artillerie, qu’il estime avoir la « probabilité de tuer » la plus élevée, de viser le camion et de se tenir prêt.

Selon le chatbot, aucun des bâtiments voisins n'est une structure civile, même s'il note que cette détermination n'a pas encore été corroborée manuellement. Un drone, qui avait été dépêché par le système pour observer de plus près, arrive sur place. Sa vidéo montre le camion reculant dans un passage étroit entre deux complexes. L’opportunité de prendre la photo touche rapidement à sa fin.

Pour le commandant, tout devient désormais silencieux. Le chaos, l'incertitude, la cacophonie, le tout réduit au son d'une horloge qui tourne et à la vue d'un seul bouton lumineux :

« APPROUVEZ L’ORDRE D’INCENDIE. »

Appuyer sur la gâchette – ou, selon le cas, ne pas l’appuyer. Appuyer sur le bouton ou attendre. Sur le plan juridique – et éthique – le rôle de la décision du soldat en matière de vie ou de mort est prééminent et indispensable. Fondamentalement, ce sont ces décisions qui définissent l’acte humain de guerre.

L’automatisation peut nous aider à faire des choix difficiles, mais elle ne peut pas y parvenir seule.

Il n’est donc pas surprenant que les États et la société civile se soient sérieusement préoccupés de la question des armes autonomes intelligentes – des armes capables de sélectionner et de tirer sur des cibles sans aucune intervention humaine. En mai, après près d'une décennie de discussions, les parties à la Convention des Nations Unies sur certaines armes classiques ont convenu, entre autres recommandations, que les militaires qui les utilisent devraient probablement « limiter la durée, la portée géographique et l'ampleur de l'opération » pour se conformer aux les lois de la guerre. La ligne n’était pas contraignante, mais elle constituait au moins une reconnaissance du fait qu’un être humain doit jouer un rôle – quelque part, à un moment donné – dans le processus immédiat menant à un meurtre.

Mais les armes autonomes intelligentes qui remplacent complètement la prise de décision humaine n’ont (probablement) pas encore été utilisées dans le monde réel. Même les drones et les navires « autonomes » déployés par les États-Unis et d’autres puissances sont utilisés sous étroite surveillance humaine. Pendant ce temps, les systèmes intelligents qui guident simplement la main qui appuie sur la gâchette ont gagné du terrain dans la boîte à outils des faiseurs de guerre. Et ils sont devenus suffisamment sophistiqués pour soulever de nouvelles questions, plus difficiles à répondre que les querelles bien couvertes à propos des robots tueurs et, chaque jour qui passe, plus urgentes : qu'est-ce que cela signifie lorsqu'une décision n'est qu'en partie humaine et humaine ? une pièce de machine ? Et quand, le cas échéant, est-il éthique que cette décision soit une décision de tuer ?

Pendant longtemps, l’idée de soutenir une décision humaine par des moyens informatiques n’était pas une perspective aussi controversée. Le lieutenant-général à la retraite de l'armée de l'air, Jack Shanahan, affirme que le radar du chasseur F4 Phantom qu'il a piloté dans les années 1980 était en quelque sorte une aide à la décision. Cela l'a alerté de la présence d'autres avions, m'a-t-il dit, afin qu'il puisse savoir quoi faire à leur sujet. Mais dire que l’équipage et le radar étaient des complices égaux serait exagéré.