Le XXème siècle : apparition de robots dans les conflits
Qu'appelle-t-on un robot de type human in the loop ?
Un robot possède une autonomie de type human in the loop lorsqu’il peut détecter les potentiels ennemis mais ne peut pas recourir seul à la violence. En effet, un robot de type human in the loop peut partir en éclaireur, sélectionner et même verrouiller des cibles, mais reste dépendant de l’Homme puisqu’il ne peut prendre une décision ou recourir à la force qu’après l’autorisation de son « pilote ». Ce type de robot permet donc de repousser uniquement les limites de précision, de déplacement et de champ de vision de l’Homme.
Théoriquement, donner aux robots ce niveau d’autonomie durant les conflits ne pose aucun problème éthique, puisque l’Homme reste maître de la situation et la décision finale est prise en tenant compte de la conscience et des états d’âme d’un être humain. On peut par exemple citer les drones, très populaires dans le domaine militaire depuis la Guerre de Corée, qui sont capables de détecter des éventuelles cibles, mais qui sont toujours sous contrôle humain, et, en cas de menace réelle, c’est un homme qui activera le feu. Les défenseurs de l’utilisation de drones dans les conflits y voient également un moyen de mener des guerres « plus propres », d’une part parce qu’ils permettent de diminuer voire de supprimer les interventions humaines sur le terrain, mais également parce que leur précision ‘chirurgicale’ permet de détruire uniquement la cible et ainsi de limiter les dommages collatéraux dans les rangs ennemis.
Ci-contre : drone Predator américain lançant un missile helfire (Pakistan)
L'apparition de la guerre 'vidéoludique'
Ci-contre : cabine de pilotage de drone au Nevada (USAAF)
Néanmoins, en pratique, l’utilisation de tels robots peut être considérée comme bien moins éthique. En effet, du fait de son éloignement physique du champ de bataille, le « pilote », assis devant des ordinateurs à des milliers de kilomètres du lieu d’action de son drone, ne perçoit pas la guerre de la même manière qu’elle a toujours été perçue au cours de l’Histoire. La Première Guerre mondiale était le premier exemple marquant d’une guerre à l’aveugle ; mais les ‘avions sans pilotes’ utilisés depuis les années 1950 ont révolutionné la manière dont les soldats des pays équipés perçoivent les conflits et l’acte de tuer.
Une guerre à l’aveugle comme la Première Guerre mondiale favorise la violence car elle ne cause aux soldats qui tirent les missiles et les obus que très peu de problèmes de conscience directs, puisqu’ils ne perçoivent pas les conséquences de leurs actes pourtant destructeurs. Néanmoins, ils sont toujours présents sur le champ de bataille et exposés au danger permanent (on peut notamment penser aux guerres de tranchées par exemple). La différence principale qui pose les problèmes éthiques dans ce nouveau type de guerre est celle de la non-présence du soldat sur le lieu du conflit : il peut désormais tuer, mais sans mettre sa vie en danger ou courir le moindre risque.
La conséquence la plus grave de cette nouvelle situation est que ces ‘pilotes’ perçoivent la guerre comme un jeu vidéo. En effet, ils voient le champ de bataille à travers un écran d’ordinateur, ils peuvent sélectionner les cibles avec un joystick et tirer en pressant sur la touche Entrée ; et même si leur drone est abattu, un autre redécolle de la base militaire la plus proche et, comme dans un jeu vidéo, ils peuvent recommencer, et tuer d’autres personnes. Cette nouvelle vision de la guerre qu’acquièrent involontairement ces pilotes de robots téléguidés favorise plus que jamais une violence de masse et une guerre d’anéantissement de l’ennemi, vu l’impossibilité technique de faire des prisonniers.
On observe comme autre conséquence de ce nouveau type de guerre les dépressions et suicides des soldats qui, une fois qu’ils ont pris leur retraite ou vu des documents réels traitant du conflit, se rendent compte de l’inhumanité de leur acte et des horreurs qu’ils ont causées. Comme illustration de ces guerres ‘vidéoludiques’ et de leurs conséquences, voici un extrait du témoignage d’un ancien soldat américain qui pilotait des drones depuis une pièce de douze mètres carrés, d’où il a tué de nombreuses personnes jusqu’au jour où il s’est rendu compte de la réalité de ses actes :
« Lorsque l’ordre de faire feu tombe, Brandon presse un bouton de la main gauche, “marque” le toit au laser, et le pilote assis à côté de lui déclenche le tir à l’aide d’un joystick (…) A cet instant, Brandon aurait encore pu détourner le missile roquette. Brandon scrute le moindre pixel sur l’écran. Soudain, un enfant qui court à l’angle de la maison. Brandon voit une lueur sur l’écran – l’explosion. Des pans du bâtiment s’écroulent. L’enfant a disparu. Brandon a l’estomac noué.
“On vient de tuer le gamin ?” demande-t-il à son collègue assis à côté.
“Je crois que c’était un gamin”, lui répond le pilote.
“C’était un gamin ?” continuent-ils de s’interroger dans la fenêtre de messagerie instantanée qui s’affiche sur leur écran.
C’est alors que quelqu’un qu’ils ne connaissent pas intervient, quelqu’un qui se trouve quelque part dans un poste de commandement de l’armée et qui a suivi leur attaque : “Non, c’était un chien.” Ils se repassent l’enregistrement une nouvelle fois. Un chien sur deux jambes ? (…) ».
L'influence de la technologie sur la capacité des soldats à décider
L’utilisation de robots possédant une autonomie de type human in the loop pose également des problèmes éthiques sur un autre plan. En effet, en présence de robots sur le champ de bataille ou dans les conflits, l’Homme a tendance à abandonner son autonomie morale au profit d’une foi en la rationalité supérieure de l’ordinateur, considérée comme infaillible.
On peut par exemple citer le fameux exemple de l’USS Vincennes durant la guerre Iran-Irak. Ce croiseur de la Navy était équipé d’un tout nouveau système de radar permettant une identification précise des appareils ennemis. Ce système a détecté un avion iranien, qu’il a donc immédiatement classé dans la catégorie assumed enemy, même s’il s’agissait en réalité d’un avion civil (de ligne). Les membres de l’équipage du croiseur, convaincus de la perfection de l’algorithme de détection, ont autorisé le tir de deux missiles surface-air, abattant l’avion et tuant ainsi 290 passagers et les membres de l’équipage.
Les membres de l’équipage n’auraient pas tiré s’ils avaient vérifié eux-mêmes la nature de l’avion. L’homme, de par la confiance qu’il accorde aux robots, exerce plus ce qui pourrait être assimilé à un droit de véto qu’à une réelle décision morale, ce qui pose des problèmes éthiques et donne aux robots une autonomie se rapprochant plutôt de la catégorie human on the loop.
Ci-contre : le croiseur USS Vincennes tirant un missile surface-air (essai)
Conclusion
En conclusion, on peut constater que la principale cause des débats éthiques au sujet de l’utilisation de robots de type human in the loop dans les conflits est que la technologie n’est pas neutre, elle modifie notre manière de percevoir le monde. En effet, les drones, pilotés à distance par des soldats non-présents sur le terrain et qui ne risquent pas leur vie, ont modifié la manière dont ces derniers perçoivent la guerre et l’acte de tuer, puisqu’ils n’y sont plus physiquement impliqués. De même, l’utilisation de tout robot dans les conflits peut fausser voire mettre fin à toute décision humaine, l’Homme se fiant entièrement à la ‘perfection’ de l’algorithme de l’ordinateur, ce qui modifie également la vision du conflit par les soldats.
http://philoactualite.e-monsite.com