Créer un site internet

La robotique pour remplacer les soldats au front

La robotique pour remplacer les soldats au front

PARTIE QUI N'EXISTE PLUS - SERA REMPLACÉE BIENTÔT

Nous allons encore une fois aborder le sujet en présentant les différentes utilisations des robots dans les guerres des plus répandues aux moins éthiques.

On distingue trois types d’utilisations différentes selon l’autonomie accordée aux robots : human in the loop, human on the loop et human out of the loop.

 

Human in the loop

Un robot appartenant à la première catégorie (in the loop) peut détecter les potentiels ennemis mais ne peut pas recourir seul à la violence. En effet, un robot de type human in the loop peut partir en éclaireur, sélectionner et même verrouiller des cibles, mais reste dépendant de l’Homme puisqu’il ne peut prendre une décision ou recourir à la force qu’après l’autorisation de son « pilote ». Ce type de robot permet donc de repousser uniquement les limites de précision et de champ de vision de l’Homme.

Théoriquement, donner aux robots ce niveau d’autonomie durant les conflits ne pose aucun problème éthique, puisque l’Homme reste maître de la situation et la décision finale est prise en tenant compte de la conscience et des états d’âme d’un être humain. On peut par exemple citer les drones, très populaires dans le domaine militaire depuis la Guerre de Corée, qui sont capables de détecter des éventuelles cibles, mais qui sont toujours sous contrôle humain, et, en cas de menace réel, c’est un homme qui activera le feu. 

Néanmoins, en pratique, l’utilisation de tels robots peut être considérée comme bien moins éthique. En effet, l’Homme a tendance à abandonner son autonomie morale au profit d’une foi en la rationalité supérieure de l’ordinateur, considérée comme infaillible. On peut par exemple citer le fameux exemple de l’USS Vincennes durant la guerre Iran-Irak. Ce croiseur de la Navy était équipé d’un tout nouveau radar permettant une détection précise des appareils ennemis. Ce système a détecté un avion iranien, qu’il a donc immédiatement classé dans la catégorie assumed enemy, même s’il s’agissait en réalité d’un avion civil (de ligne). Les membres de l’équipage, convaincus de la perfection de l’algorithme, ont autorisé le tir de deux missiles surface-air, abattant l’avion et tuant ainsi 290 passagers et les membres de l’équipage. 

On peut donc constater que la technologie n’est pas neutre, elle modifie notre manière de percevoir le monde. Les membres de l’équipage n’auraient pas tiré s’ils avaient vérifié eux-mêmes la nature de l’avion. L’homme, de par la confiance qu’il accorde aux robots, exerce plus ce qui pourrait être assimilé à un droit de véto qu’à une réelle décision morale, ce qui pose des problèmes éthiques et donne aux robots une autonomie se rapprochant plutôt de la catégorie on the loop.

 

USS Vincennes : tir d'un missile surface-air (Iran)

Human on the loop

Drone : lancement d'un missile helfire (Pakistan)

Un robot appartenant à la seconde catégorie (on the loop) peut détecter les potentiels ennemis et recourir seul à la force, néanmoins l’Homme reste présent dans la boucle de décision. En effet, même si c’est le robot qui sélectionne les cibles et ordonne le feu lorsque son algorithme juge cela nécessaire, le tout reste sous la supervision d’un homme qui peut à tout moment arrêter l’ordinateur central du robot s’il juge cela nécessaire. Cela semble être la solution idéale, puisque de tels robots permettraient de réduire les pertes humaines, de repousser les limites d’endurance, de mortalité et de peur du soldat, sans pour autant être entièrement autonomes. Néanmoins, cela a pour conséquence de rendre les guerres de plus en plus asymétriques. Certes, les pertes humaines sont moindres, mais uniquement du côté du belligérant le mieux équipé ; et celles de l’autres côté peuvent être supérieures justement à cause de l’utilisation de robots on the loop. Reprenons l’exemple du drone : outre les multiples risques d’erreurs dans la détection d’ennemis qui peuvent conduire à d’irrémédiables injustices, des limites éthiques se posent même lorsque l’ordinateur a ‘raison’, à cause de l’asymétrie du conflit et de l’impossibilité de se défendre des belligérants faisant partie du camp le moins équipé. La ‘cible’ au Pakistan peut-elle se défendre contre des missiles helfire tirées automatiquement par le drone, bien que celui-ci soit sous la supervision d’un soldat au Nevada ?

 

Human out the loop

Un robot appartenant à la troisième catégorie (out of loop) peut détecter les potentiels ennemis et recourir seul à la force, sans aucune intervention ni supervision humaine dans la boucle de décision. Cela permettrait certes de repousser toutes les limites humaines dans les conflits puisqu’aucun homme n’y serait plus impliqué. Uniquement du côté le plus équipé encore une fois. Les pertes humaines et matérielles pourraient être inestimables de l’autre côté, les robots ne connaissant aucune limite morale, aucune hésitation, et étant dotés d’une précision de tir chirurgicale. Certains prototypes de robots possédnant une autonomie humain out of loop existnent déjà, comme le Taranis, avion anglais révolutionnaire capable de voler, choisir des cibles partout sur le globe et tirer de manière autonome, sans aucune intervention humaine.

Cela risquerait également de banaliser la guerre. En effet, un pays possédant une armée de robots efficace ne perdrait rien à déclencher une guerre, surtout contre un pays n’en possédant pas. Sûr d’en ressortir victorieux et sans la moindre perte humaine, il n’hésiterait plus à envoyer des robots à l’autre bout du globe, ce qui rendrait les guerres plus fréquentes, plus meurtrières  et de surcroît encore moins morales.

 

Vol d'essai du Taranis (Angleterre)

Conclusion

Pour essayer de résoudre ces problèmes liés à l’éthique et aux valeurs morales, les roboéthiciens envisagent de créer des robots éthiques, c’est-à-dire des robots capables « d’adhérer à ce que les humains ont défini comme une façon éthique de mener la guerre, aussi oxymorique que cela puisse paraître », déclare Ronald Arkin, spécialiste en la matière. Il s’agirait non pas de les rendre humains, ce qui s’avère être impossible, mais de faire entrer dans leur boucle de décision les principes prônés par les lois internationales de la guerre ou les conventions de Genève. Ainsi, le robot appliquera toujours le même algorithme sans réfléchir, mais c’est l’algorithme lui-même qui sera plus moralement acceptable, bien qu’il faille espérer que l’Homme n’en arrive jamais là, ce qui, comme il l’a imaginé dans les multiples oeuvres de fictions, nous conduirait à des horreurs que nul ne voudrait connaître.

TOP! ;)

Je confirme :p