Ce petit livre tient pour acquis que tous ceux qui aujourd’hui «préparent la guerre (pour chercher la paix??)» travaillent à la création d’armes létales dont l’autonomie de décision et d’action serait programmée (Intelligence artificielle auto-formante) et considérable!
L’Auteur est bien conscient d’une évolution qui pose de gros problèmes non seulement éthiques, mais, plus radicalement, anthropologiques:
«À force de confier à la technologie le stockage de nos connaissances, et de plus en plus l’analyse et l’aide à la décision, nous devenons tributaires de notre propre technologie. En d’autres mots, nous en devenons les esclaves. Au combat, cet esclavage technologique présente un risque de dommage collatéral…» (p. 57).
Il faudrait donc que les robots auxquels on donnerait la faculté de détruire des humains (Systèmes d’Armes Létales Autonomes ou SALA) aient aussi une «autonomie éthique», qu’ils soient «moralement autonomes»,
« c’est-à-dire avec une volonté propre et responsable de ses actions. Le bon SALA sera donc un SALMA: un Système d’Armes Létales Moralement Autonome» (p. 59).
L’auteur qui a combattu en Afghanistan et en Lybie et a du prendre des décisions de terrain qui impliquaient la mort d’hommes, établit 22 règles pour la création de tels robots. Mais, en finale, il nous dit:
«Je reste intimement convaincu des limites éthiques à fixer à l’emploi de ces machines, et j’avoue penser au fonds de moi qu’il serait préférable de ne pas les créer… Mais il faut faire preuve d réalisme, car ces machines verront le jour sans doute dans les décennies à venir, que je le veuille ou non. J’ai tenté, par cette étude, de rendre l’inévitable un peu plus acceptable» (p. 155).
Tout en connaissant et en rappelant les trois «lois» énoncées par Isaac Asimov dans les années 1950, à savoir:
«1. Un robot ne peut porter atteinte à un être humain, ni, ne restant passif, permettre qu’un être humain soit exposé au danger;
2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi;
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi » (p.104).
L’Auteur ne bâtit pas toute sa description d’une intelligence artificielle éthique sur ces trois lois!
Une position à comparer à celle de Vincent Ancante dans la conclusion d’un article qu’il a publié sur «Le temps des robots tueurs» (France Catholique, n°3600, 21.09.18):
«L’exclusion de l’intervention humaine dans la décision qui prendrait un robot tueur d’engager une cible est une horreur éthique sur laquelle les médias et les gouvernements qui siègent à Genève […] restent trop discrets. Est-il encore temps de mettre au moins quelques garde-fous internationaux à de telles dérives, avant que ces techniques ne nous échappent totalement?»
R.-F. Poswick