Robots tueurs : que seront les soldats de demain ? Brice Erbland

Résumé

« Robots tueurs », le terme est à la mode mais il fausse d'emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu'elles puissent agir au moins aussi bien qu'un soldat humain, qu'elles puissent « raisonner » d'elles-mêmes sur le plan moral. En d'autres termes, ces robots doivent être dotés d'une éthique artificielle.Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d'une éthique artificielle pour les futurs robots de combat. Une approche originale qui n'est ni celle d'un philosophe, ni celle d'un roboticien, mais celle d'un soldat.

Auteur :
Erbland, Brice (1981?-....)
Éditeur :
Malakoff, Armand Colin,
Collection :
Engagements
Genre :
Essai
Langue :
français.
Note :
Bibliogr. p. 165-171
Mots-clés :
Nom commun :
Art et science militaires -- Innovations technologiques -- 1990- | Robots militaires -- 1990- | Éthique militaire -- 1990-
Description du livre original :
1 vol. (173 p.) ; 19 cm
ISBN :
9782200620073.
Domaine public :
Non
Téléchargement du livre au format PDF pour « Robots tueurs »

Table des matières

  • Sommaire
  • Introduction
  • 1 CONSÉQUENCES DE L’EMPLOI DES ROBOTS SOLDATS
    • Rupture sociologique de la guerre
      • Emploi
      • Morphologie
      • Interaction SALA-humain
      • Terrorisme robotique
    • Biais stratégique et conséquences tactiques
  • 2 ÉMOTIONS VS ALGORITHMES
    • Faiblesses humaines au combat
      • Vengeance
      • Addiction à la destruction
      • Effet Lucifer
      • Distanciation
      • Esclavage technologique
      • Peur
      • Stress post-traumatique
      • Besoins physiologiques
    • Vertus humaines au combat
      • Courage
      • Instinct ou intuition ?
      • Créativité
      • Cohésion
      • Discernement émotionnel
    • Objectifs d’une éthique artificielle
  • 3 PROGRAMMATION D’UNE ÉTHIQUE ARTIFICIELLE
    • Le processus décisionnel humain
      • Mission et règlements
      • Procédures et expérience
      • Intuition et créativité
      • Éthique
      • Le phénomène check-list
      • Le schéma décisionnel humain
    • Proposition d’architecture d’un module d’éthique artificielle
      • Approche déontologique
      • Logique déontique
      • Logiques non monotones
      • Réseaux de neurones
      • Une combinaison des moyens pour approcher au mieux la décision humaine
      • Une « éducation » nécessaire
    • Quel test pour valider cette éthique ?
  • 4 QUE NOUS APPREND LA LITTÉRATURE ?
  • Conclusion
  • Synthèse des déductions de l’étude
    • Apparence
    • Emploi
    • Intelligence artificielle
  • Remerciements
  • Bibliographie
  • Engagements
    Une collection de l’ AEGES

Commentaires

Laisser un commentaire sur ce livre