Google est connue pour chouchouter ses troupes, avec un salaire médian qui atteint €200 000 par an. La société subit pourtant une mutinerie sans précédent, accusée de “participer au commerce de la guerre”.

Selon le magazine Gizmodo, les employés de la firme californienne jugent le projet Maven “incompatible avec les principes éthiques de la société”. Toujours en voie de développement, le projet réalisé pour le Pentagone permet d’analyser les images de drones afin de distinguer les objets inertes.

Si Google a assuré que la technologie ne serait jamais utilisée pour lancer des armes ou tuer, beaucoup en doutent.

A l’origine, le projet de reconnaissance d’objets Maven

L’été dernier, le Département de la Défense américaine était à la recherche de partenaires commerciaux capables de donner des conseils en matière d’intelligence artificielle. L’ancien PDG de Google, Éric Schmidt était présent lors d’une réunion avec le Ministère au mois de juillet.

Officiellement, sa présence était de jouer un “rôle consultatif” dans le développement du projet. Il était alors impossible de savoir quel était le rôle de Google, et si d’autres sociétés étaient en lice.

C’est en mars dernier que Google confirmait enfin l’existence d’une mission à $7,4 millions pour construire un système d’intelligence artificielle capable d’analyser les images prises par les drones militaires du Pentagone : le Projet Maven.

Ce projet consiste à combiner le “deep learning” et l’intelligence artificielle, afin que les drones de l’armée puissent reconnaître automatiquement les objets filmés et avertir les équipes humaines en cas de menace. Aujourd’hui, personne ne sait si Google est le seul partenaire du Pentagone dans ce projet, quel est son rôle exact, et quels sont ses sous-traitants.

Le Pentagone obtient un accès à l’intelligence artificielle

De manière concrète, le projet Maven permet au Pentagone américain d’avoir un “accès spécial” au système d’intelligence artificielle de Google, TensorFlow. Ce dernier repose sur un apprentissage profond pour analyser de gros volumes d’images de véhicules et autres objets dans les zones à risques, ce qui paraît inoffensif.

Mais là où le bât blesse, c’est que la reconnaissance et la traque d’êtres humains est également possible. Par l’intermédiaire de son porte-parole, Google a assuré au magazine américain Gizmodo que la technologie ne sera utilisée “qu’à des fins non offensives”. Mais peut-on croire cela ?

Si pour le moment l’intervention humaine est nécessaire pour valider les opérations, l’ICRAC craint que cela ne soit bientôt plus le cas. Les experts cités par l’AFP affirment d’ailleurs que des systèmes d’armement automatisés capables de repérer et d’éliminer des cibles sans aucune intervention humaine seront bientôt opérationnels.

En bref, nous ne sommes pas loin d’autoriser des robots à tuer de manière automatique. Comme c’est le cas dans de nombreux pays, l’armée américaine utilise des drones dans le cadre de missions de reconnaissance, de renseignement ou même pour des bombardements, notamment en Afghanistan.

4 000 employés signent une pétition

Selon les employés mécontents de Google, la société possède une certaine responsabilité éthique et ne devrait pas “participer au commerce de la guerre”. En signe de protestation, 4 000 d’entre eux (soit 5% des employés de la firme) ont déjà signé une pétition adressée au Directeur Général Sundar Pichai, pour que le projet Maven soit arrêté, tandis qu’une douzaine a démissionné.

Les employés demandent non seulement que le projet Maven soit arrêté, mais également que Google publie une charte attestant ne jamais construire de “technologie de guerre”. Bien que le géant du web ait assuré de manière officielle que la technologie était inoffensive, les défenseurs des droits sur internet de l’Electronic Frontier Foundation (EFF) ont montré les dents.

L’association qui défend l’usage pacifique de la robotique, l’International Committee for Robot Arms Control (ICRAC), s’est adressée à Google dans une lettre ouverte signée par 400 scientifiques. Selon eux, avec le projet Maven, Google permet purement et simplement à des drones de tuer de manière automatique, ce qui représenterait “un problème éthique énorme”.

A noter : Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement le point de vue d'Alvexo