image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Google et d'autres entreprises devraient aborder cette cause

AOAV IGw AWS FINAL 150ppi_LR

Google et sa société mère Alphabet commencent à répondre à certaines préoccupations éthiques soulevées par le développement de l'intelligence artificielle (IA) et de l'apprentissage automatique, mais n'ont pas encore pris position sur l'utilisation incontrôlée de l'autonomie et de l'IA dans les systèmes d'armes. Ces entreprises technologiques et d'autres telles qu'Amazon, Microsoft et Oracle devraient publiquement approuver l'appel à interdire les armes entièrement autonomes et s'engager à ne jamais aider à développer ces armes. Cela soutiendrait l'effort international en expansion rapide visant à garantir que la décision de tuer des personnes ne soit jamais déléguée à une machine en temps de guerre ou dans des circonstances policières ou autres.

Ces derniers mois, des appels se sont multipliés pour que Google s'engage à ne jamais aider à créer des systèmes d'armes qui sélectionneraient et attaqueraient des cibles sans contrôle humain significatif. Le mois dernier, plus de quatre mille Les employés de Google ont publié une lettre ouverte exigeant que l'entreprise adopte une politique claire indiquant que ni Google ni ses sous-traitants ne construiront jamais de « technologie de guerre ».

Le 14 mai, plus de 800 universitaires, universitaires et chercheurs qui étudient, enseignent et développent les technologies de l'information a publié une déclaration en solidarité avec les employés de Google qui appelle les entreprises à soutenir un traité international interdisant les systèmes d'armes autonomes et s'engage à ne pas utiliser les données personnelles que la société collecte à des fins militaires.

Dans le Tuteur sur 16 mai, trois co-auteurs de la lettre académique soulignent les questions clés auxquelles Google est confronté, telles que : « doit-il utiliser ses technologies d'intelligence artificielle de pointe, ses meilleurs ingénieurs, ses services de cloud computing et les vastes données personnelles qu'il collecte pour contribuer à des programmes qui font avancer le développement d'armes autonomes ? Doit-elle procéder malgré l'opposition morale et éthique de plusieurs milliers de ses propres employés ? »

Auparavant, dans une lettre du 12 mars aux responsables de Google et d'Alphabet, la Campagne pour arrêter les robots tueurs a recommandé aux entreprises d'adopter « une politique publique proactive » en s'engageant à ne jamais s'engager dans des travaux visant le développement et l'acquisition de systèmes d'armes entièrement autonomes, également connus sous le nom de systèmes d'armes autonomes létaux, et de soutenir publiquement l'appel à pour une interdiction.

Toutes ces lettres expriment leur inquiétude quant à l'implication de Google dans un projet financé par le ministère de la Défense pour « aider dans la reconnaissance d'objets sur des données non classifiées » contenues dans des séquences vidéo de surveillance collectées par des drones militaires. Selon le Pentagone, le projet Maven implique « le développement et l'intégration d'algorithmes de vision par ordinateur nécessaires pour aider les analystes militaires et civils encombrés par le volume considérable de données vidéo animées que le DoD collecte chaque jour à l'appui des opérations de contre-insurrection et de contre-terrorisme ». Le projet, qui a débuté l'année dernière, vise à transformer « l'énorme volume de données disponibles pour le DoD en renseignements exploitables et en informations de qualité décisionnelle rapidement ».

Le projet Maven soulève des questions éthiques et autres sur l'utilisation appropriée de l'apprentissage automatique et de l'intelligence artificielle (IA) à des fins militaires. La campagne pour arrêter les robots tueurs est concerné que l'identification d'objets basée sur l'IA pourrait rapidement s'estomper ou passer à l'identification de « cibles » basée sur l'IA comme base de la direction de la force meurtrière. Cela pourrait donner aux machines la capacité de déterminer ce qui est une cible, ce qui constituerait une utilisation inacceptablement large de la technologie. C'est pourquoi la campagne s'efforce de conserver un contrôle humain significatif des fonctions critiques d'identification, de sélection et d'engagement des cibles.

Les représentants de Google sont engager un dialogue avec la campagne pour arrêter les robots tueurs et a fourni le mois dernier à la coordinatrice de la campagne Mary Wareham une déclaration selon laquelle son travail sur le projet Maven est «à des fins non offensantes et utilise un logiciel de reconnaissance d'objets open source disponible pour tout client Google Cloud. Les modèles sont basés uniquement sur des données non classifiées. La technologie est utilisée pour signaler les images à des fins d'examen humain et est destinée à sauver des vies et à éviter aux gens d'avoir à effectuer un travail très fastidieux. »

En juillet 2015, des employés de haut niveau de Google, dont le directeur de recherche Peter Norvig, l'universitaire Geoffrey Hinton et le chef de l'IA Jeff Dean ont co-signé une lettre ouverte approuvé par des milliers d'experts de l'IA qui ont souligné les dangers posés par les systèmes d'armes autonomes létaux et ont appelé à un nouveau traité pour interdire les armes.

Chez Google DeepMind, le PDG Demis Hassabis, le co-fondateur Mustafa Suleyman et vingt ingénieurs, développeurs et chercheurs scientifiques ont également signé la lettre de 2015. L'année suivante en une soumission à une commission parlementaire britannique Google DeepMind a déclaré : « Nous soutenons l'interdiction par un traité international des systèmes d'armes autonomes létales qui sélectionnent et localisent des cibles et déploient une force meurtrière contre elles sans contrôle humain significatif. Nous pensons qu'il s'agit de la meilleure approche pour éviter les conséquences néfastes qui découleraient de la mise au point et de l'utilisation de telles armes. Nous recommandons au gouvernement de soutenir tous les efforts en vue d'une telle interdiction. »

Le mois dernier, Jeff Bezos d'Amazon préoccupation exprimée au développement possible d'armes entièrement autonomes, qu'il a qualifiées de « vraiment effrayantes », et a proposé un traité multilatéral pour les réglementer. La Campagne pour arrêter les robots tueurs se félicite de ces remarques et encourage Amazon approuver l'appel à un nouveau traité interdisant les armes entièrement autonomes et s'engager à ne pas contribuer au développement de ces armes, comme Clearpath Robotics et d'autres ont fait.

Émettre des principes éthiques ne signifie pas grand-chose si une entreprise n'agit pas sur les défis fondamentaux soulevés par les applications militaires de l'autonomie et de l'IA. Les entreprises responsables devraient prendre au sérieux et soutenir publiquement les appels croissants aux États pour qu'ils négocient d'urgence un nouveau traité interdisant les armes entièrement autonomes.

MISE À JOUR : Le 7 juin, Google a publié ses principes éthiques, y compris un engagement à ne pas développer l'intelligence artificielle pour une utilisation dans les armes. Le personnel de Google a transmis les principes au coordinateur de la campagne et a remercié pour la contribution fournie. Le communiqué fait suite aux nouvelles rapportées par Gizmodo le 1er juin que Google a décidé de mettre fin à sa participation au contrat du projet Maven qui expire l'année prochaine.

Pour plus d'informations, voir:

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous