image de héros de menu

Utilisation du système de traitement de données Lavender à Gaza

Stop Killer Robots continue de trouver des rapports sur l'utilisation par Israël de systèmes de recommandation de cibles dans la bande de Gaza profondément préoccupants d'un point de vue juridique, moral et humanitaire.

Photo par Mohammed Ibrahim 

Stop Killer Robots continue de trouver des rapports sur l'utilisation par Israël de systèmes de recommandation de cibles dans la bande de Gaza profondément préoccupants d'un point de vue juridique, moral et humanitaire. Bien que le système Lavande, comme le Habsora /Évangile Le système n’est pas une arme autonome, mais tous deux suscitent de sérieuses inquiétudes quant à l’utilisation croissante de l’intelligence artificielle dans les conflits, aux biais d’automatisation, à la déshumanisation numérique et à la perte de contrôle humain dans le recours à la force. 

Rapporte que Lavande a été utilisée par Tsahal pour générer des cibles humaines sont profondément troublantes. Le système ferait des recommandations de ciblage basées sur des « caractéristiques » comportementales, notamment les modèles de communication, les connexions aux réseaux sociaux et les changements fréquents d'adresse. Selon une source +972, « Un individu présentant plusieurs caractéristiques incriminantes différentes atteindra une note élevée et deviendra ainsi automatiquement une cible potentielle d’assassinat. 

Le Lavender est un système de traitement de données, pas une arme autonome, et la décision réelle de frapper ou non une cible recommandée est prise et exécutée séparément par un humain et non par une machine. Cependant, l'utilisation de ce système démontre des problèmes clés avec les armes autonomes, à savoir déshumanisation numérique et la perte d’un contrôle humain significatif. 

La protection des civils est un principe fondamental du droit international humanitaire (DIH) et en cas de doute concernant le statut d'un individu, celui-ci doit être considéré comme un civil. Le classement de la population générale de Gaza comme cible potentielle sur la base de profils comportementaux, qui comportent une marge d’erreur de 10 %, réduit les êtres humains à des points de données et soulève de graves inquiétudes quant au respect du DIH, à la violation de la dignité humaine et à la déshumanisation numérique.

Les rapports de « s » sont également préoccupants.une approbation lamentable pour les officiers d'adopter les listes de victimes de Lavender, sans aucune obligation de vérifier minutieusement pourquoi la machine a fait ces choix ou d'examiner les données brutes de renseignement sur lesquelles ils étaient basés». Ce manque de contrôle humain significatif et d'engagement impliqué dans les décisions d'attaquer les cibles recommandées par Lavender démontre une tendance inquiétante dans le recours aux systèmes automatisés. 

Stop Killer Robots estime que la technologie doit être développée et utilisée pour promouvoir la paix, la justice, les droits de l'homme, l'égalité et le respect de la loi – et non pour tuer de manière autonome ou pour renforcer ou reproduire davantage l'inégalité et l'oppression. 

Le Secrétaire général de l'ONU, le Comité international de la Croix-Rouge et plus de 100 pays ont réclamé un instrument juridique sur les systèmes d'armes autonomes. L’utilisation croissante de systèmes dotés de niveaux d’autonomie préoccupants démontre le besoin urgent d’interdictions et de réglementations claires sur l’autonomie des systèmes d’armes dans le droit international.

Les demandes de commentaires ou d'entrevues doivent être adressées à [email protected] 

Arrêtez les robots tueurs

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous