Est-il temps d'interdire les robots tueurs autonomes ?
Whitwam met en évidence certains des principaux problèmes liés aux armes entièrement autonomes, notamment le manque de compassion et de responsabilité.
Les robots sont des tropes de science-fiction depuis des décennies maintenant, et ils jouent souvent le méchant. Comme les histoires nous le disent, il n'y a pas grand-chose à faire lorsqu'une armée imparable de machines à tuer autonomes et mortelles décide de faire la guerre à l'humanité.
Maintenant, un nouveau rapport de Human Rights Watch et de l'Université Harvard suggère qu'il pourrait être judicieux d'éviter le problème avant que le fantasme ne devienne réalité en interdisant la création de drones de guerre semi-autonomes qui pourraient un jour acquérir l'intelligence nécessaire pour devenir totalement autonomes. robots tueurs.
Cet article peut être lu sur le site Extreme Tech ici.
La responsabilité est peut-être le problème le plus grave avec une machine qui peut décider sur qui tirer. Si les humains appuient sur la gâchette, il y a des conséquences. Une arme robotique ne peut pas vraiment être tenue pour responsable d'avoir commis une atrocité.