Campaign To Stop Killer Robots

Fully autonomous weapons are weapon systems that can identify and fire on targets without a human controlling them. They are not armed drones which have human control but are machines that would decide whether or not to kill without human intervention. That decision to kill would not be the result of the skills, knowledge, intelligence, training, experience, humanity, morality, situational awareness and understanding of the laws of war and international humanitarian law that men and women in uniform use to make such decisions in battle. A machine would determine if the target was a combatant based purely on programming likely developed in a sterile laboratory years before the decision to kill was made. Abrogating life and death decisions to a machine is morally, ethically and legally flawed.

No country has fielded fully autonomous weapons yet but they are under development in a number of countries. Now is the time to put a stop to their development and ultimate deployment.

Some argue that these weapons are necessary and inevitable. Among them the argument that they would improve the survivability of servicemen and servicewomen and that might be the case if the enemy did not have similar weapons, but if one side has them so does another.

We are told that machines do not have human frailties, they do not get tired, they do not get angry, they are not affected by weather or darkness to the extent that people are, they know no fear and that makes these machines superior to a soldier. Machines do not have these frailties, nor are they responsible or accountable for their decisions – they could and would attack with impunity. We believe the characteristics of these weapons should be banned in accordance with existing International Humanitarian Law.

Technological advances in robotics are already assisting soldiers in such areas as the detection of explosive devices, search and rescue, and some engineering tasks. However, many in uniform both serving and retired are seriously concerned about the prospect of assigning decisions on whether, what and when to kill, to machines. Autonomous weapons are not accountable for their actions. There is a great deal of concern, particularly when considering asymmetric warfare, that machines are capable of reliably discriminating between targets that might be engaged legally and those which are not legal.

As Soldiers, Sailors, Airmen and Airwomen, both serving and retired, we join the call for a ban on the development, deployment and use of weapon systems in which the decision to apply violent force is made autonomously.

Le armi completamente autonome sono sistemi d’arma capaci di identificare e colpire obiettivi senza controllo umano. Non si tratta di droni armati controllati da una persona, ma di macchine che possono decidere di uccidere senza l’intervento di un elemento umano. Tale decisione non sarebbe quindi il risultato delle abilità, delle conoscenze, dell’intelligenza, dell’addestramento, dell’umanità, della moralità, della capacità di capire le situazioni e della consapevolezza delle norme del diritto bellico e del diritto internazionale umanitario che le donne e gli uomini che portano un’uniforme applicano per prendere questo tipo di decisioni durante una battaglia. Una macchina determinerebbe la natura di “combattente” di un obiettivo solo sulla base di una programmazione probabilmente sviluppata nell’ambiente sterile di un laboratorio anni prima del momento di prendere la decisione di ucciderlo. Deferire una decisione di vita o di morte ad una macchina è un errore dal punto di vista morale, etico e giuridico.

Nessun paese ha finora messo in campo armi autonome, ma molti le stanno sviluppando. E’ quindi il momento di arrestare il loro sviluppo e la possibilità che vengano un giorno utilizzate.

Secondo alcuni, queste armi sono necessarie ed inevitabili. Tra gli argomenti utilizzati c’è quello secondo cui aumenterebbero le possibilità di sopravvivenza dei militari, il che potrebbe essere vero se il nemico non disponesse di armi simili, ma se una parte in conflitto le ha, le avrebbero [probabilmente]anche altri.

Ci sentiamo dire che le macchine non hanno debolezze umane, non si stancano, non provano rabbia, non sono influenzate dalle condizioni metereologiche o dall’oscurità nella stessa misura in cui lo sono gli esseri umani; che non conoscono la paura, e questo le rende superiori ai soldati. Una macchina non ha debolezze, ma non è neanche responsabile delle sue azioni e non sarebbe chiamata a renderne conto – può attaccare impunemente, e lo farebbe. A nostro parere, date le loro caratteristiche, queste armi dovrebbero essere messe al bando ai sensi del diritto internazionale umanitario attualmente vigente.

I progressi tecnologici nel campo della robotica stanno già aiutando i militari in aree come l’identificazione di artefatti esplosivi, la ricerca e il recupero di dispersi (?) e alcune attività del genio. Tuttavia, molti militari in servizio o ritirati, nutrono gravi preoccupazioni riguardo alla prospettiva di assegnare ad una macchina la possibilità di decidere se, cosa e quando, uccidere. Le armi autonome non possono essere chiamate a rispondere delle loro azioni. Esistono inoltre forti dubbi, soprattutto in condizioni di conflitto asimmetriche, sul fatto che una macchina sia in grado di discriminare tra gli obiettivi che potrebbero essere legittimamente colpiti, e quelli per cui sarebbe illegale farlo.

Noi sottoscritti soldati, marinai, aviatori, sia in servizio attivo che ritirati, uniamo la nostra voce all’appello per la messa al bando dello sviluppo, della messa in campo e dell’uso di sistemi d’arma in cui la decisione di utilizzare la violenza sia presa in modo autonomo.

Les armes entièrement autonomes sont des systèmes d´armement pouvant identifier et tirer sur des cibles sans contrôle humain. Ce ne sont pas des drones armés sous le contrôle d´individus, mais des appareils qui pourraient prendre la décision de tuer ou non sans intervention humaine. Cette décision ne serait pas le résultat de compétences, de connaissances, d´intelligence, de formation, d´expérience, d´humanité, de sens moral, de compréhension du contexte et de connaissance du droit de la guerre et du droit international humanitaire que les hommes et les femmes en uniformes utilisent pour prendre de telles décisions sur le champ de bataille. Une machine déterminerait donc si la cible est un combattant en se basant uniquement sur un programme, très probablement développé dans un laboratoire stérile, plusieurs années avant que la décision de tuer ne soit prise. Laisser le pouvoir de décider de la vie ou de la mort à une machine est erroné moralement, éthiquement et légalement.

Aucun pays n´a encore expérimenté d´armes entièrement autonomes sur le terrain, mais ces dernières sont en processus de développement dans un certain nombre de pays. Il est temps de mettre un terme au développement de ces armes et d´éviter leur déploiement.

Certains affirment que ces armes sont nécessaires et inévitables. Parmi les arguments en leur faveur est celui que ces dernières amélioreraient les chances de survie des hommes et des femmes en service. Cela pourrait en effet être le cas, seulement si le côté ennemi ne dispose pas d´armes similaires. Dans la réalité, si une des parties possède ce type d´arme, il est fort probable que la partie adverse en dispose également.

Nous entendons souvent que les appareils n´ont pas la fragilité humaine; ils ne se fatiguent pas, ne se mettent pas en colère, ne sont pas affectés par le climat ou la noirceur au même niveau que le sont les êtres humains et ne connaissent pas la peur, ce qui les rendraient supérieurs à des soldats. En effet, les machines n´ont pas cette fragilité, mais n´assument pas non plus la responsabilité de leurs actions et décisions. Autrement dit, elles peuvent attaquer en toute impunité. Nous croyons que les caractéristiques de ces armes devraient être interdites, en accord avec ce que stipule le Droit International Humanitaire actuel.

Les progrès technologiques en robotique permettent déjà d´assister les soldats dans des domaines tels que la détection de dispositifs explosifs, la recherche et les services de secours ainsi que certains travaux d´ingénierie. Néanmoins, plusieurs hommes et femmes en uniformes, tant en service que vétérans, sont sérieusement préoccupés par la perspective de déléguer la décision de si oui ou non, quoi et quand tuer, à des machines. Les armes autonomes ne sont pas tenues responsables de leurs actions. Le fait que des machines soient capables de faire la distinction de manière fiable entre les cibles légalement engagées dans le conflit et celles qui ne le sont pas soulève de sérieux doutes, particulièrement dans le cas de guerres asymétriques.

Comme les Soldats, Marins, les Aviateurs et Aviatrices, en services et vétérans, nous nous joignons à l´appel pour l´interdiction du développement, déploiement et utilisation de systèmes d´armes pour lesquels la décision d´appliquer la force par la violence est prise de façon automatique.

Las armas totalmente autónomas son sistemas de armas que pueden identificar y disparar blancos sin que un humano las controle. No son drones armados que tienen un control humano, sino máquinas que podrían decidir matar o no sin intervención humana. Esa decisión de matar no sería el resultado de las habilidades, conocimientos, inteligencia, formación, experiencia, humanidad, moral, conocimiento de la situación y comprensión de las leyes de la guerra y del Derecho Internacional Humanitario, que los hombres y las mujeres en uniforme tienen para tomar tales decisiones durante el combate. Una maquina determinaría si el objetivo es un combatiente basado estrictamente en la programación probablemente desarrollada en un laboratorio estéril años antes de que la decisión de matar se tomara. Delegar las decisiones de vida o muerte a una máquina es moral, ética y legalmente deficiente.

Ningún país ha implementado armas totalmente autónomas todavía, pero se están desarrollando en varios países. Ahora es el momento para poner fin a su desarrollo y su eventual despliegue.

Algunos argumentan que estas armas son necesarias e inevitables. Entre otros, está el argumento de que mejorarían la capacidad de supervivencia de los militares, y podría ser el caso, si el enemigo no tuviera armas similares, pero si uno las tiene también las tiene el otro.

Se dice que las maquinas no tienen debilidades humanas, que no se cansan, que no se enfadan, no se ven afectadas por el clima o la oscuridad al contrario de las personas, que no conocen el miedo y que eso hace que estas máquinas sean superiores a un soldado. Las maquinas no tienen estas debilidades, ni son responsables de sus decisiones – podrían y atacarían con impunidad. Creemos que las características de estas armas deberían ser prohibidas de conformidad con el Derecho Humanitario Internacional existente.

Los avances tecnológicos en robótica ya están ayudando a los soldados en áreas tales como la detección de artefactos explosivos, la búsqueda y el rescate y algunas tareas de ingeniería. Sin embargo, muchos militares tanto en servicio como retirados están muy preocupados por la perspectiva de asignar a las máquinas las decisiones sobre cuándo y qué destruir, Las armas autónomas no son responsables de sus acciones. Existe una gran preocupación, sobre todo cuando se considera la guerra asimétrica, que las máquinas sean capaces de discriminar de manera fiable entre los objetivos legales y los que no son legales.

Como soldados, marineros y aviadores, tanto en servicio como retirados, nos sumamos al llamado por la prohibición del desarrollo, despliegue y uso de sistemas de armas en los que la decisión de aplicar la fuerza violenta se hace de manera autónoma.

Полностью самоуправляемое (автономное) оружие – это системы вооружения, которые могут обнаруживать цели и вести огонь по ним без управления человеком. Это не боевые беспилотники под управлением человека, а машины, которые самостоятельно решают – уничтожать цель или нет, без вмешательства человека. Решение на уничтожение не зависит от навыков, знаний, интеллекта, обучения, опыта, человечности, моральных качеств, осознания ситуации и понимания законов войны и международного гуманитарного права, на которые обычные военнослужащие женщины и мужчины опираются, решая убивать или не убивать в бою. Машина сама определяет является ли цель вооружённым лицом или нет, основываясь на программном обеспечении, вероятно, разработанном в лаборатории за годы до принятия решения на уничтожение. Передавать машине принятие решений о ведении огня на поражение юридически и этически некорректно.

Ещё ни одна страна не произвела полностью самоуправляемое оружие, но оно находится на стадии разработки во многих странах. Пришло время положить конец разработке и окончательному использованию такого оружия.

Некоторые утверждают, что использование самоуправляемого оружия необходимо и неизбежно. Среди прочих выдвигается утверждение, что такое оружие повысит живучесть личного состава, и это, возможно, будет в том случае, если у противника не будет похожего оружия, но если самоуправляемое оружие есть у одной стороны, то оно появится и у другой.

Нам говорят, что у машин нет человеческих слабостей: они не устают, не злятся, на них не так сильно влияет погода и темнота как на людей, они не ведают страха и поэтому машины превосходят людей по боевым качествам. У машин нет этих слабостей, они не несут ответственности за свои решения – они могут и будут атаковать безнаказанно. Мы верим в то, что использование этого оружия должно быть запрещено, в соответствии с существующим Международным Гуманитарным Правом.

Технологические достижения в робототехнике уже помогают солдатам обнаруживать взрывчатые вещества, проводить поисково-спасательные операции и выполнять некоторые инженерные задачи. Однако, многие военнослужащие и находящиеся в запасе серьёзно озабочены перспективой поручения решений об открытии огня на поражение (когда и по кому) машинам. Самоуправляемое оружие не несёт ответственности за свои действия. Также высказывается серьёзное опасение, особенно касательно ассиметричных боевых действий, что машины способны наверняка отличать цели, вовлечённые в боевые действия законно от тех, кто вовлечён незаконно.

Как солдаты, матросы, летчики, находящиеся на службе или в отставке мы объединяемся в призыве наложить запрет на разработку, постановку на вооружение и использование систем вооружения, в которых решение о применении силы производится автоматически.

Повністю самокерована (автономна) зброя – це системи озброєння, які можуть виявляти цілі і вести вогонь по ним без управління людиною.

Це не бойові безпілотники під управлінням людини, а машини, які самостійно вирішують – знищувати цілі чи ні, без втручання людини. Рішення на знищення не залежить від навичок, знань, інтелекту, навчання, досвіду, людяності, моральних якостей, усвідомлення ситуації і розуміння законів війни і міжнародного гуманітарного права, на які звичайні жінки і чоловіки військової служби спираються, приймаючи рішення в бою. Машина сама визначає чи є ціль озброєною винятково ґрунтуючись на програмному забезпеченні, ймовірно, розробленому в лабораторії за роки до прийняття рішення на знищення. Передавати машині прийняття рішень про ведення вогню на знищення юридично і етично некоректно.

Ще жодна країна не виробила повністю самокеровану зброю, але вона знаходиться на стадії розробки в багатьох країнах. Настав час покласти кінець розробці і остаточному використанню такої зброї.

Дехто стверджує, що використання такої зброї необхідне і неминуче. Серед інших аргументів стверджується, що така зброя підвищить живучість особового складу, і це, можливо, буде в тому випадку, якщо у супротивника не буде схожого озброєння, але якщо самокерована зброя є з одного боку, то вона з’явиться і в іншої сторони.

Нам відомо, що у машин немає людської слабкості: вони не втомлюються, не зляться, на них не впливає погода і темрява як на людей, вони не піддаються страху і тому машини перевершують людей за бойовими якостями. У машин немає цієї слабкості, вони не несуть відповідальності за свої рішення – вони можуть і будуть атакувати безкарно. Ми віримо в те, що використання цієї зброї має бути заборонено, відповідно до існуючого Міжнародного Гуманітарного Права.

Технологічні досягнення в робототехніці вже допомагають солдатам виявляти вибухові речовини, проводити пошуково-рятувальні операції і виконувати деякі інженерні завдання. Однак, багато військовослужбовців і тих хто знаходяться у запасі серйозно стурбовані перспективою доручення рішень про відкриття вогню на знищення (коли і по кому) машинам. Самокерована зброя не несе відповідальності за свої дії. Також висловлюється серйозне побоювання, особливо щодо асиметричних бойових дій, що машини здатні напевно відрізняти цілі залучені в бойові дії законно від тих, що залучені незаконно.

Як солдати, матроси, льотчики що знаходяться на службі або у відставці, ми об’єднуємося у заклику накласти заборону на розробку, постановку на озброєння і використання систем озброєння, в яких рішення про застосування сили приймається автономно.

Vollständig autonome Waffen sind Systeme, die ohne menschliche Kontrolle Ziele identifizieren und bekämpfen können. Sie sind keine bewaffneten Drohnen, die von Menschen kontrolliert werden, sondern Maschinen, die ohne jeglichen menschlichen Einfluss über Leben und Tod entscheiden. Eine solche Entscheidung, ein Ziel zu töten, würde nicht beeinflusst sein von bestimmten Fähigkeiten, Wissen, Intelligenz, Ausbildung, Erfahrung, Menschlichkeit, Moral, Situationsbewusstsein oder Kenntnissen des Kriegs- und des Völkerrechts, was aber üblicherweise als Entscheidungsgrundlage von Männern und Frauen in Uniformen dient.

Eine Maschine würde ein militärisches Ziel rein auf Basis von Computerprogrammen auswählen, die unter Laborbedingungen entwickelt wurden, wahrscheinlich Jahre vor der Entscheidung über eine Tötung. Maschinen über Leben und Tod entscheiden zu lassen, ist moralisch, ethisch und gesetzlich verwerflich.

Bislang hat noch kein Land vollständig autonome Waffen in Konfliktsituationen eingesetzt, doch viele Länder arbeiten an deren Entwicklung. Daher ist jetzt der Zeitpunkt, die Entwicklung solcher Systeme zu stoppen und somit ihren tatsächlichen Einsatz zu verhindern.

Befürworter dieser Waffentypen sind der Ansicht, dass diese notwendig und unumgänglich seien. Durch autonome Waffensysteme würde die Sicherheit der Soldatinnen und Soldaten verbessert. Dies kann richtig sein, wenn die Gegenseite nicht über solche Waffen verfügt. Doch wenn eine Seite über diese verfügt, dann in der Regel auch die andere.

Wir sollen glauben, dass Maschinen nicht über menschliche Schwächen verfügen, dass sie nicht müde werden, nicht wütend, Wetter und Dunkelheit weniger Einfluss auf sie als auf den Menschen haben, und dass Maschinen keine Angst kennen, was sie den Soldatinnen und Soldaten überlegen macht. Maschinen haben diese Schwächen nicht und können auch nicht für ihre Entscheidungen verantwortlich gemacht und nicht zur Rechenschaft gezogen werden – sie könnten und würden ungestraft angreifen. Wir sind deshalb der Auffassung, dass die Eigenschaften dieser Waffensysteme nicht im Einklang mit dem Völkerrecht stehen und diese daher verboten werden müssen.

Der technische Fortschritt in Form von Robotern assistiert bereits den Soldatinnen und Soldaten in vielfältigen Einsatzfeldern, bei der Detektion von Sprengkörpern, ebenso wie bei der Suche und Rettung sowie bei anderen technischen Aufgaben. Trotzdem bereitet die Aussicht, Entscheidungen darüber, ob, was, wer und wann getötet wird, Maschinen zu überlassen, vielen aktiven und ehemaligen Militärangehörigen Sorgen. Autonome Waffensysteme können für ihr Handeln nicht zur Rechenschaft gezogen werden. Es bleiben große Zweifel, dass Maschinen fähig sind, zwischen Zielen, die legaler Weise beschossen werden dürfen, und jenen, die nicht als Ziel dienen dürfen, unterscheiden können, insbesondere im Kontext der asymmetrischen Kriegsführung.

Als aktive und ehemalige Soldatinnen und Soldaten, der Marine, des Heeres und der Luftwaffe, schließen wir uns der Forderung nach einem Verbot der Entwicklung und des Einsatzes von Waffensystemen an, bei denen die Entscheidung über den Einsatz von Gewalt autonom und ohne menschliche Kontrolle getroffen wird.

Helt autonoma vapen (”fully autonomous weapons”) är vapensystem som kan identifiera och avfyra attacker mot mål utan att en människa kontrollerar dem. Det rör sig inte om beväpnade drönare, vilka opererar under mänsklig kontroll, utan om maskiner som själva skulle kunna bestämma huruvida de ska döda eller inte – utan mänskligt ingripande. Beslut om att döda skulle då inte grunda sig på de färdigheter och den kunskap, fattningsförmåga, träning, erfarenhet, humanitet, moralitet, situationsmedvetenhet och förståelse för krigets lagar och humanitär rätt som kvinnor och män i uniform använder sig av i strid.En maskin skulle avgöra om målet är en kombattant, baserat på programmering som sannolikt utvecklats i ett sterilt laboratorium flera år före beslutet att döda fattas. Idén om att överlämna beslut om liv och död till en maskin brister ur moraliskt, etiskt och rättsligt perspektiv.

Än så länge har inget land använt helt autonoma vapen, men systemen är under utveckling i flera länder. Tiden är inne för att sätta stopp för deras utveckling och slutliga användning.

Vissa hävdar att helt autonoma vapen är nödvändiga och oundvikliga. Bland argumenten finns till exempel att sådana vapen skulle öka överlevnadsförmågan hos militärer. Detta skulle kunna vara fallet om fienden inte har liknande vapen. Men om autonoma vapen utvecklas och börjar användas av den ena sidan i en konflikt, är risken uppenbar för att den andra sidan följer efter.

Vi får höra att maskinerna inte har mänskliga svagheter, att de inte blir trötta eller arga och att de inte påverkas av externa faktorer så som väderförhållanden eller mörker i den utsträckning som människor gör. Vi får höra att dessa maskiner inte skulle känna någon rädsla och att de skulle vara överlägsna soldater. Maskiner har inte dessa svagheter, de är inte heller ansvariga för sina egna beslut – maskiner kan och skulle attackera med straffrihet. Vi anser att egenskaperna hos dessa vapen bör förbjudas i enlighet med rådande internationell humanitär rätt.

Teknologiska framsteg inom robotteknik bidrar redan till militär verksamhet på flera områden, så som i insatser för att upptäcka sprängladdningar samt utföra sök- och räddningsaktioner och vissa ingenjörsuppgifter. Men många såväl aktiva som pensionerade militärer uttrycker idag djup oro inför scenariot att maskiner kan ges möjlighet att fatta beslut om liv och död. Autonoma vapen är inte ansvariga för sina egna handlingar. Det finns ett utbrett tvivel kring att maskiner skulle vara kapabla att på ett tillförlitligt sätt, i enlighet med internationell humanitär rätt, skilja mellan mål som är involverade i strid respektive mål som inte är det – särskilt i koppling till asymmetrisk krigföring.

Vi ansluter oss idag till de krav som nu lyfts för att förbjuda utveckling, utplacering och användning av helt autonoma vapensystem, vilka utan mänsklig kontroll skulle fatta beslut om våldsanvändning.

全自主武器是无需人员控制即可辨识目标并开火的武器系统。这些武器不是由人类操控的武装无 人机,而是可以不经人类控制而径行决定是否击杀的机器。击杀的决定不是军人依据所具有的技 能、知识、情资、训练、经验、人性、道德、状况觉知、对于战争法以及国际人道法的了解而在 作战时所下达。机器完全根据程序设计来判断目标是否为战斗人员,而程序设计可能早在机器 做出击杀决定的多年前,已在一个无菌实验室中所完成。将生死的决定权交给机器,在道德 上、伦理上、以及法律上皆有缺失。

目前尚无国家布署全自主武器,但是已有一些国家开始进行发展。 现在正是终止发展并防止未 来布署此种武器的时刻。

有些人辩称全自主武器为必要且无可避免的配备。他们的论述中提到,这些武器可增进官兵的存 活率; 然而,在敌人没有相似的武器状况下或有此可能,但若一方拥有全自主武器,另一方也 会取得此种武器。

我们被灌输机器不具备人性的弱点,它们不会疲劳,不会生气,不会像人类一样会受天候或黑暗 影响,它们不知道恐惧所以更优于军人。 机器没有这些人性的弱点,但却不需承担自己的决 定,也不会因而被究责—它们有能力且有可能发动攻击且不用负任何责任。我们相信,这些武 器的特质必须按现行的国际人道法加以禁止。

机器人学所带来的科技进步,已经在许多方面帮助军人,如爆炸装置的侦测、搜救工作、以及一 些工程任务。但是,许多现役及退役军职人员对于指派机器来下达有关击杀的决定,包括是否击 杀、击杀对象以及何时击杀等,深感关切。 全自主武器对自己的行动无须负责。特别是在不对 称作战时,认为可以依靠机器来区分合法及不合法的交战目标,这一点目前已引起了许多关 注。

身为现役或退役的陆海空三军官兵,我们共同呼吁禁止发展、布署、及使用由机器自主决定是否 使用武力的系统。

全自主武器是無需人員控制即可辨識目標並開火的武器系統。這些武器不是由人類操控的武裝無 人機,而是可以不經人類控制而逕行決定是否擊殺的機器。擊殺的決定不是軍人依據所具有的技 能、知識、情資、訓練、經驗、人性、道德、狀況覺知、對於戰爭法以及國際人道法的了解而在 作戰時所下達。機器完全根據程式設計來判斷目標是否為戰鬥人員,而程式設計可能早在機器 做出擊殺決定的多年前,已在一個無菌實驗室中所完成。將生死的決定權交給機器,在道德 上、倫理上、以及法律上皆有缺失。

目前尚無國家佈署全自主武器,但是已有一些國家開始進行發展。 現在正是終止發展並防止未 來佈署此種武器的時刻。

有些人辯稱全自主武器為必要且無可避免的配備。他們的論述中提到,這些武器可增進官兵的存 活率; 然而,在敵人沒有相似的武器狀況下或有此可能,但若一方擁有全自主武器,另一方也 會取得此種武器。

我們被灌輸機器不具備人性的弱點,它們不會疲勞,不會生氣,不會像人類一樣會受天候或黑暗 影響,它們不知道恐懼所以更優於軍人。 機器沒有這些人性的弱點,但卻不需承擔自己的決 定,也不會因而被究責—它們有能力且有可能發動攻擊且不用負任何責任。我們相信,這些武 器的特質必須按現行的國際人道法加以禁止。

機器人學所帶來的科技進步,已經在許多方面幫助軍人,如爆炸裝置的偵測、搜救工作、以及一 些工程任務。但是,許多現役及退役軍職人員對於指派機器來下達有關擊殺的決定,包括是否擊 殺、擊殺對象以及何時擊殺等,深感關切。 。全自主武器對自己的行動無須負責。特別是在不對 稱作戰時,認為可以依靠機器來區分合法及不合法的交戰目標,這一點目前已引起了許多關 注。

身為現役或退役的陸海空三軍官兵,我們共同呼籲禁止發展、佈署、及使用由機器自主決定是否 使用武力的系統。

الأسلحة المستقلة تماما ھي منظومات الأسلحة التي یمكن أن تحدد وتطلق النار على أھداف من دون سیطرة الإنسان علیھا. وھى لیست الطائرات بدون طیار المسلحة التي للإنسان سیطرة علیھا بل ھي الآلات التي ستقرر أن تقتل أو لا تقتل دون تدخل بشري. ومن شأن ذلك أن قرار القتل لن یكون نتیجة للمھارات، والمعرفة، والذكاء، والتدریب، والخبرة، والإنسانیة، والأخلاق، والوعي، والفھم لقوانین الحرب والقانون الدولي الإنساني التي یستخدمھا الرجال والنساء الذین یرتدون الزي الرسمي عند اتخاذ مثل ھذه القرارات في المعركة. إن تحدید الألھ لما إذا كان الھدف مقاتل یستند كلیا على البرمجة التي على الأرجح وضعت في مختبر معقم سنوات قبل اتخاذ قرار القتل. وأن تكون قرارات إلغاء الحیاة والموت بید الألھ ھو أمر معیب من النواحي الأخلاقیھ والمعنویھ و

لم ترسل أي بلد أسلحة مستقلة تماما للمیدان بعد ولكنھا تحت التطویر في عدد من البلدان . والآن ھو الوقت المناسب لوقف تطویرھا ونشرھا المطلق ٠

ویتحجج البعض بأن ھذه الأسلحة ضروریة وحتمیة. ومن بینھا حجة أن من شأنھا أن تحسن فرص ا البقاء على قید الحیاة للجنود والمجنداتوربما تكون ھذه ھى الحالھ إذا لم یكن لدي العدو أسلحة ممماثلة، ولكن إذا امتلكھا طرف ما فإن الآخر یمتلكھا ٠

لقد قیل لنا أن الآلات لیس لدیھا الضعف البشري، وأنھا لا تتعب، وأنھا لا تغضب، وإنھا لا تتأثر بأحوال الطقس أو الظلام بنفس درجة البشر، وإنھا لا تعرف الخوف وھذا یجعل ھذه الآلات متفوقھ على الجنود. الألات لیس لدیھا الضعف البشري، وأیضا لیست مسؤلة أو یمكن محاسبتھا عن قراراتھا – ما في وسعھا ھو الھجوم مع الإفلات من العقاب. ونحن نعتبر أن ھذه الأسلحة یجب أن تكون محظورة وفقا للقانون الدولي الإنساني القائم ٠

ن التقدم التكنولوجي في مجال الروبوتات یساعد بالفعل الجنود في عدة مجالات مثل الكشف عن المتفجرات، والبحث والإنقاذ، وبعض المھام الھندسیة. ومع ذلك، فإن العدید ممن یرتدون الزي العسكري سواء من في الخدمة والمتقاعدین یشعرون بالقلق الشدید إزاء احتمال إسناد قرارات بشأن ماذا ومتى تقتل إلى مثل ھذه الآلات. فالأسلحة المستقلة لیست خاضعة للمساءلة عن أفعالھا. وھناك قدر كبیر من القلق، لا سیما عند النظر في الحرب غیر المتكافئة، ھل ھذة الآلات قادرة وبشكل موثوق على التمییز بین الأھداف التي یمكن التعامل معھا قانونا وتلك غیر القانونیة ٠

كجنود وبحارة وجویین وجویات، في الخدمة ومتقاعدین، نضم صوتنا إلى الدعوة إلى حظر تطویر ونشر واستخدام منظومات الأسلحة التي تتخذ قرار تطبیق القوة العنیفة بشكل مستقل

Vollständig autonome Waffen sind Systeme, die ohne menschliche Kontrolle Ziele identifizieren und bekämpfen können. Sie sind keine bewaffneten Drohnen, die von Menschen kontrolliert werden, sondern Maschinen, die ohne jeglichen menschlichen Einfluss über Leben und Tod entscheiden. Eine solche Entscheidung, ein Ziel zu töten, würde nicht beeinflusst sein von bestimmten Fähigkeiten, Wissen, Intelligenz, Ausbildung, Erfahrung, Menschlichkeit, Moral, Situationsbewusstsein oder Kenntnissen des Kriegs- und des Völkerrechts, was aber üblicherweise als Entscheidungsgrundlage von Männern und Frauen in Uniformen dient.

Eine Maschine würde ein militärisches Ziel rein auf Basis von Computerprogrammen auswählen, die unter Laborbedingungen entwickelt wurden, wahrscheinlich Jahre vor der Entscheidung über eine Tötung. Maschinen über Leben und Tod entscheiden zu lassen, ist moralisch, ethisch und gesetzlich verwerflich.

Bislang hat noch kein Land vollständig autonome Waffen in Konfliktsituationen eingesetzt, doch viele Länder arbeiten an deren Entwicklung. Daher ist jetzt der Zeitpunkt, die Entwicklung solcher Systeme zu stoppen und somit ihren tatsächlichen Einsatz zu verhindern.

Befürworter dieser Waffentypen sind der Ansicht, dass diese notwendig und unumgänglich seien. Durch autonome Waffensysteme würde die Sicherheit der Soldatinnen und Soldaten verbessert. Dies kann richtig sein, wenn die Gegenseite nicht über solche Waffen verfügt. Doch wenn eine Seite über diese verfügt, dann in der Regel auch die andere.

Wir sollen glauben, dass Maschinen nicht über menschliche Schwächen verfügen, dass sie nicht müde werden, nicht wütend, Wetter und Dunkelheit weniger Einfluss auf sie als auf den Menschen haben, und dass Maschinen keine Angst kennen, was sie den Soldatinnen und Soldaten überlegen macht. Maschinen haben diese Schwächen nicht und können auch nicht für ihre Entscheidungen verantwortlich gemacht und nicht zur Rechenschaft gezogen werden – sie könnten und würden ungestraft angreifen. Wir sind deshalb der Auffassung, dass die Eigenschaften dieser Waffensysteme nicht im Einklang mit dem Völkerrecht stehen und diese daher verboten werden müssen.

Der technische Fortschritt in Form von Robotern assistiert bereits den Soldatinnen und Soldaten in vielfältigen Einsatzfeldern, bei der Detektion von Sprengkörpern, ebenso wie bei der Suche und Rettung sowie bei anderen technischen Aufgaben. Trotzdem bereitet die Aussicht, Entscheidungen darüber, ob, was, wer und wann getötet wird, Maschinen zu überlassen, vielen aktiven und ehemaligen Militärangehörigen Sorgen. Autonome Waffensysteme können für ihr Handeln nicht zur Rechenschaft gezogen werden. Es bleiben große Zweifel, dass Maschinen fähig sind, zwischen Zielen, die legaler Weise beschossen werden dürfen, und jenen, die nicht als Ziel dienen dürfen, unterscheiden können, insbesondere im Kontext der asymmetrischen Kriegsführung.

Als aktive und ehemalige Soldatinnen und Soldaten, der Marine, des Heeres und der Luftwaffe, schließen wir uns der Forderung nach einem Verbot der Entwicklung und des Einsatzes von Waffensystemen an, bei denen die Entscheidung über den Einsatz von Gewalt autonom und ohne menschliche Kontrolle getroffen wird.

完全自律型兵器とは、人間が彼らを操作することなく、標的を認識し、攻撃ができる兵器シ ステムを指します。人間による制御が介在する武装無人偵察機とは違い、人間の介入なしに 殺すか殺さないかを決めてしまう機械のことです。完全自律型兵器による人殺しの決定は、 技術や知識、知能、訓練、経験、人間性、道徳性、状況認識、また、戦時にそうした決断を 下す軍が利用する国際的人道法や戦争法の理解の結果ではないでしょう。

機械は、標的が、あたかも無菌実験室で長年をかけて開発されたプログラミングに完全に 基づいて行動する戦闘員であるかのように、決定を下すでしょう。しかし、生死の決断を機 械に放棄することは、道徳的、倫理的、そして法的に問題があります。

完全自律兵器を配備した国はまだありませんが、多くの国で開発が進んでいます。 。開発、配 備を禁止できるのは今しかありません。

こうした兵器は必要不可欠であり、誕生は避けられないと主張する人もいます。彼らによれ ば、こうした兵器は軍人の生存性を向上させるとのことですが、 それは敵側が同様の兵器を 持っていない場合にのみあてはまることです。自分たちが持てば、敵側も持つようになる でしょう。

機械は人間の弱点を持っていません。疲れることも怒ることもなく、人間のように天気や暗 闇に影響を受けることもなく、何かを恐れることもありません。こうした特徴は、機械を兵 士より優れたものにしているという意見もあります。 機械はこうした弱点を持たないのと 同時に、決断に対する責務も責任も持っていません。つまり、罰せられることなく、攻撃す ることが可能なのです。私たちはこうした兵器の特性が、現存する国際人道法に従って禁 止されるべきであると信じています。

ロボット工学における技術進歩は、爆破装置の発見や調査、救助、また技術職務などが必要 な地域ですでに活用されており、兵士たちを支えています。しかし、兵士たちの多くは、現 役、退役後に関わらず、何を、いつ殺すか、そもそも殺すべきかどうかの決定を機械が行う ようになる可能性について、非常に憂慮しています。 自律性兵器は、行動に対する説明責任がありません。特に非対称戦争(asymmetric warfare) の場合、機械は合法的に交戦中である標的と、合法でない標的を確実に選別できる能力があ るのか、大きな懸念があります。

現役・退役後の兵士、海軍軍人、空軍兵として、私たちは暴力の行使に関する決断を自律的 に行う兵器装置の開発・配置・使用の禁止に対する呼びかけに参加します。

خود کار ہتھیار ، ہتھیاروں کے ایسے نظام کا حصہ ہیں جو انسانی کنٹرول کے بغیر اپنے ہدف کو پچھان کر نشانہ بناسکتے ہیں۔ ان سے مراد وہ مسلح ڈرونز نہیں کہ جن کا انتظام انسانوں کے ہاتھ ہے بلکہ یہ ایسی مشینیں ہیں جو کسی انسانی مداخلت کے بغیر ہلاک کرنے یا نہ کرنے کا فیصلہ کریں گی۔ ہلاک کرنے کا یہ فیصلہ کسی مہارت، علم، ذہانت، تربیت، تجر ہے اخلاقیات، حالات کی مناسبت اور بین الاقوامی انسانی اور جنگی قوانین کی سمجھ بوجھ کا نتیجہ نہیں ہو گا جیسا کہ میدان میں جنگ میں وردیوں میں ملبوس خواتین اور مرد فوری کرتے چلے آرہے ہیں۔ ایک مشین برسوں پہلے لیبارٹری میں کی گئی پروگرامنگ کی بنیاد پر فیصلہ کرے گی کہ اس کا ہدف جلو ہے اور اسے ہلاک کرتا ہے۔ زندگی کے خاتھے اور موت کے فیصلے کا اختیار کی مشین کے ہاتھ میں ہوتا اخلاقی، انسانی اور قانونی طور پر ناقص ہے۔

ابھی تک کسی بھی ملک کی جانب سے مکمل خود مختار ہتھیار تعینات نہیں کیے گئے تاہم کئی ایک ممالک میں ایسے ہتھیاروں کی تیاری کا کام جاری ہے۔ یہی وقت ہے کہ ان ہتھیاروں کی تیاری اور ان کی قطعی تعیناتی کو روکا جائے۔ کچھ لوگ یہ جواز پیش کرتے ہیں کہ یہ ہتھیار اہم اور ناگزیر ہیں۔ ایک دلیل یہ دی جاتی ہے کہ ان ہتھیاروں کی وجہ

سے جنگ میں خدمات انجام دینے والے مرد اور عورتوں کے زندہ رہنے کے مواقع بڑھ جائیں گے اور ایابی ممکن ہو سکے گا جب دشمن کے پاس اس طرح کے ہتھیار نہ ہوں، لیکن جب ایک فریق کے پاس ہوں گے تو ظاہر

ہے کہ دوسرے کے پاس بھی ہوں گے۔ ہمیں بتایا جاتا ہے کہ مشینوں میں انسانی کمزوریاں نہیں پائی جاتیں، مشینیں تھکتی نہیں، وہ ناراض نہیں ہوتیں، اور وہ لوگوں کی بہ نسبت موسم اور اندھیرے سے متاثر بھی نہیں ہوتیں، انہیں کوئی خوف لاحق نہیں ہوتا اور اسی لیے ان مشینوں کو فوجیوں پر سبقت حاصل ہے۔ مشینوں میں یہ کمزوریاں نہیں ہوتیں، اور نا ہی وہ اپنے فیصلوں کے لیے

ذمہ دار یا جواب دہ ہوتی ہیں۔ وہ کوئی پرواہ کیے بغیر بے دریغ حملہ کر سکتی ہیں۔ ہم یقین رکھتے ہیں کہ ان ہتھیاروں کی انہی خصوصیات کے بموجب موجودہ بین الا قوای انسانی حقوق کے قوانین کے تحت ان پر پابندی لگائی جائے۔ روبوٹکس میں تکنیکی ترقی پہلے سے ہی فوجیوں کی معاون ہے جیسے کہ بارودی مواد کی نشاندہی، تلاش اور بچاؤ، اور انجینئرنگ سے متعلق کئی طرح کے امور ۔ تاہم بہت سے موجودہ اور سابقہ فوجی اہلکاروں کو ان امکانات پر شدید تحفظات ہیں کہ ایک مشین کو یہ فیصلہ کرنے کا اختیار دیا جائے کہ کب، کہاں اور کسے ہلاک کرنا ہے۔ خود مختار ہتھیار اپنے کیے پر جواب دہ نہیں۔ خاص طور پر بے قاعدہ اور غیر متوازی جنگ میں یہ سمجھتا کہ مشینیں قانونی اور غیر

قانونی اہداف میں تمیز کرنے کے قائل ہوں گی انتہائی تشویشناک بات ہے۔ ہم بطور فوری، بری، فضائی اور بری خدمات سرانجام دینے والے حاضر سروس اور ریٹائرڈ مردوزن طاقت کا استعمال کر نے کا فیصلہ کر سکنے والی خود مختار مشینوں کی تیاری، تعیناتی اور استعال پر پابندی کے مطالبے کے لیے ہم آواز ہیں۔

Fullt autonome våpen er våpensystemer som kan identifisere og skyte på mål uten at et menneske kontrollerer dem. Med autonome våpen menes ikke væpnede droner som er under menneskelig kontroll, men maskiner som selv vil ta beslutningen om å drepe eller ikke – uten at mennesker er involvert. Den beslutningen om å drepe vil ikke være et resultat av den kunnskap, intelligens, opplæring, erfaring, humanitet, moral, situasjonsbevissthet og forståelse for krigens lover og internasjonal humanitær rett som menn og kvinner i uniform bruker for å treffe slike beslutninger i kamp.Kun på grunn av programvare som trolig utvikles i et sterilt laboratorium flere år før beslutningen om å drepe skal tas, vil maskinen vil avgjøre om et mål er en stridende eller ikke. Det å overlate beslutninger om liv og død til en maskin, er moralsk, etisk og juridisk uforsvarlig.

Ingen land har tatt i bruk fullt autonome våpen ennå, men de er under utvikling i flere land. Det er nå vi kan sette en stopper for at disse våpnene utvikles videre og til slutt blir brukt.

Noen mener at disse våpnene er nødvendige og uunngåelige. Det argumenteres med at de vil unngå tap av tjenestemenn- og kvinner. Det kan være tilfelle, hvis ikke også fienden vil ha de samme våpnene. Men hvis én part har dem, vil de andre følge etter.

Vi blir fortalt at disse maskinene ikke har menneskelige svakheter, at de ikke blir slitne eller sinte, at de ikke påvirkes av vær eller mørke på samme måte som mennesker, og at de ikke kjenner frykt. Derfor er disse maskinene oss soldater overlegne, hevdes det. Det stemmer at maskiner ikke har disse menneskeskelige svakhetene. Men de kan heller ikke være ansvarlige for sine beslutninger. Hvis de går til angrep på sivile, vil de gjøre det ustraffet. Vi mener at disse våpnene bør forbys, i samsvar med eksisterende internasjonal humanitær rett.

Teknologiske framskritt innen robotikk bistår allerede soldater på områder som identifisering av improviserte bomber, søk og redning og med noen ingeniøroppdag. Mange i uniform – både i tjeneste og pensjonerte – er imidlertid alvorlig bekymret for utsiktene for å overlate til maskiner det å ta beslutninger om hvorvidt, hva og når det skal drepes. Autonome våpen kan ikke stå til regnskap for sine handlinger. Vi betviler at maskiner – særlig i assymetrisk krigføring – er i stand til å skjelne på en pålitelig måte mellom lovlige mål på den ene side og mennesker, biler og bygninger som har krav på beskyttelse på den andre siden.

Som tjenestegjørende og pensjonerte soldater slutter vi oss derfor til oppropet om et forbud mot utvikling, utplassering og anvendelse av våpensystemer som kan ta autonome beslutninger om maktbruk.

– John MacBride, LCol (Retd)


Will you sign?