image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Des experts en intelligence artificielle demandent l'interdiction

AOAV IGw AWS FINAL 150ppi_LR

Plus de 3,000 XNUMX chercheurs, scientifiques et professionnels en intelligence artificielle ont signé an lettre ouverte publié à Buenos Aires le 28 juillet 2015 appelant à l'interdiction des armes autonomes qui sélectionnent et engagent des cibles sans intervention humaine, gonflant ainsi les rangs du mouvement mondial en croissance rapide pour lutter contre les armes. La Campagne pour arrêter les robots tueurs se félicite de l'appel, qui est disponible sur le site de l'Institut du Futur de la Vie.

La lettre est présentée aujourd'hui (28 juillet 2015) à la Conférence internationale conjointe sur l'intelligence artificielle à Buenos Aires, Argentine.

Les signataires de la lettre comprennent plus de 14 présidents actuels et passés d'organisations d'intelligence artificielle et de robotique et d'associations professionnelles telles que l'AAAI, l'IEEE-RAS, l'IJCAI et l'ECCAI. Ils comprennent Google DeepMind directeur général Demis Hassabis et 21 des ingénieurs, développeurs et chercheurs scientifiques de son laboratoire. Une grande partie de l'attention des médias s'est concentrée sur les signataires de haut niveau de la lettre, comme Elon Musk, PDG de Tesla, Steve Wozniak, cofondateur d'Apple, Jaan Tallin, cofondateur de Skype, professeur Stephen Hawking, et le professeur Noam Chomsky.

Parmi les signataires féminins notables de la lettre ouverte figurent la professeure Higgins de sciences naturelles Barbara Grosz de l'Université de Harvard, la responsable de la conception IBM Watson Kathryn McElroy, la professeure Martha E. Pollack de l'Université du Michigan, la professeure Carme Torras de l'Institut de robotique du CSIC-UPC à Barcelone. , la professeure Francesca Rossi de l'Université de Padoue et de Harvard, la professeure Sheila McIlraith de l'Université de Toronto, la professeure Allison M. Okamura de l'Université de Stanford, la professeure Lucy Suchman de l'Université de Lancaster, la professeure Bonnie Weber de l'Université d'Édimbourg et la professeure Mary-Anne Williams de la Université de technologie de Sydney.

Plusieurs signataires de la lettre du FLI appelant à une interdiction ont adressé une Réunion du 2015 avril des gouvernements sur les « systèmes d'armes autonomes létaux », y compris Professeur Stuart Russell de l'Université de Californie à Berkeley et Professeur Heather Roff de l'Université de Denver au Colorado. Le prochain jalon du débat international sur les armes autonomes sera le 13 novembre, date à laquelle les États participant à la réunion annuelle de la Convention sur les armes classiques décider par consensus de poursuivre et d'approfondir leurs discussions sur le sujet.

Selon la lettre ouverte, « les armes autonomes ont été décrites comme la troisième révolution de la guerre, après la poudre à canon et les armes nucléaires ». Il constate que «la technologie d'intelligence artificielle (IA) a atteint un point où le déploiement de tels systèmes est - pratiquement sinon légalement - réalisable dans des années, pas des décennies. » (italiques ajoutés)

Les signataires identifient la « question clé pour l'humanité d'aujourd'hui » comme étant « de savoir s'il faut lancer une course mondiale aux armements de l'IA ou en empêcher une », car « si une grande puissance militaire poursuit le développement des armes de l'IA, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes. Les signataires « pensent qu'une course aux armements de l'IA militaire ne serait pas bénéfique pour l'humanité » et observent que l'IA « peut rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens ». Ils constatent que les armes autonomes peuvent ne pas nécessiter de « matières premières coûteuses ou difficiles à obtenir », ce qui les rend susceptibles de devenir « omniprésentes et bon marché pour que toutes les puissances militaires importantes les produisent en masse » ainsi que « apparaître sur le marché noir » et dans les mains de terroristes, de dictateurs, de chefs de guerre, etc.

En tant que chercheurs en IA, les signataires se comparent à des chimistes, des biologistes et des physiciens qui n'avaient "aucun intérêt à construire des armes chimiques ou biologiques" et ont donc soutenu les traités interdisant les armes chimiques et biologiques, ainsi que les armes nucléaires spatiales et les armes laser aveuglantes. .

Les signataires observent que "les chercheurs en IA n'ont aucun intérêt à construire des armes d'IA et ne veulent pas que d'autres ternissent leur domaine en le faisant, créant potentiellement une réaction publique majeure contre l'IA qui réduit ses futurs avantages sociétaux". Pour empêcher « une course aux armements de l'IA militaire », les signataires appellent donc à « une interdiction des armes autonomes offensives au-delà du contrôle humain significatif ».

La lettre a suscité un vif intérêt dans les médias, de la part des Tuteur à The New York Times. Max Tegmark, professeur au MIT et fondateur du Future of Life Institute, a déclaré VICE carte mère, "Ce sont les experts en IA qui construisent la technologie qui s'expriment et disent qu'ils ne veulent rien avoir à faire avec ça."

MISE À JOUR : Au 15 janvier 2016, un total de 3,037 XNUMX intelligence artificielle et robotique les chercheurs avaient signé la lettre ouverte appelant à une interdiction des armes autonomes ainsi que plus de 17,000 XNUMX autres endosseurs.

Pour plus d'informations, s'il vous plaît voir:

Photo : Participants à un institut Future of Life conférence sur le « Futur de l'intelligence artificielle” tenue à Porto Rico en janvier 2015 (c) Future of Life Institute, 2015.

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous