image de héros de menu
AOAV IGw AWS FINAL 150ppi_LR

Appel de recherche en intelligence artificielle

AOAV IGw AWS FINAL 150ppi_LR

D'éminents scientifiques et chercheurs de l'industrie et du milieu universitaire ont signé un lettre ouverte appelant à ce que la recherche sur l'intelligence artificielle (IA) et les machines intelligentes se concentre sur le développement de systèmes « robustes et bénéfiques » pour l'humanité. La lettre renvoie à un document décrivant les « orientations de recherche qui peuvent aider à maximiser les avantages sociétaux de l'IA » qui comprend une liste de questions juridiques, éthiques et autres relatives aux « systèmes d'armes létaux autonomes », également connus sous le nom d'armes entièrement autonomes ou de robots tueurs.

Le 15 janvier, l'un des lettreprincipaux signataires Tesla Motors et SpaceX fondateur Elon Musk annoncé un don de 10 millions de dollars US pour des subventions de recherche visant à mettre en œuvre l'appel de la lettre ouverte, qu'il a affirmé Valérie Plante. il a signé parce que "la sécurité de l'IA est importante" et il veut "soutenir la recherche visant à garder l'IA bénéfique pour l'humanité".

Le don sera administré par le Institut de l'avenir de la vie, une organisation à but non lucratif gérée par des bénévoles qui s'efforce « d'atténuer les risques existentiels pour l'humanité ». Les lettre ouverte a été publié après que l'Institut a convoqué une conférence sur le « Futur de l'intelligence artificielle” à Porto Rico du 2 au 4 janvier 2015, en présence de Musk et de dizaines d'autres signataires à la lettre comme le co-fondateur de Skype Jaan Tallinn.

Expert technique Dr Heather Roff de l'Université de Denver, qui est membre du Comité international pour le contrôle des armes robotiques, qui est co-fondateur de la Campagne pour arrêter les robots tueurs, a été invité à assister à la conférence de Porto Rico pour donner un présentation sur les armes autonomes. La Campagne pour arrêter les robots tueurs se félicite de l'appel exprimé dans la lettre ouverte pour une recherche en IA bénéfique pour l'humanité et apprécie l'inclusion des préoccupations relatives aux armes autonomes comme priorité de recherche interdisciplinaire.

Comme Rebecca Merrett l'a rapporté-dans l'une des rares critiques sérieuses à ce jour par les médias–les « priorités de recherche » de 12 pages document attaché à lettre ouverte pose des questions juridiques et éthiques sur l'évolution rapide de l'intelligence et de l'autonomie des machines. Il examine la responsabilité et la loi pour les armes et véhicules autonomes, l'éthique des machines et les implications des systèmes d'IA en matière de confidentialité. Le document a été rédigé par plusieurs co-auteurs, dont le professeur Stuart Russell de l'Université de Californie (Berkeley), co-auteur du manuel standard d'IA "Artificial Intelligence: a Modern Approach" et co-fondateur du Institut de l'avenir de la vie, professeur Max Tegmark du MIT.

Dans les « priorités de recherche » document section sur la « Recherche en informatique pour une IA robuste » (page 3), les auteurs notent que « à mesure que les systèmes autonomes deviennent de plus en plus répandus dans la société, il devient de plus en plus important qu'ils se comportent de manière robuste comme prévu » et déclarent que le développement d'armes autonomes et d'autres systèmes ont « par conséquent suscité un intérêt pour les systèmes à haute assurance où de solides garanties de robustesse peuvent être apportées ».

Le document décrit quatre façons dont « un système d'IA peut ne pas fonctionner comme souhaité et correspondent à différents domaines de recherche sur la robustesse », à savoir la vérification, la validité, la sécurité et le contrôle. La question clé posée sous le contrôle est « comment permettre un contrôle humain significatif sur un système d'IA après qu'il a commencé à fonctionner ? » ou « OK, j'ai mal construit le système, puis-je le réparer ? »

Dans une section développant le « contrôle » (page 5), les auteurs notent que « pour certains types de systèmes d'IA critiques pour la sécurité - en particulier les véhicules et les plates-formes d'armes - il peut être souhaitable de conserver une certaine forme de contrôle humain significatif, que cela signifie un humain dans la boucle, sur la boucle, ou un autre protocole. Les document observe également qu'«un travail technique sera nécessaire pour garantir le maintien d'un contrôle humain significatif». Le document demande « comment définir le 'contrôle humain significatif' sur les armes ? et « comment peut-on encourager au mieux la transparence et le discours public sur ces questions ?

L'Institut du Futur de la Vie a A déclaré que le concours ouvert de subventions pour le projet de recherche sur la sécurité de l'IA sera administré par le biais d'une candidature en ligne qui sera disponible sur son site Web la semaine prochaine à l'adresse : http://futureoflife.org. Selon l'Institut, "n'importe qui peut envoyer une proposition de subvention, et les meilleures idées gagneront, qu'elles viennent du monde universitaire, de l'industrie ou d'ailleurs". Il prévoit d'attribuer la majorité des subventions aux chercheurs en IA et le reste à la recherche liée à l'IA impliquant d'autres domaines, notamment l'économie, le droit, l'éthique et la politique. Le don sera également utilisé pour organiser des réunions et mener des programmes de sensibilisation visant à rassembler des chercheurs universitaires en IA, des développeurs en IA de l'industrie et d'autres acteurs clés.

Le 29 janvier, campagne contre les robots tueurs porte-parole Stephen Oie de Human Rights Watch débat Le professeur Ron Arkin de Georgia Tech sur les armes autonomes lors de la conférence annuelle de l'Association for the Advancement of Artificial Intelligence à Austin, Texas. Le débat sera modéré par le président de l'AAAI, Thomas G. Dietterich, de l'Oregon State University.

Depuis le 18 janvier, le lettre ouverte a été signé par plus de 4,000 XNUMX personnes.

Pour plus d'informations, voir:

Image : (c) Institut du futur de la vie œuvres d'art, Janvier 2015

Marie

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous