image de héros de menu

Histoires réelles

Liz

Je suis Liz O'Sullivan, activiste de l'IA et nouvelle PDG de Parity du Dr Rumman Chowdhury. J'ai travaillé du côté commercial de l'industrie de l'IA pendant toute ma carrière de plus de 10 ans dans la technologie, dont deux ans à gérer l'acquisition de données et les opérations dans une entreprise de vision par ordinateur ayant des liens militaires. J'ai quitté mon travail à cause du projet controversé Maven après avoir réalisé son potentiel à être inclus en tant que système de ciblage dans les systèmes d'armes autonomes létaux. C'est à ce moment-là que j'ai commencé à utiliser Stop Killer Robots, et je n'ai pas regardé en arrière depuis !

Texte alternatif de l'image

Publicité ciblée, approbations de prêts bancaires, police prédictive… autonomie dans les armes, l'automatisation fait de plus en plus partie de nos vies. Quels types de déshumanisation numérique vous inquiètent le plus et pourquoi ?

L'un des principaux avantages de ce récent « coup de fouet technologique » et de cette critique de l'industrie est qu'il a ouvert une porte à de nombreuses personnes qui ne réalisent peut-être pas à quel point les modèles jouent un rôle dans la gouvernance de leur vie. Même l'automatisation non basée sur l'apprentissage automatique, comme un pointage de crédit, a le potentiel de discriminer involontairement les gens. Mais lorsque l'apprentissage automatique est impliqué, ce potentiel devient une quasi-garantie. En particulier, je m'inquiète pour les prêts, l'embauche et les soins de santé. Mais les préoccupations les plus pressantes tournent autour des applications en justice pénale. Toute utilisation d'une technologie qui est par sa nature même « conservatrice », en ce qu'elle préserve les conditions du passé dans le futur, est susceptible de répéter notre passé discriminatoire. L'utilisation policière et militaire de ce type de technologie est actuellement très peu réglementée, laissant les départements et les syndicats de police décider de ce qui est juste pour le public, souvent à notre insu ou sans notre consentement.

Parlez-nous d'un moment où vous avez vu ou subi une discrimination, un risque ou une oppression résultant de l'utilisation d'une technologie, d'un programme ou d'un algorithme.

Je n'oublierai jamais quand, lors d'une startup de vision par ordinateur, on m'a demandé de créer un ensemble de données de modération qui deviendrait un modèle de détection de matériel pornographique. Il s'agit d'une application courante de l'IA pour les grandes plates-formes qui souhaitent automatiser un certain degré de contenu utilisateur. Nous avons envoyé un grand ensemble de données en Inde pour étiquetage et lorsqu'il est revenu, tous les couples homosexuels – bien que entièrement vêtus – ont été considérés comme « explicites » en raison de l'illégalité du mode de vie LGBTQ+ dans cette région à l'époque. Si nous avions formé ce modèle et l'avions mis en production, soudainement, toutes les images sûres qui exprimaient des couples homosexuels aimants auraient été automatiquement rejetées par la plateforme. Ce n'est qu'un petit exemple des nombreuses façons dont les biais discriminatoires peuvent apparaître dans les ensembles de données, et nous en avons vu tellement !

Croyez-vous que les individus peuvent faire une différence?

Si les dernières années nous ont montré quelque chose, c'est que les individus PEUVENT faire la différence, et vous n'avez pas à risquer votre carrière pour le faire.

Pour moi personnellement, j'ai raconté mon histoire parce que j'ai réalisé que les "robots tueurs" n'étaient pas un futur problème de science-fiction mais un problème qui existe dans la réalité aujourd'hui.

Depuis mon arrivée, j'ai rencontré tellement d'organisations et de personnes incroyables qui ont consacré leur vie à se battre pour préserver la dignité humaine sur le champ de bataille. Ils n'ont pas besoin que vous dénonciez votre entreprise ou que vous preniez des risques personnels, ils ont juste besoin de vous pour soutenir leur travail !

Quand avez-vous entendu parler pour la première fois des robots tueurs et qu'en avez-vous pensé ?

Je suis un fanatique de science-fiction depuis que ma mère et moi avons dévoré Star Trek : TNG tout au long de mon enfance, donc la notion de robots qui tuent n'était pas nouvelle pour moi. J'ai longtemps admiré les principes d'Asimov, principalement l'idée que les robots ne devraient jamais être programmés pour tuer des humains. Cela a toujours semblé être un détail de conception si simple et conséquent qui a le potentiel de sauver des vies et notre planète. « Ne donnez pas d'armes aux robots »… c'est logique !

Jusqu'en 2018, je pensais que le problème était si loin que nous pouvions pousser la boîte un peu plus loin et continuer à ne pas nous inquiéter du potentiel d'une apocalypse de machine de science-fiction. J'avais tort! Mes recherches au cours des deux dernières années ont montré de manière concluante que ces armes existent déjà et que les nations avancent dans une course mondiale aux armements vers le bas, construisant des systèmes d'armes autonomes sans aucun accord international pour les gouverner en place. J'espère vraiment que les nations pourront travailler ensemble pour créer des limites strictes à l'autonomie au combat.

Les années 2020 ont été un peu difficiles jusqu'à présent. Qu'est-ce qui te donne de l'espoir ?

En particulier, le mouvement en faveur de la protection de la vie privée et contre l'automatisation a pris énormément d'ampleur au cours des dernières années. On commence même à voir de l'espoir sous forme de contentieux antitrust, chose très rare aux Etats-Unis ! Les gens derrière ce mouvement sont tellement inspirants, ils me donnent vie. J'ai la chance d'avoir rencontré les membres de Stop Killer Robots et les gens qui travaillent en première ligne aux Nations Unies et au-delà. Ils basculent !!!

Pourquoi faites-vous partie du mouvement Stop Killer Robots ?

Je fais partie de ce mouvement parce que j'ai personnellement vu toutes les façons dont la vision par ordinateur peut échouer. La vision par ordinateur est un élément essentiel de la pile technologique des robots tueurs, et voir des modèles de pointe échouer de manière folle, sauvage et imprévisible a eu un impact sur ma décision de me manifester. Ce n'est pas simplement que ces modèles échouent, c'est COMMENT ils échouent qui est le problème.

Lorsque vous ajoutez des éléments imprévisibles à l'équation du modèle, ils ne savent pas comment les gérer. Les modèles et les robots ne sont pas intelligents, ils sont cassants et ne fonctionnent que de la manière dont ils ont été formés pour travailler dans des conditions de laboratoire. Mais les "conditions de laboratoire" diffèrent de manière fiable des scénarios de champ de bataille, qui ne peuvent jamais vraiment être prédits avec précision sans une boule de cristal.

Des choses comme la résolution de l'image, les conditions d'éclairage, l'angle de capture et les attaques adverses invisibles me font craindre un avenir où les dictateurs et les autoritaires (ou même les grandes puissances) peuvent acheter, créer et déployer ces armes à moindre coût, même s'ils ne le font pas. bien travailler.

Il n'est pas trop tard pour empêcher nos gouvernements de donner vie à cette dystopie de science-fiction !

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez