image de héros de menu

Déshumanisation numérique

Comment nous avons créé un humain virtuel

(et a demandé à l'IA de s'interviewer sur l'IA, l'autonomie et la déshumanisation numérique)

Un article de Stu Mason – Directeur créatif du Masonry Cartel pour Stop Killer Robots

 

Giles Zamboski - un avatar numérique et le visage de notre entretien avec AI sur la déshumanisation numérique

"NOUS DEVRIONS AVOIR UN MOIS OÙ TOUT EST FABRIQUÉ ET PRÉSENTÉ PAR AI ?!?" ai-je proclamé avec enthousiasme. "Montrez à quel point certaines de ces technologies peuvent être déshumanisantes, de première main!"

Et le silence s'installe...

C'était une première réunion sur la campagne de déshumanisation numérique de SKR, et une fois de plus, j'étais surexcité par l'une de ces idées qui venaient d'apparaître dans ma bouche, apparemment sorties de nulle part.

En toute honnêteté, cela semblait ridicule. Avoir accès à une IA, puis la faire créer un contenu engageant, précis et, surtout, factuel - c'était le genre de pensée qui était dans des décennies.

Mais… 

et ce n'était qu'un petit mais à ce stade… il y avait quelque chose à ce sujet. Et il s'est logé quelque part dans les recoins de mon cerveau.

 


 

Le temps passait et plus nous commencions à planifier du contenu, plus je voyais et apprenais sur OpenAI. Le monde de l'art était en colère contre "Art" généré par l'IA et mes amis créatifs étaient de plus en plus inquiet pour son avenir. Il n'y avait pas une question posée en ligne qui n'ait pas été répondue par quelqu'un qui avait copié et collé une réponse de Chat GPT.

OpenAI, ChatGPT, les générateurs d'images AI et le mouvement #NoAI

Et donc, parallèlement à toutes nos recherches et planifications sur la déshumanisation numérique, j'ai commencé à bricoler…

J'étais curieux de connaître le contenu présenté par Chat GPT, d'où il vient et comment il est modifié/traduit via OpenAI.

Vous voyez, le truc avec les informations sur la campagne Stop Killer Robots, c'est que c'est Très spécifique. Langue a à utiliser de manière spécifique, les informations présentées comme telles qu'elles abordent les nuances et les spécificités du sujet. Il peut sembler y avoir peu de différence entre les « armes autonomes » et 'pleinement armes autonomes » par exemple, mais l'ajout de « pleinement » est potentiellement une invitation ouverte pour les législateurs à passer à travers un certain nombre d'atrocités au nom de la progression et de la défense. Cela provoque également des arguments sans fin dans la section des commentaires de YouTube ! Cette langue est importante. Beaucoup.

Je travaille avec la campagne depuis début 2021 et j'ai écrit ma juste part de contenu sur le sujet - après un certain temps, vous commencez à remarquer des tendances. La syntaxe, la structure et la cadence donnent toutes des indices non seulement sur qui a écrit le contenu, mais aussi sur quand.

Et c'est cette spécificité qui m'a amené à réaliser que le contenu délivré par Chat GPT n'est pas généré par l'IA. C'est l'IA modifié.

Et c'est une GRANDE différence.

Ce n'est pas l'IA qui présente ses propres pensées, idées et concepts. C'est l'IA qui présente nos les idées, les pensées et les concepts humains nous reviennent (mais avec suffisamment de changements pour éviter les litiges directs ou les réclamations pour violation du droit d'auteur). Ce n'est pas de la vraie IA, intelligente et consciente, c'est du marketing. Apprentissage automatique marqué comme IA.

Et j'ai remarqué que poser des questions Chat GPT sur les armes autonomes et la campagne Stop Killer Robots entraînerait la relecture de notre propre contenu - avec suffisamment de modifications pour qu'il ne s'agisse pas d'une reproduction directe, mais suffisamment proche pour que ceux qui créent ce contenu le reconnaîtrait. Maintenant, pour nous, ce n'est pas une mauvaise chose - plus notre contenu est diffusé dans le monde, et plus il y a de gens qui sont conscients de ces problèmes, mieux c'est. (Il convient de noter cependant que si nous étions des écrivains et que nous vivions grâce à notre métier, ce serait une tout autre affaire - et une perspective assez terrifiante).

Si alors ce contenu généré par l'IA est basé sur le nôtre, nous savons que c'est raisonnablement précis. La raison pour laquelle l'exactitude du contenu est importante est qu'en tant que principale autorité sur les armes autonomes, tout ce que nous partageons doit être exact. Il doit résister à l'investigation et il doit être aussi accessible que possible.

Ce que cela signifiait dans ce cas cependant, c'était que l'idée apparemment stupide de faire générer du contenu par l'IA pourrait en fait être possible. Sous surveillance. Il y avait déjà eu trop d'instances d'automatisation et de chat GPT qui tournaient mal pour le lâcher sur notre contenu en solo.

Parallèlement, nos recherches sur la déshumanisation numérique m'ont amené à examiner les manières dont les humains peuvent être affectés par l'IA et l'autonomie - en particulier lorsque la technologie supprime ou remplace l'implication ou la responsabilité humaine grâce à l'utilisation de l'autonomie. Nous ne sommes pas alarmistes – c'est vraiment ce qui se passe.

Avant longtemps, j'ai découvert Synthesia - une plate-forme de création vidéo AI. Des milliers d'entreprises l'utilisent pour créer des vidéos de formation, automatiquement dans 120 langues, ce qui leur permet d'économiser jusqu'à 80 % de leur temps et de leur budget, selon le marketing de Synthesia. Ces économies viennent en supprimant le besoin d'êtres humains. Leur page d'accueil contient même un tableau utile illustrant les aspects négatifs associés à la création vidéo de manière "traditionnelle", avec de nombreuses croix rouges à côté pour démontrer les aspects négatifs de l'implication humaine. Déshumanisation numérique motivée par la demande d'augmentation de la marge bénéficiaire.

Création vidéo Synthesia AI
La pensée m'est alors venue - et si je pouvais utiliser des technologies accessibles telles que Chat GPT pour générer des questions à poser à une IA sur l'autonomie et la déshumanisation numérique. Ensuite, demandez-lui de répondre lui-même à ces questions. Je pourrais ensuite envoyer la sortie texte résultante dans le panneau de configuration de Synthesia, et réorienter sa fonction de conversion de texte en vidéo, faire en sorte qu'un analogue numérique d'un humain réponde apparemment à la caméra - pour montrer directement les effets déshumanisants de ces technologies - pour interviewer l'IA, sur L'IA, en utilisant l'IA.

Au fond, ce n'était pas difficile ; poser les questions, copier et coller les réponses dans Synthesia, faire générer le contenu… mais ce n'est vraiment pas si simple en réalité. Ce n'est pas une vraie IA. C'est une extension de la technologie que nous avons vue avant. C'est super impressionnant et crée un impact. C'est même, à première vue, vraiment assez dérangeant quand vous vous retrouvez à regarder le baril de ce qui semble être votre propre obsolescence. Mais c'est défectueux. Ce n'est pas aussi simple que le prétend le marketing et donc pour faire un analogue humain réaliste et crédible, j'ai dû passer des jours à éditer la transcription Chat GPT pour tromper le moteur de Synthesia afin qu'il puisse prononcer correctement la langue utilisée. La déshumanisation numérique, par exemple, sera maintenant et pour toujours orthographiée "dee-hew-man_ice-ation" dans ma tête. Je ne peux pas vous dire combien de variantes j'ai dû essayer pour le rendre précis – et même alors, dans le résultat final, il y a encore des cadeaux quant à ces efforts. 

Quant à l'attribution d'un nom à notre avatar numérique/humain virtuel/acteur synthétique, Chat GPT a dû être soumis à une série de questions avant d'obtenir une réponse utilisable. Avec la récente mise à jour, cela vous permettra d'attribuer un nom "à des fins de conversation", mais à l'époque, j'ai fini par devoir faire en sorte qu'il fasse à la fois un prénom et un nom de famille à partir d'un amalgame des inventeurs d'Open AI (intéressant depuis la mise à jour, Chat CPT est maintenant très catégorique sur le fait qu'Elon Musk ne joue aucun rôle dans Open AI - il vous en dit autant - même si vous ne l'avez pas demandé. Intéressant !). Le nom Giles Zamboski n'a pas été suggéré depuis la mise à jour, même lorsque j'ai demandé plusieurs fois la même invite.


La façon dont Giles apparaît est également très délibérée. Nous voulions éviter de suggérer de déduire une race ou un sexe en dehors du mien (il y a eu beaucoup de "visage noir virtuel" dans les médias ces derniers temps que je vous encourage vraiment à lire) mais en même temps, être évocateur d'un jeune innovateur 'frère technique'. Un grand nombre des "acteurs virtuels" disponibles sur Sythesia, lorsqu'ils sont associés aux voix suggérées, sont bien évidemment générés par ordinateur. Pour illustrer ce que nous faisions valoir et en créant "Giles" pour qu'il apparaisse aussi humain que possible, nos options étaient limitées. 

Il ne faudra pas longtemps avant que nous commencions à voir des outils qui vous permettent de saisir des invites de contenu et la sortie est un contenu vidéo à part entière à un niveau très réaliste - contenu vidéo YouTube à la demande. Adapté à vos besoins et basé sur les deux décennies de contenu avec lesquelles nous alimentons Internet. Notre contenu. Contenu humain. Pas les IA. Mais pour le moment, vous devez y travailler et manipuler le système pour obtenir le résultat dont vous avez besoin. Tout est TRÈS avancé, et c'est accessible, mais dans les mots immortels de Public Enemy ; "Ne croyez pas le battage médiatique". 

Ces technologies ont la capacité d'améliorer vraiment les choses pour l'humanité et les innovations qui en résulteront seront sans aucun doute incroyables, mais lorsque leur utilisation est motivée par la finance, le commerce, l'industrie et l'armée, cela sera TOUJOURS une considération secondaire.

Et pour ce que ça vaut, c'est vraiment le point fondamental de mes propres préoccupations concernant les armes autonomes - monter la barre et vous augmentez le potentiel de problèmes - si la technologie de pointe est TOUJOURS si sujette aux erreurs que nous devons modifier notre comportement pour pouvoir travailler efficacement avec, alors comment et surtout, pourquoi constatons-nous une telle tendance croissante à l'armer ? ! ? Vers la possibilité pour la technologie de décider qui vit et qui meurt. Dans mon esprit, c'est le marketing qui s'est détraqué, à une échelle industrielle (militaire) et franchement, personne dans le marketing ne devrait jamais avoir ce genre de pouvoir. JAMAIS.

 

Texte alternatif de l'image
Icône de points SKR

Arrêtez les robots tueurs

Rejoignez-nous

Tenez-vous au courant des derniers développements du mouvement Stop Killer Robots.

Rejoignez-nous