Quand le « face swap » devient dangereux

C'est drôle de s'échanger de face avec Michel Louvain, ce l'est moins quand quelqu'un le fait avec une actrice prono

En 2016, quand le face swap a fait son apparition sur Snapchat, il est devenu un hit instantané. Soudainement, échanger de visage avec son BFF était devenu excessivement simple : un petit selfie avec les deux protagonistes après avoir activé le nouveau filtre de l’application et hop, le tour était joué! Finies les 6 heures passées à gosser sur Photoshop. ALLÉLUIA!

Quelques mois plus tard, il était même possible pour les utilisateurs de l’app de changer de visage dans une vidéo en direct à partir d’une image sauvegardée dans la bibliothèque de leur téléphone. Vous aviez toujours rêvé d’incarner l’ex-animateur devenu député de la CAQ François Paradis (said no one ever)? Eh bien, votre (mon) rêve était maintenant devenu réalité.

Ce que vous ne saviez peut-être pas, c’est que la technologie du face swapping a des applications plus lugubres et malveillantes que celle vous permettant d’avoir le sein de votre amie comme visage. Et je vous avertis tout de suite, c’est terrifiant.

Fake celebrity porn, niveau expert

Depuis les débuts de la porno en ligne, du temps où le modem 56k rushait à charger une simple photo érotique en un seul trait, les montages louches intégrant les visages de célébrités, phénomène mieux connu sous le nom de fake celebrity porn, ont toujours été populaires. Jusqu’à tout récemment, ce type de pornographie n’était disponible qu’en images fixes. Ça, c’était avant qu’une nouvelle technologie fasse son apparition au cours de la dernière année.

En effet, en décembre dernier, un article paru sur Motherboard traitait d’une nouvelle mode chez les amateurs/trices de porno, soit celle de juxtaposer les visages de personnalités telles Scarlett Johansson et Gal Gadot (l’interprète de Wonder Woman) à ceux des pornstars jouant dans des scènes érotiques, et ainsi de créer des sextapes montés de toute pièce. Ces vidéos ont été trafiquées par un utilisateur Reddit du nom de Deepfakes, qui mentionne avoir réussi cet exploit (de marde) grâce à un algorithme qu’il a lui-même développé à l’aide d’outils de base. Ce type de fausses vidéos est d’ailleurs maintenant connues sous le nom «deepfakes».

Pour vulgariser de façon très brève, cette technologie pige dans des bases de données web grand public telles que Google Images et YouTube pour former un genre de masque virtuel de la personne visée avant de l’apposer au visage de l’acteur/actrice porno. Un peu comme dans Face/Off avec Nicolas Cage et John Travolta, mais en plus réaliste.

Ce qui est d’autant plus alarmant, c’est que n’importe qui avec une certaine aisance en informatique, un ordinateur le moindrement performant et plusieurs photos de vous, internaute présent(e) sur Facebook, Instagram ou toute autre plateforme, peut vous mettre en vedette dans une vidéo compromettante. Évidemment, ce genre de montage pouvait être fait dans le passé, mais le travail était colossal et devait être réalisé par des pros en la matière, ce qui n’est désormais plus le cas. Pour le moment, cette technologie faceswapiale (oui, je viens de l’inventer) n’est pas assez développée pour tromper l’œil d’un expert, mais ce n’est qu’une question de temps avant qu’elle ne le devienne.

Oui, c’est l’heure de paniquer.

« Pas très éthique, tout ça. »

Le moins qu’on puisse dire, c’est que ce genre de manipulations, faites sans le consentement des célébrités dont le visage a été utilisé ni celui des pornstars d’ailleurs, est excessivement douteux au niveau éthique pour ne pas dire « carrément immoral », comme l’a souligné Alex Champadard, un chercheur spécialisé en intelligence artificielle. Entre ça et mettre en ligne des photos ou vidéos privées d’une vedette qui ont été volées de son téléphone intelligent, j’avoue hésiter à savoir lequel est le plus wrong.

La semaine dernière, étant donné la nouvelle popularité des vidéos pornos utilisant le face-swapping, le site web montréalais spécialisé en pornographie Pornhub ainsi que les plateformes sociales Reddit et Twitter annonçaient qu’il était dorénavant interdit pour leurs utilisateurs de consommer des deepfakes, stipulant justement la notion de consentement.

BRAVO!

Évidemment, certaines plateformes hébergeant du contenu sexuel plus dark n’emboiteront pas le pas, mais c’est tout de même ça de gagné.

Face swap et guerre nucléaire

La technologie du face swapping n’est pas seulement dangereuse quand il est question d’images pornographiques, elle l’est tout autant dans le monde politique.

Imaginez deux secondes que Donald Trump reçoive un tweet de la part d’un compte prétendument lié à son éternel rival Kim Jong-un et que ce dernier, dans une vidéo des plus crédibles réalisée avec un logiciel de modification de la voix, déclare avoir donné l’ordre de lancer des missiles nucléaires vers les États-Unis. Comment croyez-vous que le président américain réagira? Bon, je lui laisse le bénéfice du doute : il prendra certainement le temps de vérifier l’authenticité de la déclaration à l’aide de spécialistes en la matière.

Mais si c’était l’inverse? Est-ce que le dictateur nord-coréen agirait avec autant de maturité que Trump (« Trump » et « maturité » dans la même phrase, oui oui!) avant de répondre par la bouche de ses canons nucléaires? J’en doute. Le face swap à l’origine d’une guerre nucléaire? Bon, je paranoïe, me direz-vous, mais un récent article paru sur The Outline spécifiait qu’en 2016, le ministre de la Défense du Pakistan avait répondu à une fausse nouvelle stipulant qu’Israël avait menacé son pays sur Twitter. Une fake news avec une vidéo d’un dirigeant cloné virtuellement ne serait donc que plus crédible pour appuyer des propos du genre.

Oui, encore une fois, c’est l’heure de paniquer.

Alors, inoffensif, le face swap? Je pense qu’on peut officiellement dire que non. Vous penserez à ça la prochaine fois que vous changerez de visage avec votre best.

Du même auteur

Vous n'allez pas rester là sans rien dire ?
Faites-vous entendre...

mode_comment Afficher les commentaires keyboard_arrow_down keyboard_arrow_up

Dans la même catégorie

Les modérateurs Facebook vivent l’horreur au travail

De façon quotidienne, ils sont témoins de gestes ignobles filmés et diffusés sur la plateforme sociale.

Dans le même esprit