Vous avez aimé les « infox » ? Vous allez adorer les « Deepfake »
Vous avez aimé les « infox » ? Vous allez adorer les « Deepfake »

Vous avez aimé les « infox » ? Vous allez adorer les « Deepfake »

[ad_1]

La question de savoir si les technologies vont changer le monde est depuis longtemps dépassée. La réponse est évidemment oui. La vraie question est plutôt de savoir si nous piloterons ce changement ou si nous le subirons. En d’autres termes, si nous serons les bénéficiaires de cette révolution numérique ou si nous deviendrons ses esclaves

A cette interrogation qui n’en finit pas d’opposer thuriféraires et collapsologues du numérique, l’un des enjeux porte sur la notion de vérité. Avec la percée de l’intelligence artificielle, le « vrai » se trouve battu en brèche dans des proportions jamais atteintes par le passé. Certes, on objectera qu’il y a toujours eu des faussaires qui ont réalisé de faux tableaux, de faux billets de banque ou encore de faux bijoux, mais avec le numérique, le faux a trouvé un allié de choix, en particulier avec les Deepfake.

Faire passer le faux pour le vrai

Contraction des termes anglais « Deep Learning » pour « apprentissage profond » et « fake » pour « truqué », les Deepfake sont apparues à partir de 2017 sous forme d’applications en apparence ludiques mais qui recouvrent une réalité inquiétante : l’usage de l’intelligence artificielle pour créer une vidéo qui met en scène un personnage en train de dire ou de faire quelque chose qu’il n’a jamais dit ou fait. YouTube1 regorge d’exemples où l’on voit notamment des chefs d’État tenir des propos qu’ils n’ont jamais prononcés. D’abord exploités pour créer des contenus pornographiques à base de fausses images ou vidéos – l’application DeepNude2, aujourd’hui fermée, utilisait l’intelligence artificielle pour créer des photos de femmes nues sans leur consentement – les deepfake ont cette redoutable capacité de nuisance, comme si le passé et le présent pouvaient être réécrits à l’infini en trompant tous nos sens.

Algorithmes d’apprentissage

Pour réaliser de tels trucages vidéo plus vrais que nature, les chercheurs en intelligence artificielle ont créé des « réseaux antagonistes génératifs » (en anglais, « generative adversarial networks » aussi connus sous l’acronyme « GAN »). « Schématiquement, le principe consiste à faire interagir deux algorithmes. L’un, essaie de créer un contenu (image, son, vidéo) censé ressembler à un contenu qu’un second algorithme a appris à reconnaître. Tant que le premier ne produit pas quelque chose qui trompe le second, ce dernier refuse le contenu en question. Le premier reprenant alors son “travail” en essayant de s’améliorer. Un aller-retour se met ainsi en place entre les deux algorithmes, sans intervention humaine, et ce jusqu’à l’obtention d’un équilibre ou le second algorithme est incapable de distinguer le vrai du faux. » explique Gérard Biau3, professeur à Sorbonne Université et directeur du Centre d’intelligence artificielle de cet établissement. Un cran plus loin, et pour aboutir à ces résultats époustouflants, les chercheurs ont développé une variante qui intègre dans la transformation de la vidéo initiale non seulement les caractéristiques spatiales mais également de nombreux autres paramètres liés au contexte ; le tout permettant d’obtenir un mimétisme presque parfait tant du rythme que des mouvements d’une image à l’autre.

Scénario cauchemardesque

Nul besoin d’une imagination débridée pour imaginer les impacts de la généralisation de ces deepfake. Si, pour certaines industries -le cinéma, par exemple pour des films ayant recours aux effets spéciaux et aux animations anthropomorphiques – cette technologie parait appropriée, les deepfake peuvent devenir de redoutables armes de propagande, sortes d’infox (fake news en anglais) puissance dix dès lors qu’elle sera utilisée à des fins de manipulation politique, de diffusion de fausses informations ou de vidéos offensantes qui utilisent le visage de personnes connues ou anonymes.

Gouvernance démocratique des pays

Les autorités politiques n’ont pas attendu pour réagir. Aux Etats-Unis, le House Intelligence Committee américain4, commission du Congrès des États-Unis en charge de surveiller les activités des agences de renseignement, avait estimé que « les deepfake soulèvent de graves questions liées à la sécurité nationale et à la gouvernance démocratique, avec des individus et électeurs qui ne peuvent plus faire confiance à leurs propres yeux ou oreilles lorsqu’ils évaluent l’authenticité de ce qu’ils voient sur leurs écrans ». Le président de la commission Adam Schiff soulignant que la propagation de ces vidéos manipulées représentait un scénario « cauchemardesque » pour les élections présidentielles de 2020, et d’exhorter les principaux réseaux sociaux à mettre en place des politiques destinées à protéger leurs utilisateurs des fausses informations. Même préoccupation en France dans le rapport parlementaire relatif à la lutte contre la manipulation de l’information publié l’année dernière5 : « La fausse information peut aujourd’hui être aisément fabriquée par n’importe quelle personne, les capacités de création de fausses informations ayant été démultipliées par les possibilités offertes par les technologies actuelles pour forger des faux de plus en plus crédibles. » précise le rapport dans ses pages introductives.

Comme souvent, la sagesse Antique avait vu juste. Socrate en particulier quand il résumait les trois grandes questions à l’origine de la philosophie : « Qu’est-ce qui est vrai ? », « Qu’est-ce qui est bon ? » et « Qu’est-ce qui est bien ? ». Ces trois questionnements fondamentaux n’ayant pas pris une seule ride, voire, sont devenus des questions plus contemporaines que jamais auxquelles notre monde numérisé doit répondre.

____

NOTES

1 https://www.youtube.com/watch?v=NbedWhzx1rs

2 https://www.cosmopolitan.fr/une-application-qui-deshabille-en-un-clic-les-femmes-cree-le-scandale,2030419.asp

3 http://www.lpsm.paris/pageperso/biau/

4 https://www.c-span.org/video/?461679-1/house-intelligence-committee-hearing-deepfake-videos

5 http://www.assemblee-nationale.fr/15/pdf/rapports/r0990.pdf

___

POUR ALLER PLUS LOIN

Twitter https://twitter.com/Boyer_Ph



[ad_2]
Copyright Source link

Exprimez-vous ! Réagissez à cet article maintenant avec Facebook

A propos conakrylemag

Information à la Une en Guinée : l'actualité et l'information en direct sur conakrylemag.com. Infos politiques, internationales, économiques, ... Exprimez-vous ! Réagissez à cet article maintenant avec Facebook ou via le bloc commentaire. N'oubliez pas de partager nos articles merci ! Signalez réagissez : Vous pouvez contacter l’équipe de journalistes qui travaille à conakrylemag.com pour lui soumettre un texte, témoigner de ce qui vous est arrivé, signaler une information, relever une erreur, réagir à une actualité… Contactez-nous 620 17 89 30 en Guinee en France +33 98485752

A lire aussi

Sidya Touré et Cellou Dalein Diallo

Sidya Touré “… Est-ce que nous sommes en train de revenir au système du parti unique ? C’est une aberration”

Le 24 février, s’est ouvert à Conakry, le forum guinéen de l’investissement. Le Prési Alpha …

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.