100% Sénat diffuse et décrypte les moments forts de l'examen des textes dans l'Hémicycle, ainsi que des auditions d'experts et de personnalités politiques entendues par les commissions du Sénat.
Année de Production :
Année de Production :
Catégorie
📺
TVTranscription
00:00 [Générique]
00:10 Bonjour, bienvenue à toutes et à tous pour un nouveau numéro de 100% Sénat.
00:14 Aujourd'hui au menu, une double audition de la commission d'enquête sur les influences étrangères.
00:19 Thomas Huchon, journaliste, réalisateur, expert de la lutte contre la désinformation et les réseaux sociaux.
00:25 Et Gérald Olubovitch, journaliste spécialiste en intelligence artificielle générative,
00:31 balaye les champs d'application et les dérives de l'intelligence artificielle,
00:35 des avancées qui pourraient bien bousculer nos systèmes démocratiquement choisis.
00:40 Par Mathilde Nuttarelli et Camille Gasnier.
00:43 – Je vais vous dire trois choses avant de vous laisser la parole à Gérald
00:49 et de vous laisser poser vos questions.
00:51 La première chose c'est que, en un temps record, l'espace informationnel,
01:02 ce qui nous permet d'accéder à la réalité, de nous forger des opinions,
01:05 mais aussi de nous socialiser, de créer des relations entre les citoyens,
01:11 ont profondément changé.
01:13 Le monde dans lequel on vit est resté similaire en plein d'aspects à ce qu'il était auparavant.
01:19 Et en même temps, il y a quelque chose qui a très profondément changé,
01:22 ce quelque chose, vous en avez tous un exemple devant vous,
01:26 ce sont ces outils numériques que nous utilisons pour accéder à la réalité.
01:30 Et dans cet immense bouleversement auquel nous avons assisté
01:35 depuis une quinzaine, une vingtaine d'années,
01:37 eh bien, il y a tout un tas de choses qui sont visibles,
01:40 et il y a tout un tas de choses qui ne le sont pas.
01:43 Et profitez d'être dans un si bel endroit pour citer un bel auteur
01:49 comme Saint-Exupéry, ce qui est essentiel, c'est ce qui est invisible à l'œil.
01:53 Et ce qui est invisible à nos yeux aujourd'hui est devenu l'essentiel
01:58 de ce qu'il se passe derrière nos écrans.
02:02 Et derrière ces écrans, qui sont nos moyens d'accéder à la réalité,
02:06 qu'elle soit politique ou non d'ailleurs, eh bien, il se passe tout un tas de choses.
02:11 Et je crois que, avant même de parler des perturbations
02:14 que génère l'intelligence artificielle,
02:17 générative de contenus dans l'univers informationnel,
02:20 et à plus large titre dans nos démocraties,
02:23 il est important de comprendre que ce qui nous pose un problème fondamental,
02:28 ce n'est pas tant cette nouvelle technologie,
02:30 mais le fait que nous n'ayons pas régulé l'espace informationnel.
02:36 L'intelligence artificielle est un outil, et cet outil, il est là.
02:40 Il ne va pas disparaître, il ne va pas repartir.
02:44 Et c'est aussi l'histoire de l'humanité que les projets,
02:48 les progrès technologiques ne reviennent pas en arrière.
02:52 Donc, on est à l'époque de l'intelligence artificielle,
02:55 qu'on le veuille ou non, et donc elle est là.
02:57 Mais ce qui nous pose un problème en tant que société, en tant que démocratie,
03:03 eh bien, ce n'est pas tant la possibilité de faire dire n'importe quoi à n'importe qui.
03:09 Et nous allons en regarder un exemple dans quelques instants.
03:12 Je ferai signe à la régie pour lancer un petit contenu.
03:17 Mais c'est le fait que nous puissions diffuser n'importe quoi.
03:21 Et donc, j'ai un peu l'impression que cette espèce de nouvelle parole
03:30 très critique face à l'intelligence artificielle,
03:33 elle est légitime à tout point de vue,
03:36 mais elle semble oublier une partie du problème.
03:40 J'ai participé il y a quelques semaines au grand procès de l'intelligence artificielle
03:44 organisé par une structure d'univers science qui s'appelle le Quai des Savoirs.
03:48 Et moi, j'étais témoin et mon témoignage portait sur l'idée qu'il manquait quelqu'un
03:53 sur le banc des accusés et qu'accuser l'intelligence artificielle générative de contenu
03:58 de tous les maux de la désinformation, des fake news,
04:00 de la circulation de tous ces mensonges aujourd'hui,
04:04 et bien c'était quand même oublier une part du problème et une part très importante du problème.
04:10 Ce qui a changé, c'est notre manière d'accéder à la réalité.
04:14 Et dans ce changement, l'intelligence artificielle devient un facteur de plus de ces dérèglements.
04:19 Mais un facteur de plus, ce n'est pas le facteur essentiel.
04:22 Le facteur essentiel, c'est qu'on a créé des univers dans lesquels,
04:25 sous couvert de nous laisser une liberté d'expression totale ou presque,
04:32 et bien en réalité, on a plutôt créé les conditions d'une dictature que d'une démocratie.
04:38 Qu'est-ce que je veux dire ?
04:40 Je veux dire qu'un univers dans lequel on peut accuser n'importe qui de n'importe quoi
04:43 sans jamais être obligé de fournir la preuve de ses accusations,
04:47 en fait, ce n'est pas un idéal démocratique, c'est un procès stalinien.
04:50 Et finalement, les réseaux sociaux auxquels nous sommes confrontés,
04:55 à la fois en tant qu'utilisateurs et aussi en tant que victimes des discours qui y sont propagés,
05:00 eh bien, ils ont créé la possibilité de l'accusation sans preuve
05:06 et ils continueront à permettre tout cela tant que nous n'aurons pas changé notre rapport de force par rapport à eux.
05:14 Et donc, il me paraît essentiel, dans un lieu aussi important pour la démocratie française que l'est cette noble Assemblée,
05:24 eh bien, de rappeler justement l'urgence démocratique à agir sur un phénomène qui perturbe nos processus électoraux,
05:34 informationnels et démocratiques depuis 15 ans, que nous n'avons pas réglé
05:38 et qui, sous les coups de boutoirs désormais nouveaux de l'intelligence artificielle,
05:45 menace plus que jamais de s'effondrer.
05:47 Ce sera peut-être l'intelligence artificielle qui donnera le dernier coup de boutoir,
05:50 qui mettra à bas nos ambitions démocratiques,
05:55 mais ce qui est certain, c'est que ce n'est pas elle qui l'aura façonnée ni construite.
05:59 Afin d'illustrer un tout petit peu mieux ce propos, je vais proposer à la régie de passer...
06:05 Alors, je ne sais pas pourquoi je tourne la tête vers là, mais peut-être qu'ils ne sont même pas par là.
06:08 Voilà, peut-être de passer... Il y a deux contenus que je vous ai fait parvenir
06:13 et il y en a un qui doit s'appeler "commission d'enquête" justement,
06:18 et qui a été préparé spécialement pour vous, afin de vous donner un exemple,
06:23 une illustration de ce qu'il est désormais possible de faire de manière très rapide.
06:28 Je précise que ce que vous allez voir là a été fait en moins de 15 minutes
06:33 et sans débourser un seul euro et que ça doit...
06:38 Bien entendu, il n'y a pas d'ambition malveillante dans mon petit projet,
06:42 mais ça doit aussi vous faire comprendre que si on a des intentions malveillantes,
06:45 eh bien elles peuvent trouver de nouveaux écrins et pas toujours pour le bien collectif.
06:51 Salut les humains !
06:53 Tu savais que Taylor Swift, Rihanna et Beyoncé soutiennent la guerre russe en Ukraine ?
06:58 Bonjour à tous !
07:05 Moi, je suis le journaliste Thomas Huchon, ou plutôt son avatar.
07:08 Et dans cette vidéo, on revient sur l'affaire Doppelganger.
07:12 C'est l'un des exemples récents les plus marquants de cette nouvelle guerre de l'information.
07:16 On appelle ça une opération d'influence étrangère.
07:19 Le fait pour un pays d'essayer de perturber un autre pays
07:22 en diffusant massivement des fausses informations, des fake news.
07:26 Monsieur, nous avons reçu un message d'action prioritaire en provenance du haut commandement.
07:30 Le spécialiste en la matière depuis plusieurs années, c'est la Russie de Vladimir Poutine.
07:34 Durant les élections américaines de 2016 et 2020,
07:37 durant le Brexit ou encore pendant les élections françaises de 2017,
07:41 de nombreuses enquêtes montrent l'influence des Russes
07:44 dans ces tentatives de déstabilisation des élections.
07:47 Et ce n'est pas terminé.
07:48 Le dernier exemple en date est particulièrement frappant
07:51 parce qu'il met en scène des personnalités qui n'ont rien à voir avec la politique
07:55 et parce qu'ils utilisent l'intelligence artificielle pour y parvenir.
07:58 Baptisé Doppelganger, cette opération a touché la France et l'Allemagne à l'automne 2023.
08:03 Le principe est simple, une photo de la star et une citation supposée qui remet en cause l'Ukraine.
08:08 Quelqu'un dira aux Ukrainiens que le crédit sans fin n'est pas une option, même si cela semble cool.
08:13 Je sais que les USA ont fait exploser le Nord Stream.
08:16 Est-ce que quelqu'un pense sérieusement le contraire ?
08:18 La liste des célébrités utilisées est longue.
08:21 Alors bien entendu, ces vedettes n'ont jamais prononcé ces paroles.
08:25 Mais ces fausses citations auraient touché 7,6 millions de personnes
08:29 sur le seul réseau Facebook, principalement en France et en Allemagne.
08:33 Ça fait beaucoup là, non ?
08:34 Pourquoi faire ça ? Pour affaiblir le soutien dans les pays occidentaux accordés à l'Ukraine
08:39 et par effet domino, de renforcer la position russe ou le soutien à la Russie.
08:44 Comment ne pas se faire avoir ? Deux conseils.
08:47 Les pages Facebook qui diffusaient ces images contenant des messages politiques
08:51 n'étaient pas des médias, ni des journalistes, mais des pages mode ou couture,
08:56 ce qui aurait pu mettre la puce à l'oreille.
08:58 Deuxième conseil, vérifiez avec une simple recherche la phrase dans Google.
09:02 Si une star de l'ampleur de Beyoncé ou Taylor Swift avait prononcé une telle phrase,
09:07 il y a de très fortes chances de la retrouver immédiatement ou presque sur Internet.
09:11 C'est toujours la même chose avec le cerveau humain.
09:14 Il a tendance à prendre pour vrai des choses qui ne le sont pas,
09:17 si elles vont dans le sens de ce que l'on croit déjà un peu.
09:20 Alors voilà, vérifiez avant de juger, ce serait déjà pas mal.
09:24 Mais surtout, on ne le répétera jamais assez.
09:26 Méfiez-vous de ce que vous avez envie de croire.
09:32 Alors voilà, vous venez de voir...
09:33 - On ne se bat pas tous et toutes, aujourd'hui.
09:34 - Allez-y, allez-y, laissez...
09:35 - On va parler intelligence artificielle.
09:38 - Ce que l'on peut faire en 2024 est hallucinant.
09:40 - On peut prendre la voix de Jean-Luc Mélenchon.
09:42 - Ou celle de Gabriel Atam.
09:43 - Voir même celle d'Angèle, pourquoi pas ?
09:45 - Autant vous dire qu'avec les élections américaines qui approchent...
09:47 - Est-ce que c'est fabuleux ? Je peux même parler en deux langues.
09:50 - Il va falloir redoubler de vigilance en 2024, sous peine d'être totalement en mode...
09:55 - Balance ta fake news.
09:56 - C'est quelque chose que nous avons fabriqué en moins de 15 minutes.
10:14 Et comment est-ce que nous avons pu mettre ces mots que M. Temal, le rapporteur, on avait...
10:19 - C'est M. Delegue.
10:20 - Pardon, c'est M. Delegue.
10:21 - C'est pas grave.
10:22 - Voilà, M. Delegue.
10:23 - C'est pas grave.
10:24 - Voilà.
10:25 - Voilà, ce qui...
10:26 Vous n'aviez jamais prononcé ces mots.
10:29 Il nous a suffi de récupérer un extrait de deux minutes environ d'un discours que vous
10:35 aviez prononcé et d'insérer, de donner à manger ce discours à une intelligence artificielle
10:42 pour pouvoir lui faire dire absolument ce que l'on veut avec plus ou moins de réussite
10:46 technique bien entendu.
10:48 Le français est une langue un peu compliquée parfois pour les intelligences artificielles
10:52 et les intelligences artificielles ont tendance à préférer la phonétique à la sémantique
10:58 pour arriver à transformer effectivement un certain nombre de choses.
11:01 Mais ça dit qu'il est donc désormais possible avec des outils numériques extrêmement faciles
11:07 d'accès de faire dire à peu près n'importe quoi à n'importe qui.
11:10 Et si...
11:11 Et je vais essayer d'écourter cette prise de parole pour laisser du temps à vos questions
11:17 et du temps à Gérald de Lubowitz de vous présenter aussi son témoignage.
11:22 Cette première vidéo que nous avons regardée, là effectivement c'est une forme de...
11:28 J'avais choisi ce sujet de l'influence étrangère.
11:30 C'est une sorte de tentative de réponse.
11:34 L'une des problématiques auxquelles on est confronté dans le cadre de ces opérations
11:39 d'influence étrangère, de diffusion de fake news dans l'espace informationnel, est double.
11:45 Il y a à la fois un enjeu de production, c'est-à-dire que fabriquer de l'information
11:48 ça coûte très cher et donc il faut des moyens pour le faire.
11:51 Et le deuxième élément c'est le temps.
11:54 C'est-à-dire que si on imaginait que lundi matin à 8h une fake news sort sur un réseau
12:00 social, le temps qu'on la repère, qu'on la déconstruise, qu'on écrive une chronique,
12:04 on sera lundi en fin de journée.
12:06 Le temps que l'on tourne une vidéo, on sera mardi midi.
12:10 Le temps que l'on monte cette vidéo, on sera mercredi soir voire jeudi matin.
12:14 Le temps qu'on finisse l'editing, on arrivera peut-être à aller dans le meilleur des cas
12:18 jeudi soir à mettre en ligne sur le réseau social un contre-discours qui ne viendra certainement
12:25 pas convaincre tous ceux qui ont adhéré à la fake news diffusée initialement mais
12:30 qui viendra au moins émettre un deuxième son de cloche pour tous ceux qui se posent
12:34 des questions et qui pourraient basculer d'un côté ou de l'autre.
12:39 Mais c'est sûr que si nous ne fournissons pas ce type de contre-discours, le côté
12:43 sur lequel les gens vont basculer sera fatalement du côté des fake news.
12:46 Et donc l'idée c'est à la fois de réduire le temps de production et donc le coût de
12:51 production aussi et d'être en capacité de produire très rapidement en utilisant
12:55 Agen qui est donc un logiciel de fabrication de deepfake, donc ces vidéos dans lesquelles
13:03 moi-même je n'ai pas tourné et du coup de taper un texte qui va être dit par l'intelligence
13:10 artificielle.
13:11 L'idée est de retourner un petit peu l'arme du crime contre le criminel, vous l'avez
13:18 compris, c'est aussi le cri du désespoir d'un journaliste qui depuis dix ans tente
13:22 de vider la mer à la petite cuillère et qui a bien du mal à y arriver.
13:26 Et donc je me suis dit qu'à deux, nous aurions au moins deux petites cuillères
13:30 et que nous pourrions peut-être être doublement efficaces sur ces sujets-là.
13:34 Mais c'est aussi l'idée qu'à force d'utiliser ces outils et à force d'essayer
13:39 de comprendre leur fonctionnement, des journalistes comme moi ou comme d'autres se mettaient
13:45 aussi dans une forme de capacité de détecter les potentiels abus un petit peu plus.
13:50 Moi j'ai été l'un des premiers journalistes à m'intéresser à l'affaire Cambridge
13:55 Analytica, donc la manipulation du Brexit, des élections américaines au travers de
14:00 données récupérées par les réseaux sociaux qu'on servit à faire des profils psychologiques
14:04 des électeurs pour les cibler avec des fake news qui correspondaient à leur peur, parfois
14:08 même inconsciente.
14:09 Et je me suis souvent dit que si on avait su en 2016 que Cambridge Analytica existait
14:17 et qu'ils étaient capables de faire cela, eh bien l'impact de leur technique de manipulation
14:20 aurait été moindre.
14:21 Le simple fait de connaître l'existence de ces technologies nous aurait permis de
14:27 nous protéger un petit peu plus.
14:28 Et donc après avoir, comme les journalistes professionnels, les grands médias, mais c'est
14:34 aussi le cas des grands partis politiques, des grandes institutions de notre pays, raté
14:39 le virage de l'internet des blogs, puis celui des sites internet, puis celui des réseaux
14:44 sociaux, puis celui des plateformes de vidéos en continu, je me suis dit qu'arrivé en 2024
14:49 ça serait prendre un risque supplémentaire important que de rater encore une fois ce
14:53 virage technologique, de ne pas s'intéresser à la technologie et que je me mettrais moi-même
15:00 dans une situation où je m'attachais les mains dans le dos et j'allais combattre avec
15:04 des mecs qui avaient des kalachnikovs ou des épées.
15:06 Et moi avec ma petite cuillère, je n'allais pas arriver à grand chose.
15:10 Donc l'idée est vraiment de se servir de cette technologie pour en faire peut-être
15:15 pas un outil bénéfique mais au moins un outil d'aide à la production et d'essayer
15:23 de comprendre comment il fonctionne afin, je l'espère, de permettre au grand public
15:28 de s'en prémunir.
15:29 Je m'arrête ici pour ce témoignage.
15:31 Merci de m'avoir écouté et je cède la parole à Gérald Dolubowicz.
15:34 Merci Monsieur le Président, bonjour Monsieur le rapporteur, bonjour Messieurs les Dames,
15:42 bonjour.
15:43 C'est un honneur de venir témoigner ici au Sénat.
15:46 Je vous rappelle, je suis Gérald Dolubowicz.
15:48 J'ai monté une newsletter qui couvre depuis maintenant un certain moment l'évolution
15:54 des médias synthétiques, ces fameux médias qu'on manipule à l'aide de l'intelligence
15:59 artificielle et donc de leurs effets dans l'espace public numérique et la sphère
16:06 informationnelle.
16:07 Je travaille sur ce phénomène depuis 2017, c'est-à-dire que grosso modo à peu près
16:12 personne n'en parlait.
16:13 Il y avait eu un article de publié sur le sujet puis après c'est monté très rapidement
16:18 et c'est une période déjà en 2018, on a alerté avec quelques autres collègues,
16:25 dont Thomas, sur les potentiels risques des deepfakes, notamment, pas que, mais notamment
16:30 sur les personnes vulnérables, la sécurité, les institutions, celles des entreprises,
16:35 les risques sociétaux et culturels et puis les défis aussi qui étaient liés à la
16:39 désinformation.
16:40 Alors ce défi d'ailleurs, il avait été mis en lumière par John Danpeel qui est un
16:45 réalisateur américain que vous connaissez certainement, qui avait fait une forme de
16:50 caricature avec Barack Obama où il utilisait le deepfake de Barack Obama pour insulter
16:56 copieusement Donald Trump et c'était déjà une forme d'alerte, de mise en perspective
17:01 de sa part pour justement alerter les pouvoirs publics et les autorités sur la question
17:07 des deepfakes qui venait à peine de décoller.
17:10 Alors j'avais prévu également de la même manière que Thomas, une petite blague pour
17:17 monsieur Temal mais je vais m'abstenir du coup de le faire mais effectivement...
17:21 Alors je peux...
17:23 D'accord, très bien.
17:25 Alors attendez, attendez, du coup je vais essayer de...
17:30 Tu veux que je te fasse dédiger ?
17:31 Non mais ça va aller.
17:32 Hop là, on va faire ça comme ça.
17:33 Je suis le sénateur Rachid Temal, je vous remercie d'être présent pour répondre à
17:40 cette commission d'enquête et je vous rappelle que je ne suis en aucun cas responsable des
17:45 mots qui sont prononcés à cet instant.
17:47 Voilà, donc c'est une petite bande sonore qui est plutôt pas mal.
17:58 Alors il y a une petite vidéo également mais en réalité c'est une photo que j'ai
18:02 animée, je vous passerai le document si vous en avez envie.
18:07 Alors elle est délibérément de moins bonne qualité que ce qu'on pourrait faire parce
18:11 que je voulais pas non plus vous choquer.
18:13 Normalement je pensais diffuser ça là-dessus mais comme le câble HDMI est pas assez long,
18:17 je ne peux pas le faire.
18:18 Mais bon, l'idée c'est que j'ai pu réaliser cette...
18:20 Comme disait Thomas, j'ai pu réaliser cette vidéo en à peu près quelques minutes à
18:25 l'aide de versions payantes des logiciels Eleven Labs et Agen.
18:29 Pour votre information, l'abonnement à Eleven Labs se monte à 11 euros par mois, celui
18:35 de Agen à 59 euros et en ce qui concerne le clonage de la voix de monsieur Temal, il
18:41 n'y a eu absolument aucune vérification d'identité qui a été demandée par la plateforme au
18:45 moment où j'ai réalisé le clonage de la voix.
18:50 Sur la partie vidéo en revanche il a fallu donner un consentement qui n'est pas passé
18:56 mais il y a des méthodes détournées pour pouvoir obtenir ce consentement et donc faire
19:00 passer la vidéo.
19:01 Bien évidemment c'est juste que j'ai pas poussé l'exercice trop loin.
19:06 Mais en gros avec l'aide de quelques outils gratuits, donc j'ai pu récupérer votre
19:11 voix, l'isoler à travers un autre logiciel d'intelligence artificielle qui a pu séparer
19:16 le fond du bruit qui entourait votre voix de votre voix et donc pour ensuite la télécharger
19:25 sur la plateforme Eleven Labs et la cloner.
19:30 Tout ça a pris à peu près 10 minutes le temps de le dire.
19:34 Tout ça pour vous dire que ces choses là vont extrêmement rapidement et pour mettre
19:41 un peu en perspective tout ça, il faut bien se rendre compte que depuis 2017 le volume
19:44 de production synthétique réalisé n'a vraiment pas cessé d'augmenter pour atteindre
19:51 aujourd'hui des niveaux réellement préoccupants.
19:53 La possibilité de réaliser à l'aide d'un logiciel très bon marché en très peu de
19:59 temps des contenus vidéo, des images ou des documents audio synthétiques hyper réalistes
20:05 et personnalisés représente aujourd'hui un changement de paradigme assez marquant
20:10 et qu'il faut absolument adresser.
20:11 Dans un premier temps les créateurs de deepfake ont particulièrement ciblé les populations
20:16 vulnérables.
20:17 Il y avait une société anglaise qui s'appelle DeepTrace qui a changé de nom depuis, qui
20:22 avait calculé en 2019 que 96% des vidéos synthétiques, donc des fameux deepfake, à
20:28 leurs produits étaient des contenus à caractère sexuel non consenti qui ciblaient des femmes
20:32 connues ou inconnues souvent au coeur de chantage domestique mais pas seulement.
20:36 Il y avait la journaliste indienne Rania Ayyub qui était victime d'un deepfake pornographique
20:44 suite à des articles rédigés contre le BJP, le fameux parti de l'actuel Premier ministre
20:50 et elle avait incarné à cette époque-là malgré elle la dérive de ces vidéos fabriquées
20:54 dans l'unique but de nuire à sa réputation, à l'humilier, à décrédibiliser son travail.
21:00 Le directeur de l'organisation Witness.org qui est basé aux Etats-Unis me disait que
21:07 de nombreuses journalistes ont été victimes en réalité de ces contenus pornographiques
21:11 pour décrédibiliser leur travail, pour les faire taire, pour empêcher leur expression.
21:17 Ces personnes ont préféré garder le silence et tenter de régler le problème derrière
21:26 évidemment dans l'anonymat pour éviter évidemment que le chantage se déploie plus grandement.
21:33 Alors depuis l'avènement des logiciels de génération d'images, les observateurs
21:37 constatent également une autre augmentation d'images à caractère inquiétant notamment
21:42 des images pédopornographiques synthétiques qui sont distribuées à travers les réseaux
21:47 parce que en réalité certains modèles disposent de ces images-là à l'intérieur de leur
21:54 contenu et ensuite les algorithmes sont entraînés avec ça.
21:58 Alors je ne vous dis pas ça parce qu'en gros on est loin de la partie informationnelle
22:05 mais néanmoins c'est pour vous montrer à quel point ces corpus de données sont investis
22:10 de données qui ne sont pas contrôlées.
22:13 Il y a un rapport de la Stanford Digital Repository qui a montré qu'il y avait énormément
22:18 de contenus de ce type-là y compris des contenus aussi à caractère on pourra dire terroriste
22:24 puisqu'il y avait des décapitations des choses comme ça.
22:26 Donc on se retrouve quand même avec des choses assez compliquées.
22:30 Évidemment ça a proliféré depuis, sur le volet économique on a des arnaques à
22:35 la voie synthétique également et là pour le coup à la fois ça peut toucher des entreprises
22:41 donc on va simuler la voie d'un patron d'entreprise donc là on est dans la sécurité au niveau
22:45 des entreprises mais ça peut être aussi des voies au niveau de gouvernement, d'institution,
22:52 d'hommes politiques.
22:53 Il y avait eu à l'époque un deepfake qui avait été envoyé à des membres du Parlement
23:00 et avec lesquels ces membres du Parlement, de la commission européenne pardon, avaient
23:05 discuté pendant près d'une heure à travers une discussion Zoom.
23:09 Tout ça pour se rendre compte après coup que c'était une manipulation.
23:13 Donc ça a été à deux occurrences précises, une c'était un sosie et l'autre c'était
23:18 une voie synthétique.
23:19 Donc vous voyez qu'on se retrouve un peu dans des situations de cet angle.
23:24 Pour vous remettre un peu dans le contexte, on a parlé de Jordan Peel en 2018 mais en
23:29 fait l'utilisation des médias synthétiques elle ne se fait pas que de façon illégale
23:34 au sens strict du terme.
23:35 En printemps 2022, le candidat Yoon Sung Yeol qui était le candidat à la présidentielle
23:46 sud-coréenne a utilisé l'intelligence artificielle pour se dédoubler et a créé un AI Yoon
23:55 comme il l'appelait pour converser avec son électorat.
23:59 Lui était plutôt conservateur, plutôt mal reçu chez les jeunes et cet AI de conversation,
24:08 on le voyait clairement, pouvait échanger avec les gens directement et interagissait
24:14 et était plus sympa que sa version réelle.
24:17 A priori ça a gagné le cœur des moins de 30 ans et après une campagne serrée, le
24:24 véritable Yoon a remporté la élection en Corée du Nord.
24:29 On se rappelle ensuite en mars 2022 la tentative de déstabilisation du régime ukrainien quelques
24:37 jours après l'invasion des troupes russes en Ukraine.
24:40 On a eu le président Vlodomir Zelensky qui est apparu sur les canaux Whatsapp et autres
24:48 sous la forme d'un deepfake pour appeler les troupes à poser les armes.
24:51 Heureusement ça a été très vite désamorcé.
24:56 Et puis aux Etats-Unis, fin avril, Joe Biden qui annonce sa campagne, son engagement à
25:05 nouveau, sa nouvelle candidature à la présidence des Etats-Unis, suscite une réaction de la
25:11 part du RNC, le Republican National Committee, qui publie également de façon très officielle
25:18 un clip de campagne qui est entièrement illustré à l'aide d'images générées par IA et
25:23 qui montre un futur américain complètement dévasté.
25:26 Donc vous voyez bien qu'on est à la fois dans l'utilisation d'infos du côté vraiment
25:34 on va dire souterrain qui essaye de déstabiliser un gouvernement victime d'une attaque ou
25:40 alors on va exploiter politiquement cette IA.
25:43 Et puis on a vu Ron DeSantis aussi qui a été victime de cette IA.
25:49 En Argentine, à l'automne dernier, les deux candidats se sont battus à armes égales
25:59 en utilisant des IA génératives.
26:01 Et là où on a eu un des premiers gros soucis en termes d'élections également, c'est
26:07 donc en novembre 2023, pour la course à la présidence slovaque, les deux candidats étaient
26:15 à couteau tiré, c'était 21-19 en faveur de Michel Simeka qui était le président du
26:21 parti progressiste slovakien.
26:22 Et donc juste à la veille du moratoire, avant le scrutin, on a vu un deepfake audio publié
26:31 où on faisait dire à ce candidat qu'il était en train d'acheter les voix pour essayer
26:42 de gagner les élections.
26:44 Il s'est avéré que le jour de l'élection il a dévissé trois points, laissant passer
26:49 naturellement son opposant de droite aux élections.
26:53 Donc on voit bien que dans des moments cruciaux comme ça, l'utilisation d'une IA assez
27:00 importante peut être déstabilisante.
27:03 On a eu aux Etats-Unis, que ce soit à New York, à Harlem ou ailleurs, notamment dans
27:10 New Hampshire avec le fameux "robocall" de Joe Biden qui a appelé les électeurs à
27:18 ne pas voter aux primaires.
27:23 On a vu quand même une forme d'armement de ces choses là.
27:29 Et puis plus récemment des supporters de Donald Trump qui ont aussi utilisé l'IA
27:34 pour recruter parmi la population noire de nouveaux supporters et pour montrer à quel
27:41 point ils avaient un soutien.
27:43 Donc on voit bien quand même que l'IA et les médias synthétiques dans l'aspect
27:49 informationnel, à la fois utilisés par des partis officiels, par des candidats, par des
27:56 acteurs malveillants, arrivent à influencer d'une manière ou d'une autre les opinions.
28:02 Il y a une récente étude suisse qui a été publiée début mars de cette année qui montre
28:07 qu'en réalité quand l'IA est bien utilisée, elle influence effectivement les populations,
28:14 le public, de façon plus importante même que le ferait un être humain.
28:19 Donc on voit bien que c'est une arme vraiment à double tranchant.
28:23 Mais j'aimerais aussi vous décaler un petit peu le point de vue parce qu'on parle beaucoup
28:27 de désinformation et en réalité la désinformation pour moi c'est aussi le mal qui surgit parce
28:34 que l'information ne va pas bien.
28:35 Et pour le coup je pense que là aussi il y a un sujet.
28:39 Dans un rapport qui a été mis à jour hier, l'organisation américaine NewsGuard publie
28:44 le résultat d'une étude qui a identifié près de 800 sites entièrement générés
28:48 par l'IA.
28:49 Alors on pourrait se dire que 800 c'est pas énorme vu la masse de sites qui existent
28:54 sur internet mais ce sont des sites d'information entre guillemets, des sites qui véhiculent
29:00 des fausses infos qui sont traduites dans à peu près 16 langues.
29:03 Donc ça va de l'arabe au français en passant par l'indonésien au turc.
29:07 Et la production de ces sites c'est une sorte de mélange entre la captation des contenus
29:13 qui existent déjà, qui sont retraduits, qui sont retravaillés puis la fabrication
29:16 en fait de nouveaux contenus, de faux contenus, de contenus qui cherchent à être désinformés.
29:24 Et ce qui est préoccupant sur ce point là c'est que le volume de publication de ces
29:30 sites est assez important, c'est de l'ordre de 1000 articles/jour, donc bien plus que
29:34 ce que pourrait faire une rédaction correcte.
29:37 Et donc voilà, on a ce problème là.
29:43 Alors ça ne serait pas un problème au sens strict du terme si c'était un site isolé
29:47 ou si c'était quelques sites isolés que personne ne consultait.
29:51 Le problème c'est que le 18 janvier dernier le site d'information technologique 404media.co
29:56 rapportait que Google News référençait de nombreux sites de ce type là, eux-mêmes
30:01 étant générant leur texte eux-mêmes à la main avec du jus de crâne.
30:05 Ils étaient un peu frustrés de ne pas apparaître dans Google News donc ils ont fait l'enquête
30:10 et ils se sont aperçus qu'en effet, en réalité, les sites complètement fabriqués
30:17 et véhiculés de la désinformation passaient devant eux et étaient référencés très
30:22 haut dans Google News.
30:23 Donc ça c'est quand même un phénomène qui est assez important et ce phénomène
30:28 associé à une déplétion du trafic qui va être attendu par l'industrie au cours
30:32 de l'année 2024 du fait de tout un tas de facteurs, des monétisations des sites d'information
30:37 sur les plateformes de médias sociaux, l'arrivée prochaine du search generative experience
30:43 qui est une forme de recherche d'informations à travers de l'IA générative.
30:49 On se rend compte que tout ça, ça met la presse et les médias dans une situation assez
30:54 impossible et que globalement, on va assister à une forme d'étranglement de la presse
31:00 et des médias qui va devoir en réalité, un peu comme dans les algues vertes qui se
31:06 déploient dans les rivières, on va devoir exister dans un océan de contenus IA fabriqués
31:15 pour désinformer.
31:16 Et là, c'est un problème d'équilibre économique et de capacité à pouvoir soutenir
31:21 le travail des journalistes.
31:22 Ou d'un côté, on a l'IA qui empêche les journaux et les médias d'avancer et
31:31 qui de l'autre favorise des contenus qui sont particulièrement nocifs.
31:35 Je vous remercie pour votre écoute.
31:37 D'abord, merci pour vos propos.
31:43 Et c'est vrai que pour avoir été à l'origine avec mes collègues de la commission d'enquête,
31:48 c'était la porte d'entrée historiquement.
31:49 C'était effectivement sur les questions de la démocratie et justement ce que devient
31:54 la démocratie dans ce monde-là, si particulier, avec deux approches.
31:59 D'abord, vous avez cité un certain nombre de pays, on le voit, qui utilisent effectivement
32:03 la désinformation, la guerre informationnelle contre des démocraties.
32:07 Mais en leur sein de ces petites démocraties, il y a aussi tout l'enjeu aujourd'hui
32:12 des big tech, de puissance technologique, à la fois les plateformes et parfois qui
32:17 vont même sur les superstructures justement, qui utilisent parfois les câbles sous-marins.
32:22 On a vu l'utilisation à l'occasion des débuts de la guerre en Ukraine de satellites
32:27 de puissance privée qui l'avaient.
32:29 Et puis maintenant, on le voit avec d'autres qui, pour envoyer des objets dans l'espace,
32:36 se nécessitent aussi de passer par une puissance privée.
32:38 Et donc c'est vrai qu'on a ce double problème et surtout qu'on voit bien que
32:43 beaucoup de ces plateformes-là, leur modèle économique fait qu'il vaut mieux avoir
32:50 de la fake news qui fait beaucoup de clics que de la réelle information.
32:53 Donc c'est vrai que quand on regarde, encore une fois, ces questions de...
32:57 Donc cette guerre informationnelle, on voit bien, je le dis, à la fois externe mais
33:02 également aussi interne par l'objet de notre démocratie.
33:06 Ça c'est ma première remarque, mais sûr pour aller sur les questions et rentrer sur
33:11 un certain nombre de questions.
33:12 Peut-être qu'il serait bien, puisque nous sommes captés, donc ça restera, que vous
33:16 présentiez en quelques mots ce qu'est l'intelligence artificielle.
33:18 Je partage le point de vue que de toute façon elle existe, donc il faudra trouver des solutions
33:23 avec ça.
33:24 Mais qu'est-ce que l'intelligence artificielle et notamment ce qui est, on va dire, de l'intelligence
33:27 artificielle d'analyse et celle générative ? Peut-être qu'il serait bien d'abord de remettre
33:31 quelques éléments de définition ou de précision sur ces termes-là si on est d'accord.
33:36 Alors apparemment je suis désigné.
33:39 Alors l'intelligence artificielle, en fait, il y a eu plusieurs évolutions technologiques.
33:45 On a eu les systèmes experts qui sont l'ancienne forme d'intelligence artificielle qui fonctionnait
33:52 sur des règles et puis on a l'intelligence connexionniste où là c'est les fameux modèles
33:57 génératifs qu'on découvre qui sont en fait basés sur du machine learning qui va en fait
34:03 apprendre d'une base de données et qui va finalement apprendre d'elle-même un certain
34:09 nombre de facteurs qui sont présents en fait dans cette base de données.
34:14 Donc si c'est du langage, elle va apprendre les règles de grammaire, à reconnaître les
34:18 espaces sémantiques et ce genre de choses.
34:20 Si c'est de l'image, elle va apprendre à reconnaître les contours, etc.
34:23 C'est ce qui fait la détection à travers la détection d'images par exemple.
34:29 Donc ça c'est une chose.
34:30 L'intelligence artificielle, originellement, on est dans la reproduction en fait des capacités
34:39 cognitives de l'humain.
34:40 C'est ça le but recherché.
34:41 On essaye de reproduire ce qu'un humain peut faire.
34:45 Donc l'objectif par exemple d'un OpenAI ou des entreprises de ce type là, c'est
34:51 typiquement d'atteindre ce qu'on appelle l'intelligence artificielle générale.
34:55 Et donc c'est un niveau d'intelligence artificielle qui est équivalent à nos capacités cognitives,
35:01 qui est capable de faire nos tâches à nous.
35:02 D'où la panique des cols blancs là en ce moment, puisque effectivement on se sentait
35:07 un peu protégé de l'automation de la société.
35:11 Pour le coup, en réalité, il n'en est rien.
35:14 On se retrouve face également aux mêmes problèmes, ce qui en fait dans des sociétés
35:18 de services pose d'énormes problèmes, puisque évidemment on a cru basculer un peu les bassins
35:25 d'emplois vers le service.
35:26 Et puis là aussi c'est remplaçable par l'intelligence artificielle.
35:30 Donc voilà, en fait on a cette dimension là.
35:33 Et sur l'IA générative, l'objectif il est tout simplement de générer du contenu,
35:38 du contenu texte, du contenu audio, du contenu vidéo, de la même manière qu'on pourrait
35:43 filmer, enregistrer ou écrire un texte.
35:47 Alors au niveau texte, on n'est pas encore là tout à fait en termes de fluidité, etc.
35:52 Même si on arrive à des critères techniques qui sont en travaillant des prompts.
35:56 Donc les prompts c'est les phrases qui permettent de donner des instructions à la machine.
36:01 Donc c'est écrit en langage parfaitement compréhensible en français de France, ou
36:10 en anglais d'Angleterre.
36:11 Mais en l'occurrence, ça se comprend tout à fait bien.
36:14 Il y a une petite mécanique à faire, mais globalement ça passe.
36:18 Sur le son, on a amélioré extrêmement fortement la qualité des rendus qui étaient fournis.
36:28 OpenAI a annoncé il y a encore trois jours qu'ils travaillaient sur une solution pour
36:35 rendre indiscernables les voix synthétiques des voix humaines.
36:39 Donc on voit qu'il y a une forme d'accélération également là.
36:43 Et puis on a eu la vidéo récemment qui est arrivée avec plusieurs choses.
36:47 Alors l'Agent que Thomas a utilisé, qui vous a montré là, a montré une démonstration
36:55 où on peut faire exactement ce qu'il fait là, mais en marchant, dans une séquence
37:00 marché, en déplacement.
37:02 Donc là on ancre les gens dans la réalité parce qu'il y a des formes de perception
37:09 qu'on ne maîtrise pas.
37:11 Et puis il y a du photoréalisme.
37:13 Et là c'est Sora avec OpenAI qui fabrique de l'image vidéo assez époustouflante en
37:22 vrai, qui va probablement renverser le monde du stock et de l'image vidéo.
37:27 Juste une observation comme ça.
37:32 Je pense qu'on a malgré tout un problème sémantique parce que le terme d'intelligence
37:38 artificielle c'est une mauvaise traduction d'un terme anglais.
37:40 C'est du traitement de données.
37:45 C'est du traitement de données.
37:46 Qui est artificialisé, industrialisé comme on veut.
37:49 Mais dans l'opinion publique, quand on parle d'intelligence artificielle, ça fout la
37:53 trouille parce que beaucoup de gens pensent que cette intelligence va se substituer à
37:58 notre propre intelligence.
37:59 Mais ce qui est rentré dans la bécane, au départ, c'est de la donnée maîtrisée
38:03 par l'homme.
38:04 Bon, je ne veux pas rentrer dans ce débat là, mais je pense qu'on a une difficulté
38:08 avec la langue française qui emploie ce terme et qui ne décrit pas exactement ce que vous
38:14 venez de décrire.
38:15 En fait, effectivement, vous avez raison, il y a cette exception là.
38:21 Mais quand Alan Turing pense l'intelligence artificielle, il la pense bien sur le terme
38:24 de l'intelligence.
38:25 Puisque dans le thèse de Turing, il s'agit de tromper son adversaire et même au-delà
38:30 de ça, de se faire passer pour quelqu'un.
38:32 Et donc l'intelligence artificielle doit trouver les mécaniques intelligentes, au
38:36 sens français du terme.
38:39 Mais disons que c'était aussi pour faire parler du secteur à l'époque et de faire
38:45 monter dans le champ universitaire.
38:47 Je voudrais me permettre peut-être de vous raconter un petit peu comment tout ça a été
38:53 créé.
38:54 Et ça va répondre, Monsieur le Président, à cette interrogation sémantique que vous
38:59 posez.
39:00 L'un des personnages qui a eu le plus d'influence sur nos vies contemporaines est quelqu'un
39:05 que nous connaissons très mal.
39:07 C'est un Américain, il s'appelle Robert Mercer.
39:09 C'est aujourd'hui un milliardaire extrêmement influent dans la politique américaine.
39:14 Revenons au tout début des années 60.
39:17 Robert Mercer est un brillant ingénieur informatique.
39:19 Il travaille chez IBM.
39:21 Et chez IBM, on va lui poser le challenge de créer un logiciel informatique qui permettrait
39:29 de traduire du langage, qui est la base de ces intelligences artificielles que nous connaissons
39:35 aujourd'hui.
39:36 On va lui demander, tiens voilà, Robert, fabrique-nous un logiciel pour traduire.
39:41 On met à ta disposition les meilleurs linguistes, les spécialistes de la grammaire, de l'orthographe,
39:48 des traducteurs.
39:49 On paye.
39:50 Prends qui tu veux, utilise qui tu veux.
39:53 On met tout à ta disposition afin que tu puisses fabriquer ce logiciel.
39:57 Et Robert Mercer, elle les regarde et elle leur dit "ouais, c'est super, mais j'ai pas
40:03 besoin de tous ces gens-là.
40:04 Vous allez me fournir la totalité des textes écrits depuis dix ans par le Parlement canadien.
40:10 Pourquoi ? Et bien parce que les textes écrits par le Parlement canadien sont écrits en
40:14 français et en anglais, qu'ils sont extrêmement nomenclaturés et normés.
40:18 Et il dit voilà, je vais prendre ces textes, je vais les mettre dans ma machine et ma machine
40:23 va être capable de comprendre et de traduire.
40:25 Et au bout d'un certain temps, la machine va apprendre de ses erreurs et elle va être
40:29 capable de traduire du langage.
40:31 Ce jour-là, Robert Mercer a inventé la science qui est cachée derrière un outil que vous
40:36 utilisez tous les jours qui s'appelle Google Traduction et qui est la capacité à traduire
40:42 du langage qui est la base juste de ces intelligences artificielles.
40:46 A la fin des années 1980, Robert Mercer qui a continué sa carrière à IBM comme un brillant
40:51 ingénieur informatique, mais qui reste un ingénieur informatique, va être sollicité
40:55 par un fonds d'investissement new-yorkais qui s'appelle Renaissance Technologies et
40:59 qui va lui dire "dis donc, c'était pas mal ton truc sur le langage.
41:06 Est-ce que tu essaierais pas de faire un programme un peu similaire sur les cours de la bourse
41:12 ? Ah ouais, à ta disposition, nous mettons des économistes, des spécialistes des marchés,
41:18 les plus grands chercheurs, on paye, vas-y, utilise tous ces gens-là.
41:21 Non, ça sert à rien, j'en ai pas besoin.
41:24 Il récupère la totalité des chiffres de la bourse de New York des trois années précédentes
41:30 et il les met dans sa machine et petit à petit, la machine est capable non seulement
41:35 de comprendre ce qui se passe, mais de prévoir les futures transactions.
41:38 Ce jour-là, Robert Mercer a inventé ce qu'on appelle le algorithmic trading, le boursicotage
41:49 algorithmique qui représente plus de 90% des échanges monétaires sur notre planète
41:53 aujourd'hui.
41:54 En faisant cela, il va lui-même être un employé de ce fonds d'investissement et
41:58 il va devenir milliardaire.
41:59 Il va devenir milliardaire parce que le fonds d'investissement pour lequel il travaille
42:05 arrive à générer des taux de rentabilité de 80% par an, ce qui est absolument unique.
42:11 Aucun de ses concurrents n'arrive à faire ce type de chiffre-là.
42:14 Et Robert Mercer, comment est-ce que nous, journalistes ou simples citoyens, avons pu
42:21 en entendre parler ? Parce que Robert Mercer, au début des années 2010, il a décidé
42:25 de s'intéresser à la politique de son pays en finançant des think tanks comme c'est
42:30 possible aux Etats-Unis, climato-sceptiques, islamophobes, contre l'avortement, enfin
42:37 tout un tas de thématiques propres à ses idéologies.
42:39 Mais surtout, c'est celui qui va financer la création d'une entreprise dont je vous
42:44 ai parlé tout à l'heure qui s'appelle Cambridge Analytica.
42:46 Il finance aussi un site qui s'appelle Braveheart News qui est le principal site de désinformation
42:53 utilisé par le courant Trump pour créer de la désinformation durant les élections
42:58 de 2016.
42:59 Et Robert Mercer, après avoir inventé la machine à traduire du langage, après avoir
43:05 inventé la machine à gagner de l'argent, il a inventé la machine à gagner les élections.
43:09 Et je crois que dans cette tentative de définir ce que sont ces programmes informatiques qui
43:17 ne sont pas de l'intelligence, et je vous rejoins totalement Monsieur le Président,
43:21 je crois qu'il faut plutôt parler de malignité et d'une tentative de substituer à une partie
43:31 des êtres humains et de leur capacité cognitive des machines qui vont essayer de reprendre
43:38 un petit peu le contrôle de tous ces univers.
43:41 Et tout cela est bien entendu possible parce que l'avènement des nouvelles technologies
43:48 d'information et notre changement de paradigme sur lequel je suis en accord total avec ce
43:54 que disait Gérald de Loubeurit, créent les conditions d'un monde dans lequel ces "intelligences"
44:05 deviennent une forme de malignité dans la société.
44:09 Et donc je crois que bien entendu il ne faut pas perdre de vue le fait que ce sont des
44:15 outils et que ces outils sont fabriqués par des humains et que ces humains mettent dans
44:20 ces outils une partie des biais qui les caractérisent et que c'est aussi là-dessus que la puissance
44:27 publique doit à minima nous aider à y voir plus clair et donc à exiger de la transparence
44:33 sur la manière dont ces machines, ces boîtes noires sont fabriquées.
44:37 Et en même temps, peut-être une fois que nous aurons vu ce qu'il y a dedans, mais
44:43 nous vous le présenterons déjà un peu, et bien à organiser et à réguler ce Far
44:50 West dans lequel nous sommes tous plongés et j'espère du fond de mon cœur que nous
44:58 aurons quelqu'un qui ressemblera plus à Lucky Luke qu'à Rantemplan pour s'attaquer
45:03 à ce Far West.
45:04 Pour poursuivre, merci pour ces premières réponses.
45:07 Alors, comme notre commission d'enquête, alors là vous avez effectivement nous présenté
45:12 par la preuve ce que peut faire l'IA, donc via vos deux vidéos, on a échangé là sur
45:21 ce qu'est la tête artificielle avec vos précisions.
45:23 Notre commission d'enquête porte sur les politiques publiques justement pour la mettre
45:28 en place.
45:29 Alors nous on est sur l'ingérence étrangère mais de fait, on va dire c'est un des éléments,
45:34 c'est un des biais.
45:35 Si on essaie de prendre par segments, parce que sinon c'est très vaste, vous avez cité
45:41 tout à l'heure le Grand Péjant de l'Analytica avec toute la partie on va dire électorale,
45:47 donc les processus électoraux.
45:48 Est-ce que sur ces questions-là, vous auriez des propositions, des préconisations à proposer
45:55 donc à notre commission d'enquête ?
45:57 Vous pourriez répondre là.
46:02 Les deux, les deux.
46:03 Oui, bien entendu, mais vous savez.
46:05 Si vous ne dites pas la même chose, ce n'est pas grave.
46:07 Non, c'est un peu comme les Dupont et Dupont, on a un numéro de cirque tous les deux.
46:11 Quand il y en a un qui coupe les oignons, il y a l'autre qui pleure.
46:13 C'est ça.
46:15 Alors, je crois qu'il y a trois niveaux sur lesquels on peut jouer sur ces problématiques-là.
46:23 Déjà, il y a une prise de conscience de la société, c'est-à-dire que, encore une
46:30 fois, on l'a dit, avoir conscience qu'il existe de potentielles manipulations, c'est
46:35 déjà un premier pas pour se protéger.
46:38 Et dans ce sens-là, au-delà de la communication publique qui doit faire état de ces potentiels
46:46 dangers, comme on pourrait parler des dangers d'une substance illicite ou de comportements
46:52 routiers inappropriés, il faut une communication publique qui présente à nos concitoyens
47:00 l'effet de ce qu'est ce nouvel espace numérique.
47:05 Et tout cela doit nous amener à une position claire sur l'éducation, notamment l'éducation
47:13 aux médias et à l'information et au décryptage de l'information, qui doit devenir aujourd'hui
47:21 quelque chose de l'ordre du savoir fondamental enseigné à l'école dès le plus jeune
47:25 âge.
47:26 Donc il y a une première question qui est une question de communication publique et
47:31 de faire connaître tout cela, et qui a une partie plus immergée de cet iceberg qui serait
47:38 de mener un travail de temps long pour augmenter la résilience de la société en formant
47:45 les plus jeunes, et qui vont grandir avant de devenir des citoyens, justement à l'éducation
47:51 aux médias et à la capacité à utiliser leur esprit critique et à déceler ces potentielles
47:57 manipulations.
47:58 Il y a un deuxième aspect sur lequel on peut jouer qui va être de faire en sorte
48:06 qu'il y ait des règles dans un espace qui n'en a pas.
48:10 Toutes ces manipulations de l'information, étrangères ou pas, sont possibles parce
48:15 qu'on a un espace dans lequel l'information peut circuler sans contrainte.
48:21 Cela peut nous faire rêver par instant d'imaginer une telle liberté, et en même temps la loi
48:29 française pose des limites à la liberté d'expression.
48:34 Et la principale limite qui est posée par la loi française et qui n'est que trop
48:39 rarement respectée sur ces plateformes, c'est la responsabilité du propos qui est
48:42 tenu.
48:43 On doit pouvoir vous identifier, c'est la loi de 1881, mais vous la connaissez mieux
48:48 que moi, et on doit être en capacité de vous tenir comptable des propos que vous avez
48:54 eus.
48:55 Et donc, ça nous amène à nous interroger et à souhaiter que cet univers ne soit pas
49:05 censuré mais régulé, c'est-à-dire qu'il soit possible d'agir quand il y a des abus.
49:11 Ça ne veut pas dire qu'il faut préempter de potentiels abus, c'est-à-dire que quand
49:15 il y a des abus, il faudrait pouvoir agir.
49:16 Et enfin, il y a un troisième élément qui est là, à la fois de l'ordre de l'économie
49:27 de l'attention et de la transparence nécessaire à l'observation de ces univers.
49:35 Le problème que nous posent les plateformes sociales qui distribuent aujourd'hui tous
49:39 ces contenus qui sont les armes visibles de ces influences de désinformation, encore
49:48 une fois, qu'elles soient étrangères ou non, eh bien, ce sont des espaces dans lesquels
49:55 l'information ne circule pas équitablement.
49:56 Les grands médias professionnels ont d'immenses défauts, mais ils ont un avantage, c'est
50:04 qu'ils sont responsables de ce qu'ils diffusent et surtout que leur objectif est avant tout
50:08 de vous fournir la meilleure information possible de leur point de vue, de leur ligne éditoriale,
50:13 bien entendu.
50:14 Et on n'aura pas la même information en fonction du journal qu'on achète, mais il y a une
50:17 ambition de fournir la meilleure information possible.
50:19 Ces plateformes n'ont pas du tout cette ambition.
50:22 Elles n'ont qu'une ambition, c'est de capter votre attention parce que plus vous restez
50:26 connectés, plus elles vont récupérer des informations sur vous et donc profiler vos
50:33 récits, vos articles pour vous vendre de la publicité et donc gagner de l'argent.
50:37 Et dit comme ça, bon, ça fait un petit peu penser à la phrase horrible de Patrick Lelay.
50:44 À la fin des années 90, tout le monde avait hurlé quand il avait dit "voilà, mon travail
50:50 à TF1, c'est de vendre du temps de cerveau disponible à Coca-Cola".
50:54 Ça nous avait semblé odieux, moi-même à l'époque, jeune homme, je n'avais pas aimé
50:58 beaucoup cette phrase.
50:59 Et je vais vous faire une confidence.
51:00 Eh bien, il me manque, Patrick Lelay, aujourd'hui.
51:03 Parce que, eh bien oui, je vous le dis, parce qu'il avait déjà le mérite de nous le
51:08 dire et pour nous vendre du Coca-Cola et capter nos cerveaux, il ne disposait que de ce que
51:14 nous lui disions.
51:15 Monsieur Zuckerberg de Facebook sait aussi ce que nous lui disons pas.
51:19 Et c'est bien là qu'est tout le problème.
51:22 Le vrai problème que nous posent ces plateformes, ce n'est pas tant qu'elles diffusent de
51:26 la désinformation, c'est que leur modèle économique, qui repose sur la captation de
51:31 notre attention, donne une prime presque systématique au contenu qui capte le mieux notre attention.
51:37 Et quels sont les contenus qui captent le mieux notre attention ? Eh bien, ce sont ceux
51:40 qui contiennent le plus d'appels à la colère, qui contiennent le plus d'émotions, qui
51:45 vont jouer le plus sur nos indignations, qui vont, en tout cas… Et quels sont ces contenus ?
51:51 Ce sont les fake news.
51:52 Et donc, en réalité, c'est plutôt une espèce de conséquence terrible de ces modèles
51:58 économiques que nous voyons nous revenir comme un boomerang terrible dans ces situations,
52:06 qu'une volonté profonde de ces plateformes de dire "nous allons fabriquer de la désinfo
52:10 et la diffuser".
52:11 Non, pas du tout.
52:12 Elles cherchent… Et c'est d'ailleurs…
52:14 [inaudible]
52:15 Hum ?
52:16 [inaudible]
52:17 Eh bien, justement, je crois qu'il faut arrêter de considérer que ces plateformes
52:24 sont des tuyaux.
52:25 Il faut faire rentrer ces plateformes dans la loi de 1881 sur la liberté de la presse.
52:31 Ce ne sont pas des hébergeurs, mais des éditeurs.
52:34 Ce sont des éditeurs.
52:35 Et en fait, c'est assez simple de répondre à cette question.
52:37 Non, mais en fait, j'ai quelque chose d'assez simple.
52:40 C'est que, un, est-ce que…
52:41 L'idée, justement, c'est que si dans la commission d'enquête, c'est ça notre
52:45 objectif, c'est que ce qu'on entend, pardon, c'est que ça se dépropose.
52:49 Donc, moi, je partage votre proposition.
52:50 Mais voilà, que vous l'exprimez très clairement.
52:51 Eh bien, je vous donne en trois points très clairement.
52:54 Il faut répondre à trois questions pour savoir si ces plateformes doivent rentrer
52:57 sous la loi de 1881.
52:59 La première, c'est est-ce que ces plateformes diffusent de l'information ?
53:05 Oui, on est tous d'accord qu'elles diffusent de l'information.
53:09 Deux, est-ce qu'elles hiérarchisent et éditorialisent ces informations ?
53:12 C'est-à-dire qu'est-ce que ce que vous voyez, monsieur le rapporteur, est la même
53:14 chose que ce que vous voyez, monsieur le président, que ce que voit Gérald ou ce que je vois
53:18 moi ? Non.
53:19 Donc, ces plateformes qui diffusent de l'information, premier point, hiérarchisent et éditorialisent
53:26 in fine ces informations.
53:29 Et troisième point, est-ce qu'elles font de l'argent, est-ce qu'elles gagnent de
53:32 l'argent en faisant ces deux premières opérations ?
53:34 Eh bien, oui.
53:36 Et donc, je crois qu'il est très difficile de considérer que quelqu'un qui diffuse
53:40 de l'information, hiérarchise et éditorialise de l'information et gagne de l'argent
53:44 en le faisant n'est pas un média mais est un simple tuyau.
53:46 Je crois qu'il y a une forme de contradiction inacceptable que nous avons acceptée.
53:50 Et nous sommes aujourd'hui dans un état de fait très désagréable en réalité, où
53:55 nous sommes un peu pris au piège de nos incompréhensions technologiques depuis 15 ans, de notre passivité
54:03 sur tous ces sujets-là.
54:05 Et écoutez, je suis ravi de pouvoir porter jusqu'ici cette parole-là.
54:10 Et je vais vous préciser quelque chose avant de laisser la parole à monsieur Lebovitz.
54:15 Ce que je vous dis ici aujourd'hui n'est pas tant le fait de ma conviction ou d'une
54:21 forme d'idéologie que je porterais.
54:24 Moi, je suis un journaliste d'investigation.
54:26 Moi, je travaille sur des dossiers et ce sont les conclusions de ces travaux et de ces enquêtes
54:32 qui m'amènent à tenir ces propos.
54:33 Je ne suis pas un idéologue, je ne suis pas un homme politique, ça c'est quelqu'un
54:37 d'autre dans ma famille qui faisait tout cela.
54:39 Moi, je viens vous amener l'expérience de 10 ans d'investigation sur ces sujets-là
54:45 et notamment sur les réseaux sociaux, afin d'essayer de porter cette parole-là et de
54:53 porter un tout petit peu aussi la parole de tous ces lanceurs d'alerte qui ont quitté
54:56 ces très grandes entreprises et qui disent la même chose, mais qui ne sont malheureusement
55:00 pas suffisamment entendus.
55:01 Je sais que vous aviez reçu Frances O'Gane au Sénat, la lanceuse d'alerte de Facebook
55:07 quand elle était venue s'exprimer.
55:08 J'ai fait partie des rares journalistes à avoir pu passer un moment avec elle à ce
55:11 moment-là.
55:12 Et je pense que ce type de témoignage gagnerait à être largement multiplié parce que nous
55:18 avons besoin de soulever le capot et de regarder comment le moteur fonctionne.
55:22 Je vous remercie.
55:23 Je partage énormément de points avec Thomas Huchon sur les différents parties qu'il
55:36 a évoquées.
55:37 En quatre points, déjà en premier lieu, l'éducation aux médias, il l'a dit, c'est
55:44 important.
55:45 Je pense qu'il y a probablement une forme de plan décennal à mettre en place progressivement
55:51 puisque vu le volume d'horaires qui sont consacrés à tout un tas d'enseignements
56:00 dans l'école, au collège et au lycée, difficile de trouver de la place.
56:04 Il va falloir imaginer sur le temps long une intégration fine de l'éducation aux
56:11 médias et que ce soit plus simplement l'œuvre d'intervenants extérieurs comme nous par
56:18 exemple qui intervenions ponctuellement dans les classes, mais qu'il y ait réellement
56:22 une forme de structuration pédagogique autour de l'information, c'est-à-dire à la fois
56:28 autour de l'objet information, qu'est-ce que ça représente en termes de démocratie,
56:33 etc.
56:34 Je ne sais plus comment ça s'appelle maintenant, mais les EMC.
56:38 En fait, cette intégration-là, à mon avis, elle est louable, mais pas simplement, c'est-à-dire
56:47 que même dans l'approche technologique du numérique, parce qu'en l'occurrence,
56:52 je vois plutôt une éducation aux médias et au numérique de façon large qui pourrait
56:59 être appliquée, c'est vraiment aller par exemple en mathématiques, en physique, aller
57:04 comprendre ce que c'est que les règles basiques de l'algorithme, qu'est-ce que ça fait,
57:11 comment ça fonctionne, mais concrètement dans un ordinateur avec des exemples concrets.
57:16 Ça, je pense que ça aiderait beaucoup, parce qu'on a fait une erreur fondamentale depuis
57:19 les années 80, on a tous écouté les récits marketing de Steve Jobs qui nous expliquaient
57:26 qu'en réalité l'ordinateur allait nous libérer de tout ça, et on a pris ça comme
57:31 une forme de console de jeux vidéo avec un truc rigolo à faire dedans, et puis de temps
57:36 en temps, on écrivait des documents.
57:39 Or, la complexité de ces outils, de ces machines, est redoutable, et pour ceux qui, comme nous,
57:46 dans cette pièce, se sont nés avec des ordinateurs archaïques où on mettait des cassettes ou
57:50 des disquettes, il y avait des disquettes en carton, il y avait des disquettes en plastique
57:55 après, puis il y avait des cassettes également.
57:57 Bon voilà, en fait, ça nous a paru comme une infusion, le savoir nous est passé à
58:04 travers un peu, et puis on a compris un certain nombre de choses.
58:09 Aujourd'hui, les jeunes, les moins de 25 ans, ne sont pas des découreurs de technologie
58:16 comme on a pu l'être, en fait ce sont des consommateurs d'interface.
58:19 Et ces consommations d'interface, c'est donc l'iPhone, les téléphones Google, on
58:27 va aller sur Twitter, on va aller sur Facebook, on va effectivement interagir avec un certain
58:32 nombre de choses qui sont designées pour en fait accaparer l'attention, on l'a dit,
58:37 l'économie de l'attention, mais c'est ce qu'on appelle la captologie, c'est enseigné
58:41 au MIT, et donc du coup c'est fait pour augmenter le temps de présence sur les écrans.
58:46 C'est tout pour cette double audition de la commission d'enquête sur les influences
58:50 étrangères.
58:51 Pour aller plus loin, je vous propose de retrouver un article de mon collègue Romain
58:55 David sur notre site internet www.publicsena.fr.
58:59 Merci pour votre fidélité à Public Sénat et très bonne suite des programmes sur les
59:03 chaînes parlementaires.
59:04 [Musique]
59:14 Sous-titres réalisés para la communauté d'Amara.org