• l’année dernière

Pour suivre toute l'actualité politique et parlementaire, abonnez-vous à notre chaîne YouTube : https://www.youtube.com/user/publicsenat?sub_confirmation=1

Notre site internet : http://www.publicsenat.fr

Abonnez-vous à notre newsletter : https://urlz.fr/iinC 

Suivez-nous sur les réseaux sociaux
Facebook : https://www.facebook.com/publicsenat
Twitter : https://twitter.com/publicsenat
Instagram : https://instagram.com/publicsenat
LinkedIn : https://www.linkedin.com/company/2996809/

Category

🗞
News
Transcription
00:00 Or, il est important de comprendre qu'entre admiration et peur,
00:05 les utilisateurs sont des consommateurs.
00:07 Ils ne comprennent pas les mécanismes derrière cette technologie.
00:11 Et les décideurs, rarement.
00:13 Donc nous sommes devant une progression exponentielle,
00:17 comme vous l'avez dit, de technologies qui sont connues,
00:21 maîtrisées par très peu.
00:24 Il y a là une menace d'équilibre.
00:28 Si demain nous sommes devant encore plus de consommation de ces objets,
00:31 nous risquons d'avoir une société qui va créer des modèles complexes,
00:36 qui sera incapable de les remettre à jour,
00:39 de les recréer, avec une perte de savoir-faire très forte.
00:44 Donc il y a là un problème d'éducation fondamentale sur ces outils.
00:48 Non seulement pour en faire des experts en technologie,
00:52 mais également pour former les citoyens à l'utilisation de ces outils.
00:59 Parce qu'en ce moment, que ce soit un enfant pour faire ses devoirs,
01:03 ou un adulte pour faire sa lettre de motivation,
01:06 ou n'importe quel de vos amis ou concitoyens,
01:10 je pense que vous avez tous entendu parler de quelqu'un qui utilise Tchad GPT.
01:14 Donc moi j'étais ravie de voir arriver Tchad GPT dans la société,
01:17 en me disant "enfin, on va considérer ce sujet, réellement".
01:22 Il quitte les laboratoires.
01:24 L'intelligence artificielle n'est plus un fait d'une petite communauté,
01:28 mais devient un fait majeur.
01:30 Il y a derrière cela un dessein de certains,
01:35 notamment des géants du numérique, qui est une prise de pouvoir.
01:39 C'est un problème géopolitique, très grave.
01:42 Dans le sens où, si je vais très vite à cette première vision globale,
01:49 comme l'a dit Raja, un système d'IA génératif, c'est deux choses.
01:54 C'est un modèle de fondation,
01:55 qu'on a calculé sur des milliards de données,
01:58 qui est sur étagère,
01:59 et c'est un système que je mets en œuvre pour faire de la traduction,
02:03 pour faire un agent conversationnel,
02:05 pour faire tout un tas de choses peut-être excellentes.
02:08 Mais il s'agit quand même de comprendre que le modèle que je prends sur étagère
02:11 a été fait par d'autres personnes,
02:13 qu'il contient un certain nombre de données que nous ne maîtrise pas,
02:17 qui ne sont pas transparentes,
02:18 qu'il y a des hyper paramètres dans ces modèles
02:20 qui ne sont pas non plus transparents,
02:22 et qui ont un impact énorme sur le résultat.
02:26 Donc cette opacité des modèles doit être un premier souhait,
02:32 on doit absolument réguler pour obliger ceux qui sont en train de faire ces systèmes,
02:39 dont Bloom, on a entendu parler.
02:40 Quel est l'intérêt de Bloom ?
02:41 C'est qu'il est justement open, ouvert, plus transparent.
02:47 On sait avec quoi il est entraîné,
02:49 combien de langues, les hyper paramètres,
02:53 et la recherche peut s'en emparer et faire des tests avec,
02:56 et l'industrie aussi.
02:58 Donc c'est un vrai sujet, les autres sont opaques.
03:01 Pour vous donner une idée de l'opacité,
03:03 il y a un facteur qui s'appelle la température,
03:06 qui est un espèce de facteur qui est lié un peu au hasard,
03:09 puisque au lieu de produire la meilleure solution,
03:12 le système va vous produire le premier mot,
03:14 dans la séquence de mots probables après le prompt que vous donnez,
03:18 il va vous produire parmi les N possibles.
03:21 Alors on ne se rend pas compte,
03:22 ça veut dire que si j'interroge deux fois de suite le même système,
03:24 il peut me répondre par deux phrases différentes.
03:28 Et là je vais dire il est intelligent, mais non.
03:31 Nous avons un paramètre qui permet d'aller chercher un deuxième possible,
03:34 qui le rend un peu humain peut-être.
03:36 Alors vous voyez, ça va très vite la projection qu'on fait sur ces systèmes.
03:41 D'autre part, fondamentalement, comment sont créés ces systèmes ?
03:45 Ils sont créés à partir d'une hypothèse linguistique qui est la suivante.
03:51 On va prendre la phrase, je prends l'aspect langagier.
03:55 On la réduit à un ensemble d'entités minimales,
03:58 qui ne sont pas des mots, ça peut être en dessous du mot,
04:01 c'est un nombre de caractères, et on appelle ça des tokens.
04:03 Et c'est ça qu'on va apprendre.
04:05 On va apprendre à modéliser des tokens qui ne sont même pas des mots,
04:10 qui peuvent être des morphèmes peut-être, mais pas sûrs.
04:13 Et on les représente sous forme de vecteurs,
04:16 le vecteur contenant des indications de plein de contextes dans lesquels j'ai vu ces mots.
04:22 L'hypothèse distributionnelle derrière tout cela,
04:25 c'est que les entités appelées tokens,
04:28 qui se trouvent dans des contextes d'apparition similaires,
04:32 tendent à avoir des sens similaires.
04:35 Ce n'est pas forcément vrai.
04:37 Donc on a vu des hallucinations.
04:39 [Musique]

Recommandations