Chaque citoyen doit devenir un soldat malgré lui. Nous sommes tous potentiellement aujourd'hui une cible et donc il va falloir qu'on ait de nouveaux réflexes cognitifs. Ravie de vous retrouver pour une nouvelle Leçon de géopolitique.
Aujourd'hui, le B. A. -BA de l'intelligence artificielle et ses répercussions sur notre vie politique et géopolitique.
La guerre de l'information, les élections, la guerre des idées et des modèles culturels. De tout cela, on en parle avec vous Asma Mhalla. Bonjour, bienvenue !
Bonjour Émilie Aubry, merci beaucoup ! Merci à vous d'être en ligne avec nous. Vous êtes spécialiste des enjeux politiques de la tech et vous publiez ces jours-ci cet ouvrage "Technopolitique : comment la technologie fait de nous des soldats" aux éditions du Seuil.
Alors je vous propose comme toujours, dix questions clés. Première question, basique, chronologiquement, on a eu Internet au début du XXIᵉ siècle, puis les réseaux sociaux en gros dans la décennie suivante et aujourd'hui l'intelligence artificielle. En quelques mots, dites-nous c'est quoi et ça change quoi?
Ce sont en fait des super systèmes. En gros, si je fais de façon très schématique, on prend beaucoup de données, ça peut être tous vos usages sur Internet, ça peut être les données militaires, les communications, les télécommunications, ça peut être des données industrielles, et qu'on va injecter dans les modèles d'entraînement pour les entraîner de façon massive pour en sortir des outputs, c'est-à-dire en fait de l'information. En résumé, est-ce que l'on peut dire que c'est nourrir une machine à grand coup de data et que cette profusion de data va donner à la machine les moyens de produire un raisonnement qui ressemble à un raisonnement humain ?
C'est assez spécifique à ce qu'on va appeler les intelligences artificielles génératives, par exemple Chat GPT ou Gemini de Google. En fait, c'est l'idée qu'on va avoir des systèmes algorithmiques qui en fait vont vous aider selon des consignes et que vous allez mettre dans votre petite application. Vous allez dire ce que vous avez envie de chercher.
Peu importe. Et en fait, elle va vous générer du contenu. Ça peut être du texte, ça peut être du code, de l'image et ça peut être bienveillant ou malveillant.
Merci pour cet effort de définition préliminaire. Deuxième question à présent, avec vous, on a envie de comprendre qui sont les grands acteurs de l'intelligence artificielle, les grands industriels? On va évidemment retrouver les géants technologiques, ce qu'on appelle les big tech.
Et aujourd'hui, la grande, La grande bataille se joue entre Sam Altman, qui est le patron de Open AI et qui est cette startup qui a mis sur le marché Chat GPT, le fameux qui a relancé, disons, la troisième grande vague d'intelligence artificielle de ces 20 dernières années et qui est lui même financé par Microsoft. Et en face, on va avoir par exemple un Elon Musk. Ce qui se joue entre ces grands acteurs technologiques, c'est aussi une bataille culturelle parce que la technologie, l'intelligence artificielle, par les systèmes algorithmiques, les algorithmes dont on parlait tout à l'heure, véhiculent des valeurs, véhiculent une vision du monde.
Précisément, quelles sont ces différences de valeurs entre un Elon Musk et le système de valeur Meta par exemple? Aujourd'hui, la vraie bataille culturelle qui est en train de se jouer, c'est plutôt entre Open Ai/Microsoft et Elon Musk, avec évidemment les modèles de Meta, LlaMA, et les modèles de Google, Gemini, dans l'écosystème. Avec cette bataille des géants technologiques autour de l'outil qui va, si vous voulez, préempter nos usages.
Mais ce qui est fondamental à avoir en tête et qui est très peu connu, c'est la bataille culturelle qui est en train de se jouer autour des intelligences artificielles parce que vous avez une partie de l'élite technologique américaine, de la Silicon Valley, dont Peter Thiel, de Palantir et de Paypal, dont Elon Musk, qui sont en train en fait de pencher vers l'Alt-right, la droite radicale, la droite extrême américaine avec ce programme, c'est-à-dire qu'on va utiliser nos outils technologiques pour véhiculer une espèce de "Make America great again" par la technologie. Pour qu'on comprenne bien, précisément, expliquez-nous. Donnez nous peut-être un ou des exemples.
Comment des algorithmes peuvent aider l'extrême droite à gagner sa bataille des idées sur ces réseaux sociaux d'Elon Musk? C'est très simple. Si on prend par exemple Twitter, c'est un espace qui est en fait un espace public où se joue, où se fixe une partie de l'agenda international.
Où communique aujourd'hui, dans un premier réflexe, tous les gouvernants ? Sur Twitter, Emmanuel Macron, Joe Biden : Tous. Donc c'est un espace d'influence, mais l'algorithmie derrière, ou les intelligences artificielles qui sont derrière, vont vous aider à survisibiliser certains contenus par la viralité ou invisibiliser d'autres par de la surmodération.
Et la grande difficulté qu'on a, c'est d'essayer de trouver la bonne gouvernance de ces outils-là. Dans le cas de Elon Musk, et j'en terminerai là, c'est assez intéressant de voir un peu l'agenda politique qu'il y a derrière. Son sujet avec X/Twitter, c'est d'en faire un espace de démocratie, dit-il "direct".
Où finalement c'est le pouvoir au peuple, mais dans une version très romantique de la chose, mais en détruisant, et ça, c'est une vraie obsession chez Elon Musk, ce qu'il appelle lui les corps intermédiaires. Donc vous, les journalistes, et les contre-pouvoirs. Il y a les grands industriels de l'IA, on en a cité quelques-uns, les principaux.
Et puis il y a aussi les États face à l'intelligence artificielle. Je voudrais qu'on commence peut-être par cette phrase fameuse de Vladimir Poutine : "Celui qui dominera l'intelligence artificielle, dominera le monde, dominera le XXIᵉ siècle". Est-ce que vous pouvez nous parler du rapport qu'entretient la Russie de Vladimir Poutine avec l'intelligence artificielle?
Il avait dit ça en effet en 2017 et à ce moment-là, il y avait cette vision de se dire : il va y avoir un Etat, une entité qui va contrôler cette technologie et qui va en effet dominer le monde. Or, ce qu'on est en train d'observer, c'est tout autre chose. C'est même une balkanisation, une fragmentation.
Vous avez plein d'acteurs et dans ce jeu là, la stratégie russe a davantage été. Et pour terminer, pour répondre à votre question initiale, a davantage été mais par tout un ensemble de lois d'ailleurs, sur une forme de souveraineté dite informationnelle. Ils ont réussi à développer un écosystème relativement autonome qui s'appelle le RuNet.
Je voudrais bien vous entendre aussi sur cette capacité qu'a su développer la Russie de Vladimir Poutine à venir troller le débat public mondial ou en tout cas européen. Est-ce que ça, ça passe par l'intelligence artificielle? Et si oui, expliquez-nous concrètement comment.
La question que vous posez, qui est éminemment géopolitique, c'est toute la question de la désinformation et des ingérences, notamment russes, pour déstabiliser les démocraties occidentales. Absolument, et c'est bien antérieur à la guerre d'Ukraine. C'est une stratégie qui consiste par des fermes à trolls, par tout un tas de bottes automatisées.
Ça, c'était la première phase à venir, si vous voulez, inonder nos réseaux sociaux avec de la désinformation, avec des récits, avec des récits qui vont promouvoir le discours russe, ou plutôt d'ailleurs déstabiliser nos démocraties mais par leur intérieur, en polarisant, en brutalisant le débat public, en donnant de la matière à des groupes complotistes ou séparationistes pour augmenter la dissension, pour augmenter l'impossibilité de la conversation démocratique. Et l'intelligence artificielle est fondamentale là-dedans puisqu'en fait, tout d'un coup, vous allez pouvoir industrialiser la fabrication de contenus faux, mais de bout en bout, la fabrication de faux-sites, de sites d'informations mais de sites dit miroirs, vous allez pouvoir industrialiser, mais en quantité extraordinaire, les deepfakes, les fameuses vidéos qui vont simuler du faux. Et comme ça vous pouvez créer des univers de faux de bout en bout et qui et qui vont devenir à force de sophistication, de plus en plus difficilement débunkables.
Ça veut dire : trouver des algorithmes pour contrer d'autres algorithmes ou trouver des citoyens qui ont envie de passer beaucoup de temps sur les réseaux sociaux pour venir justement dénoncer des deepfakes ? Les deux mon capitaine ! Évidemment que ça va être des IA avec des contre IA et donc on va essayer, si vous voulez, d'industrialiser la captation des campagnes de désinformation.
En France, on a la Viginum qui aujourd'hui essaie d'avoir un effort de communication de plus en plus fort sur justement l'identification de ces campagnes larges de désinformation. Les tiers de confiance, disons la société civile qui va essayer d'identifier les contenus pour aider le régulateur, c'est fondamental aussi. Mais moi ce que je disais, c'est que chaque citoyen doit devenir un soldat malgré lui.
Nous sommes tous potentiellement aujourd'hui une cible et donc il va falloir qu'on ait de nouveaux réflexes cognitifs. Dès l'instant où je suis exposée à un contenu, je prends deux minutes, je prends deux secondes, je prends trois secondes pour juste me demander qui me parle et pourquoi on me pose ce contenu-là parce qu'on ne va pas pouvoir mettre un flic ou un militaire derrière chaque citoyen, ça ne va pas être possible. Donc si je résume, à ce stade de notre entretien, on est dans une véritable guerre cognitive et guerre tout court qui se joue entre des industriels, entre des Etats, avec évidemment un grand bras de fer principal et, vous l'avez évoqué, celui qui se joue entre une démocratie et aujourd'hui, c'est une démocratie, les Etats-Unis et un système qu'on peut qualifier de dictatorial, la Chine.
Comment résumer cette confrontation-là sur le plan précisément de l'intelligence artificielle? Alors une partie de la rivalité géostratégique États-Unis/Chine se joue en effet sur l'intelligence artificielle et pourquoi ? C'est une vraie stratégie de politique de puissance des deux États.
Parce que dès 2017, le PCC va annoncer dans ses fameux plans quinquennaux qu'il a l'ambition de devenir l'une des premières puissances militaires mondiales d'ici 2049. Vous ne pouvez pas le devenir sans une forme de suprématie technologique, donc via l'intelligence artificielle. Pour peut-être répondre plus précisément encore à ma question est-ce que vous pouvez essayer de nous expliquer en quoi le recours à l'intelligence artificielle diffère ou non selon qu'on a affaire à un État démocratique ou à un État autocratique en l'occurrence, bien sûr, l'État chinois, celui du PCC.
Aux États-Unis aujourd'hui, l'axe de la régulation - et ça va répondre à votre question - l'axe de la régulation est très axé sur la question de la sécurité nationale, avec un écosystème d'innovation, les fameux géants technologiques mais pas uniquement, qui sont dans un marché, disons libéral. Sur les questions de valeurs par exemple, aujourd'hui, sur la question des réseaux sociaux, vous avez une forme de liberté d'expression. C'est même le premier amendement de la Constitution américaine.
Ce qui d'ailleurs pose d'autres problèmes. Sur la question de la modération des propos. Disons qu'ils sont dans une zone grise, mais qui ne sont pas pénalement répréhensibles.
Ce qui pose donc la question de la gouvernance, de Meta, d'Instagram, de Twitter, etc. Côté chinois, et vous allez voir que la question des valeurs, là, est fondamentale, c'est l'inverse. Aujourd'hui, il y a une même une petite difficulté à développer leur propre système d'intelligence artificielle à cause de la censure.
Parce que dès l'instant où vous avez des lois qui vont censurer le discours politique, donc la création de données, que vous allez homogénéiser ce qui sort sur les réseaux sociaux et sur l'ensemble des plateformes, eh bien automatiquement, vous allez avoir des modèles d'intelligence artificielle beaucoup moins performants parce que vos données se ressemblent et à tel point que récemment, ce qui a été annoncé, c'est que Alibaba, qui est l'un des grands géants technologiques chinois, utilise LlaMA qui est la plate forme d'intelligence artificielle d'open source de Meta, puisque précisément, ils ont besoin de niveau performatif un peu plus élevé. Est-ce que vous pouvez nous rappeler plus précisément comment l'intelligence artificielle est l'outil préféré des dictateurs d'une certaine manière, puisque pour pratiquer le contrôle social, au fond, c'est le meilleur adjuvant ? Le cas d'école, c'est la Chine.
La censure fait que ça empêche d'avoir une forme d'hétérogénéité des données et donc une meilleure performance des systèmes algorithmiques et d'intelligence artificielle. Ça, c'est le premier élément de réponse. Le deuxième élément de réponse, c'est que donc les investissements ont beaucoup basculé vers la techno surveillance.
Les systèmes d'intelligence artificielle aujourd'hui en Chine sont en fait vont venir dopés, boostés tous les outils de contrôle social. Vous avez le crédit social, bien entendu. Vous avez le quadrillage de l'espace public par la reconnaissance faciale, le contrôle des réseaux sociaux et avec en fait une forme d'amende extrême pour les géants technologiques qui ne respecteraient pas les règles de promotion des valeurs socialistes.
Et l'intelligence artificielle, de ce point de vue là, est un outil de contrôle de la population, de contrôle de ce qui est dit, de contrôle de vos opinions politiques. Et ce que je relèverai enfin, et qui est sur lequel il faut vraiment être vigilant, c'est que, et à raison d'ailleurs, nous essayons, nous, de défendre nos valeurs d'État de droit en démocratie libérale occidentale. Eh bien, il y a une tentation d'un certain nombre d'Etats, mais même en France, de commencer à, disons, industrialiser aussi l'usage de technologies d'hyper surveillance qui sont dopées à l'intelligence artificielle.
Il faut que donc ceci fasse vraiment l'objet d'un vrai débat public éclairé. A présent, avec vous Asma, on a envie de comprendre en quoi l'intelligence artificielle pourrait faire courir un risque majeur aux deux grands scrutins qui sont devant nous, en Occident du moins, les élections européennes en juin et bien sûr la présidentielle américaine en novembre prochain. Il va y avoir deux grands axes, mais on les voit déjà en réalité.
Bien sûr tout le champ des cyberattaques pour déstabiliser le fonctionnement des élections, le service des administrations, des portails d'administrations pour en fait créer de la dissension. Donc ça, c'est le premier volet. Puis le deuxième volet peut-être le plus délicat, c'est évidemment la question informationnelle, c'est-à-dire en fait toutes les campagnes de désinformation, d'ingérence, de micro ciblage et qui vont évidemment être dopées à l'intelligence artificielle parce ce qu'on évoquait : les deepfakes, les faux sites, les faux contenus, les faux profils, mais en quantité industrielle.
Et je terminerai sur le retour d'expérience de l'Argentine qui est ultra intéressant parce qu'en Argentine on a eu ce qu'on a appelé les cheapfakes, c'est-à-dire, ce sont des deepfakes, donc vous avez donc ces fameuses vidéos fausses qui manipulent des paroles, qui manipulent des leaders d'opinion à qui on fait dire tout et n'importe quoi. Et en fait en Argentine ça a été fabriqué de très basse qualité et ça se voyait que c'était bidouillé et que c'était faux. Et pourtant.
Et pourtant ça a été extrêmement viral. Pourquoi? Parce que d'une certaine façon, peu importe que ce soit crédible ou pas, l'essentiel est que ça devienne un support de colère et ça vous permet de décrédibiliser le camp d'en face.
Merci infiniment d'avoir été en ligne avec nous, c'était passionnant. Je rappelle que vous êtes spécialiste des enjeux politiques de la tech et que vous publiez ces jours-ci "Technopolitique : comment la technologie fait de nous des soldats ? " C'est aux éditions du Seuil.
Merci à vous de nous avoir suivi. Merci. Merci pour votre fidélité et rendez-vous bien sûr la semaine prochaine.
Même endroit, même heure pour une nouvelle leçon de géopolitique.