L’IA va bouleverser votre vie. Voici comment. L'opinion du CEO de Mistral AI, Arthur Mensch.

472.6k views16379 WordsCopy TextShare
HugoDécrypte - Grands formats
Vidéo intégrant une collaboration commerciale avec Odoo. Pour en savoir plus, rdv sur : https://hugo...
Video Transcript:
Arthur Mench, bonjour. Bonjour. Je suis ravi de pouvoir te te recevoir. Merci de prendre le temps aujourd'hui parce que je sais que tu as un agenda plutôt chargé. Je pas mal de sujets en ce moment. Euh tu as 32 ans, tu es le cfondateur et le patron de Mistral AI. C'est une boîte française et européenne. Euh vous avez développé un robot conversationnel qui s'appelle le chat que tout le monde peut utiliser euh dès maintenant et qui se veut pour dire les choses, on va rentrer dans le détail après, mais un concurrent notamment de chat GPT
et toutes les IA qu'on peut voir aujourd'hui. Vous faites d'autres choses par ailleurs, on va pouvoir en parler ensemble. euh vous avez levé près d'un milliard, plus d'un milliard d'euros euh pour euh cette boîte et pour ces projets-là. Donc il y a beaucoup de choses qu'on va pouvoir voir aujourd'hui. En 2024, tu as été le seul français à figurer dans la liste des 100 innovateurs euh les plus prometteurs du magazine Time. Donc bravo déjà pour ça. Merci. Impressionnant. Euh j'ai plein de questions à te poser sur l'impact de l'IA sur nos vies, sur le fonctionnement
d'une IA aussi, sur la particularité aussi de Mistrral par rapport à tous les concurrents qu'on peut connaître aujourd'hui et sur l'enjeu aussi d'avoir une forme d'indépendance ou de souveraineté européenne ou française sur ce sujet-là. Donc plein de sujets qu'on va pouvoir voir euh ensemble. Mais avant de continuer cette interview, on voulait vous parler de ODO qui est notre partenaire du jour et qui pourrait vous être utile si vous êtes entrepreneur ou que vous avez une activité. En fait, ODO, c'est un logiciel de gestion tout en un qui propose plus de 45 applications pour vous aider
à gérer votre entreprise, que ce soit sur l'aspect financier, le marketing, les ressources humaines, la vente et bien d'autres domaines. Et il y a même une application pour vous aider à créer, à gérer un site internet en quelques étapes. Grâce à l'intelligence artificielle, vous êtes guidé tout au long du processus. Il suffit de définir le type de site, d'indiquer votre secteur d'activité et vos objectifs, de choisir une palette de couleur ou d'ajouter votre logo. Vous n'avez plus qu'à ajouter les pages et les fonctionnalités qui vous intéressent. Et ensuite, Lia vous assiste en vous proposant des
suggestions de thèmes adaptés à vos besoins que vous pouvez ensuite personnaliser. Par exemple, vous pouvez réorganiser votre site comme vous le souhaitez grâce à la fonction glisser déposé et tout est modifiable que ce soit le texte, les couleurs, les images ou les formes. Lia peut aussi vous aider à rédiger du contenu, ajuster la longueur ou le ton d'un texte déjà rédigé ou encore traduire des textes tout en vous laissant le contrôle sur les modifications finales bien sûr. Alors, si vous souhaitez créer votre site web avec ODO ou utiliser les autres applications disponibles, rendez-vous sur le
lien en description. La première application que vous choisirez est gratuite à vie avec le support et l'hébergement inclus et vous pouvez avoir accès à l'ensemble des applications à partir de 19,90 € par mois. Je voulais déjà commencer avec une question très simple. De ton côté au quotidien et au-delà de ton travail, comment est-ce que tu utilises de l'intelligence artificielle ? Alors moi, j'utilise le chat pour plusieurs tâches que je dois faire en tant que dirigeant. La première c'est un peu traiter toutes les informations que j'ai sur les comptes clients. Moi je fais beaucoup de commercial
et donc il y a beaucoup d'appels et cetera et je j'utilise les mails, les appels et pour me donner des suggestions de d'action à prendre et cetera. La deuxième c'est sur les sujets stratégiques. Comme le chat est connecté au web. Euh c'est assez facile de d'avoir des interactions avec lui euh pour euh pour préparer une stratégie produit, pour euh brainstormer sur les actions à prendre et les directions à prendre. Et puis la troisième, c'est plus au quotidien pour et ça il y a beaucoup de gens qui utilisent le chat pour ça, d'aller chercher quoi faire
le weekend avec ma fille, d'aller chercher quel rest dans quel restaurant aller dans le 10e avec des Américains qui nous rendent visite. Et donc en fait le chat il est capable et il le sera d'autant plus d'ailleurs dans les versions qui arrivent de d'aller chercher des informations sur le web avec de multiples étapes et donc de suivre cette démarche de recherche et de sortir des plans d'action qu'on peut suivre quoi. Donc ça permet d'accélérer ça beaucoup de tâches du quotidien et beaucoup de tâches au travail. Est-ce que il y a une utilisation de LIA alors
que ce soit d'ailleurs le chat ou d'autres mais une utilisation de l'IA qui t'a particulièrement impressionné ou que tu as trouvé particulièrement bluffante ces derniers mois où tu dis "OK, là on est en train de passer une certaine étape et et ça montre un peu ce qui peut arriver par la suite." Ce qui ce qui marche très bien, c'est vraiment cet aspect connexion de du modèle de la donnée de des du web et utilisation du modèle comme comme un orchestrateur de qui va faire plusieurs étapes pour aller récupérer de l'information. Euh ce qui est intéressant
dans le chat en particulier, c'est qu'on a accéléré ces étapes grâce à des déploiements qui sont très rapides. Et donc ce qu'on voit, c'est que on peut aller visiter 5 10 euh sites web euh et les euh les les processer, euh utiliser euh les informations pour répondre à une question complexe, préparer un rapport qui en fait va nous faire gagner énormément de temps. C'est autant de temps qu'on aurait passé à naviguer sur le web qui euh qu'on gagne. Et je pense que le les deux les deux verou qui ont sauté, c'est d'abord un verrou de
rapidité, c'est-à-dire que le modèle peut aller beaucoup plus vite aujourd'hui qui ne pouvait aller un an. Et le deuxième verou, c'est qu'ils arrivent à réfléchir pendant plus longtemps. C'est-à-dire que ils vont pas juste répondre à la question, ils vont raisonner et aller chercher de l'information, avoir écrire une dissertation, écrire un rapport en fait. Euh ce qui savait pas faire il y a un an et je pense que ça c'est vraiment un un verrou majeur qui a sauté ces derniers mois. C'est une question effectivement ça en gros sur le les données sur lesquelles on se base.
Tu me dis si jamais je résume bien la chose de s'assurer de pas chercher dans tous les sens mais d'arriver à être plus efficace dans nos recherches. C'est ça. Enfin du côté du Ouais. En fait qu'est-ce que fait le modèle ? Dans ce cas-là, c'est utile peut-être de revenir un peu sur comment tout ça fonctionne. Euh en fait la la le cœur de l'intelligence artificielle générative c'est des générateurs de texte. Donc c'est comme ce que vous pouvez avoir sur vos claviers de téléphone. Vous écrivez le début d'une phrase et vous avez des suggestions. Les trois
suggestions les plus probables. En fait, un modèle de langue, ça fait exactement ça. Ça s'entraîne sur toute la connaissance humaine et à partir du début d'une phrase, ça c'est capable de donner la suite de la phrase avec une probha sur chacun des mots. Donc si le chat par exemple si le début de la phrase c'est le chat est assis sur et ben le mot qui va suivre, il y en a deux essentiellement, c'est le canapé ou le lit. Et donc il y a cette probabilité qui s'applique et donc on va le faire pour le chat
et le canapé mais on va le faire pour un peu toutes les paires et tout toutes les colocations qui peut y avoir dans le monde dans toutes les langues. Et au final on se retrouve avec un modèle probabiliste de comment les la langue fonctionne. Et donc c'est c'est ça la base, c'est des générateurs de texte. Alors, comment ça on le transforme en un orchestrateur de navigation web ? En fait, on va passer par ne pas simplement générer une réponse, mais générer euh une série d'appels à un navigateur web. Et donc le modèle, au lieu de
répondre avec du texte, il va se dire pour répondre à cette question, je dois faire une recherche web. Donc, il fait la recherche web, il récupère le le contenu des des pages, il le remet dans le contexte du modèle. Donc ça veut dire que le modèle va voir ce qui se passe sur le web et à partir de ce qui se passe sur le web, le modèle va pouvoir dire "Bon bah donc ce qui se passe aujourd'hui c'est ça, les restaurants intéressants du 10e c'est cela donc et Arthur il aime bien la nourriture végétarienne donc
on va lui envoyer ça." Donc en fait on est passé dans les années qui dans les deux années Ouais euh d'un système de modèle de langue assez basique un peu comme les claviers mais en plus gros à des systèmes qui sont des vrais orchestrateurs. C'est-à-dire que il ils orchestrent l'interaction de l'humain avec la connaissance et l'interaction de l'humain avec des outils informatiques. Donc ça ça change beaucoup de choses. Ça il est plus malin dans sa façon de réfléchir à la meilleure façon de chercher la bonne réponse. C'est qu' a un truc de plutôt que de
d'aller dans tous les sens, il y a un truc de bon d'avoir eu un peu une réflexion et une stratégie, on va dire de sa part. C'est peut-être trop vulgarisé mais sur la façon d'y arriver. Ouais. Euh oui, exactement. C'est-à-dire qu'au lieu de reposer uniquement sur sa représentation du monde et de la langue, il va se dire "En fait, j'ai accès des outils à côté et ces outils à côté, ils vont pouvoir m'aider à à récupérer de l'information à jour et éventuellement à prendre des actions sur le monde." Donc ce qui est vraiment important de
comprendre, c'est qu'on parle plus simplement de générateur de texte, mais on parle de d'orchestrateurs qui comprennent l'intention de l'utilisateur, qui regardent la banque d'outils et la banque d'information auxquelles ils ont accès et qui vont être capable de d'associer l'intention à des actions à prendre. OK, passionnant. Et donc, on voit forcément tout ce que ça peut permettre. Est-ce que c'est que c'est des questions assez rapidement qui qui viennent et je commence volontairement par des questions qui reviennent très souvent aux questions que les gens se posent le plus mais quand on parle d'IA, on parle souvent de
de métiers qui pourraient disparaître, de métiers qui pourrait être plus impacté. Quel regard est-ce que toi tu portes sur cette question là ? Est-ce que il y a des métiers qui pourraient être très rapidement remplacés ? Est-ce que à l'inverse, tu as la sensation qu'il y a des métiers qui sont qui pourraient être moins impactés ? Quel regard tu portes sur sur ça ? Je pense qu'effectivement ce qu'on commence à observer, c'est que les métiers sont impactés dans la mesure où il faut que tout le monde adopte cette technologie. Je pense que les la bonne
analogie à prendre, c'est de se dire que c'est une révolution qui qui a la même ampleur que les smartphones en 2010, que internet en 2000, que le personal computer en dans les années 90. Et donc le cette adoption euh de la technologie, elle est nécessaire elle est nécessaire dans tout pour toutes les générations. Euh alors c'est facile pour les jeunes parce que en général ils comprennent assez vite comment l'utiliser. C'est un peu plus difficile dans dans les gens qui qui ont étudié il y a 20 ans parce qu'il faut faut se réentraîner. Mais on voit
qu'il y a une vraie volonté et donc ça ça c'est un aspect important que c'est une technologie qui est nouvelle. on l'utilise différemment des technologies précédentes. Euh c'est une technologie où il faut parler à la machine. Donc il faut avoir une certaine empathie sur ce que la machine sait faire. il faut comprendre comment le modèle fonctionne, comment il va appeler ses outils et cetera, comment il comprend nos intentions. Il y a une coadaptation à avoir. Euh ensuite, sur la question de des impacts, j'ai mentionné que une des choses que j'utilisais beaucoup sur le chat, c'est
cet aspect analyse et recherche. Tous les métiers d'analyse sont effectivement impactés aujourd'hui pour prendre des décisions financières par exemple ou écrire un méo d'investissement quand on est dans dans un fond ou pour préparer un rendez-vous client, on va beaucoup plus vite avec un accès à ces outils avec accès au chat. Donc ça veut dire que bah ça peut plus être l'essentiel du travail. On n'est plus payé pour ça parce qu'en fait la machine elle sait le faire. Donc il faut être payé pour autre chose et donc et donc se se concentrer sur les choses qui
ont le plus de valeur ajouté qui sont pas remplaçables par la machine et en particulier c'est les sujets de en fait c'est les sujets de contact humain sur les notamment côté commercial puis c'est les sujets de créativité et ce que la machine est pas tellement capable de faire c'est d'être créatif. Elle est capable de faire des analyses, d'utiliser de l'information existante, mais faire émerger de nouvelles idées, c'est beaucoup plus difficile. Et donc, c'est là-dessus où en fait on a encore une énorme valeur ajoutée sur les humains. Ouais, c'est je rebondis sur ce dernier point parce
que c'est souvent une question que je me pose moi-même en l'utilisant parce que c'est que moi-même, j'ai cette utilisation, je pense de plus en plus commune de je cherche un resto ou je cherche un bon hôtel dans un coin ou je ou cherche des conseils sur telle ou telle chose. Il y a une part de moi qui a aussi ce quand j'utilise ce truc de ou mais attends parce que si tout le monde fait cette recherche là et que il me sort le même il sort le même résultat que pour tout le monde bah il
y a un risque en fait on aille tous dans la même chose et qu' c'est un exemple précis mais plus largement une forme de répétition de certains schémas ou de certaines choses plutôt qu'une forme de créativité et de capacité à à aller à aller au-delà. C'est c'est effectivement toi tu t'estimes du coup que c'est peut-être là où la valeur ajoutée d'un point de vue humain ou dans le travail va être plus sur la capacité à créer dans le sens prendre des pas de côté par rapport à ce qui peut exister. Ouais. Euh je pense c'est
important de comprendre que si en fait le le la créativité du modèle, elle dépend beaucoup de ce qu'on lui donne en entrée. Si on lui demande un restaurant dans le 10e, si la question c'est juste une question très générique, il va répondre de manière très générique. Mais si on lui demande un restaurant en disant "Bon, moi les restaurants que j'ai bien aimé les deux derniers mois c'est cela, ce que j'aimerais tester c'est ça." En fait, il a suffisamment d'informations pour aller faire des des recherches plus compliquées. Donc ça s'applique pour les restaurants. Ce qui est
pas forcément le plus passionnant, c'est pas c'est pas une tâche très créative, mais ça s'applique aussi si je veux écrire par exemple une nouvelle. Si je demande au chat d'écrire une nouvelle, ça va être assez générique et assez assez pénible en fait. Sauf à ce que tu lui demandes du coup de Mais si j'ai des idées, si je peux dire, j'aimerais bien qu'il se passe à un moment donné au chapitre 3 et cetera. Et si je guide et s'il y a une vraie interaction entre la machine et l'humain, c'est là où en fait on peut
on peut pousser le modèle dans un peu dans ses retranchements et il va être capable d'avoir des des se sortir des choses intéressantes. Donc il faut créer de pour avoir une sortie créative et puis pour utiliser les de manière créative, il faut être créatif soi-même. Et donc c'est des compétences à acquérir pour le faire correctement. Est-ce que à l'inverse tu as le sentiment qu'il y a des compétences ou des choses que Lia, alors que ce soit le chat, peut-être même plus largement dans le développement de ces technologies que Lia n'est pas encore capable de faire
et où tu te dis bon là ça va demander plus de boulot et on y est pas on y est pas encore ? Il y en a plein. Euh notamment les les intelligences artificielles, elles ont tendance un peu à se perdre quand elles ont euh accès à tout le contexte de l'entreprise euh et euh quand elles sont euh connectées à trop d'outils. C'est-à-dire que quand tu lui donnes euh cinq outils en donnant une description de chacun des outils, ils sont pas trop perdus. Mais quand tu on lui donne 100 outils, euh ils peuvent un peu
ils se perdent, ils font des mauvais choix. Donc en fait le il y a un niveau de complexité qui est gérable euh et euh il y a un niveau de complexité qui est au-delà des capacités actuelles. Donc ça c'est un premier point. Euh ce que la machine est pas tellement capable de faire, j'ai déjà dit, c'est ces aspects de créativité. par exemple, c'est capable de résoudre des problèmes mathématiques euh simples et dont on connaît la réponse. Euh donc ça va être capable de dérouler des raisonnements euh avec des outils existants. Mais en mathématiques, pour faire
des découvertes ou pour progresser, souvent, il faut inventer des nouveaux outils, il faut idéaliser des nouveaux objets et cetera. Et ça c'est pas du tout euh quelque chose dont les machines sont capables aujourd'hui. Euh donc cet aspect créativité, c'est pas euh je pense que c'est pas hors de porté, c'est-à-dire qu'on fait quand même des progrès euh sur ces sujets-là, mais c'est pas aujourd'hui euh possible. Ensuite, ce qu'il faut comprendre aussi, c'est que ça réfléchit pas comme nous et il y a beaucoup de choses que ça ne comprend pas. Donc notamment euh les modèles, ils sont
pas seulement capables de gérer du texte, ils sont aussi capables de gérer des images et cetera. Mais dans leur perception des images et dans leur raisonnement spatial, euh ils ont pas euh la puissance que nous on peut avoir dans notre raisonnement spatial en particulier puisqu'ils sont surtout entraînés sur des vidéos euh ou des entraînés sur des images. Et donc quand on entraîne un modèle sur des images, des photos et cetera, on peut pas espérer de lui qu'il comprenne comment les choses se se comportent en trois dimensions par exemple. Donc il y a un sujet aussi
de de données. Euh tout ce qui est physique le modèle le comprend pas forcément. Il y a une des choses qui on peut les pousser et les faire échouer, c'est des problèmes avec des engrenages par exemple. C'est des problèmes avec des engrenages. Si on a pas une bonne représentation de physique de comment les engrenages fonctionnent, ça marche pas. Et donc beaucoup de documentations de je ne sais quoi qui lui permettent de saisir éventuellement le fonctionnement de telle ou telle chose. Mais c'est exactement pas évident. En fait, il y a un vrai sujet de donnée. C'est-à-dire
que quand le modèle est en dehors de de choses qu'il a dont il a pu prendre connaissance, il va pas y arriver. C'est pas de la magie. Euh ça reste des modèles statistiques qui apprennent de la donnée. Donc pour vous, l'enjeu c'est d'arriver à faire en sorte de pouvoir nourrir en quelque sorte votre de données nouvelles ou le sens de nouveaux types de données au-delà du texte, au-delà de l'image, au-delà de la vidéo. C'est ça. J'im qu' un enjeu de se dire c'est c'est un enjeu alors c'est pas for ça peut être des nouvelles données
de texte euh mais par exemple si on veut rendre le modèle très fort en sur des questions juridiques françaises euh ben en fait il faut euh il va falloir le spécialiser sur de la jurisprudence sur les g frances et cetera. Donc, il y a un sujet de se dire "Bon, c'est en fait, c'est un sujet de capacité, c'est-à-dire que le modèle, il a un certain nombre de capacités, mais quand on pousse loin euh le sujet de la capacité, bah il faut aller chercher de la donnée supplémentaire et spécialisée. Euh et la frontière, elle est très
très grande. C'est-à-dire que dès qu'on va dans une entreprise, on se rend compte qu'il y a une expertise dans cette entreprise et cette expertise, elle est pas forcément bien comprise par les modèles. Donc, il faut bah spécialiser le modèle, apporter l'expertise dans le modèle. Ça me permet aussi de te poser une autre question. dans quelle mesure aujourd'hui vos clients ou les requêtes proviennent d'entreprise ? Tu comment est-ce que tu vois le le la répartition entre une personne comme moi qui peut peut-être l'utiliser pour un usage pro mais c'est en fait via le chat en posant
des questions comme ça et des entreprises qui vont dire bah nous votre modèle de langage et ce que vous faites ça nous intéresse pour l'intégrer pleinement à notre entreprise. À quoi ça ressemble aujourd'hui la répartition entreprise et particulier ? Ben nous euh alors je peux en fait il y a deux choses, c'est que le le chat c'est utilisé à des fins euh personnelles et à des fins professionnelles. Euh et donc ça c'est une partie de de notre modèle économique en fait. Ensuite, le l'essentiel de notre modèle économique, c'est d'aller travailler avec des entreprises pour déployer
le chat, par exemple, dans l'entreprise, mais aussi pour construire des applications spécifiques qui utilisent le modèle, non pas forcément de manière conversationnelle, mais pour faire des applications logistiques, pour faire des applications en suivi euh industriel. Par exemple, on travaille avec on travaille avec Veolia, on travaille avec beaucoup d'entreprises françaises aussi et international sur des choses en fait toutes ces entreprises que soit voilà dans dans la logistique, dans l'industrie, dans les telco, dans le hardware euh c'est des entreprises qui ont des cas d'usage spécifique et euh l'assistant conversationnel, ça remplit pas forcément ces cas d'usage. Parfois
ça remplit euh ça remplit beaucoup d'aspects euh notamment sur toutes les questions de des services de support, sur toutes les questions de support client, le chat ça peut suffire. Mais dès qu'on passe sur euh une application qu'il faut déployer dans une usine, bah là il faut faire un travail spécifique parce que l'usine a son ses contraintes, ses enjeux, ses données, don et cetera. Et donc nous ce qu'on a c'est une plateforme développeur qu'on peut adapter et sur lequel on peut construire très rapidement des produits qui sont spécifiques au au aux entreprises. Et donc c'est la
deuxième partie de notre modèle économique et qui aujourd'hui est la partie la plus importante. OK. Ouais, c'est un point et et juste en proportion et puis même peut-être au-delà du chat mais tu estimes que la d'un point de vue économique demain l'avenir d'une boîte comme la vôtre c'est quand même essentiellement via ces entreprises ou c'est quand même un gros côté grand public ? En gros, est-ce que c'est plus une boîte pour les B2B pour les pour les boîtes ou plus une boîte consommateur ou c'est un mélange des deux ? Bah en fait, c'est un mélange
des deux. Nous, on a commencé comme une boîte B2B mais ce dont on s'est rendu compte c'est que c'est quand même une technologie assez magique et donc c'est très utile d'avoir une démonstration et de faire en sorte d'avoir des des consommateurs plus grands publics qui l'utilisent. En fait, on parle même de manière plus générale, on parle d'une technologie qui sera la même, qui sera utilisée à la maison et au travail. C'est un peu comme le tableur Excel. Euh c'est un peu comme le navigateur web en fait, c'est suffisamment horizontal pour que ce soit utilisé des
deux côtés. La différence qu'il y a entre le chat côté euh grand consommation et le chat côté entreprise, c'est la donnée qui est connectée. Euh le chat côté consommation, c'est connecté au web, ça peut faire des choses du quotidien, euh ça peut aider à faire ses courses, ça peut aider à préparer ses voyages, à préparer ses sorties. Dans l'entreprise, ça c'est différent. C'est connecté à aux sources de connaissance, c'est connecté aux sources documentaires, c'est connecté aux bases de données d'analytics et cetera. Et donc les questions qui sont données dans l'entreprise et euh du côté consommateur
sont pas les mêmes. Les usages sont pas les mêmes. En revanche, l'interface est la même. Euh c'est-à-dire que euh c'est des questions, il y a une un aspect conversationnel, il y a un aspect création de documents. Euh en fait, on peut bouger. Le modèle quand il identifie qu'en fait, il faut écrire des rapports ou qu'il faut réécrire des mails et cetera, il passe dans un mode où on crée un document avec le modèle. Et donc c'est la même interface, c'est pas les mêmes systèmes d'information, euh c'est pas la même personnalisation aussi. Euh mais en revanche
euh c'est le même outil. Ouais. OK. Et sur le je je boucle sur toutes les questions très générales que les gens se posent beaucoup. Une question qui revient souvent, il y en a une effectivement sur la question des biais humains euh de se dire bah forcément on se base sur des données qui ont été produites par des humains, je sais pas des articles, des ressources, tout un tas de choses qu'on peut trouver en ligne. Euh et il y a toujours cet enjeu qui revient souvent de d'ajuster son IA pour qu'elle ne reproduise pas certains biais
et et avec tous les risques qu'on peut qu'on peut imaginer. Comment est-ce que typiquement chez Mistral vous vous abordez ce sujet-là et comment est-ce que vous tentez de corriger ça quand c'est nécessaire ? Euh oui. Bah c'est une question effectivement très intéressante. Le ce qui est important de comprendre c'est que en fait il y a deux phases dans un entraînement du de modèle. Il y a une phase où on compresse la connaissance et donc on apprend que le chat est souvent sur le canapé. Euh et on fait ça avec des des milliers de milliards de
mots. Et du coup, on se retrouve avec un modèle qu'on appelle un modèle pré-entraîné qui va nécessairement avoir des biais parce qu'il s'est entraîné sur de la donnée qui a ses propres billets. C'est biais statistiques, c'est-à-dire que Ouais, c'est c'est les biais statistiques. Ensuite, il y a une deuxième phase qui est une phase beaucoup plus éditoriale, c'est-à-dire qu'on peut choisir de pousser le modèle dans certaines directions. Donc quand on lui pose certaines questions, on va vouloir qu'il répondent de manière spécifique. Par exemple, si on lui pose des questions politiques, on va vouloir que le modèle
a une réponse nuancée et dire il y a deux points de vue. Quand on lui pose des questions historiques sur lequel il y a qu'un seul point de vue médical où il va avoir ce réflexe dire enfin de prendre des pincettes de répondre un point de dire mais attention il faut voir un médecin ou attention peut-être que Ouais. Alors, ben ça c'est un une stratégie euh c'est de dire euh une stratégie qui est une stratégie simple euh c'est de dire tous ces sujets-là, je les traite pas. Donc quand on pose des questions médicales, je je
réponds avec une réponse standard en disant parler à un médecin. On peut aussi se dire bon le modèle en fait il est pas si mauvais en médical, il pourrait quand même donner des informations utiles. Donc il y a toujours un peu un biais entre être utile et prendre des risques. Euh et donc au fur et à mesure qu'on a poussé la capacité des modèles, on se rend compte que la frontière de l'utilité, elle a grandi et donc il faut aller regarder spécifiquement quand on pose des questions médicales, comment le modèle doit réagir. Parce que quand
le modèle était pas bon au médical, c'était simple. Suffisait de dire bah on le le contrôle éditoriel, c'est dire tu réponds pas à la question. Mais quand il devient suffisamment bon, il peut dire bon voilà c'est ça a priori qui les diagnostics potentiel c'est cela. Et après on peut lui demander de dire bon mais par contre je suis pas médecin tu devrais quand même voir un médecin. Donc il y a vraiment ce sujet qui est un sujet assez immense c'est-à-dire que il faut contrôler de manière éditoriale un peu près tout. Ce qui est important de
comprendre, c'est que il y a pas de modèle non biaisé. C'est-à-dire que chaque chaque déploiement, chaque entreprise fait ses choix éditoriaux. Et nous, notre stratégie ici, comme on vend essentiellement aux entreprises, c'est quand on fait des déploiements, on les aide à personnaliser ces aspectsl. C'est-à-dire que euh si elles veulent que le modèle, quand ils le déploient pour leurs employés répondent pas à des questions politiques, bah elles peuvent le faire. Donc, il y a vraiment un sujet de personnalisation euh qui passe d'abord par des sujets d'évaluation. C'est-à-dire que on va avoir euh pour euh contrôler de
manière éditoriale un modèle euh on va avoir peut-être 1000 questions euh sur lequel on veut que le modèle réponde d'une certaine manière. On va regarder s'il répond de la bonne manière et s'il le fait pas, on va aller le modifier. Et donc c'est ces sujets-là euh sur lequel nous on a toute une plateforme qui permet de faire cette personnalisation parce que c'est vrai que le la question du des biais de Lia ou des choix éditoriaux même plus précisément, on le voit beaucoup dans l'actualité en ce moment. On a vu Elon Musk avec son IA via
X critiquer euh Open AI notamment aux États-Unis. Il accusé d'être trop biaisé notamment sur des sujets politiques et du coup il a essayé de développer son traitement éditorial en quelque sorte sur certains sujets. On peut parler de Dieps en Chine avec cette SAIA qui quand on lui pose des questions sur des sujets trop politiques et plus précisément sur le régime chinois va avoir tendance à beuter en touche et à ne pas à ne pas répondre. Donc tout ça c'est vrai que c'est des sujets vraiment éditoriaux. Alors, pas comme un média, mais quand même, il y
a ce truc de qu'est-ce qu'on traite, qu'est-ce qu'on traite pas, comment est-ce qu'on le traite et vous de votre côté comment se font ces arbitrages ? Parce que c des questions en l'occurrence éditorial. Ben nous, on le fait euh alors on a commencé par le faire assez peu, c'est-à-dire qu'au début euh le c'est une question qui se pose un peu après les les une fois que la technologie est en place. Et donc aujourd'hui maintenant, c'est une question qui se pose beaucoup plus. C'est-à-dire que on a des banques d'évaluation, on a des des milliers de de
questions, on sait aussi les questions que qu'on nous pose sur le chat en fait. Donc on a une bonne représentation de comment les utilisateurs le le envoient des requêtes. Et donc c'est ce qui veut dire queon a une bonne représentation de comment on devrait répondre d'une manière ou d'une autre. Euh et donc effectivement la question se pose de comment on va vouloir répondre à ces questions-là, à ces questions politiques, à ces questions historiques et cetera. Encore une fois, la le sujet qui est important de comprendre, c'est qu'il y a pas une seule vérité. C'est qu'Elon
Musk quand il fait Grock, il nous explique que Grock, c'est pour tré. En fait, dans un monde voilà de avec un pluralisme d'opinion, il y a pas une seule vérité. Et donc notre sujet nous, c'est d'avoir un modèle qui est le moins qui prend le moins de position possible, c'est-à-dire qui arrive à à dire sur les questions qui sont des questions ambigues où il y a où il y a plusieurs points de vue qui rend qui renvoient à plusieurs points de vue, mais ça pose même une question plus large, j'avais prévu de l'aborder après, mais
de la souveraineté sur ces sur ces outils là parce que on sait et on le voit, enfin moi je vois au quotidien et je vois dans mon entourage aussi que on utilise tous déjà des IA au quotidien pour poser tout un tas de questions et parfois aussi pour poser des questions liées à l'actualité ou lié à des sujets politique. Donc c'est des choses qui prennent de la place dans notre vie comme un moteur de recherche comme un Google peut prendre déjà une place colossale dans nos vies. Ce qui pose la question du coup de qui
contrôle ça ? Qui a le choix ou le dernier mot sur ce qui ressort ou non d'une ? C'est ce qui fait aussi pour toi qu'il y a un enjeu de souveraineté, on va dire, française ou européenne d'ailleurs sur un sujet comme celui-ci ? Alors, absolument euh je pense qu' ce qu'il faut comprendre, c'est qu'on parle d'une technologie qui est la nouvelle génération des médias. C'est-à-dire que on a eu les médias sociaux qui sont des outils d'influence majeurs, beaucoup plus gros que des que des journaux. Et donc et on le voit aujourd'hui aux États-Unis, euh
en fait l'intelligence artificielle générative en tant que portail à l'information, ça devient un nouveau type de média et c'est un média qui est très euh performant parce que en fait il non seulement il est capable d'avoir son propre contenu, mais en plus il interagit comme un humain. Donc en fait, il est très convaincant quand un utilisateur va le va discuter, il crée une forme d'attachement et donc le sujet de l'influence que ça peut avoir est un sujet majeur. Et c'est là où il y a un vrai sujet de souveraineté culturelle. En fait, l'intelligence artificielle générative,
c'est un sujet de souveraineté à plusieurs titres. il y a une souveraineté économique. C'est-à-dire que si euh toutes les entreprises européennes par exemple dépendent de technologie américaine sur une technologie qui va créer peut-être 10 % du PIB mondial d'ici 10 ans, bah en fait ça crée un problème de balance commerciale qui est quand même assez majeur. Donc il y a un problème économique, il y a un problème culturel, c'est-à-dire que est-ce qu'on veut que tous les interaction faite par les u enfin toute l'accès à l'information en Europe soit contrôlé par des entreprises américaines qui ont
leur propre du coup qui peuvent l'utiliser comme un vecteur d'influence. Ouais. qui ont leurs propres intérêts. Ouais. qui peuvent se dire demain j'ai n'importe quoi et cas extrême en même temps pas si extrême que ça. Il y a des tensions qui grandissent entre les États-Unis et l'Union européenne. Les États-Unis disent "H on a peut-être pas on a intérêt à pousser nos intérêts auprès des Européens. Donc dans nos réponses, on va je dis n'importe quoi, dénigrer les pays européens ou à l'inverse mettre bien en avant les les les pays ou les États-Unis. Enfin, oui, on peut
imaginer que ça ça peut être un outil d'influence." Ouais, exactement. à la même manière que les les réseaux sociaux, à la même manière que X, à la même manière que TikTok euh qui l'ont fait en leur temps avec ces outil de médias social, mais euh l'intelligence artificielle va avoir ce genre de de puissance et euh c'est et c'est décuplé par rapport à ce que les médias sociaux permettent parce que il y a cet aspect personnalisation, cet aspect empathie qui est créé par les humains avec avec la machine qui fait que la confiance qui est créée
est beaucoup plus importante que ce qu'on peut avoir vis-à-vis des autres médias sociaux. Donc ça veut dire qu'il faut évidemment une éducation citoyenne sur les effets que ça peut avoir et sur le le scepticisme qu'il faut avoir vis-à-vis des outils. Malgré tout, il faut garder son sens critique. Ça c'est important. Euh mais ça veut aussi dire que euh bah c'est une technologie dont euh chaque État qui veut une certaine souveraineté sur sur les idées qui euh qui euh euh circulent euh à l'intérieur du territoire euh doit doit avoir une stratégie. Euh peut-être rapidement pour terminer
là-dessus, euh comment est-ce que aujourd'hui vous fonctionnez là-dessus et dans quelle mesure il y a une régulation de ces choses-là ? Alors que ce soit à l'échelle européenne ou autres. La question se pose aussi sur les sur la question des médias sociaux, des réseaux sociaux. Il y a toujours ces questions de qui qui contrôle entre guillemets l'algorithme, qui a un regard dessus, qui décide de ce qui peut être supprimé ou non sur sur un réseau social. Vous en tant que boîte sur un sujet DIIA comme ça, comment se passent ces questions de régulation aujourd'hui ?
C'est vous qui faites cet arbitrage là, mais est-ce qu'il y a aussi des questions de régulation au-delà qui se qui se posent ? Il y a certainement des questions de régulation qui se poseront. Je pense que le sujet de l'intelligence artificielle générative est pas encore abordé d'un point de vue euh d'un point de vue modération très fortement au niveau de la régulation européenne. Très très récent et euh ça se posera certainement. Euh nous notre approche et voilà je l'ai dit c'est d'essayer d'être le plus neutre possible ce qui ce qui est jamais complètement évident. Et
puis notre approche c'est aussi de se dire en fait on n'est pas des teneurs de la seule vérité on va mettre à disposition nos modèles de manière open source. Donc ça veut dire qu'ils sont open source, ça veut dire qu'on peut prendre le système et aller le déployer où on veut et le modifier comme on veut pour mettre ses billets éditoriaux comme on veut. Euh donc donner accès au plan de la machine et dire bah si je voulais modifier le plan, faites-le pas de problème parce que vous allez avoir vos propres besoins et cetera. C'est
une manière de dire on veut pas euh on n' pas cette responsabilité de l'unique vérité. Et donc euh on souhaite que toute l'industrie, tout le milieu académique puisse utiliser nos modèles et les modifier comme ils le veulent pour faire les choses comme ils l'entendent. C'est c'est ça cette dimension effectivement open source qui est pas le cas de tous les de toutes les boîtes et de tous les modèles qu'on connaît euh qu'on connaît aujourd'hui. Euh et pour bien comprendre là-dessus donc la dimension open source, donc ça permet à chacun de euh comprendre et de saisir en
quelque sorte du modèle. Mais ce que je comprends aussi c'est qu'il y a quand même euh c'est pas 100 % open source dans le sens où vous avez vous aussi bah ça reste une entreprise et qui a quand même cet enjeu-là. comment pour que tout le monde comprenne bien le le entre le côté open source et le côté boîte derrière comment ça se traduit comment ça fonctionne. Oui, en fait on a une partie de la propriété intellectuelle qu'on produit courant ouverte, c'est-à-dire qu'on le la met à disposition de de tout le monde. Ce que ça
veut dire un modèle ouvert, c'est que on peut le un modèle c'est c'est un fichier sur votre ordinateur, hein, c'est un certain nombre de paramètres, c'est des chiffres. C'est c'est des milliards de chiffres. Une fois qu'on a accès à ces milliards de chiffres, on peut faire les modifications sur ces chiffres-là pour rentrer des billets éditoriaux. Il suffit d'avoir les bons outils. C'est des outils qu'on fournit. Euh donc nous, on fournit les modèles de manière ouverte. On fournit aussi un certain nombre de logiciels ouverts. Donc un logiciel pour le coup c'est du c'est du code et
ça ça peut être modifié en texte. Euh on a évidemment plein de choses qui sont pas open source et qu'on vend euh de déploiement, de connexion à la donnée, euh des équipes solution qui vont faire les intégrations aussi, euh des frontend, euh donc c'est des choses qui sont euh propriétaires. Donc on a on a ce qu'on appelle un open core, donc les modèles et tout ce qui est autour n'est pas et donc et cet équilibre c'està-dire avoir donc vous avez quand même des choses qui vous appartiennent mais il y a des choses que vous ouvrez
pour permettre à chacun ou des particuliers ou des entreprises se trouvent de s'en saisir de pouvoir le modifier nécessaire ou autre. Quel est l'intérêt pour vous d'avoir cette dimension du coup euh open source sur euh sur ça ? C'est de d'enrichir et de de développer avec d'autres personnes le produit ? C'est ça ? Ouais. L'intérêt, il est multiple. Euh l'intérêt, il est d'abord c'est d'abord un intérêt de distribution. C'est-à-dire que nous ça nous a permis, le fait de mettre à disposition des modèles open source, ça nous a permis d'être connu dans le monde entier parce
qu'on était euh et parce qu'on est toujours les leaders sur la la distribution de certains modèles. Euh le le deuxème sujet, c'est un sujet d'accélération de la recherche, c'est-à-dire que je donne euh du un modèle et puis il y a d'autres entités qui vont le prendre et qui vont l'améliorer. L'autre aspect de l'open source, c'est que ça permet un peu de mutualiser les coûts et d'accélérer la recherche en on met à disposition quelque chose et on s'attend à ce que d'autres entreprises s'en emparent et l'améliore. Et derrière nous, on peut reprendre ce qu'elles ont fait
et on l'améliore. Donc en fait, il y a une mise en commun des efforts de RD. Et donc ce qu'on a pu observer à partir du moment où nous on a commencé à pousser l'open source parce que quand on a démarré, il y avait pas ça encore, c'est que on a mis à disposition des modèles, on a vu des entreprises américaines comme Meta qui ont mis à disposition des modèles, on a vu des entreprises chinoises comme Dipsy qui ont mis à disposition des modèles et à chaque fois les nouveaux modèles se basaient sur les découvertes
qui avaient été faites sur les modèles précédents, pas forcément faites par eux, faites par d'autres entreprises pour pour faire quelque chose d'encore mieux. En fait, ce qui est intéressant, c'est que dans l'intelligence artificielle entre 2010 et 2020, c'est essentiellement comme ça que ça se passait. On faisait des découvertes, on mettait à disposition les choses, on allait en conférence et il y avait un autre laboratoire qui regardait le truc à la conférence et qui faisait un truc encore mieux à la conférence euh 6 mois après qui permettait d'aller plus vite parce que un commun de connaissance
d'une certaine façon quoi. Ça allait plus vite et puis c'était décentralisé. Ce qu'on a vu avec Open AI qui qui a commencé à construire en fait le modèle économique autour de l'I générative, c'est que à partir du moment où ils ont vu un business en fait, ils ont dit bon, on va tout fermer. Et donc nous quand on a commencé Mistral en 2020, on va tout fermer dans le sens on va pas faire de l'open source et en fait ça nous appartiendra ce qu'on crée quoi. Ça nous appartiendra et surtout on va on va cacher
comment tout fonctionne et on va avoir un contrôle centralisé dessus. C'est-à-dire que pour accéder au modèle d'open AI, on est obligé de passer par leur serveur et donc ils ont un contrôle complet sur en fait tout ce qui se passe. Ils voient la donnée euh et puis surtout ils ont des contrôles éditorieux complets. Euh et donc nous en 2023 on a on a largement contribué à inverser euh ce cette dynamique en disant bon bah on va on va pousser les modèles open source de de langue et et on a vu que ça a bien pris
et ce qui veut dire qu'aujourd'hui bah les modèles open source en fait ils sont aussi bons que les modèles propriétaires. Donc ça a quand même de moins en moins d'intérêt de passer par des modèles contrôlés de manière centralisée. Quels sont selon toi les points forts de Mistral et plus largement peut-être de de l'Europe face à des géants qu'on connaît aujourd'hui ? On pense à Open AI mais il y en a plein d'autres. Quels peuvent être pour toi les points forts ou différenciants en tout cas d'un acteur européen comme comme le vôtre ? Ce qui est
fortement différencié aujourd'hui de notre du côté entreprise, c'est la manière dont on déploie. On est les seuls à avoir une plateforme portable. C'est-à-dire qu'on peut amener sur les serveurs de nos clients, euh qu'on peut déployer sur les serveurs cloud de nos clients ou qu'on peut déployer dans le cloud. Euh donc on a on a cette capacité à s'adapter aux contraintes techniques de nos clients en contraintte d'infrastructure que personne d'autre n'a déployer le chat sur les serveurs de nos clients. C'est absolument impossible avec ce que les Américains proposent. Euh et donc ça veut dire que on
peut gérer euh une demande qui est assez différente euh en particulier dans euh les administrations euh dans les secteurs régulés où il y a un vrai besoin de gouvernance à de la donnée. Donc ça c'est un un premier sujet. Ensuite, on a euh des modèles qui se comportent différemment euh qui ont déjà des des sur lequel on a fait des choix éditoriaux qui sont différents de ce que Open AI et et d'autres entreprises américaines ont pu faire. on a euh un vrai sujet d'efficacité, c'est-à-dire que nous, on fait des modèles qui sont plus petits, qui
vont plus vite euh et euh et on a largement pousser l'industrie à réduire la taille de ces modèles et à réduire le prix euh notamment parce qu'on a mis aussi des modèles gratuits à disposition de tout le monde. Donc ça c'est euh les points de de force. On a également cette capacité à personnaliser les systèmes qui est beaucoup plus élevé que d'autres entreprises américaine avec une capacité de déploiement, c'est-à-dire qu'on peut aller dans les entreprises, on peut travailler avec ell pour pour personnaliser et construire des applications qui sont spécifiques. Ensuite, sur la question de des
forces dont on a pu bénéficier en Europe, c'est il y a d'abord une force de talent et d'ailleurs, je m'adresse à votre audience. Euh à Mistral, on recrute euh et donc et on recrute à tout niveau, c'est-à-dire qu'on recrute en junior, on recrute quelques journalistes, on a un département de communication. Euh on recrute en business, euh on recrute en marketing, on recrute en ingénieur, on recrute des profils juniors euh qui sortent de master, on recrute des profils qui ont plutôt 5 10 années d'expérience et donc sur des sujets qui sont pas forcément liés à l'intelligence
artificielle parce que il y a des sujets de design, il y a des sujets de déploiement, il y a plein de sujets qui sont pas intelligence artificielle mais on recrute aussi bah des scientifiques, des gens qui veulent travailler à pousser la frontière et euh donc voilà pour cette page de pub mais pour revenir sur les atouts que euh bah il y a des très très bons centres de formation en fait. Euh il y a des excellentes écoles euh techniques euh en France, en Angleterre, en Allemagne, en Pologne, euh en Espagne, en Italie, partout dont on
est capable de de recruter et en fait qui nous permettent d'être efficace. De manière générale, les les ingénieurs européens sont plus efficaces que les ingénieurs d'autres pays. Le sujet, j'imagine, pour vous, c'est euh et que ce soit d'ailleurs pour Mistral, mais comme pour d'autres boîtes euh euh de de la tech ou autre, c'est cet enjeu de s'assurer que euh vous soyez suffisamment attractif et que y compris d'ailleurs d'un point de vue de salaire, enfin très ter à terre que euh le l'ingénieur ou le la tête sur tel ou tel sujet se disent pas "Bon bah,
autant que j'aille aux États-Unis, j'imagine pour vous, c'est aussi un enjeu, ça va être un enjeu quoi." Bah nous le je pense que ce qu'on a réussi à bien faire c'est arriver à recruter des gens qui seraient allés dans des entreprises américaines si et non et même à largement à recruter des gens qui étaient dans les entreprises américaines sur la base d'un projet qui est différent et sur la base de d'être une start-up qui est plus dynamique. Euh ce qui veut pas dire qu'on on a aussi grossi aux États-Unis, on a une équipe scientifique aux
États-Unis notamment parce que des profils seniors c'est plus difficile à trouver. Et puis on a une équipe commerciale aux États-Unis. Il y a un certain nombre de compétences commerciales en technologies qui sont quand même largement plus faciles à trouver aux États-Unis parce qu'il y a une profondeur d'écosystèmes qui est quand même plus grande. Euh il y a 70 ans de de start-up aux États-Unis, euh en Europe, il y a plutôt euh maximum 20 ans. Donc du coup, il y a quand même moins d'expérience de manière générale. Et à l'inverse, ça on a vu du coup
les forces si on doit faire un une forme d'autocritique alors que ce soit sur Mistral ou européenne hein, plus largement sur ces sujets-là, sur les sujets de l'IA, où est-ce que tu as l'impression que où est-ce que tu as l'impression que le défi est encore important et on a encore peut-être un peu de retard sur certains sujets ? Ouais, je pense que la plus grosse difficulté, c'est une difficult une difficulté d'adoption. C'estàd que les entreprises européennes ont tendance à être un peu plus lentes que les entreprises américaines quand il s'agit d'adopter les nouvelles technologies. Euh
et donc ça veut dire qu'il y a un peu un retard à l'allumage par rapport à en terme de croissance, par rapport à des parpport à des entreprises américaines qui commencent sur le marché américain. Euh je pense que c'est des choses qui ont quand même pas mal changé euh dans la bonne direction, c'est-à-dire qu'on voit aujourd'hui une très très forte volonté des entreprises européennes d'accélérer sur l'intelligence artificielle et également de de travailler avec des entreprises de la technologie européenne pour avoir cette synergie que les Américains sont tout à fait capables de créer. C'est que la
les start-up de la Sicone Vallé travaillent avec tout le S&P 500 euh et le Fortune Fortune 500 plutôt. Et ça ça accélère leur leur croissance économique. C'est quelque chose qu'on fait sans doute un peu moins mieux en Europe, notamment parce que les marchés sont fragmentés, c'est-à-dire que il y a 27 pays en fait et vendre en France, c'est pas pareil que vendre en Allemagne. Et donc il faut émettre une nouvelle équipe. C'est pas la même culture du business et cetera, un peu plus de temps parce que ça prend plus de temps. Ça prend plus de
temps. Après, c'est euh c'est aussi euh un marché qui est plus fidèle. C'està-dire qu'ils choisissent des partenaires sur le plus long terme. Donc il y a des atouts et il y a une culture de des des affaires qui est différente. Euh donc je pense que c'est ça le le pour moi c'est ça le principal sujet. Ce qui veut dire que c'est important pour une entreprise comme nous d'ussi grossir aux États-Unis et d'être présent là-bas, de grossir ailleurs en Asie par ailleurs. Euh il y a des sujets euh de régulation du travail. Euh un des gros
sujets qu'on a, c'est cette euh c'est la notion de préavis. Euh c'est-à-dire que aujourd'hui quand on recrute quelqu'un euh dans une entreprise européenne, il faut qu'on attende 3 mois euh pour que il nous rejoigne parce qu'il doit euh faire un préavis de démission et là pour 3 mois au maximum et souvent c'est 3 mois quoi. L'entreprise dit bon, tu restes 3 mois ou alors tu pars en vacances 3 mois mais tu rejoins pas l'entreprise suivante dans 3 mois. Aux États-Unis ça n'existe pas. aux États-Unis, quand quelqu'un décide d'aller dans une nouvelle entreprise, bah au bout
de jours, il peut venir. Et ça, en fait, ça a quand même beaucoup d'effets sur une entreprise qui grossit vite parce que en matière de recrutement, entre le moment où on décide de recruter et le moment où on a quelqu'un qui est dans au bureau, il y a 2 mois de recrutement, un mois de recrutement si on va vite et ensuite il y a c'est 3 mois. Et ça, ça c'est vraiment assez catastrophique en fait et c'est le cas dans tous les pays européens. Et donc, il y a un sujet de il faut donner plus
de flexibilité non pas à l'employeur mais à l'employé. C'estàd qu'il faut que l'employé soit capable de dire moi je veux aller dans cette nouvelle entreprise qui m'intéresse plus je ne veux pas rester chez vous pendant 3 mois parce que le préavis j'essaie de réfléchir qu'est-ce qui fait que c'est en place là c'est je suis pas sûr de voir l'intérêt pour le salarié c'est plus l'intérêt peut-être pour l'entreprise protéger l'entrepris euh on les bloque on les verrouille avec une régulation excessive et donc toi tu estimes que le salarié s'il veut bouger il doit pouvoir bouger plus
vite. Il doit pas avoir à attendre 3 mois au risque du coup de passer à côté d'une opportunité. Exactement. Et c'est ce qui a fait la force de de la Silicone Vallée, c'est cette fluidité dans la dans dans le talent. C'est-à-dire que s'il y a un projet excitant qui marche, bah en fait c'est très facile de recruter 15 ingénieurs d'un coup. Et en France, c'est beaucoup plus difficile. Donc il y a vraiment un effort à faire. Je pense qu'il faut qu'il soit fait au niveau européen de ce point de vue-là. On parle beaucoup des États-Unis
évidemment parce que je pense que bah on parle de Open AI, de GPT et cetera, c'est devenu, je le vois autour de moi, très très commun et et quasiment autant qu'un moteur de recherche. Aujourd'hui, on parle un peu moins de la Chine et pourtant alors c'était dans l'actualité il y a quelques mois avec tout ce bruit qu'il y a eu autour de de psy avec toutes ces ces parce que eux ont eu cette communication consistant à dire "Regardez, on a dépensé beaucoup moins et pourtant on a réussi à faire plein de choses et cetera." Euh
quel regard est-ce que tu portes sur cette TIA aujourd'hui ? Euh y compris sur la façon dont ils ont fait ce qu'ils ont fait parce queil y a eu beaucoup de débats là-dessus et plus largement comment est-ce que tu vois la Chine en tant qu'acteur sur ce domaine-là euh et comment est-ce que tu les vois aller dans les dans les prochaines années ? Bah Dipsicé qui est assez proche de Mistral en fait d'un point de vue structure, d'un point de vue âge, d'un point de vue ambition. On on a en fait ça fait 2 ans
qu'on existe les deux et qu'on met à disposition de manière ouverte des modèles. D'une certaine manière dipsy que les les dernières relises qu'ils ont faites se basent sur une extension de ce que nous on a pu mettre à disposition l'année dernière. Et donc on a dans notre ADN cet aspect en commun dans notre ADN cet aspect ouverture, cet aspect efficacité. Ils ont démontré que ça coûtait pas des milliards pour d'entraîner des modèles compétents. On l'avait démontré avant. Ça a fait moins de bruit parce qu'on est européen et en fait les Américains regardent plus ce qui
se passe en Chine queen Europe. Mais mais euh de fait, on a toujours dit et c'est aussi ça qui nous a convaincu monter Mistral, c'est que ça coûtait pas des milliards de faire des modèles performants et de faire des outils que les gens utilisent. Euh et donc euh euh je pense que c'est démontré, on l'a démontré, d'autres l'ont démontré, je pense que c'est complètement démontré. Euh et ça met un peu euh en difficulté certaines entreprises américaines qui se sont dit euh et qui disent depuis 5 ans queen fait pour être compétitif dans ce domaine, il
faut mettre des milliards sur la table et investir de manière exponentielle. Je pense que c'est assez faux. Vous vous avez levé un peu plus d'un milliard, donc c'est quand même c'est quand même une grosse somme mais on sait que dans les sujets d'IA, c'est souvent le c'est souvent le cas. Un Ouais. un open AI en terme de de lever en tout. On a on a des données qui sont sorties là-dessus ou pas ? Open AI, ils ont dû lever un peu entre 60 et 70 milliards en tout. Euh ouais, c'est ça. Euh avec les nouvelles
annonces qui ont été fait avec c'est un de grandeur et qu'ils ont un financement, je pense nous notre estimation c'est qu'ils ont deux fois plus de financement que nous. OK. Ouais. Oui. Donc mais du côté Open AI, on voit que c'est un ordre de grandeur qui est qui est qui est différent. La question étant de savoir du coup effectivement dans le résultat et dans dans dans le le produit qui en sort, dans quelle mesure il y a une une vraie différence et et un un delta, on va dire plus important. En fait, ce qui est
intéressant, c'est que tout ça se base sur ce qu'on appelle des lois d'échelle. C'est-à-dire que on a pendant longtemps travaillé, moi j'ai particulièrement travaillé dessus d'ailleurs quand j'étais chez Google sur le fait que en mettant plus de capacité de calcul, on arrivait à avoir des modèles qui sont plus performants. Mais ça c'est vrai tant qu'on arrive à faire grossir la quantité de données qu'on met dans le modèle. Euh il y a un moment donné où on arrive dans un régime où en fait on a fini de compresser la connaissance humaine et donc euh mettre euh
remettre un x 10 sur les dépenses qui sont faites, ça a plus tellement de sens parce qu'on arrive dans un régime où les augment où le gain est vraiment très marginal. Grine la machine se base sur des ressources et ces ressources c'est c'est les connaissances qu'on a. Et en fait on a Ouais. On a un nombre de de ressources qui ça c'est fou la phrase que on a fini de compresser la la connaissance humaine. Et du coup, on a beau avoir une machine encore plus performante, tant que les données changent pas. Ouais. En gros, on
va pas faire des Ouais, c'est ça. Ben en fait, jusqu'à 2024, on éétait pas limité par la donnée, on était plutôt limité par le calcul. Donc globalement, il faut que la donnée grossisse enfin le calcul grossit un peu près à la même vitesse que la plutôt de manière au carré par rapport à la taille de la donnée. Euh c'est-à-dire que on va prendre ce qui se passe c'est qu'on prend 10000 milliards de mots et on le compresse dans un modèle qui fait 100 milliards de mots 100 milliards de paramètres. Donc il y a cette espèce
d'énorme compression qui fait la connaissance. Et quand on grossit x 10 la donnée, on grossit aussi x 10 le la taille du modèle. Donc à la fin la quantité de calcul c'est essentiellement la taille de la donnée fois la taille du modèle et donc du coup on a fait 100. OK. Donc pendant longtemps entre 2020 et 2024 on augmenta la taille de la donnée et puis on augmentait aussi la taille du modèle donc augmenté des modèles plus gros avec de la donnée plus grosse. En fait aujourd'hui on est arrivé dans un régime où bah on
peut plus augmenter la taille de la donnée parce que il y a pas tellement plus que 20000 milliards de mots disponibles. Euh après et ça quand tu dis ça c'est c'est ce qu'on évoquait tout à l'heure. Donc c'est quand tu dis ces données disponibles, c'est tout ce qu'on a en ligne si je schématise vraiment à fond à peu près. Ouais, avec en plus peut-être d'autres éléments qu'on a pu évoquer, d'autres sources qu'on peut après, il y a des sources de multimodal, donc il peut des sources d'images, des sources de vidéo, il y a des sources
propriétaires aussi avec lequel on peut faire des accords. Ça, on peut pas aller beaucoup plus loin que ce qu'on a aujourd'hui en gros sauf à exp sauf du coup à arriver à explorer d'autres types de données. ce que tu évoqué tout à l'heure. Enfin, tu évoquer le côté, on a du mal à à à les questions d'engrenage par exemple dans une industrie, c'est plus compliqué parce qu'on a pas les données, elles sont plus difficiles à il y a on n pas la connaissance la connaissance n'est pas disponible. C'est-à-dire qu'il y a aussi beaucoup de connaissances
qui sont dans des silos dans les entreprises et un des sujets pour continuer à améliorer les modèles aujourd'hui, c'est d'aller dans ces silos. Et ça peut se faire que de manière décentralisée. En fait, il faut se dire bon maintenant les modèles qui ont euh qui sont general purpose, bon ils sont bien. Maintenant, il faut aller les rendre spécialisés dans une certaine industrie. Et donc euh voilà, pour revenir à ce sujet, à partir du moment où on a fini d'utiliser la la donnée, ça sert plus à grand-chose de mettre du calcul en plus. Et donc la
thèse comme quoi mettre 10 milliards ça va rendre tout ça meilleur et et relativement fausse. Et donc c'est aussi l'opportunité pour des entreprises comme nous, des entreprises comme Dipsic de rentrer sur le marché et de faire une place très très significative malgré des dépenses qui sont pas qui sont un ordre de grandeur en dessous de ce que Open par exemple a pu faire. Euh mais je trouve ça fascinant ce que tu dis sur la question du savoir ou de la Ouais. du savoir humain que vous avez réussi à d'une certaine façon compresser, compiler et cetera.
Depuis quand est-ce qu'on a atteint ce stade de bon bah en fait là globalement tout ce qui existe au sens en tout cas tout ce qui existe à minima en ligne on l'a et on est capable de l'exploiter. Ça remonte à quand ça c'est de Ouais 2024 à peu près je pense comment les les points de saturation enfin les effets de saturation qu'on constate dans le pré-entraînement c'est des choses qui datent vraiment de euh de 2024. Et maintenant du coup l'enjeu pour vous c'est plus de se dire comment est-ce qu'on exploite au mieux ces données
et comment est-ce qu'on arrive à entraîner notre modèle pour le bien les utiliser à l'échelle parce que nous on a encore la possibilité d'entraîner un peu plus longtemps. Euh on n'est pas encore dans ces régimes de forte saturation mais effectivement il y a un enjeu algorithmique c'est-à-dire que il faut réfléchir à des nouvelles architectures qui sont plus efficaces et cetera. Il y a des enjeux de données, c'est-à-dire que il y a plein de données don qu'on pourrait jeter et qui en fait font du bruit dans l'entraînement. Donc il un sujet d'avoir la donnée de la
meilleure qualité. Il y a un sujet de raisonnement aussi. Il y a des nouveaux paradigmes d'entraînement qui consiste à pousser le modèle pour qu'il devienne de plus en plus fort en mathématiques avec c'est d'autres techniques d'entraînement des techniques de de renforcement. C'est-à-dire que on a déjà compressé la connaissance, mais on demande au modèle de générer des preuves. On lui dit euh voilà la question math, la réponse on la connaît. Génère-moi une preuve et donne-moi la réponse. Et si la réponse est juste, bah on va pousser un peu le modèle dans cette direction d'écriture de preuve.
Si la réponse est fausse, on va le pousser un peu dans l'autre direction. Et donc on le fait et on arrive comme ça à rendre le modèle beaucoup plus fort en mathématiques, beaucoup plus fort en code. Ce qui amène du coup ma question suivante euh et dans quelle mesure est-ce que Lia aujourd'hui déjà ne vient pas quand même enrichir du coup ce socle de connaissance qu'on a et dans quelle mesure il tu vois il arrive à du coup de fait enrichir cette base de connaissance que tu évoquais. Elle en soi n'enrichit rien. Euh c'est-à-dire que
une fois qu'on a compressé l'information dans un modèle, bah il a pas plus d'informations que ce qu'on a compressé. Et donc du coup euh le sujet quand on veut rendre le modèle meilleur, c'est qu'il faut ramener de nouvelles sources de signal euh des nouveaux signaux. Et les nouveaux signaux, ça peut venir de deux choses. Ça peut venir soit d'annotation humaine, donc des gens qui vont faire des démonstrations pour le modèle. Ça peut aussi venir de démonstration que des machines peuvent faire. Donc euh en mathématiques par exemple, on est capable de on a des systèmes de
preuv formell et cetera. Donc, on est capable de générer plein de problèmes euh et des démonstrations qui vont euh rentrer dans un modèle de langue. Donc le sujet pour toute l'industrie aujourd'hui, c'est de trouver des nouvelles sources de signaux qui sont soit euh générées par la machine. Donc ça peut être de la de la simulation, ça peut être de l'exécution de code, c'est euh essentiellement on va disyer l'expertise d'une machine euh avec des procédures qu'on savait déjà écrire dans un modèle de langue. Et l'autre enjeu, c'est d'aller euh en fait chercher de l'expertise que le
modèle a pas encore. Donc c'est-à-dire rendre le les modèles plus forts en code et cetera. Ouais. Mais sur le côté, tu vois, création de de nouveaux savoirs d'une certaine façon. Si si on part sur un exemple très terre à terre, tu vois, moi j'ai il y a quelques années, il y avait un docu qui que que qui m'avait marqué que tu as peut-être vu qui qui était sur le Alpha Go et sur le donc Lia à l'époque développé par Google, c'est Deep Mine si je dis pas de bêtises, pour battre euh le meilleur joueur du
monde sur le jeu de go qui est un jeu qui me qui me passionne mais du coup ça m'avait intéressé et qui et donc Lia avait réussi à battre le champion du jeu de go euh alors que ce n'était pas arrivé jusque-là et j'avis J'ai regardé beaucoup de vidéos d'analyse de joueurs de GO qui a analysé le truc et qui disait "Mais en fait ce qui a réussi à faire l'a là ou les solutions qui ont été trouvées par Lia pour remporter cette partie, c'est des choses que nous en tant qu'humain dans les ressources même
des plus grands champions de jeu de go, on l'avait pas en tête, on avait pas en tête cette solution. Est-ce que là quand même de cette façonlà, il y a pas la création d'un nouveau savoir ? Alors c'est dans le cadre d'un jeu de société mais un nouveau savoir de attends bah oui là telle chose est meilleure que telle chose et c'est une connaissance en soi qu'on découverte d'une certaine façon. C'est tout à fait l'ambition. Euh et en fait ce qui est intéressant c'est que le jeu de go, il a été résolu par des méthodes
de renforcement. En fait le seul signal que le modèle avait c'est ce qu'il avait gagné la partie. Donc il a le choix de déployer sa stratégie. Il le fait des milliards de fois et il sait à la fin s'il a gagné ou s'il a pas gagné la partie. S'il a gagné la partie, il va se dire "Bon, cette stratégie, elle est pas mal, je vais la retester." S'il a perdu la partie, il va se dire "Bon, je vais faire une autre stratégie." C'est la même chose en texte. Enfin, en tout cas, c'est ce que on
pousse tous collectivement à Mistra dans les autres entreprises, de se dire bon, quel est l'équivalent de du de problème de texte qui ressemble au jeu de go ? Donc notamment, c'est les problèmes de math. Je pose une question mathématique complexe, j'ai une réponse, c'est une question fermée, hein. Donc ça veut dire qu'il faut en fait il à la fin il faut encadrer un résultat. Euh et ensuite, on laisse au modèle la capacité de déployer son raisonnement, d'écrire sa preuve. La preuve, elle peut être fausse. Elle est fausse au début. et on tombe sur un mauvais
s'il tombe sur un bon résultat, il va se dire "Ah, mon raisonnement est pas mal, je vais garder." S'il tombe sur un mauvais résultat, il va le retirer. Et donc l'espoir et je pense pas qu'on y soit encore arrivé c'est de se dire et bah si on arrive à pousser ça longtemps, si on fait des raisonnements qui sont de plus en plus complexes, si les raisonnements font une centaine de pages, peut-être qu'en fait le modèle il va inventer des nouvelles techniques en math, il va inventer nouvelles des nouveaux objets et cetera. Pour le moment, on
l'a pas encore je on l'a pas encore vu. C'est-à-dire que on cette créativité en texte, elle est quand même plus compliquée que sur le problème qui est finalement un problème très simple de Go. Euh mais c'est l'enjeu, c'est de se dire et c'est la question scientifique euh de se dire on a du signal qui est un signal très simple de c'est vrai, c'est faux. Est-ce que ce signal suffit pour que un modèle développe une intelligence de preuve qui est novatrice ? Ouais. Et et l'enjeu, j'imagine, c'est de se dire "Oui, jusqu'où est-ce qu'on peut aller
là-dessus ?" Parce que moi, c'est ce qui me enfin ce qui me passionne sur le jeu de gauche, je pense que le jeu en soit est passionnant mais c'est aussi cette truc où pendant longtemps on un un robot n'arrivait pas ou une n'arrivait pas à battre un humain. Euh ça c'est arrivé, le jeu de go, ça arrivait, je vais pas dire de bêtises, mais les jeux d'échec, ouais, ça c'est 2016. Les Lia, enfin un ordinateur qui bat aux échecs, c'était les années je pas dire de bêtises. 90. 90. OK. Ouais. Alors, c'était pas les même
technique mais une fois une fois que le go a été résolu, en fait les échecs ont été résolus avec la même technique puisque fondamentalement c'est le même problème. Ouais. Et donc oui, la question c'est de se dire maintenant dès qu'on rentre sur des choses plus complexes, des sujets Ouais. où est-ce qu'on va aller et et où va on peut être la limite. Et donc aujourd'hui ce qu'on sait faire c'est pousser la capacité des modèles en math et en code simplement parce qu'on a des sources de signaux qui sont à grande échelle. C'est que le on
est capable sur des millions de problèmes en math de dire si c'est vrai ou si c'est faux. OK. Euh ou c'est ça les signe pour que tout le monde ça comprenne bien c'est au moins il faut qu'il ait un truc comme le jeu de go tu as gagné tu as perdu il faut qu'il ait un truc qui lui permet de comp exactement il faut qu'il ait une récompense en fait c'est comme ça qu'on l'appelle en renforcement c'est que il faut qu' a une récompense 1 ou zéro si si le si c'est une bonne note ou
une mauvaise note. Et en fait ce qui est intéressant et complexe c'est que dès qu'on passe sur des sujets qui sont plus ouverts, je pense par exemple un problème philosophique si on veut écrire une dissertation de philo, bah c'est plus difficile de dire c'est un ou c'est zéro. Donc on a des ce qu'on appelle des reward modèles qui sont capables de donner des notes. Mais la question c'est queil faut que ces modèle de récompense il soi ce soit des bons professeurs en fait. Il donnent une note qui soit bien adaptée au contenu et donc si
on a des bons professeurs, on peut avoir des bons étudiants et on est capable d'avoir des bons professeurs en math parce que en math on sait si c'est vrai ou si c'est faux. on est moins capable dans d'autres sujets et c'est un vrai euh c'est un peu la frontière, c'est-à-dire comment on fait pour avoir un bon professeur en philosophie pour qu'ensuite les modèles deviennent très forts en philosophie ? C'est c'est vertigineux et ça pose plein de plein de questions. Mais ça m'aide une question peut-être plus personnelle de ton côté. Comment est-ce que est-ce que il
y a des utilisations ou un potentiel de l'IA au sens large qui te fait peur et où tu dis ou là c'est parce qu'on me je me souviens d'une tribune paru il y a un ou 2 ans qui qui a alerté sur certains certains risques. Est-ce que toi à ton côté, tu dis il y a des des frontières à ne pas euh franchir euh ou des choses où tu vois un risque d'un point de vue éthique, d'un point de vue moral, d'un point de vue d'impact sur la société où tu dis ou là, on ferait
peut-être mieux de pas s'engager sur tel ou tel terrain. Nous, je pense qu'aujourd'hui le bon les modèles marchent quand même pas suffisamment bien pour être pour pour être source de risque majeur. te l'a dit et le je pense que le risque majeur, c'est d'avoir d'un contrôle centralisé de la technologie. C'est-à-dire qu'il y ait un ou deux acteurs américains qui ait un contrôle culturel et un contrôle sur le contenu et qui puissent décider de couper la machine à qui ils veulent et d'influencer la machine dans certaines directions. Donc ça c'est un premier point. cet aspect centralisation
d'un outil aussi puissant, je pense que c'est la chose la plus la plus dangereuse et et je pense par chance, je pense qu'on a bien réussi à la combattre et aujourd'hui cet aspect décentralisation modèle ouvert est quand même de plus en plus accepté euh comme la meilleure solution. Euh ensuite, je pense que dans dans les sujets qui vont être importants dans les années qui viennent, c'est vraiment sujets culturel et d'influence en fait parce qu'on parle de systèmes qui sont capables de créer de l'empathie avec les humains et qui sont capables de d'imprimer leur leur leurs
biais, leur volonté de d'influencer des humains de manière très très fine et assez indétectable. Euh aujourd'hui, c'est pas si difficile de d'engager une conversation et de de pousser quelqu'un pour acheter quelque chose. C'est d'ailleurs probablement comme ça que beaucoup d'entreprises vont monétiser euh les euh les chatbotes qui sont déployés. Mais ça veut dire qu'en fait on peut pousser un peu d'après n'importe quoi. Euh et donc il y a un vrai sujet euh de enfin ça c'est je pense que le il y a un sujet de citoyenneté en fait. C'estàd comment avoir un sens critique par
rapport à ces sujets-là. Euh comment faire en sorte que qu'on détecte quand il y a des des campagnes d'influence qui sont déployées euh qui sont potentiellement nuisibles ou des campagnes d'ingérence. Donc il y a un vrai sujet de démocratie qui se pose parce qu'on a des systèmes qui sont capables d'avoir des fortes influences sur les humains. Et d'un point de vue de donc ça on voit le côté effectivement de bon on en parlait tout à l'heure d'influence et d'impact démocratique ou de risque associés et d'un point de vue plus de capacité technologique donc au-delà de
la dimension d'influence mais de capacité à faire des choses qu'on ne soupçonnait pas qu'on pouvait pas imaginer il y a encore quelques années. Est-ce que là tu vois de ton côté des risques ou des trucs que tu te dis ? Enfin spontanément, je pense que pour quelqu'un même qui va écouter cette interview, il peut avir ce truc de attends mais si commence à résoudre des choses extrêmement complexes qu'on est peut-être à un moment incapable de faire nous-même jusqu'où ça peut aller ? Il y a toujours ce fantasme que c'est un fantasme d'ailleurs mais de du
nia qui nous dépasse d'une certaine façon euh ce qui est déjà le cas en partie de certaines choses. Est-ce que là-dessus toi tu as une de ton côté je pense qu'il y a un il y a il y a toujours une espèce de peur de d'avoir un genre de terminator. Euh je pense que ça c'est une peur qui est complètement affondée. C'est-à-dire que ça reste des logiciels ce qu'on crée c'est logiciels qui sont sous contrôle humain euh qui tournent sur des machines. ça va pas s'venir indépendant et faire des choses qui qui deviennent dangereux pour
les humains. On déploie pas des systèmes dont on ne contrôle pas le comportement. De toute façon, c'est quand même la base dans les dans le logiciel. Et donc évidemment, il peut y avoir des bugs et cetera, mais c'est important de de faire en sorte qu'on contrôle bien ce qui se passe, notamment quand on connecte les modèles à des outils. Euh mais je pense que la peur de d'avoir un un système qui s'échappe c'est une peur qui est enfondée et qui qui est clairement de la science-fiction. Euh ensuite euh peut-être une peur qui peut y avoir
sur que l'intelligence artificielle va nous remplacer. On en a parlé en début d'émission, c'est que il y a un sujet de il faut apprendre à l'utiliser pour être rester pertinent. Un des risques qui un risque qui est documenté scientifiquement, c'est un risque de ce qui s'appelle un risque de deskilling. C'est-à-dire que les humains peuvent commencer à faire un peu trop confiance à l'intelligence artificielle et puis du coup oublier comment faire de l'analyse, oublier d'avoir un sens critique. Et ça c'est un problème aussi chez nous de quel genre de design on propose au euh aux utilisateurs.
Ouais. pour qu'il reste engagé et qu'il continue à réfléchir parce qu'on veut pas tout prémâcher et on veut que quand il s'agit de prendre une décision qui est importante euh la décision elle soit prise en âme et conscience avec le libre arbitre de de l'utilisateur. Et donc ça ça va être un vrai sujet de faire en sorte que malgré la puissance des outils qu'on propose euh le cerveau humain reste actif. Et donc ouais c'est et puis même je pense que c'est des questions très terre à terre dans le domaine de l'éducation par exemple. Je pense
que le nombre de d'écoles ou d'universités ou qui qui se pose la question de je sais pas, on prend le cas d'une discerte par exemple, j'ai déjà plein d'exemples de de cas où maintenant les dissertations, ils en font quasiment plus à la maison parce qu'ils savent que ça peut être ça peut être utilisé. Et y a ce truc, j'imagine qu'il y a une tension entre à la fois bah c'est intéressant de savoir utiliser ses outils pour faire ses choix et cetera et et pouvoir accompagner des choses. On voit ce que ça permet pour faire une
discerte. Ça peut t'aider à faire un plan ou autre. Et à la fois évidemment faut pas perdre la capacité à toi-même bah construire un plan et avoir ce enfin je sais pas comment est-ce que tu le vois dans dans domaine de l'éducation mais ça a posé 1000 questions de d'arbitrage après même pour l'éducation nationale ou autre. Bah c'est c'est un énorme sujet. D'ailleurs, nous on travaille avec des universités et puis des lycées euh euh français en particulier justement pour faire ces déploiement de pour déployer nos systèmes, pour déployer le chat. L'intérêt ici, c'est de se
dire à quoi ça sert et comment ça peut être bénéfique pour l'enseignement. Effectivement, si c'est utilisé pour répondre pour faire le les devoirs, bah ça sert pas à grand-chose. Mais les devoirs, fondamentalement, c'est pas une punition pour les élèves. C'est une manière pour eux d'apprendre. Et donc si euh en fait ils contournent euh cette manière d'apprendre avec de la génération et qu'ils expliquent pas leur sens critique, ben effectivement ça ne sert plus à rien et en fait tout le monde perde son temps, le professeur perd son temps et cetera. Mais en revanche, on l'utilise de
manière différente, c'est-à-dire que si on l'utilise pour avoir de l'éducation plus personnalisée, si euh le professeur a accès à des assistants qui sont personnalisés par élèves et qu'il est capable de leur pousser un certain nombre d'exercices ou un certain nombre de notions que chacun des élèves doit apprendre, mais en fait le professeur est largement augmenté et va pouvoir avoir plus d'impact sur sa classe et ça s'applique, je pense de la primaire aux éducations supérieures, à l'enseignement supérieur. Et donc ça c'est un aspect important, c'estàd que c'est un outil au service des professeurs, c'est aussi un
outil au service des professeurs pour faire des corrections. C'est pas la partie la plus passionnante de leur de leur métier. Et donc donc ils peuvent commencer largement à utiliser. Mais ce qui est important, c'est effectivement d'en avoir un usage, de bien comprendre que les devoirs qu'on fait, le travail qu'on fait en tant qu'étudiant, c'est un proxy pour apprendre et devenir plus intelligent. Donc il faut utiliser l'intelligence artificielle pour devenir plus intelligent soi-même. Oui. Quand quand tu Oui. Euh quand on te demande de faire un devoir maison de math ou de je ne sais quoi chez
toi, le sujet c'est pas que tu es la bonne réponse, le vrai enfin évidemment tu es content d'avoir une bonne note, mais le vrai sujet c'est ta capacité de raisonnement dessus et et cet apprentissage à organiser ta pensée ou à je ne sais quoi et ouais comment est-ce que tu gardes ça la solution c'est certainement d'avoir une partie des choses qui doivent être faites sans intelligence artificielle. Je pense que c'est important d'avoir que le le l'humain reste intelligent de bout en bout, c'estàd qu'il puisse écrire des choses sans sans outil, mais c'est aussi d'avoir des
devoirs et des tâches avec intelligence artificielle. C'est-à-dire que bah oui, écrire une dissertation de philosophie aujourd'hui, bah avoir une première itération avec une intelligence artificielle, c'est pas idiot parce que ça permet d'avoir de de récupérer de la connaissance qu'on auquelle on avait pas pensé. Mais il faut itérer, faut pas le faire. D'ailleurs hier peut-être un moteur de recherche pouvait t'aider à avoir des ressources sauf que c'est plus puissant. Ouais, c'est plus puissant mais ça veut dire qu'on peut faire des choses plus complexes. Donc je pense qu'il faut monter le niveau d'exigence grâce au fait que
en fait la base elle est fournie par l'IA donc on peut faire des dissertations plus compliquées, on peut apprendre plus vite et il faut pousser le niveau d'exigence. Euh peut-être dernière question euh je vous l'ai évoqué tout à l'heure mais parmi toutes les questions qui reviennent souvent, il y a la question aussi de l'impact écologique de ces requêtes et de et de tout ça. Euh est-ce que vous vous avez des données aujourd'hui sur et des informations sur ça côté côté ministral et comment est-ce qu'on peut faire en sorte de prévenir bah ce risque là de
de consommation d'énergie particulièrement importante dans le cadre des IA quel qu'elle soit d'ailleurs ? Euh alors plusieurs choses déjà, c'est important d'avoir euh en tête les ordres de grandeur. Euh le effectivement le l'intelligence artificiel crée de la demande de data center. Donc il va y avoir plus de serveurs, donc les centres de données où il y a enfin tout est là là où il y a les ce qu'on appelle les cartes graphiques. Donc c'est c'est ces outils de calcul qui font tourner les modèles les modèles d'intelligence artificielle. Donc ça ça crée de la demande. Euh
c'est euh ça reste assez négligeable par rapport à l'industrie par exemple. Euh aujourd'hui alors faudrait que je revois les chiffres mais c'est quelques pourcents et ça va monter à quelques pourcents de plus de la consommation d'énergie mondial. Euh ça c'est une première chose. En revanche, c'est vrai que ça ça dépense hein et c'est ça ça consomme ça consomme surtout en au moment de l'entraînement euh parce que nous on a beaucoup de machines euh et nous ce qu'on a fait parce que c'est une chose qui nous tient à cœur c'est euh de progressivement relocaliser les capacités
de calcul qu'on avait aux États-Unis parce qu'il y en avait pas ailleurs au début vers l'Europe où en fait le mix énergétique en particulier en France fait que les émissions de carbone lié à l'énergie qu'on consomme sont largement réduit. du fait du nucléaire notamment de l'énergie nucléaire en terme de de d'émission de gaz à effet ser moins important ce qui est donc ça c'est un aspect donc on a fait un travail d'audit dessus avec carbon 4 vous aviez reçu ici il y a quelques temps donc on on va le mettre à disposition donc on est
mieux 10 an on est mieux 10ant parce qu'on utilise moins de capacité de calcul c'est lié au fait qu'on déploie moins de capital et aussi on fait des modèles qui sont qui sont plus petits. Donc quand ils sont déployés, ils prennent moins de machines, ils peuvent gérer plus de requêes avec moins de machines. Donc ça c'est un aspect important. Après de manière plus macro, euh ce qui est je pense qui est une bonne source d'espoir, c'est que les data center qu'on doit créer aujourd'hui pour gérer les GPU, c'est des data centers qui consomment beaucoup d'électricité
mais de manière constante. Euh c'est-à-dire que le la demande, elle est elle est 24 he/ 24 avec le un certain flux. Ce qui veut dire que bah il faut trouver des solutions pour ça. Euh et ce qu'on observe dans l'industrie, c'est que les solutions qui sont trouvées sont quand même de plus en plus vers le nucléaire et vers les les énergies renouvelables, en particulier le solaire. Alors, le solaire, ça pose des questions de stockage parce que le solaire c'est intermittent et la demande, elle est constante. Euh mais d'une certaine manière, ça recrée une demande d'énergie
qui est nouvelle euh et euh sur lequel on est dès le premier jour en train de chercher les solutions pour que ce soit de l'énergie décarbonée. Donc ça va permettre de passer à l'échelle enfin ça augmente la demande en solaire, ça augmente la demande en nucléaire, en particulier en aux États-Unis où ils ont des problèmes de grille, ils veulent faire des petits centres nucléaires. Donc euh donc ça peut accélérer la transition énergétique. C'est un peu le point de vue optimiste sur le sujet. Euh il y a un point de vue plus pessimiste, c'est dire c'est
plus de ressources nécessaires. Donc ça va prendre beaucoup de la l'énergie. Bah Elon Musk qui met euh des camions euh citterne, il ramène des camions qui sont des générateurs. Donc il a des générateur pour pour gérer son data center. Bon bah ça ça met du carbone. Mais par contre si on fait un travail de fond et on le connecte à à la grille française, ben ça ça ne met pas de carbone. Donc pour résumer évidemment quand même. même un enjeu de de de demande de ressources qui qui est très important pour ce genre de techno,
mais il y a l'enjeu à la fois de votre côté de être malin pour dans la façon dont vous utilisez cette énergie là et vous construisez votre modèle pour être le moins énergivore possible, j'imagine. Et le deuxième enjeu, c'est d'où vient cette énergie. Euh effectivement, si elle vient euh d'une d'une centrale nucléaire ou d'énergie renouvelable, c'est très différent de euh d'une centrale à charbon ou de je ne sais quoi euh qui serait qui serait à côté, quoi. Euh c'est sûr que c'est pas la même à ce moment-là, il y a un impact qui est qui
est colossal. Euh écoute, on a abordé plein de sujets différents, euh gen encore plein de questions, mais ça fait déjà très très longtemps qu'on qu'on parle. Peut-être pour reboucler sur l'avenir et sur la suite, comment est-ce que tu vois toi euh Li en général et même Mistral sur les c'est dur de se procher très loin, j'ai une sorte de choses, mais à minima horizon, je sais pas 2 3 ans, comment est-ce que tu vois l'impact et les capacités à venir ? Bah nous il y a un impact puis une accélération qui sur plusieurs plans. Il
y a une accélération scientifique. On a des nouveaux modèles qui arrivent capable de raisonner, capable d'être beaucoup plus contrôlable aussi en suivant des instructions et cetera. Donc ça c'est un sujet scientifique sur lequel on continue en permanence à faire des progrès. Euh on a un sujet produit. Euh le chat, on a mis une première version en février. Ça a eu beaucoup beaucoup d'utilisateurs euh qui en sont contents mais on va l'améliorer aussi. Euh donc avec euh avec de nouvelles connexions, avec un modèle qui est plus sympathique, avec euh une version entreprise aussi euh qui est
connecté à au contexte de l'entreprise et qui permet d'avoir toute la productivité, euh les gains de productivité qu'un employé peut espérer. On a une forte accélération commerciale notamment côté entreprise européenne et entreprises asiatiques qui cherchent à avoir des partenariats qui leur donnent des options vis-à-vis des fournisseurs américains et qui cherchent un niveau de souveraineté qui est accru par rapport à ce qu'il pouvaient avoir avant. Donc voilà, nous on est positionné on grossit aussi aux États-Unis avec notamment des entreprises de hardware comme Cisco qui nous utilisent de plus en plus. Euh donc on a ce sujet
de gérer la croissance commerciale, on a sujet d'améliorer le produit, de le rendre plus personnalisé, de le rendre euh plus rapide, d'avoir un design qui est meilleur euh et de le rendre plus euh voilà, plus plus utile dans l'entreprise, plus utile au quotidien. Euh et puis on a ce sujet scientifique, on a du coup des capacités de raisonnement à pousser dans plein de domaines. Ça devient assez exponentiel. C'est-à-dire queil y a les maths, il y a il y a le la capacité de calcul euh enfin de pardon de de code, d'avoir des modèles qui codent
bien euh mais aussi euh sur toutes les sciences sociales et cetera, il y a plein de choses intéressantes à regarder. Euh il y a des capacités de multimodalité aussi, c'est-à-dire non seulement traiter du texte, mais aussi traiter de l'image, générer de l'image, traiter de l'audio, générer de l'audio. Ça c'est des sujets sur lequel il y a encore plein de progrès à faire. Euh et puis euh le sujet de transformer euh en produit cette la personnalisation, c'est donner toutes les clés éditoriales à nos clients. Euh en fait, c'est pas un sujet résolu. Il y a il
y a c'est pas facile de de d'aligner un modèle à à ses désirs et à ses orientations éditoriales. Et donc avoir le produit pour le faire, c'est c'est un des enjeux. Et donc de ce point de vue-là, on recrute dans différentes directions en en sciences. On recrute dans plein de directions en ingénierie. C'est là on recte le plus aujourd'hui. Et puis en du côté commercial euh bah des vendeurs, des gens en marketing, en product marketing aux États-Unis, en Europe et puis en Asie. Très bien. Et peut-être dernière question pour pour terminer. Tu as une trentaine
d'années, tu es à la tête d'un d'une boîte qui est qui a levé plus d'un milliard d'euros qui est sur un sujet immense, qui est peut-être le sujet en tout cas technologique des prochaines années. Enfin, ça, il y a pas trop de doute dessus. avec un enjeu, on l'a vu, euh de souveraineté sur ces sujets-là, tu es à la tête de tout ça. Euh comment tu le vis ? C'est un peu bizarre et je sais pas si tu as l'habitude de répondre à ce genre de question, mais comment est-ce que tu paraît vertigne dit comme
ça ? Comment est-ce que toi tu le tu le vis et tu et tu gères tout ça aujourd'hui ? Moi c'est assez varié, il y a pas mal de choses à faire effectivement. Bon, déjà la première chose c'est que je suis évidemment pas tout seul hein. C'est une entreprise qu'on a cofondé avec Guillaume et Timothé qui gère la science, qui gère l'aspect technique. Donc moi, j'ai j'ai en fait j'ai pas à me concentrer là-dessus. Je passe beaucoup de temps sur le développement commercial. Je passe aussi beaucoup de temps sur les aspects d'organisation de l'équipe parce
que c'est vrai qu'on est 200 aujourd'hui et on était 100 en octobre. Donc il y a pas mal de croissance qui a été faite. Euh ce qui veut dire qu'il faut organiser notamment les flux d'information. C'est pas évident que tout le monde se parle euh et c'est pas évident que tout le monde sache ce qui se passe dans cette entreprise. Euh il y a un aspect représentation parce que c'est un sujet qui éminemment politique et qui est lié à des à de la souveraineté à des des sujets de souveraineté. Et donc euh être au bon
endroit et participer aux endroits où c'est euh important euh bah ça me prend aussi pas mal de temps. Euh et après euh ce qui est important c'est d'avoir euh de bien recuter. Il faut avoir des gens qui sont plus forts que soi euh et plus intelligents que soi dans tous les domaines où en fait on a une compétence limitée. Euh donc c'est le cas en commercial, c'est le cas en marketing, c'est le cas en produit. Globalement le moi mon rôle c'est d'être et mon objectif c'est c'est de faire le moins de choses possible. C'est-à-dire que
d'avoir les gens qui font et qui euh qui qui fassent tourner les choses et quand il y a des problèmes et des choses à améliorer, bah c'est là où je j'ai un rôle à jouer. Mais euh l'objectif c'est de faire en sorte que les choses tournent tout toutes seules. Voilà, le plus possible. Euh merci beaucoup Arthur, merci pour euh pour cet échange. Franchement, on a abordé plein de sujets euh différents. On a essayé de le rendre le plus grand public possible. Alors, je sais que c'est toujours des sujets et et pour toi, même pour public,
qui sont pas évidents à à alors pour toi peut-être à rendre grand public parce que ça reste très technique euh mais en même temps, je pense que ça permet d'avoir une vraie compréhension de des grands enjeux et de tout ce qui se pose en ce moment. Donc franchement, merci pour ça parce que je sais que c'est pas évident à à faire. C'était c'était très clair et super super intéressant. J'invite évidemment tout le monde à à tester le chat mais c'est pas encore le cas parce que parce que c'est quand même assez assez impressionnant surtout qu'il
y a eu bah eu l'application est sortie il y a quelques semaines he c'est assez récent si je dis pas ex elle est sortie début février et il y a des grosses mises à jour qui qui arrivent dans les prochaines semaines. Très bien faudra suivre tout ça. On met tous les liens évidemment en description vous les découvrir et tester tout ça si je c'est pas encore le cas. Encore merci Arthur Men, merci beaucoup et puis merci beaucoup pour l'invitation. C'était très très sympa. Et puis hésitez pas évidemment de votre côté à vous abonner c'est pas
encore le cas. Je voulais d'autres interviews de ce type là. On va essayer de faire de plus en plus comme ça de sujets plus techniques pour essayer de les comprendre et de voir ce qui se passe ce qui se passe derrière. Ça me paraît super intéressant. Donc hésitez pas à vous abonner que soit sur YouTube ou en podcast. Je vais vous écouter en podcast. Prenez soin de vous et on se dit à très vite. [Musique]
Related Videos
L’humanité fonce dans le mur ? - Entretien avec Jean-Marc Jancovici
1:17:09
L’humanité fonce dans le mur ? - Entretien...
HugoDécrypte - Grands formats
2,143,764 views
L’Intelligence Artificielle a-t-elle pris le contrôle sur notre quotidien ? - Cash investigation
1:52:15
L’Intelligence Artificielle a-t-elle pris ...
Cash Investigation - France Télévisions
289,577 views
Si vous pensez mal manger, regardez cette vidéo (avec le Dr Jimmy Mohamed)
49:40
Si vous pensez mal manger, regardez cette ...
HugoDécrypte - Grands formats
1,943,732 views
THE P. DIDDY CASE: a summary
1:14:47
THE P. DIDDY CASE: a summary
SEB
3,784,980 views
L'IA open source peut-elle tuer ChatGPT ? (interview Mistral AI)
45:07
L'IA open source peut-elle tuer ChatGPT ? ...
Underscore_
531,160 views
Vous n'avez RIEN vu : Trump a changé le monde en 100 jours
33:24
Vous n'avez RIEN vu : Trump a changé le mo...
HugoDécrypte - Grands formats
768,432 views
Le Pire Stagiaire Chanteuse (tribute Johnny Hallyday)
2:03:08
Le Pire Stagiaire Chanteuse (tribute Johnn...
Greg Guillotin
4,015,817 views
Is This How It Works at McDonald’s? - Cash Investigation
1:43:01
Is This How It Works at McDonald’s? - Cash...
Cash Investigation - France Télévisions
1,730,422 views
DJ Snake me dévoile l'envers du décor (tournée, Avicii, risques...)
56:16
DJ Snake me dévoile l'envers du décor (tou...
HugoDécrypte - Grands formats
292,869 views
Les 4 étapes pour entrainer un LLM
39:59
Les 4 étapes pour entrainer un LLM
ScienceEtonnante
233,182 views
Enquête sur les faussaires des réseaux sociaux | Sources | ARTE
18:25
Enquête sur les faussaires des réseaux soc...
ARTE
122,913 views
Shaolin Warrior Master: Hidden Epidemic Nobody Talks About! This Modern Habit Is Killing Millions!
2:28:58
Shaolin Warrior Master: Hidden Epidemic No...
The Diary Of A CEO
1,800,444 views
Le hacker qui avait 6h d'avance sur Wall Street
44:33
Le hacker qui avait 6h d'avance sur Wall S...
Micode
1,440,512 views
GÉRALD DARMANIN RACONTE LES DESSOUS DE LA POLITIQUE (ATTENTAT DÉJOUÉ, PROCÈS, PRISON HAUTE SÉCURITÉ)
2:33:50
GÉRALD DARMANIN RACONTE LES DESSOUS DE LA ...
LEGEND
545,976 views
Les MEILLEURS CONSEILS pour ENFIN MIEUX DORMIR | EXPERT DU SOMMEIL |
1:50:11
Les MEILLEURS CONSEILS pour ENFIN MIEUX DO...
Major Mouvement
884,258 views
Jérôme Kerviel : le trader repenti règle ses comptes
1:03:43
Jérôme Kerviel : le trader repenti règle s...
Brut
323,709 views
La France est-elle prête pour l’IA ? (Interview Emmanuel Macron)
44:46
La France est-elle prête pour l’IA ? (Inte...
Underscore_
627,108 views
QUI EST L'IMPOSTEUR ? (ft Tiakola & SDM)
54:55
QUI EST L'IMPOSTEUR ? (ft Tiakola & SDM)
SQUEEZIE
9,430,905 views
Tension inédite entre la France et l'Algérie : la vidéo pour comprendre
52:13
Tension inédite entre la France et l'Algér...
HugoDécrypte - Grands formats
1,295,812 views
Cybercriminalité, des attaques bien réelles | ARTE
51:19
Cybercriminalité, des attaques bien réelle...
ARTE
1,413,630 views
Copyright © 2025. Made with ♥ in London by YTScribe.com