L'IA open source peut-elle tuer ChatGPT ? (interview Mistral AI)

412.25k views10068 WordsCopy TextShare
Underscore_
Essayer Mammouth AI : https://mammouth.ai Depuis le tournage, o3 est sorti et est disponible avec Ma...
Video Transcript:
aujourd'hui on reçoit une légende de la tech française Arthur mench cfondateur de Mistral ai la seule entreprise d'Europe capable de tenir tête à open ai et au garfam dans leur cour à l'intelligence artificielle en à peine un an lui et ses deux associés ont réussi l'impossible lever plus d'un milliard d'euros développer des modèles d'IA qui rivalisent avec chadpt et transformer leur startup parisienne en une entreprise valorisée 6 milliards d'euros dans cet épisode exceptionnel Arthur va nous dévoiler les secrets de cette success story comme comment trois Français ont quitté leur job en or chez Google et
ma pour se lancer dans cette aventure folle comment ils rivalisent avec des géants qui ont 100 fois plus de puissance de calcul queeux et surtout la guerre des talents qui fait rage en Cisse entre Mistral et lesga femme pour attirer les meilleurs ingénieurs on va aussi lui demander si d'après lui les modèles d'IA ont atteint un plafond et qu'est-ce qui nous réserve pour la suite je suis très excité et honoré de pouvoir vous partager cette conversation avec Arthur mench mais juste avant j'ai un message pour tous ceux qui hésitent à prendre un abonnement chat GPT
notre partenaire du jour mammouth ai a eu une idée assez brillante rassembler tous les meilleurs modèles d'AD dans une seule interface et derrière un unique abonnement pour 10 € par mois vous avez accès au modèles de langage les plus récents O1 Grock dipsic et même des modèles de génération d'images comme midjournée ou flux quand on sait que cumuler tous ces abonnements ça coûterait dans les 80 100 € c'est assez imbattable si vous avez besoin de générer beaucoup d'images par mois ils ont aussi des plans un peu plus chers le truc cool c'est que ils sont
toujours à l'affu des nouvelles sorties par exemple ils ont déjà fluxe pour la génération d'images et globalement c'est juste agréable de pas avoir à changer d'interface tout le temps je vous mets le lien vers leurs différentes formules en description et on reprend c'est quoi l'élément déclencheur déjà pour se dire on va créer notre propre société face à ces géants quand on est déjà bien installé confortable je pense que il y a il y a deux conversations une en septembre 2022 avec Timothé et une en novembre 2022 alors à neurips qui est la grosse conférence de
machine learning avec Guillaume où on s'est rendu compte qu'on avait des aspirations similaires en fait de lancer une entre prise en France et que on connaissait pas mal de gens que ça intéresserait et donc à partir de là c'est un peu le début de l'engrenage c'est qu'au début tu te dis ah c'est peut-être une bonne idée et puis au fur et à mesure chaque jour qui passe tu t'impliques de plus en plus émotionnellement dans cette idée puis à un moment donné tu es un peu un point de non retour parce que en fait tu es
plus dans l'idée que dans le travail dans ton entreprise actuelle mais à partir de février c'est vrai qu'on s'est dit bah là on peut avoir 15 personnes on peut aller vite on sait le faire on peut démontrer que l'Europe peut faire des choses intéressantes dans le domaine et il peut reprendre une position de leadership et donc c'est comme ça que ça s'est fait et à partir d'avril on s'est lancé quoi donc to il y a déjà cette idée que le projet c'est de faire de la très performante européenne plus ça que juste on se sent
un petit peu peut-être ralenti par une grosse structure a-dessus de nous donc metta Google et on on pense aller plus vite tout seul cétait quoi non tu avais les deux en fait on est Guillaume Timothé et moi on on travaillait sur ce sujet depuis un peu près 2020 et on a vu ce qu'on pouvait faire avec des petites équipes très concentré c'est vrai qu'en 2022 ces équipes sont devenues moins concentrées parce que c'est le moment où où le monde a réalisé qu'il y avait une opportunité économique autour des modèles de langue et donc on s'est
dit qu'on qu'on pouvait bénéficier aussi de cet aspect de désorganisation pour nous être mieux organisé et fournir des choses plus rapidement euh ça se passe comment le tout début genre vous avez chacun peu une spécialité comment vous vous organisez au tout début de la boîte on vient tous les trois du même formation de la même formation on a fait la même chose on a tout les droit des thèses en machine learning donc c'est vrai qu'on s'est rapidement spécialisé avec Guillaume qui est le scientifique le plus fort d'entre nous qui a pris la partie scientifique Timothé
qui est plus un ingénieur et qui s'est occupa de faire toute l'infrastructure et de monter l'équipe d'ingénieur produit aussi et moi j'ai assez vite fait l'aspect levé de fond l'aspect parler avec des clients bon c'est des choses que j'aimais bien faire et donc je me suis voilà c'est on s'est réparti comme ça assez vite et pour revenir à comment ça démarre ça démarre par une levée de fond en fait parce qu'il faut la capacité de calcul et il faut la capacité humaine pour avancer assez vite et donc on a fait une levée de fond en
quelques semaines et à partir de là on était parti pour faire le premier modèle en septembre c'est-à-dire qu'il y a pas une seule ligne de code en fait avant même de savoir que c'est bon il y a une levée de fond qui va se faire c'est un domaine où il faut forcément attendre la levée de fond si on veut commencer la première tu peux un peu paralléliser commencer à faire du code mais à 3 tu as pas beaucoup de levier hein il vaut mieux avoir une petite équipe de de une dizaine de personnes pour aller
plus vite on a commencé par la data parce qu'il faut la la donner pour entraîner les modèles donc il y a beaucoup de travail aussi manuel là-dessus à faire et Guillaume Timothé essentiellement avait commencé pendant qu'on finissait la levée voilà ok on parlait des des des levées de fond toi tu as fait Polytechnique central Paris l'UNS et un doctorat est-ce que ça aide quand même à lever des fonds alors que vous êtes que trois ou alors est-ce que c'est encore plus le le le nom MTA google tu dirais que c'est quoi qui aide le plus
je pense que ce qui a aidé au démarrage c'est qu'on était crédible sur le domaine le plus chaud du moment en 2023 et que on avait plutôt des papiers qui étit lié à ce domaine là c'estàdire que moi j'étais dans l'équipe qui travaillait à Deep m làdessus guaum et ils étaient à MTA c'est eux qui ont fait Lama le premier et donc cette crédibilité là c'est pas ce qu'on a fait dans jeunesse à l'école c'est plutôt une crédibilité scientifique qu'on a construit dans notre première partie de carrière on va dire un alignement de planète avecahà
ce qui intéresse le plus et les meilleures personnes pour le développer en fait oui c'est pas effectivement notre crédibilité venait aussi du fait qu'on avait une excellente équipe de démarrage et qu'on qu'on pouvait démontrer qu'on qu'on saurait la recruter et il y a ce jour qui arrive c'est le 27 septembre 2023 où vous postez un lien sur votre compte Twitter parfatement inactif et c'est votre premier modèle en fait donc Mistral 7b le tweet est vu plus d'un million de fois vous êtes repris par tous les médias américain tout le monde de Lia et en efferviscence
et s'amuse avec le modèle il était chargé un million de fois mais super vite nous on a vu ça de l'extérieur on a vu cet engouement vous de l'intérieur c'était comment alors déjà c'est le le tweet c'était une idée de Guillaume hein donc le Chief scientist pour rendre à César ce qui appartient à César euh parce que vous vous le publiez pas comme les autres on le publie pas comme les autres effectivement on a mis à disposition un magnet Link qui permet de le télécharger en bitoren c'est comme ça qu'on a parlé la première fois
et et c'était une excellente idée c'était une journée o on avait aussi prévu de faire de la communication euh plus habituelle donc moi j'étais allé parler aux journalistes Figaro et cetera et donc il fallait mettre le torrent à une le matin et puis l'embargot était vers vers 16h donc il y avait cette période où en fait on avait rompu l'embargo mais bon les journalistes a priori allaient pas comprendre ce qui se passait donc ça se passait bien moi c'est moi qui a posté je crois c'était à 5h du Matth donc j'avais mis un petit réveil
parce que j'étais pas sûr du skedule scè de de Twitter qui s'appelait encore Twitter à l'époque et je l'ai mis je suis allé me recoucher et ensuite on a vu que ça avait bien démarré au démarrage c'est un truc où vous vous y attendiez un petit peu ou quand même euh on savait que le modèle était bon on savait que on était largement auudessus de des meilleurs modèles open source que on avait visé explicitement cette taille là parce qu'on savait que ça tournait sur des laptops aussi donc donc ça voulait dire que tous les hobbyistes
allaient pouvoir jouer avec et ça n'a pas manqué ça a fonctionné donc on se doutait que qu'on allait être remarqué ce qu'on se doutait pas c'est que les gens allaient le mettre dans des perroqués en pluche et genre de choses en un mois et bah la réception était plus grande que ce qu'on espérait on était très content il y a un autre truc qui s'est passé nécessairement en publiant des modèles avec des poids ouverts comme ça c'est que ça laisse la porte à tout ce qui est entraînement fine tuning et tout le monde s'en est
donné à cœurjis je pense que c'est un c'était déjà un peu le cas sur les modèles de liama mais je me souviens que c'est un modèle qui a été beaucoup beaucoup réentraîné c'est quoi les les fine tuning que un peu étonnant ou curieux dont tu te souviens de ce modèle là ou d'autres il y a quelqu'un qui s'appelle Technium qui nous avait entraîné ce modèle pour parler au morts alors je sais plus comment ça s'appelait mais il avait fait un fine tuning un petit peu euh ésotérique euh et le truc marchait relativement bien euh donc
c'était assez marrant c'est vrai que le cette taille-là c'est aussi une taille où tu peux fine tuner même sur des gros PC de gaming éventuellement et puis ça coûte pas très cher et ça permet de rentrer du style ça permet de faire du rleplay et donc les gens seen sont donnés à cœur J effectivement parce que du coup pour expliquer un il y a le modèle de fondation qui est lui le plus coûteux et le plus compliqué et j'imagine qu'il contient en gros l'information et après le fine tuning c'est euh conversationnel quoi c'est en faire
un un bon agent de discussion ouais c'est il faut voir la la première phase comme une compression de la connaissance humaine et la deuxième phase comme une manière d'instruire le modèle à suivre ce qu'on lui demande de faire donc on le rend contrôlable et une manière de le contrôler c'est de le rendre de le rendre conversationnel donc ces deux phases là sont assez distinctes effectivement et est-ce que sur cette deuxième phase il y a des trucs d'indépendants tout seul qui ont testé des choses de sur du fine tuning et et voilà ont découvert des bons
des bonnes techniques ouais on a appris des trucs alors je v pas rentrer dans les détails mais il y avait de direct preference optimisation c'est un peu un peu du jargon mais qu'on avait pas fait sur sur le premier modèle et on a vu des gens le faire on s'est dit ça devrait bien marcher sur le deuxième modèle et ça a bien marché sur le deuxième modèle maintenant on fait d'autres choses mais effectivement une des raisons pour lesquell on a lancé la boîte au-delà de l'Europe et cetera c'est aussi l'aspect ouvert et l'aspect contribution de
la communauté en fait le lesail entre 2012 2022 ça s'est construit les uns par-dessus les autres pendant les conférences les grosses boîtes par-dessus les grosses boîtes puis soudain quand c'est devenu un modèle économique intéressant les gens ont arrêté les les grosses entreprises ont arrêté et donc on a essayé de prolonger ça un peu avec ce qu'on a fait ouis aujourd'hui c'est tu as vraiment des deux camps distincts c'est assez particulier sur les d'un côté les entropique les open ai les compagnies qui ne publie plus grandchose Google aussi j'ai l'impression a beaucoup ralenti les publications et
de l'autre côté les Chinois bizarrement pourquoi les Chinois il ils sont autant à fond dans les modèles open source c'est quand même curieux non je pense qu'il sont en position de challenger qui S c'est une bonne stratégie de challenger c'est on en est je pense la bonne la bonne illustration je pense qu'ils ont des bonnes techniques ils ont des des bons renseignements aussi mais ils ont beaucoup fait avancer la science les nouvelles techniques c'est clairement ceux qui publient le plus effectivement et tu parlais de la position de challenger est-ce que MTA quand il publient Yama
pour la première fois ils sont en position de challenger à ce moment-là bah c'est les Timothé et Guillaume je pense que oui ils sont en position de challenger parce qu'ils ont pas encore parlé et je pense que avec le mouvement que qu'on a perpétué avec nos modèles en septembre et en décembre en particulier donc Mistral 7b Mistral 8x 7b je pense qu'on a lancé cette roue de l'Open Source donc il y a aussi un peu une concurrence sur qui fait les meilleurs modèles Open Source je pense que ça bénéficié à tout le monde et donc
on est ravi d'avoir bien participé à ça la régalade et qu'est-ce qui fait tu penses qu'à ce moment-là vous avez autant d'avance vous après il il y a un yoyo avec tout le monde qui qui se produit mais là il y a un vrai une vraie avance indiscutable quoi je pense qu'on connaissait l'importance de la donnée et on a beaucoup travailler là-dessus on savait aussi comment entraîner le modèle de manière efficace parce que on avait 3 ans d'expérience chacun dans ce domaine donc donc il y avait des bonnes connaissances et on a insisté sur les
aspects de l'entraînement qui ont le plus de levier c'estàd la qualité de la donnée effectivement bah c'est derrière un peu tout l'évolution de la recherche j'ai l'impression temps vers en fait il y a que la donnée qui compte grosse partie la donné et la quantité de calcul mais oui effectivement il y a aussi donc le compute et c'est lié à un autre sujet très important c'est les fonds tout simplement en un an vous avez en tout levé quand même 1 milliard d'euros ce qui est vertigineux vous avez aussi sorti plein de nouveaux modèles des pixral
par exemple des modèles un peu différents multimodau et cetera comment vous approchez le fait que justement en terme de quantité de compute par rapport à un méta par exemple qui a qui aura la fin de l'année 350000 h 100 c'est ça ou si je dis pas de bêtises j'aip eu est-ce que justement il y a pas le choix que de passer par des très grosses levées de fond mais après comment on pérénise le truc c'est quoi un peu ta vision du compute quoi nous notre vision c'est qu'on a besoin de compute mais on a pas
besoin de 350000 àchamp et donc donc ça a été toujours notre test qu'on pouvait être plus efficace qu'on pouvait en étant focalisé sur le fait de faire des des excellents produits et ne pas faire plein d'autres choses à côté parce que nos concurrents américains ils ont tendance à faire beaucoup de choses à côté la loocation de ressources c'est une question c'est une question constante chez nous un peu le ner de la guerre quoi c'est arriver à tenir l'amélioration des modèles dans le temps versus le cramage du compute ouais il faut il faut gérer le budget
il faut être intelligent pour pas dépenser trop et euh tout est une question de mettre le curseur au bon endroit et de choisir d'avoir les bons compromis hein donc c'est pas facile mais je pense que pour le moment on a bien réussi on a réussi à avoir des modèles qui sont très performants avec un niveau de dépense de capital qui est quand même très très contrôlé ouais et est-ce que ben justement j'ai vu que parmi les vos investisseurs dans les derniers rounds je crois il y a Nvidia est-ce que justement ça passe par comme ça
des acteurs qui eux ont le un peu le le le contrôle sur le le le hardware ou le le l'infrastructure ou des Data Center je il y a Microsoft aussi je crois avec qui vous avez bossé est-ce que ça passe aussi par ça justement s'entourer des bonnes personnes il faut les bons partenaires il faut les bons partenaires de distribution en particulier parce que en fait la le calcul ça passe souvent par le Cloud et donc on a euh comme partenaire tous les les fournisseurs de Cloud américains parce que c'est quand même les plus gros on
a aussi des fournisseurs français on a out scale euh qui on travaille et puis Nvidia c'est un fournisseur quasiment de Cloud aussi donc à ce titre on travaille avec eux on a aussi faire on a fait de la RD avec eux avec un modèle qui s'appelle Mistral Neo imagine il y a des gens qui nous écoutent qui ont pas su est-ce que tu peux nous expliquer c'est c'est quoi un peu aujourd'hui la gamme les modèles qui sont à jour moi j'ai vu que dans les derniers mises à jour récents il y a le large 2
ouais alors maintenant les numérotes comme Ubuntu donc 24.11 OK et donc celui-là mral large 24.11 il est très fort pour appeler des fonctions orchestrer des choses parce qu'en fait les modèles ça génère du texte l'util tion de base mais ce qui est intéressant c'est quand il génèent des appels à des outils et qu'on les utilise comme des orchestrateurs comme un peu des systèmes d'OP des operating system et donc on travaille beaucoup sur le sur le fait d'avoir des modèles qui puissent être connectés à plein d'outils différents auquel on peut poser des questions auquel on peut
donner des tâches et qui vont réfléchir de même aux outils qu' vont appeler et donc on insiste beaucoup là-dessus et donc la nouvelle version de Mistral large elle est particulièrement forte là-dessus ok après il y a il y a eu des mixtal aussi ça pour comprendre c'est plutôt pour servir pour une entreprise par exemple pour servir beaucoup d'utilisateurs en même temps c'est un autre type d'architecture qui est particulièrement pertinent quand on a une forte charge donc beaucoup d'utilisateurs donc c'est des choses que nous on on utilise par exemple c'est mixttral parce qu'en fait une sorte
de serber à H têtes quoi c'est ça ouais c'est plusieurs modèles en même temps et chaque mot passe sur le modèle le plus adapté pour plusieurs raisons ça permet de mieux utiliser les GPU et derrière il y a les plus petit il y a les petits modèles qui qui passent sur les laptops qui passent sur les smartphones et ceux-là ils sont bah particulièrement adapté à des usages de hobbyistes parce queil y a pas besoin d'aller dans le Cloud on peut le modifier facilement et et puis ils vont très vite c'est aussi pas mal focalisé sur
cet aspect petit et rapide parce que c'est vraiment l'ADN de l'entreprise nous aujourd'hui le produit c'est pas le modèle le produit c'est la plateforme pour les développeurs et donc ils choisissent s'ils veulent aller vite et être moins intelligent ou aller lentement être plus intelligent essentiellement et puis l'autre produit c'est le chat donc c'est une solution plus front-end qui permet aux entreprises de gérer leur connaiss s d'automatiser des choses qui permet au à tous les utilisateurs pouvez le tester aujourd'hui d'accéder au web de discuter de l'information de de de générer du code de générer des images
de créer des documents on a un mode où l'interface évolue en fonctionintention d'utilisateur donc ça c'est une nouvelle interface home machine et on investit beaucoup là-dessus donc le produit c'est la plateforme pour construire des applications en tant que développeur et làdedans il y a des modèles et puis un ensemble d'applications qui permettent de gagner en productivité c'est un milieu qui est super compétitif évidemment que ce soit on a dit comme sur les modèles mais aussi sur tout ce qu'il y a autour sur le comment améliorer l'expérience les interfaces de chat et cetera on a vu
les systèmes d'interface qui se qui se boug tout le monde est un peu en train d'essayer de trouver les meilleures solutions à ça enentropique Open et vous évidemment en tant que outsider c'est quoi votre cible précise à vous en terme de de possibilité d'évolution quand on a des des aussi gros acteurs à côté c'est quoi toi tu penses la direction où vous avez un edge quoi nous on a un fort Edge dans le fait de découpler euh la question de l'infrastructure de la question de l'interface donc notre solution elle peut être déployée partout donc elle
peut être déployé dans le Cloud mais elle peutêtre déployé chez les entreprises qui sont pas dans le Cloud euh elle peut être déployée sur euh sur des laptops donc ça c'est le Edge qu'on a construit aussi au-dessus de de l'aspect open source que ça va assez bien avec que les poids des modèles soient accessibles c'est ça ça rend facile leur déploiement n'importe où donc on a cet aspect portabilité qui est très important donc c'est notre première différenciation qu'on a beaucoup utilisé euh cette C cette année et puis la la différenciation que on cherche tous c'est
d'avoir la meilleure interface utilisateur et en fait il y a plein de sujets qui sont pas résolus le fait d'utiliser plein d'outils en même temps le fait d'avoir des des agents qui tournent pendant longtemps et qui prennent le feedback des utilisateurs c'est-à-dire qu'on peut les voir comme des des stagiaires voilà plutôt des stagiaires auquel il faut faire du feedback pour qu'ils deviennent de plus en plus performants et donc on va aller vers ce genre de système de plus en plus autonome qui vont avoir besoin de plus en plus de feedback pour passer de 80% de
performance à 100 % de performance tout commence à dire tu restes pas constamment derrière lui attendre qu'il avance quoi non tu donnes une tâche tu regardes ce qu'il a fait tu donnes tu dis ce qu' na pas bien fait et puis ensuite j'espère que la prochaine fois il le fasse mieux mais en fait c'est plein de questions scientifiques qu'il faut résoudre pour que ça fonctionne et d'inface et d'interface ou mail en fait est-ce que on va pas pour l'instant c'est du chat en mode temps réel et tout ça est-ce que à terme on va envoyer
un mail à notre assistant et juste il il nous ping quand il a fini quoi c'est une des formes je pense que c'est plus plutôt l'assistant qui t'envoie un mail en fait à un moment donné tu travailles et puis toutes les 2 heures il dis j'ai et cetera donc oui y a un aspect passé de de du synchrone à l' syynchrone qui est très important et qui pose plein plein de questions d'interface parce que bon le mail c'est peut-être pas la meilleure interface il y en a certain d'autres qui sont plus intelligentes la question de
quelle est l'interface pour donner le feedback quelle est l'interface pour sélectionner ce qui est préférable pour l'humain ça c'est on y travaille voilà ouis j'allais me dire je suis persuadé que enfin je sais pas mais quand on regarde le chat la la discussion c'est pas forcément l'interface du tout ultime pour dialoguer avec un LLM quoi ça a beaucoup évolué maintenant c'est tu vois tu peux chatter avec le chat et puis il peut décider de te mettre dans un document et là tu travailles avec lui sur la construction d'un document tu peux lui demander d'aller chercher
des sources et tu vois les sources tu peux retourner tu peux aller regarder ce que des humains ont écrit et demander des résumés par exemple et donc en fait ce que ça crée ce que ça permet les génératif c'est une espèce de liquidité de ta manière d'accéder à la connaissance donc tu peux regarder tout un site web et pe dire condense-moi ce site web en en deux phrases et je pense qu'il reste encore beaucoup de choses à faire pour que le modèle te permette d'apprendre beaucoup plus vite et de charger de la connaissance beaucoup plus
vite je sais pas si tu as vu mais je crois que c'est versel qui avit fait des démos assez marrantes de composants Web qui se construisaient en fonction de la nécessité tu te posais une question et il te générait sur la météo par exemple il te générait un composant du a enfin de d'interface graphique à la volée quoi il voit le V jet ouais c'est ça en fait la question c'est une question en backend et en fontaine en backend c'est quel outil appeler pour aller chercher de l'information ou pour actionner des choses et en fronttin
c'est quelle interface il faut montrer à l'utilisateur étant donner son intention actuelle et ce que ça veut dire c'est que les gros logiciels avec 50000 boutons je pense notamment au montage ça va progressivement disparaître parce que tu peux identifier son état d'esprit au moment où il est en train de créer et adapter les boutons lui donner exactement ce dont il a besoin et donc ça change vraiment complètement la manière dont les interface vont se comporter dans les années qui viennent justement on parlait de de cette interface et de comment on y accè tu parlais du
fait que vous êtes déployable un peu n'importe où il y a un truc que moi je constate en parlant avec gens autour de moi c'est que on on a un peu une génération de d'employés d'entreprise frustré actuellement parce que chez eux ils peuvent utiliser des trucs incroyables genre voilà les meilleurs modèles disponi ils vont sur Open et cetera une fois au travail on leur interdit souvent l'utilisation de des meilleurs outils et ils doivent parfois ils se retrouvent avec des versions un peu ou des copilotes ou avec la du temps rien du tout ça vient d'
ça ça vient du fait que les systèmes d' génératif ça touche beaucoup aux données et les données dans les entreprises c'est quand même assez important et donc c'est là-dessus que nous on a cherché à trouver des solutions faire en sorte que les données elles restent dans l'entreprise que nous en tant que fournisseur des on n'est pas à avoir ces données là ça permet bah justement d'avoir le niveau de sécurité le niveau de gouvernance dont tu as besoin sur les données et donc progressivement on va résoudre ce problème et nous je dirais que c'est un des
problèmes essentiels qu'on cherche à résoudre faire en en sorte que l'IT dans les entreprises soit confortable pour ramener le chat à tous leurs employés et qu'ils arrêtent d'être frustrés dans les exemples de d'outils que tu donnais il y a un truc qui revient enfin dont on qu'on a pas explicité mais qui est en fait super important c'est le la notion d'objectif d'avoir un mode desmèles qui sont capables d'effectuer des tâches et sur la route d'arriver à créer des étapes et à appeler les bons outils comme le le frais un bon stagiaire tuas pas nécessairement à
lui expliquer l'ensemble des étapes qu'il doit faire tu lui dis regarde les prochains vols pour New York et prends-en un tu as pas besoin de lui expliquer étape par étape seconde par seconde ce qui ce qu'il doit effectuer aujourd'hui on a des modèles qui peuvent commencer à appeler des outils mais qu'on sent un peu limité dans leur capacité en utiliser plus plusieurs d'affilé notamment enfin les trucs vraiment utiles vraiment stylé comment tu penses que ça va évoluer est-ce que c'est une une une frontière qui va qui peut être bientôt franchi est-ce que l'année prochaine on
aura résolu ce problème on pourra faire 20 étapes avec beaucoup de fiabilité ou est-ce qu'on est encore loin d' je pense que c'est la frontière euh tout le monde essaie de la pousser ça va pas se débloquer d'un coup parce que en fait maîtriser un outil ça prend du temps à un humain ça prend aussi du temps à un modèle il faut il faut des démonstrations il faut du feedback parce que la première fois il va se tromper et une notion d'expertise qu'il faut distiller de l'entreprise vers les systèmes d' et ça ça va pas
prendre ça va pas se faire de manière magique il faut il faut tous les système en place il faut les métaasystèmes c'estàd qu'il faut que les les employés de entreprises soient capable de de fournir du signal supplémentaire au système de pour qu'il s'améliore donc ça va progresser on va avoir de plus en plus d'outils utilisablebles en même temps et des modèles qui peuvent raisonner de plus en plus mais ça va être progressif et pour que ça marche vraiment très bien il faut y mettre du sien il faut investir dès maintenant pour illustrer ça on voit
que open dans leur dernier modèle dans les O1 et compagnie c'est plus des améliorations significatives sur le modèle en lui-même mais il tente des trucs de le faire boucler sur lui-même faire des chaînes de pensée je sais pas comment dit en français des chaînes de pensée ouais quand même est-ce que selon toi c'est un peu un signe que on a atteint une sorte de plafond c'estàdire que sur justement sur cette évolution exponentielle on a bien optimisé par rapport à leur taille la manière dont marchent les modèles maintenant justement faut trouver autes chose tu as un
paradigme qui est de plus en plus saturé je pense qu'il est pas encore saturé qui est le ce qu'on appelle le préentraînement donc la compression de la connaissance humaine certaine manière tu tu une connaissance disponible humaine qui est qui a une certaine taille à un moment tu as fini de la compresser et c'est là où il faut aller chercher du signal supplémentaire donc du coup chaîne de pensée utilisation de plusieurs outils utilisation de signal expert par dans les entreprises donc il y a pas de saturation du système on sait comment aller à l'étape suivante mais
sur l'aspect pré-entraînement oui on commence à savoir bien le faire collectivement tout le monde sait à peu près faire la même chose et donc c'est plus tellement là où est la compétition la compétition elle est sur les interface la compétition elle est sur avoir des des modèles qui tournent pendant plus longtemps ok je trouve c'est un peu dur de de se faire un avis dessus justement quand on est on maîtrise pas la STAC scientifique entre guillemets derrière les transformeers et compagnie mais j'ai l'impression qu'il y a un peu ce débat entre est-ce que justement c'est
juste une question de de compute de données qui va repousser cette cette barrière d'autonomie ou est-ce que c'est vraiment un problème intrinsèque à la manière dont le modèle est designé et que juste le fait que ce soit de la prédiction du prochain token qui peut avoir une petite un petit pourcentage de partir en cacahuète à chaque fois ça rend nécessairement trop compliqué trop difficile la planification long terme je sais que par exemple il y a des gens comme Yan lequel on en parle souvent qui sont un peu défenseurs de cette vision là que lesgi ou
je sais pas comment on l'appelle elle est cachée encore derrière des découvertes scientifiques quoi ouais c'est une bonne question ce qui est vrai c'est que travailler sur des architectures qui induisent des biaiss de réflexion humaine souvent utile ça a été utile pendant les 12 dernières années de se dire comment nous on réfléchit essayons de d'écrire ça en mathématique et de faire en sorte que les modèles copient un peu ce qu'on sa ce qu'on sait faire ce qu'on observe aussi c'est que toute l'intelligence qu'on peut mettre dans les architecture il suffit de mettre deux fois plus
de compute et ça disparaît donc en fait le paradigme qu'on a suivi dans les 5 dernières années c'est plutôt de se dire prenons une architecture extrêmement simple qui prédit des séquences et passonsla à l'échelle allons chercher le plus de données possibles allons chercher les données multimodales allons chercher de l'audio ce genre de chos et et passons là à l'échelle et voyons ce que ça donne et en fait ce que ça donne c'est que c'était en tout cas plus intelligent en terme d'allocation de ressources de de travailler sur le passage à l'échelle que de travailler sur
des architectures subtiles alors est-ce que c'est toujours le cas maintenant commence à avoir saturé la quantité de données qu'on s'est compressé je pense que la question est ouverte le sujet c'est plus tellement une question d'architecture c'est plutôt une question d'orchestration c'est-à-dire comment on fait effectivement pour que les modèles se rappellentx même qu'ils interagissent avec des outils qui durent longtemps qui qui fassent du du raisonnement en plusieurs étapes et ça bah ça reste les mêmes modèles au fond c'est la brique de base mais le système complet c'est pas juste le modèle c'est le modèle qui sait
se rappeler lui-même qui sait réfléchir qui sait interagir avec tout son environnement qui sait interagir avec les humains donc la complexité des systèmes elle devient beaucoup plus grande que juste un simple modèle de génération de séquence ça reste le moteur mais c'est pas du tout toute la voiture quoi ok mais donc tu es plutôt optimiste sur le fait que ce soit le bon moteur quoi c'est le bon moteur après ce qu'on il y a une règle en machine learning qui dit essentiellement augmenter la capacité de calcul ça augmente la qualité des des systèmes et tu
as deux solutions pour le faire soit tu compresses de la donnée soit tu fais de la recherche c'estdire tu vas échantillonner tu vas demander au modèle de tester 1000 trucs et de sélectionner l'échantillon qui marche le mieux et tu vas le renforcer renforcer là-dessus et donc là on commence de plus en plus à basculer dans le mode recherche plutôt que dans le mode compression la personne qui a dit ça c'est Richard Sutton dans un blog poost que je vous invite à lire qui s'appelle de bit Leon est-ce que toi il y a une démo un
peu de bout en bout d'un truc qui a même si parfois ça ça marche pas et ce mais d'un d'un truc où tu as été impressionné où ça a vraiment très bien marché d'une suite d'étape tu vois un truc où qui t'a fait un peu sentir comme Iron Man quoi avec Jarvis ouais avec le chat on a connecté les IPI ouverts de Spotify là et donc tu peux lui parler demander des playlist et d'écrire ta playlist puis ça te crée ta playlist et ça la joue pour toi donc fait des choses intéressantes alors c'est juste
un seul outil ça non là on a vu des choses très intéressantes c'est une fois qu'on a connecté le web ça te permet d'avoir toutes les informations en live et très vite tu peux te créer tes mémos pour savoir qu'est-ce qu'il faut aller dire à tel client en fonction des informations qu'il a eu et donc la combinaison des outils ensemble ça fait émerger des cas d'usage que tu avais pas forcément prévu quoi si tu as connecté le web si tu connectes ton mail tu peux faire plein de choses en même temps et si tu connectes
ta connaissance interne et le web tu peux combiner ces informations de manière un peu imprévisible et donc la quantité de cas d'usage que tu couvres et un peu près assez exponentielle avec au nombre au nombre d'outils et donc ça c'est assez magique je ve dire OK moi effectivement je trouve qu'il y a un côté un peu vertigineux tu tu dis mais on va pouvoir construire des truc de fou et mais du coup ça fait que c'est un peu dur de s'imaginer quoi de se dire ça va ressembler à quoi concrètement genre le métier de développeur
de de quelqu'un qui doit faire des scénarios de de LLM justement ça ressemble à quoi je dirais que de plus enfin c'est un outil qui augmente le niveau d'abstraction requis par les humains donc en tant que développeur tu vas continuer à réfléchir au problèmes que tu cherches à résoudre pour les pour tes utilisateurs tu vas continuer à réfléchir aux architectures niveau euh qui remplissent ton tes contraintes ton cahier des charges après est-ce que tu vas continuer à coder tes applications en Javascript vraisemblablement non parce queon les modèles ils arrivent bien à générer des applications simples
et des applications de plus en plus compliquées donc tous les sujets très abstraits qui vont nécessiter de la communication avec des humains le métier d'ingénieur c'est aussi un métier de communication faut aussi comprendre quelles sont les contraintes de chacun de ça ça va pas être facilement remplaçable mais en revanche tout l'aspect je t'aide à faire t tes unitaire je te fais ton application pixel perfect à partir d'un design ça je pense que ça devait devenir de plus en plus automatisable pour juste coller au développeur mais c'est c'est le cas pour tous les métiers ouis est-ce
qu'on a une intuition de comment ça se fait que les modèles ils sont aussi sensible au code qu'on pourrait se dire par exemple je veux un modèle qui est super fort en français en anglais bon qui sache le python et le Javascript a priori ça n'est pas utile or c'est pas du tout ce qu'on observe de ce que j'ai compris alors c'est une très bonne question et c'est vrai que on observe un genre de transfert c'est-à-dire que entraîner son modèle sur beaucoup de codes ça lui permet de raisonner mieux alors je suis pas le mieux
placé pour en parler faudrait que ça soit plutôt Guillaume mais la réalité c'est que le code c'est c'est plus ça a plus d'information que le langage il y il y a plus de réflexion qui qui est passée dans le langage c'est plus structuré et donc s'entraîner à générer du code ça force le modèle à à raisonner à plus haut niveau que l'entraîner à générer du texte et donc il sait raisonner sur du code et donc quand il voit du texte c'est aussi bisonner sur du texte et c'est vrai qu'il y a ce ce transfert un
peu magique qui je pense une des raisons pour lequell les modèles sont devenus largement meilleurs dans les deux dernières années ça sert aussi parce que en fait le tuas tu as beaucoup plus de de de codebase sont plus longs qu'un qu'un livre comprendre une codebase c'est plus long que lire un livre et donc un peu le maximum sur lequel tu peux t'entraîner euh pour faire un modèle qui comprend le le contexte long c'est euh bah des livres du 19e siècle et le maximum sur lequel tu peux t'entraîner pour faire du du code c'est euh millions
de lignes de c'est des millions de lignes de ouais c'est ça de projet open source quoi et donc c'est plus long et ton modèle il peut raisonner plus longtemps je pense que c'est une des intuitions je te propose de parler maintenant un petit peu de talent et de des gens qui font que justement vous faites ce que vous faites déjà pourquoi est-ce que vous avez décidé à la base de mettre Mistral à Paris aujourd'hui ça peut paraître un peu plus évident entre guillemets on sait que voilà l'écosystème est super vivant justement on va on va
en parler mais est-ce que c'est une décision à cette époque là une décision évidente entre se mettre là ou à San Francisco même avec une une boîte française entre guillemets je pense que on s'est même pas posé la question en réalité moi j'avait aucune envie de de partir de Paris ma compagne est fonctionnaire donc elle a elle a quelques contraintes Timothé il avait aucune envie de partir de France aussi et Guillaume non plus donc je pense que en réalité si j'ai réfléchi je CIS qu'on s'est jamais posé la question on savait aussi que les gens
dans notre réseau en fait c'est des Parisiens des Parisiens des gens à Londres aussi ces personnes qu'on pouvait recruter c'était des gens locaux donc c'était une évidence de démarrer à Paris comment ça se fait ça que Paris particulièrement fourmit autant de de bons in et scientifique je pense parce qu'il y a un écosystème en machine learning il y a un écosystème avec l'ineria avec l'académique d'un côté et puis les les laboratoires privés que Yan lein a contribué à créer un laboratoire faer historiquement qui a été créé en 2015 je pense tu as deep mind qui
en réaction c'était installé là-bas et qui avait un énorme sent un énorme centre de compétences à Londres grâce à Deep m et donc en fait ce qui fait les talents dans la tech c'est le fait que tu es une entreprise qui soit déjà passée par là avant qui a grossi et que tu des gens qui qui on qui ont appris dans cette entreprise là qui ensuite et donc on a bénéficié de ça on a bénéficié des des entrepreneurs qui voulent bien nous rejoindre et qui se sont formés là-bas très bon écosystème privé et très bon
écosystème public aussi parce que il y a beaucoup de nos cherche de nos chercheurs qui ont fait des tests dans dans l'académique en France aussi le résultat est assez dingue m parce que dans les rien que les conventions d' les trucs j'ai vu oliama par exemple qui organisé un Meetup ou un truc comme ça et tu vois les images on se dit pas que ça enfin je sais pas tu dis pas que ça à Paris quoi et en fait ça bouge de fou quoi il y a plein de gens dans ce domaine en particulier qui
sont des Français Yan Lequin est un français mais en dessous des gens plus jeunes que lui il y a beaucoup de gens qui ont fait Thomas SIOM par exemple ouais par exemple à ma Paris aussi des gens très forts à Deep m Paris a desin réussi à débaucher pour l'instant j'ai plein d'amis je pense qu'on a débauché les gens qu'on pouvait j'ai plein d'amis qui qui sont français qui sont encore là-bas ils finiront peut-être par créer leur boîte de manière générale l'Europe et la France en particulier a les bonnes compétences il y a les bonnes
écoles il faut être fort en maths et fort en informatique pour faire scientifique en intelligence artificielle et de fait on a les les les bons tuyaux de formation et c'est quoi les arguments aujourd'hui moi je viens de sortir de ma thèse en en ml qu'est-ce qui fait d'après toi que je vais plutôt décider d'avenir chez r versus chez ma ou chez deep mind en sortant de Master à Paris je pense qu'on est de loin le meilleur centre de formation pour faire le cœur de la science en intelligence artificielle il y a pas de structure équivalente
même en Europe sur ce qu'on fait il y a 50 60 scientifiques chez nous qui sont tous extrêmement bien formés et donc en sortant de Master je c'est le meilleur endroit parce que en 6 mois ils sont formés c'est aussi un excellent endroit pour nous parce que on va récupérer des gens juniors on a une bonne marque avec eux on leur propose une excellente formation ils nous rejoignent et en fait ils sont très très performants en bout de 6 mois et ils ont plein d'idées ils sont extrêmement créatifs ils ont 23 ans ils ont toute
l'énergie qu'il faut et donc on les on les utilise on doit beaucoup de ce qu'on a proposé à des gens qui sont très jeunes et donc on encourage tous les gens en master à venir nous rejoindre on a plein de place et on adore les former j'ai appris tout à l'heure d'ailleurs que après notre émission qu'on avait fait sur Mistral il y a eu une une REC tu te souviens tu sais pas quel genre de profil si si si c'est un ingénieur c'est pas un scientifique c'est tout va bien on a pas cont ok parfait
tu concerais quoi toi à des gens qui sont peut-être moins avancés ou qui voilà qui réfléchissent à à ce qu'ils veulent faire qui voi bien qu'il y a quelque chose qui se passe dans l'IA est-ce que d'après toi c'est trop tard entre guillemets dans le sens où ça va être un un un écosystème très saturé ou est-ce que tu penses que c'est encore possible et qu'est-ce que tu conseillerais comme ouais comme choix de d'études de trucs aller explorer est-ce qu'il faut faire des modèles de langage comme tout le monde est-ce que justement il faut essayer
de sortir un petit peu de de de la bulle c'est quoi ton ton conseil non je pense qu'il faut réfléchir au systèmes qu'on crée avec nous on crée des systèmes de gestion de la connaissance mais il y a plein de systèmes verticalisés dans les sciences de la vie dans je sais pas l'architecture dans la conception par ordinateur qui ne demande qu'à être pris avec des nouveaux systèmes le montage vidéo aussi et donc se dire que la technologie elle va continuer à avancer les technologies horizontales elles vont être de plus en plus performante ça ouvre de
nouvelles opportunités d'automatisation de nouvelles opportunités de tion de logiciel intéressant de création de services complètement différents pour les utilisateurs et donc partir des besoins utilisateurs partir de de un peu du rêve du logiciel de demain auquel on la machine auquelle on va parler et qui va faire tout ce qu'on veut à sa place je pense c'est un bon point de départ on choisit sa verticale et puis on se dit est-ce que les modèles aujourd'hui peuvent résoudre ce problème s'ils peuvent pas résoudre ce problème peut-être qu'il faut les personnaliser peut-être qu'il faut aller un petit peu
plus profondément et làdessus on peut aider on peutider à le faire on a tous les outils qui permettent de faire les personnalisations verticalisées nous on a parlé avec Microsoft des conséquences que ça avait dans la recherche de matériaux par exemple ouais et tu te dis mais c'est quoi le la base on parle de modèles qui génère des images du texte et cetera et en fait on découvre des grâce à ça entre autres on découvre des matériaux est-ce qu'il y a des toi des trucs comme ça soit dans vos partenaires actuel ou dans les trucs que
toi tu as vu qui qui t'ont aussi frappé voah la découverte de matériaux alors c'est les mêmes techniques c'est pas les mêmes modèles parce que en fait ce qu'on fait c'est qu'on séquence de manière générale il y a plein de problèmes qui se résolvent en séquençant en S on sérialise d'une manière général le problème et la découverte de matériaux c'est de la chimie donc peut séaliser les les molécules chimiques et et demander au modèle de les prédire après le le paradigme je prédis des séquences et j'ai plein de séquences sous la main de données particulières
il marche en chimie il marche en médecine il marche certainement en science de la vie aussi nous on travaille pas là-dessus mais on est ravi de travailler de d'être partenaire avec des start-ups qui font ça ouais et là où peut-être comme tu disais on arrive à une fin de d'exponentiel éventuellement sur le texte il y a peut-être plein d'autres domaines où en fait le transfert euh fait que commencer quoi sur le texte on n'est pas du tout à saturation en fait parce que la la prochaine étape c'est d'avoir des modèles qui appellent plein d'outils et
donc du coup ils deviennent beaucoup plus intelligents que juste des générateurs de texte et un des outils qu' peuvent appeler c'est des simulateurs par exemple donc euh la boucle de travail du concepteur de turbine euh du de la personne qui travaille sur un nouveau médicament elle va complètement changer dans les années qui viennent et ça vient de à la fois des modèles spécialisés de prédiction de molécule par exemple mais ça vient aussi de l'interface avec la connaissance que qu'on est en train de recréer tu tu vas pouvoir parler avec ton ordinateur et dire est-ce que
tu peux me simuler une turbine qui ressemble à celle-là mais un peu plus grande et fais-moi plusieurs essais et dis-moi la celle qui marcherait la mieux et donc la manière d'itért le l'ingénierie finalement ça va aussi beaucoup changer de nature dans les années qui viennent ah c'est hyper intéressant parce que effectivement les trucs auquel on pense rapidement c'est tu parla de simulateur bah le simulateur de code tout simplement ça c'est des trucs qui se font un peu déjà c'est le plus facile à simuler puce que c'est ça reste au sein de la la machine ça
il y a pas de monde extérieur et donc on voit déjà un peu le une sandbox par exemple qui peut exécuter un bout de code et on voit si ça marche ça marche pas ça c'est truc le raisonnement et le fait d'avoir un modèle qui génère du code qui ensuite exécuté on y travaille pour très prochainement et donc c'est une grosse porte d'entrée vers des des cas d'usage complexe tu as un espace ouvert de d'outils à appeler maintenant parce que tes outils c'est tes librairies le niveau de contrôle aussi que tu dois mettre sur les
modèles qui qui ça devient plus compliqué à à évaluer parce que c'est plus ouvert plus le monde est ouvert plus c'est difficile à évaluer mais clairement on va vers ça un modèle avec un exécuteur de code c'est beaucoup plus performant qu'un modèle sans exécuteur de code dès qu'on commence à parler d'outil d'exécutter des trucs du code moi je j'entends tout de suite des d'autres profils dans l'écosystème de Lia qui sont dans la frange très très un peu alarmiste de de comment pourrait évoluer le liia et des possibilités que nia devienne Rogue et prennent son indépendance
tu parle de exécuter du code elle sortirait on l'imagine sortir de la boîte c'est quoi toi ton avis là-dessus est-ce que euh pour être caricaturel c'est un peu un moyen de de de mettre en place des régulations pour pour canas et tout ça ou est-ce queil y a vraiment une de des questions à se poser il y a des questions à se poser sur comment on fait du nouveau logiciel avec des modèles qui sont fondamentalement euh imprévisible c'est-à-dire que par essence ce qui génère c'est aléatoire euh ça dépend de l'entrée tu peux pas en ton
humain prédire que le modèle va sortir tu veux quand même faire du logiciel avec et un logiciel par essence le mettre à disposition du marché tu veux vérifier que il couvre tous tes cas et qu'il y a pas de bug et donc la question de faire en sorte que ton système qui repose sur des LLM et pas de bug c'est une question difficile c'est une question de contrôle c'est une question d'évaluation et finalement pour nous la question de sûreté en anglais c'est dit safety c'est d'abord une question d'évaluation c'est d'abord une question d'avoir les bons
outils pour regarder vérifier que ça fonctionne et si ça fonctionne pas avoir les bons outils pour pour corriger ça un des outils qu'on met à dispo et qui est utile pour ça c'est si tu veux contraindre l'espace des possibles de ton modèle et de ton système tu veux tu contraints l'espace des entrées donc tu mets une modération sur le type de question que l'utilisateur peut poser et comme ça soudain tu passes de un système qui peut répondre à toutes les questions à un système qui peut répondre que aux questions qui sont intéressantes pour le logiciel
que tu crées et donc pour nous on voit vraiment l'aspect sûreté au niveau du système lui-même et comme un problème d'intégration continue comme un problème de test enfin il faut répondre à la question comment on construit les des logiciels déterministes qui tournent sur des sur des systèmes fond fondamentalement stochastique ça c'est la première chose ensuite oui il y a de la science-fiction euh et puis tu as quelques entreprises aux États-Unis qui ont un intérêt à dire au régulateur écoutez cette technologie elle est quand même un peu trop compliquée un peu trop difficile à comprendre un
petit peu trop dangereuse Imagineer que le truc c'estép devienne indépendant bon tu vas dire ça les gens qui comprennent pas forcément exactement ce qui se passe peuvent se dire ah oui peut-être que si on donnait ça à trois personnes ou à deux personnes aux États-Unis bah on contrôlerait tout ce qui se passe et puis il y a pas de problème quoi mais nous on pense que c'est faux c'est-à-dire que avoir deux entités ou encore pire une entité qui contrôle tout tous les systèmes et qui ouvre sa porte à des auditeurs auquel il montre ce qu'ils
veulent on pense que c'est pas la bonne solution la bonne solution en sûrté logiciel c'est l'Open Source de manière générale on l'a montré en cyber on l'a montré sur les systèmes les plus fiables aujourd'hui les opérting systèm les plus fiables c'est Linux le fait d'avoir le plus d'ux possible sur une technologie le fait de la distribuer le plus possible c'est une manière de faire en sorte que le contrôle de cette technologie soit sous un contrôle démocratique et donc donc voilà nous c'est ce qu'on dit et puis quand on entend les doomur raconter autre chose alors
il y a des gens qui sont de bonne foi il faut le reconnaître qu'ils ont vraiment peur que c'est des choses qui vont se passer et puis il y a surtout beaucoup de gens qui sont pas du tout de bonne foi je pense qu' il est important de de vérifier d'où ils viennent quand il parl de ça ça doit pas être simple parce que en FO l'argument il est super facile à comprendre justement comme tu disais pour quelqu'un qui ne n'est pas forcément adepte du sujet on te dit voilà un outil dangereux est-ce que faudrait
pas éviter qu'on le mette dans trop de mains tu pars déjà avec un truc un peu un peu dur à défendre quoi l'atout qu'on a on a un atout historique c'est-à-dire que c'est pas la première fois qu'on a ce débat on a eu ce débat pour l'internet internet ça aurait pu être un truc contrôlé par trois entreprises quiuront qui auraient fait leur propre net qui auraient refusé de standardiser les choses et en fait finalement il y a eu suffisamment de pression et à un moment donné le le régulateur s'est dit ouais on va on va
faire en sorte que ça soit standardisé et donc internet ça appartient à tout le monde maintenant il aurait suffit que personnes différentes fassent des choix différents quelques personnes et on serait dans une situation où en fait il il y a trois trois wall Garden non interopérable ça aurait pu être la même chose pour le end to end encryption ça c'est un autre exemple à une époque c'était considéré comme une arme et c'était sous il y avait un contrôle des exports de des États-Unis en faitou maintenant et en fait on se pose la question maintenant des
sur les poids il y a parfois certains régulateurs qui se posent cette question là mais ça paraît fou pour le N m cription nous ce qu'on pense c'est que dans 10 ans ça paraîtrait complètement fou pour dép d'un modèle parce que c'est tellement infrastructurel c'est tellement une ressource qui doit être partagée par tout le monde cette compréension de la connaissance et cette intelligence que c'est pour nous c'est criminel de la laisser entre les mains de deux entités qui sont pas du tout sous contrôle démocratique et pour donc défendre cette vision là que du coup le
contrôle doit avoir lieu un peu plus tard dans la chaîne en fait au moment de l'interface par exemple ou par l'entreprise vis-à-vis de son de son client tu vas notamment au Sénat on t'a vu on t'as vu sur YouTube parler au Sénat ça fait quoi de parler d'essayer d'expliquer ce que c'est un modèle un dataset un LLM à à des sénateurs ah c'est intéressant ex c'est il y avait des bonnes questions peut-être posé par des gens qui comprenaient un peu moins la technologie on va dire mais je pense que c'est important de manière générale c'est
des représentants des citoyens et il faut qu'ils comprennent que c'est une technologie qui va affecter les citoyens donc nous on est prêt à investir du temps parce que mieux c'est compris plus on comprend que c'est aussi un enjeu de souveraineté aussi un enjeu culturel c'est un enjeu d'avoir des acteurs comme nous et pas que nous he mais des acteurs comme nous sur le sol européen parce que si c'est pas le cas en fait le sujet c'est que on a une dépendance économique énorme aux États-Unis et ça elle est très très dommageable à long terme et
donc le fait d'aller parler aux gens qui font les lois aux gens qui derrière vont aussi parler avec leurs citoyens comprennent leur le leurs angoisses et cetera c'est une manière de dédramatiser cette technologie c'est une technologie qui qui va apporter beaucoup de bénéfices dans l'éducation dans la santé dans la manière dont travail et il faut que les représentants de la démocratie française de la démocratie européenne de la démocratie américaine a conscience de de savent de quoi il s'agit moi je dois dire que personnellement j'avais pas tellement prévu de faire ça en démarrant la boîte mais
il faut faire entendre savoir parce que sinon le le vide est comblé par des gens qui ont pas forcément des intérêts alignés avec la démocratie et et certainement pas aligné avec ce ce que nous on essaie de faire si vous avez pas suivi l'histoire du visuus challenge ou comment un papyus a été décrypté par un étudiant en nia allez voir cette vidéo c'était vraiment passionnant
Related Videos
La France est-elle prête pour l’IA ? (Interview Emmanuel Macron)
44:46
La France est-elle prête pour l’IA ? (Inte...
Underscore_
377,937 views
L'IA est en train de s'empoisonner elle-même (et personne n'en parle)
30:07
L'IA est en train de s'empoisonner elle-mê...
Underscore_
380,910 views
bref. 2 - ÉPISODE 1 OFFERT par @DisneyPlusFR
38:40
bref. 2 - ÉPISODE 1 OFFERT par @DisneyPlusFR
Kyan Khojandi
2,791,359 views
Le père fondateur du Deep Learning - Yann Le Cun
1:51:33
Le père fondateur du Deep Learning - Yann ...
Matthieu Stefani
220,299 views
Face au choc mondial, où va la France ? Entretien avec Dominique de Villepin
1:42:50
Face au choc mondial, où va la France ? En...
HugoDécrypte - Grands formats
770,235 views
En immersion dans la guerre des drones en Ukraine
35:35
En immersion dans la guerre des drones en ...
Brut
292,478 views
ROMAN FRAYSSINET - Ô DEDANS - SPECTACLE COMPLET
58:06
ROMAN FRAYSSINET - Ô DEDANS - SPECTACLE CO...
Clique TV
1,350,525 views
IA : "Il faut faire en sorte que tout le monde puisse utiliser ces technologies"
25:26
IA : "Il faut faire en sorte que tout le m...
France Inter
39,480 views
Si vous pensez mal manger, regardez cette vidéo (avec le Dr Jimmy Mohamed)
49:40
Si vous pensez mal manger, regardez cette ...
HugoDécrypte - Grands formats
1,202,641 views
Comment Meta prépare la prochaine révolution de l'IA
33:22
Comment Meta prépare la prochaine révoluti...
Underscore_
319,679 views
L'étrange plan de la Chine pour sauver le climat
20:09
L'étrange plan de la Chine pour sauver le ...
Gaspard G
348,525 views
Le problème des Open Worlds
1:09:36
Le problème des Open Worlds
Bazar du Grenier
2,402,243 views
L'attaque informatique la plus sophistiquée de l'Histoire
29:01
L'attaque informatique la plus sophistiqué...
Micode
1,703,948 views
Remplacer les humains... l'IA en est-elle capable ?
53:10
Remplacer les humains... l'IA en est-elle ...
CEA
87,182 views
Intelligence artificielle : la France en pointe ?
1:30:21
Intelligence artificielle : la France en p...
Sénat
76,780 views
Le secret le mieux gardé de SpaceX
29:32
Le secret le mieux gardé de SpaceX
Underscore_
282,181 views
L’histoire stupéfiante du « pacte de corruption » entre Nicolas Sarkozy et le dictateur Kadhafi
1:21:11
L’histoire stupéfiante du « pacte de corru...
HugoDécrypte - Grands formats
1,440,717 views
Finalement, nos téléphones pourraient bel et bien nous écouter
27:01
Finalement, nos téléphones pourraient bel ...
Underscore_
943,187 views
Emmanuel Macron s'exprime sur les enjeux de l'intelligence artificielle – Interview complète
36:01
Emmanuel Macron s'exprime sur les enjeux d...
france tv
67,028 views
Quand 500 jeunes ont tenu une montagne contre les nazis
54:21
Quand 500 jeunes ont tenu une montagne con...
TheGreatReview
1,026,055 views
Copyright © 2025. Made with ♥ in London by YTScribe.com