et bonjour bonsoir à tous j'espère que vous allez bien on a déjà on a déjà tellement de gens sur le chat c'est absolument incroyable je suis extrêmement heureux de vous retrouver ça fait longtemps ça fait tellement longtemps j'arrive même plus à savoir exactement je crois que la dernière vidéo date d'avant chat GPT vous vous rendez compte c'est quand même dingue he il s'en est passé des chose depuis le temps dites-moi dites-moi si vous m'entendez bien dans le chat dites-moi si si le son est dites-moi depuis combien de temps vous me connaissez ça m'intéresse parce que
depuis le temps euh il il y a eu beaucoup de nouveaux abonnés sur cette chaîne Youtube c'est quand même absolument incroyable je sais qu'il y a des gens qui me connaissent depuis depuis 2019 depuis le tout tout début je sais aussi qu'il y a des personnes qui qui m'ont rejoint il y a à peine quelques semaines elles ont découvert le le nouveau livre à prendre le machine learning en en une semaine regardez dans le chat on a 4 ans 2 ans 5 an ah ça fait très plaisir depuis 2020 ah oui l'époque du covid je
comprends très bien l'époque du Lockdown moi depuis une semaine et ben vous voyez c'est exactement ce que je disais ah ça me fait extrêmement plaisir de vous revoir d'autant plus qu'on a des choses à se dire on a beaucoup de choses à se dire j'ai travaillé depuis toutes ces années sur un projet absolument incroyable que de nombre d'entre vous me demande de de de de faire depuis très longtemps moi j'ai connu des aventures absolument géniales j'ai j'ai j'ai travaillé dans dans des grandes entreprises j'ai eu des expériences géniales j'ai créé ma propre entreprise qui fonctionne
super bien j'ai vraiment hâte de revenir pour vous pour vous raconter tout ça à travers plein de de formats vidéos et cetera mais ce qu'on va faire ce soir oh mon dieu je vois que vous êtes chaud bouillant dans le chat ça fait extrêmement plaisir ce qu'on va faire ensemble comme je vous l'ai dit c'est qu'on va travailler ensemble un tout petit peu sur cette carte de Lia parce que depuis le temps il y a des algorithmes dans tous les sens moi je vois énormément choses sur sur Linkedin sur internet des très très bonnes choses
c'est très très bien qui qui est tout plein de gens qui en parlent et et je vois aussi beaucoup de gens aujourd'hui qui sont un peu perdus donc ce soir on va voir ensemble le tour d'horizon de l'intelligence artificielle est-ce que vous êtes chaud est-ce que ça vous plaît de faire ça vous voyez il y a plein plein il y a plein de petites choses à découvrir et là moi moi je vais adorer moi je vais adorer ce live ça va être absolument génial ah vous êtes extrêmement extrêmement chaud dans le chat moi ça me
fait extrêmement plaisir alors le tour d'horizon de l'intelligence artificielle ensemble ce soir on va voir en fin de compte comment depuis les 50 dernières années à peu près on a fait pour passer d'une simple régression linéaire une petite droite comme ça dans l'espace à des modèles comme chat GPT et tout ce qui s'ensite depuis 2 ans c'est la folie alors on n pas beaucoup de temps en une heure faire tout ça va falloir carburer donc j'ai préparé pour vous vraiment une une une carte qui résume un peu tout ça j'ai essayé de mettre le plus
de choses possibles sans entrer trop dans les détails mais en vous donnant quand même deux trois pépites intéressantes que qu'on voit pas vraiment d'habitude sur Internet vous allez voir il y a deux trois trucs assez sympa dans cette carte mais avant tout toute chos avant tout avant tout on va zoomer sur le centre de cette carte parce que il y a bien une chose qui mérite d'être clarifié dans tout l'univers du machine learning que ça soit l'apprentissage supervisé le non supervisé l'apprentissage par renforcement quel que soit les algorithmes vous avez vu on va zoomer à
travers les choses quels que soient les algorithmes qui entour le monde de Lia aujourd'hui c'est toujours les quatre mêmes principes qui sont au cœur même du machine learning et du Deep learning ces principes ces quatre principes sont les suivants on apprend à partir de Data de données par exemple un dataset sur des maisons avec leur prix et leur surface habitable dites-moi si vous reconnaissez cette image dites-moi si vous savez d'où elle vient ça me fera plaisir donc voilà à la base de tout on a des données quel que soit le domaine même l'apprentissage par renforcement
parfois les gens se disent mais dans l'apprentissage par renforcement il n'y a pas de données mais si si la machine génère ses propres données à travers des expérience il y a toujours des données c'est la base de tout c'est important de le savoir ensuite le deuxième pilier c'est le modèle il y a toujours un modèle toutes les choses qu'on va voir dans cette carte ce soir sont des modèle justement on va faire un tour d'horizon de tous ces modèles là et pour régler ce modèle il nous faut une mesure de performance quel que soit le
domaine il y a une mesure de performance et ça même dans l'apprentissage non supervisé chose qui peut surprendre un certain nombre d'entre vous je le sais puisque je vois parfois des gens dans dans des entreprises dans des conférences sur Linkedin même dans des formations dire que dans l'apprentissage supervisé il y a pas de fonction coût dans l'apprentissage non supervisé il n'y a pas de fonction coût non c'est faux c'est faux il y a des fonctions coût mais elles ne sont pas elles ne prennent pas la même forme que celle qu'on peut avoir dans l'apprentissage supervisé
comme la régression linéaire la classification tout ce genre de choses donc le troisième pilier de tous les algorithmes de tout le monde de Lia c'est qu'il y a des mesures de performance et pour finir on a des algorithmes de minimisation des algorithmes d'optimisation ce sont sont ces algorithmes qui arrivent qui donnent à tous nos modèles la capacité d'apprendre d'ailleurs ne mélangeons pas les termes modèle et algorithme un modèle c'est quelque chose qui permet de modéliser un phénomène un algorithme c'est une séquence d'action qui permettent de faire des choses y compris apprendre apprendre les différentes choses
qu'on peut avoir dans un modèle les paramètres par exemple donc ces quatre chosesl retenez bien qu'elles sont les fond les fondations de toutes les techniques d'intelligence artificielle qu'on peut trouver aujourd'hui tout ce qu'il y a là tout ce que vous voyez ici la régression linéaire le clustering chat GPT Sam Mistral Lama toutes ces chosesl elles sont basées sur ces quatre chos ça va tout va bien oh mon dieu vous êtes 722 mais jamais j'aurais imaginé qu'on soit aussi nombreux ce soir c'est absolument génial je vous remercie et croyez-moi vous allez avoir vous alle vous allez
en avoir des informations là là vous allez vous allez aimer ce que vous allez voir ce soir mais bon retenez donc bien ça ces quatre piliers sont la base de tout ce qu'on va voir ensemble sur cette carte boum alors par quoi on commence bon c'est moi qui vais décider et après je vous laisserai un petit peu choisir ce que vous voulez ce que vous voulez explorer ça va être la surprise un petit peu comme si on ouvrait on ouvrait des cadeaux et on sait pas forcément ce qu'il y a dedans on va commencer par
par ce bloc là là euh ce bloc là ce bloc là alors attendez non je peux pas tout de suite dire ce que c'est oui il y aura un repost oui vous en faites pas il y aura un repost je peux pas tout de suite dire ce que c'est ce bloc à votre avis qu'est-ce qui se cache derrière ça à votre avis quelles sont ces quatre couleurs déjà ah ah c'est une grande question ça alors certaines personne pourrait se dire ah làdedans on va avoir l'apprentissage supervisé l'apprentissage non supervisé on va avir l'apprentissage par renforcement
on va avoir tiens quelqu'un qui dit les mathématiques non c'est pas ça perdu oui oui je vois beaucoup de gens qui disent ça voilà renforcement supervisé non supervisé et puis et puis les gens vont se dire ah on va mettre le di lening voilà je vois des gens qui disent les réseaux de neuron artificiel et bien non non c'est pas ce qu'on va mettre on va pas mettre du supervisé du non supervisé ou ce genre de chose pourquoi parce que très souvent sur beaucoup de choses qu'on peut voir sur internet on classe on fait des
cartes comme ça dans lesquel on met supervisé non supervisé réseau de neurones mais c'est mélangé en faisant ça on mélange tout un tas de concepts c'est comme si on faisait une une carte dans laquelle on disait il y a les vélos il y a les motos il y a les voitures ah et puis il y a les moteurs à essence non c'est un concept différent on n'est pas sur la même hiérarchie là donc ce qu'on va faire ensemble ce soir c'est qu'on va voir on va faire un tour d'horizon des modèles les grandes familles de
modèles qui existent donc voilà il y a des personnes qui commencent à à à être sur la sur la voie là voilà on va parler des modèles tout à fait alors il faut savoir qu'il y a pas énormément de de familles de modèles dans le monde du machine learning et du Deep learning la première de ces famillesl première de ces familles elle se situe là ce sont les modèles linéaires alors ceux-là je les adore je les adore parce qu'ils sont beaucoup plus puissants ou beaucoup plus utiles que ce que les gens peuvent parfois croire ah
les modèles linéaires c'est fabuleux et ça permet à la fois de faire de de résoudre des problèmes de classification et de régression chose qui est parfois mal compris par le public ou par les Data scientistes qui débutent parfois même les intermédiaires quand j'ai été euh en poste dans dans une très grande entreprise récemment j'avais une équipe de 20 personnes qui travaillent avec moi deux équipes même et j'ai dû coacher un bon nombre de Data scientist qui ne savaient pas comment forcément utiliser les modèles linéaires pour en tirer le meilleur possible donc la base de ces
modèles linéaires euh c'est c'est très simple hein c'est c'est une c'est une fonction de type FX = WX + B ou bien w1x1 + W2 X2 + B et cetera et cetera un modèle linéaire c'est un modèle qui fait une somme pondérée des entrées donc pourquoi est-ce que ça prend le terme de modèle linéaire et ben c'est parce que quand on trace ça pouf ça fait une ligne c'est simple hein ça fait une ligne ou en réalité ça fait un hyperplan quand on se balade ensuite dans plusieurs dimensions donc modèle linéaire que tout le monde
connaît de base c'est la régression linéaire hein celui qui est donné là dans lequel en fait ce qu'on cherche à faire c'est de fit le modèle par la méthode des moindres carrés qui nous vient de Carl Goos et également un Français he la méthode des moindres carrés elle a été développée par ces deux personnes complètement par hasard en même temps donc le gendre en 1809 ça remonte hein en réalité elle a même été développée un tout petit peu avant 1809 mais elle a été rendue publique elle a été publiée en 1809 cette méthode donc c'est
pour dire que ça c'est vieux en réalité et ça c'est la base de tout encore aujourd'hui donc en quoi consiste cette méthode vous le savez sans doute on calcule la différence au carré entre ces différents points et le modèle c'est ce qu'on appelle la distance euidenne incroyable et notre but comme on l'a vu au cœur de l notre but c'est ensuite de minimiser cette distance avec un algorithme de minimisation ça ça va être la base de tout tout le temps toujours alors pour ça en machine learning il y a plein de méthodes différentes on peut
utiliser des méthodes analytiques comme celle qui étit utilisé il y a de siècles nous quand on travaille avec beaucoup de données pour des raisons que je vais pas expliquer là parce que on a qu'une heure on préfère utiliser une autre méthode qui s'appelle la descente de gradient et a une autre méthode aussi très particulière très très puissante que j'adore particulièrement c'est la méthode de la décomposition en valeur singulière mais pour ça faut faire un peu d'algèbre linéaire faut faire un peu de math mais c'est celle qui se cache en réalité sous beaucoup de modèles que
les Data scientistes utilisent sans même s'en rendre compte l'analyse en composantes principal la régression linéaire telle qu'elle est déployée implémentée dans beaucoup de librairies ça utilise en réalité une décomposition en valeur singulière mais nous on va voir la descente de gradient celle-là vous la connaissez bien voilà simplement à se dire bon bah on va descendre pas à pas les étapes de notre de notre fonction coou qu'on voit là Bou ici quand on regarde cette fonction cou et comment elle évolue par rapport à un des paramètres W W hop c'est un des paramètres qu'on a là
et bien notre fonction coup elle descend comme ça grâce à la descente de gradient et ça c'est vraiment la base des modèles linéaires alors le concept de descente de gradient n'a rien à voir avec les modèles linéaires c'est juste un algorithme d'optimisation un algorithme d'apprentissage mais je le place ici parce que ça repose un petit peu les bases mais cet algorithme descendre de gradient on va l'utiliser dans énormément de modèles différents donc voilà la base de tout et comme je vous l'ai dit on retrouve aussi ça pour les problèmes de classification une régression logistique c'est
un modèle linéaire en réalité on va dire que c'est un modèle pseudolinéaire parce qu'on a ici une fonction sigboïde mais la frontière de décision celle qui nous permet vraiment de faire nos nos de de de faire notre travail de classification c'est une frontière linéaire comme on le voit là donc le principe est le même et dans tout ça des fois les gens sont un petit peu confus mais à partir du moment où on a plusieurs variables ça peut quand même rester un modèle linéaire auquel cas ça devient un plan ou un hyperplan dans l'espace multidimensionnel
quand vous prenez un plan si vous prenez une feuille et que vous la regardez sous ces différentes composantes bah vous voyez des lignes he c'est exactement ça qu'on a dans les modèles linéaire alors dans les modèles linéaires il y a pour finir un un ensemble de de modèles un peu spéciaux qu'on appelle les modèles régularisés et vous les connaissez peut-être he je pense hein Ridge l'assaut et ellastique net qui est une combinaison de ces ces deux modèles là on utilise ces modèles très souvent lorsque on a beaucoup de variables dans un problème ou qu'on a
créé beaucoup de de feature polynomial à ce moment-là c'est plus vraiment un modèle linéaire he c'est un modèle polynomial puisqu'il ne fait plus la somme pondérée de ses entrées mais il monte aussi il élève certaines variables au carré ou ce genre de chos mais le fait d'utiliser ce genre de modèle ça peut être extrêmement utile parce que très souvent vous avez des problèmes d'overfitting c'est-à-dire que les modèles parce qu'ils ont trop de de de de variables qui rentrent à l'intérieur ils ne sont plus capables de généraliser ce qu'ils apprennent il peuvent plus généraliser ils deviennent
trop précis trop spécialisés et ça on fait des mauvais modèles ça je le vois tous les jours dans l'entreprise dans laquelle je travaille avec tous nos clients on a toujours des modèles qui sont trop spécialisés on veut par exemple traiter des images qui nous viennent du corps humain sauf qu'on en a pas assez et donc on a un ensemble d'imagees trop limité le modèle il apprend à reconnaître simplement les images qu'il a vu c'est dommage nous on veut pas qu'il apprenne à reconnaître des images qu'il a vu on veut qu'il apprenne des choses qu'il y
a à l'intérieur de ces images les choses qui sont cachées à l'intérieur c'est pour ça que c'est important connaître ces modèles alors les gens sont parfois un petit peu confus quand ils regardent ces ces ces graphiques alors qu'est-ce qui signifie et bien la régularisation de Ridge de l'assaut et de élastique net elle vous donne ici un une zone alors ici c'est un cercle ici c'est un un carré voilà qui va être la zone dans laquelle vous autorisez votre algorithme à s'arrêter c'estàdire que là ici notre algorithme de descendre de gradient il pouvait converger jusqu'au bout
du bout le minimum de notre zone qui nous intéresse et on va lui dire non tu as pas le droit de faire ça tu as le droit de travailler seulement dans cette zone bleue alors cette zone bleue on peut la la grandir ou la la rendre plus petite ça ça dépend des coefficients de régularisation qu'on utilise dans ces modèles mais là je trouve qu'on commence à rentrer un peu trop dans dans des détails et puis le retourne voilà en fait en clair ce que vous avez à savoir sur les modèle linéaire il y en a
pas grand il y en a pas beaucoup mais retenez qu' peuvent faire à la fois des régressions des classifications et que il pose vraiment la base d'énormément d'applications qu'on trouve en nia donc voilà la première grande famille de modèles qu'on retrouve dans le paysage de l'intelligence artificielle les modèle linéaire est-ce que ça vous plaît est-ce que vous êtes est-ce que vous trouvez ça intéressant là c'est pas mal hein moi je me dis juste qu'est-ce qui va se cacher sous ces autres sous ces autres petites petites boîtes je sais pas si on peut vraiment parler de
boîes hein ça me fait plus plutôt penser à des à des à des je sais pas des des Barb papa alors lequel vous voulez qu'on ouvre maintenant allez-y je vous laisse choisir entre allez entre ces deuxlà lequel on ouvre gauche ou droite allez-y décidez-vous très rapidement vous me dites gauche droite droite gauche je vais lire alors je vais lire att marron ah oui Non Non mais si vous dites les couleurs tout le monde va pas être d'accord ou là là ou là là ou là là gauche droite drite ou là là ou là là ou
ok ok ok il y a beaucoup de gens qui dit qui disent droite alors on ouvre le paquet de droite et on trouve là tous les tous les modèles basés sur des structures d'arbres et ils sont légions ceux-l ces modèles sont sont vraiment extrêmement scalables extrêmement utiles extrêmement utilisé utilisé et on va voir un petit peu pourquoi alors la raison pour laquelle encore une fois on ne divise pas toute cette carte en deux grandes parties l'apprentissage supervisé non supervisé et puis ensuite tu as des régressions des classifications c'est parce qu'en fait tous ces modèles là
peuvent très souvent faire un peu de tout et c'est ça que les gens ont tendance à oublier les arbres de décision ça permet de faire à la fois des régressions des classifications et encore d'autres choses ça permet de détecter des anomalies ça permet même de faire du clustering on va voir tout ça ensemble donc un arbre de décision en général ça a un comportement qui ressemble à ça ça a des frontières vraiment orthogonales à nos axes vous le voyez bien c'est tchac tac tac tac tac voilà c'est hyper carré et ça c'est simplement lié au
fonctionnement même d'un arbre puisqu'un arbre il va prendre une de vos variables et il va faire un test dessus il va dire tiens est-ce que la variable X1 sur l'exemple que j'ai est supérieure à 3,5 oUI NON NON oui et bien selon le la situation PAF il va prob il va il va aller dans une autre branche de l'arbre c'est aussi simple que ça un arbre de décision hein c'est voilà il pose une série de questions c'est comme des IF et des ELS d'une certaine manière sauf que ces règles ces tests ils ont pas été
développés par un être humain ils ont pas été hardcodés non en fait ils ont été trouvés de manière à minimiser une fonction cou qui peut-être celle de l'entrthopie celle du genie il y en a vraiment tout plein des fonctions coup celle qu' voità c'est l'entropie qui a une allure comme ça qui est une mesure du désordre ça nous vient de la physique de la mécanique de la thermodynamique en réalité de la thermodynamique mais c'est aussi quelque chose qui vient de de de d'un informaticien un super mathématicien qui s'appelait Claude Shannon qui a créé ce qu'on
appelle la théorie de l'information euh c'est c'est c'est une légende de du monde de de de du computer science de l'informatique et et donc ce qu'on voit sur cette sur cette fonction son coup minimiser l'entropie encore une fois rappelez-vous c'est ce qu'on a au cœur même de l'intelligence artificielle minimiser les les les mesures de performance et bien on voit ici que l'entropie c'est-à-dire le désordre est minimum lorsque au sein d'une branche ou au sein d'une d'une node d'un nœud et bien on n pas de désordre c'est-àdire qu'on a soit que des carrés soit oups il
y a ma tête là qui vous cache un petit peu ici soit que des ronds voilà donc le but de l'algorithme ça va simplement d'être de tester tac tac tac tac tac plein de petites frontières voilà comme ici et là voilà j'en trace d'autres euh voilà jusqu'à trouver celle qui split c'estàd qui sépare au mieux le jeu de donné c'est aussi simple que ça alors ça ensuite ce genre de modèles on peut les trouver décliner de plein de façons différentes on peut créer des des forêts d'isolation ça je l'avais montré sur ma chaîne youtube peut-être
que vous vous en rappelez c'était une vidéo il y a très longtemps en 2020 j'avais sorti cette vidéo euh qui qui qui montrait le fonctionnement détaillé de cet algorithme allez la voir parce que vraiment ça met un petit peu de temps à expliquer mais c'est un algorithme que j'adore il il est génial cet algorithme donc vous avez plein d'armes comme ça puis au final il vote pour trouver excusez-moi où est-ce qu'on a où est-ce qu'il y a une anomalie dans notre jeu de données et bien sûr en parlant de forêt c'est-à-dire un ensemble d'arbres on
peut créer des random forest extrêmement utiles donc on crée comme ça plein d'arbres un petit peu au hasard on va expliquer comment ils sont expliqués au hasard dans un instant et tout ça ça fait que lorsqu'ils vote on a une convergence t donc une superposition de la solution qu'il faut en réalité utiliser et voilà en fait ce qu'il faut savoir très rapidement sur les modèles à base d'arbre qui sont encore une fois des modèles extrêmement extrêmement puissants extrêmement utilisés euh je vous les recommande he les les modèles d'arbres que ça soit en machine learning en
data science en data engineering bref aujourd'hui les entreprises ont besoin de modèles d'arbre et je peux vous dire que dans les gfames on utilise des des modèles d'arbrees on utilise des modèles d'arbres dans dans les plus grosses entreprises au monde celles qui font des fois des algorithmes de fou c'est des modèles d'arbre allez maintenant on va passer à la deuxième à celle du milieu là la deuxième petite boîte puisqueil y avait quand même beaucoup de gens qui disaient ouais ouais moi je veux voter pour celle de gauche euh et là peut-être que des gens sont
en train de se dire mais mais mais pourquoi il y a des couleurs orange et violette on va voir ça on va voir ça je vous laisserai spéculer je vous laisserai en fait ouais c'est ça je vais pas vous donner la réponse je vais pas vous donner la réponse ça va être à vous de trouver pourquoi il y a des boîtes orange et pourquoi il y a des boîtes violettes ça va être ça va être très marrant de voir ça allez on entre dans une autre catégorie de modèles qui sont les modèles baesiens ah ceux-là
sont géniaux j'adore les modèles baésiens ils sont beaux ils sont magnifiques il y a quelque chose de satisfaisant tout comme le théorème de baes puisqu'ils sont basés là-dessus les modèles baesiens c'est c'est l'amour des maths c'est l'amour de la perfection c'est l'amour en fait de de de combiner quelque chose de de parfait avec quelque chose de naïf puisque le premier algorithme qu'on a ici vraiment dans cet univers c'est l'algorithme de naïf baes alors pourquoi est-ce qu'on dit qu'il est naïf cet algorithme et bien parce que cet algorithme va tenter de résoudre des problèmes par exemple
de classification euh en faisant l'hypothèse très naïve très naïve que toutes les variables qu'on fournit à notre modèle sont indépendantes les unes aux autres comme si vous disiez bah la taille d'une personne c'est indépendant de son poids non c'est faux il y a une dépendance claire entre la taille et le point d'un individu mais quand on utilise cet algorithme on va faire cette approximation qui dit non on va dire que non et ce qui est incroyable c'est que malgré ça l'algorithme fonctionne extrêmement bien extrêmement bien donc qu'est-ce qui nous permet de faire cet algorithme et
bien il va simplement calculer la probabilité que on ait une une certaine valeur y qu'on cherche à prédire par exemple quelle est la probl ité que le mail que j'ouvre est un spam pour reprendre l'exemple le plus facile et évident qu'on a dans les cours de Data science de débutant quelle est la probabilité que l'email que j'ouvre est un spam soit un spam sachant que et bien il a tant de mots tant de lien et cetera et cetera et bien ça on peut le calculer en regardant quelle est la probabilité d'après ce qu'on avait vu
dans les données quelle est la probabilité d'avoir 500 mots et je sais pas TR tris liens sache chant que notre email était un spam dans les données qu'on a vu et on va multiplier ça à la probabilité de y c'est-à-dire combien est-ce qu'on avait d'une manière générale de spam dans les dans notre jeu de données donc d'une manière générale quelle est la probabilité d'avoir un spam et on va diviser ça par la probabilité d'avoir 500 mots TR liens et cetera et cetera cet algorithme il fonctionne extrêmement bien il est super puissant je vois toujours des
gens qui demandent dans le chat si le live sera euh disponible en replay oui il sera disponible quelques temps quelques jours mais euh restez bien là parce que il y a des il y a il y a des petites choses il y a des petites choses qui vont venir euh alors ces modèles de baes ils peuvent être déclinés de plein de façon différente on a le gaoian naï baes Goian je le dis en anglais désolé vous savez je je vis depuis 10 ans en Angleterre au Royaume-Uni si certains ne le savent pas je crois que
la plupart des gens le savent donc le gaoian naif base c'est simplement une variante dans laquelle et bien notre probabilité suit une loi gasienne tout simplement et puis tout ça ça peut aussi être décliné sous plein de plein de formats différents très intéressant je vous en parlerai bientôt de ces chosesl dans d'autres vidéo ou dans d'autres formats et on a donc là les trois premières grandes familles de modèles et vous vous rendez compte qu'il est déjà 26 et qu'on a encore tout ça à faire donc là je commence à paniquer non bien sûr que non
mais c'est c'est très marrant je vous propose sans sans plus attendre de de non non allez encore une fois battez-vous battez-vous dans le chat pour choisir entre la orange et la violette ça va être ça va être marrant prolonge le live on verra on verra si on peut prolonger le live on verra bien droite gauche gauche écoutez la dernière fois on avait commencé par droite cette fois-ci on va faire gauche et en plus je vois que beaucoup de gens disent ça également alors qu'est-ce qu'on a derrière le paquet de gauche roulement de tambour même moi
j'ai oublié on a ah les algorithmes de réduction de dimension alors en fait ces derniers ils peuvent être classés dans quelques boîtes différentes des fois ça peut être un petit peu compliqué mais GL globalement ces algorithmes vont rentrer quand même dans dans cette partie là et à la base de beaucoup de ces algorithmes on va retrouver une technique très spéciale en mathématiques qu'on appelle la décomposition en valeur singulière je l'ai mentionné un petit peu plus tôt alors c'est une technique qui permet de prendre une matrice quelconque et de dire que cette matrice est en fait
le produit de trois autres petites matrices c'est un sujet extrêmement avancé pour des gens qui qui qui n'ont pas fait forcément de de de cours de math en prépa ou un master spécialisé donc on n pas le temps d'en parler vraiment plus en détail ici mais j'en parlerai bientôt avec vous vous dans d'autres formats vous verrez mais vraiment cet algorithme là c'est un des algorithmes fondamentaux de tout l'univers de la vraiment encore aujourd'hui de cet algorithme découle vraiment quelque chose de très connu hein l'analyse en composante principal super algorithme oui il y a des gens
qui parlent de de eigen value on a graven dans le chat c'est incroyable salut à toi graven euh je suis très content de t'avoir ici donc l'algorithme de la décomposanteou là on la refait C l'algorithme de la décomposante ça veut rien dire l'algorithme ou le modèle plutôt de l'analyse en composante principale c'est un algorithme qui projette vos données comme ça sur un axe ou sur un espace de plus petite dimension ce qui vous permet donc de réduire la dimensionnalité de votre problème exemple d'application alors il y en a tout plein mais là je vous en
donne un on peut ainsi compresser des images comme ce qu'on voit là là on a une image qui a été compressée sur 50 axes donc 50 axes comme celui-ci là j'en ai qu'un là sur 40 30 20 10 et là un seul donc on voit en fait à quel point on peut compresser une image c'est-à-dire réduire la dimensionnalité d'un problème d'un jeu de données avec simplement cet algorithme là donc simplement en projetant des points sur un axe comme si c'était les ombres de ces points et que là il y avait le soleil au loin qui
tapait comme ça sur sur sur ces pointsl pour projeter leurs ombres et voilà ça nous permet de réduire la complexité d'un jeu de données et donc sa taille sans pour autant sacrifier la qualité hein parce que moi jusque allez à peu près jusqu'à l'image 20 j'arrive à reconnaître de quoi il s'agit hein ça va bon en dessous de 10 moi je je fais grève he par contre he là là je dis c'est pas possible je peux pas regarder ma télévision comme ça bref on a donc ici l'analyse en composante principale principal component analysis et dans
tout ça on a aussi une autre catégorie de modèles qui sont les modèles qui apprennent des variétés alors ceux-là sont très avancés le concept de ces modèles c'est de se dire tiens il existe des variétés une variété en mathématique c'est c'est un c'est un nom donné à un objet géométrique en anglais on appelle ça manifold manifold et qui va permettre de en fait déplier cette forme cette cette cet objet mathématique cet objet géométrique qu'on voit là afin en fait de le simplifier d'en réduire la dimension parce qu'en fait si ici sur cette image on voit
que on a une une sorte de forme de S ah il y a des gens qui parlent de riman c'est très très bien on a des gens qui connaissent très bien ces choseslà dans le chat bravo ah oui oui oui bien si je comprends que que là j'ai une forme de S que j'arrive à modéliser ce s j'ai plus besoin de ces axes je peux complètement éliminer ces trois axes là je dis simplement bah je sais que j'ai un S ensuite j'ai des points qui sont répartis sur cette surface de s suivant une certaine manière
tout ce que j'ai à faire ensuite c'est replacer ce s dans l'espace et il y a beaucoup d'algorithmes qui permettre de faire ça comme on le voit ici à l'écran super super technique j'adore les variétés euh je ah j'ai beaucoup d'histoires à vous raconter là-dessus sur des projets que j'ai pu faire dans mon entreprise que j'ai créé maintenant il y a quelques temps où on a fait des des projets absolument géniaux sur de la modélisation de variété des des choses je vous en dirai plus parce que là leur tourne allez maintenant on va passer à
la trè la troisème petite zone ici de notre de notre carte de Lia hein on fait ici un tour d'horizon de Lia pour ceux qui qui nous rejoindrai donc on est en train de voir absolument tout ce qui existe dans l'univers de Lia donc ici on va retrouver roulement de tambour je crois me souvenir cette fois-ci les modèles ensemblist donc les modèles qui sont en fait des ensembles de modèles alors ça c'est un domaine de Lia qui ou du machine learning he on va utiliser le bon terme qui euh qui a donné naissance à des
algorithmes particulièrement efficaces aujourd'hui par exemple on l'a mentionné tout à l'heure l'algorithme de Random forest ou le modèle de Random forest donc le modèle de Random forest c'est en fait un modèle issu d'une technique appelé bagging qui est l'aggrégation de deux choses bootstrap aggregating donc on fait on va faire deux choses quand on fait du bagging la première c'est qu'on va faire du bootstrapping le bootstrapping ça consiste à prendre certains points qu'on a ici dans notre jeu de données au hasard et de les donner à des modèles qui vont devenir des experts sur ces points-là
et après ça c'est le bootstrapping ensuite on va le bootstrap ensuite on va agréger c'està dire on va on va rassembler toute leur réponse et on va les faire voter et ça ça permet de faire des des ça permet de modéliser des régressions des classifications les deux sans aucun problème imaginez c'est un petit peu comme si vous aviez des copains que vous invitez à regarder match de foot ou match de basket ou peu importe et puis chacun il est expert et donc il va vous dire moi je Paris que ce soir c'est telle équipe qui
va gagner et vous fenez vous prenez la somme ou plutôt la moyenne de tout de de tout ce que vos vos amis vous disent et puis paf ça vous fait une prédiction ça c'est le bugging une autre technique c'est le boosting alors boosting c'est très différent vous allez prendre vos données encore une fois d'une manière un petit peu spéciale on va pas juste prendre toutes les données comme ça vous allez prendre vos données vous allez demander à votre premier copain qu'est-ce qu'il en pense mais sans qu'il devienne pour pour autant un expert ça va être
un modèle un peu faible un peu simple et votre copain il connaît pas grand-chose par exemple on on va on va prendre un exemple un peu plus compliqué que le football on va prendre l'investissement voilà l'investissement tout le monde se croit être expert de ce truc sur internet pour autant tout le monde fait un petit peu des choses au hasard bon prenez un un de vos copains vous lui dites tiens est-ce que tu crois qu'il faudrait que j'achète est-ce qu'il faut que j'achète du Bitcoin et lui il dit ouais vas-y fonce et puis vous allez
avoir un modèle après qui va en fait avoir appris à prédire si le premier modèle s'est planté ou pas dans le boosting vous avez en fait une chaîne de modèle qui apprenne à dire si le modèle précédent fait des erreurs ou non c'est quand même particulièrement marrant comme comme façon de procéder mais ça fonctionne extrêmement bien ça fonctionne tellement bien c'est incroyable depuis une dizaine d'années un petit peu plus on a un modèle qui s'appelle XJ boost qui vient du en faitj boost c'est aussi une librairie qui en réalité est une une façon de modéliser
un une méthode appelée le gradient tree boosting gradiant tree boosting on prend des arbres comme ce qu'on a vu avant voilà des arbres ici pouf on les on les regroupe en chaîne et ces arbres vont apprendre à prédire les erreurs de leur prédécesseur et cet algorithme fait partie des King aujourd'hui des algorithmes traditionnels de machine learning quand vous faites des compétitions cagle ou que vous voulez vraiment avoir des bonnes performances sur des jeux de données tabulaires vous faites un XJ boost paf ça va super bien marcher j'espère qu'on voit bien là avec ma tête sur
le côté je va peut-être la la rendre un tout petit peu plus petite hop tac tac tac tac tac voilà comme ça vous voyez un petit peu mieux l'écran donc le boosting et on a un dernier grand grand type de modèle ensemblist c'est le stacking il en existe d'autres des petites variations mais bon on va pas rentrer dans toutes les petites les petites détails mais le stacking c'est encore une autre technique de de de rassembler qui permet de rassembler des modèles très simplement on prend des modèles différents qui apprennent à devenir des experts sur un
modèle ils envoient leur prédictions à un are modèle qui lui apprend à faire sa prédiction finale basée sur les prédictions des autres c'est un peu différent du boosting parce que dans le boosting on avait des erreurs là on a des prédictions pas tout à fait la même chose et ça aussi ça marche extrêmement bien voilà donc les modèles ensemblistes allez on va tout de suite passer à la suite cette fois-ci c'est moi qui choisi hein tant pis pour vous euh c'est pas toujours à vous de choisir moi aujourd'hui je vais choisir cette fois-ci euh celui-là
allez hop et là on a les support vector machines des modèles qui aujourd'hui ont un petit peu perdu de leur de leur gloire si je puis dire pourquoi parce que ce sont des modèles qui ne cale pas forcément très très bien ils ont ils ont connu vraiment leur moment de gloire il y a pas mal d'années ils ont été développés il y a longtemps en réalité mais voilà ce sont des modèles qui ne sont pas fort forcment les plus utilisés de nos jours ils peuvent avoir quand même leur utilité dans certains projets alors la base
des support vecteur machines c'est dans le nom c'est qu'on calcule des vecteurs de support qui sont en fait les vecteurs c'est-à-dire les coordonnées des points de notre jeu de données ici dans le cas d'un problème de classification on a ça et ce qu'on va chercher à faire c'est placer la droite vous pouvez voir cette droite comme une rue là vous avez la route vous voyez c'est une rue là une route avec le trottoir et puis là le centre de la route on va chercher à placer la droite qui donne la marge c'estàdire la distance entre
ces vecteur de support de classe opposée qui soit la plus grande possible autrement dit on a encore une fois un problème de données modèle mesure de performance et et algorithme de minimisation sauf que cette fois-ci on veut maximiser pas minimiser mais il se trouve qu'en réalité d'un point de vue mathématique maximiser ça revient à minimiser c'est juste qu'on minimise la fonction opposée voilà donc voilà en clair le fonctionnement d' d'un SVM support vecteur machine alors il existe des SVM linéaires comme on a là on peut les utiliser pour les régression évidemment puisque pourquoi est-ce qu'on
utiliserait pas forcément cette droite que pour séparer des choses mais on peut très bien aussi s'en servir pour dire bah tiens on va on va se servir des des vecteurs de support euh ici et ça va nous permettre de créer une droite qui ne permet pas de séparer l'espace mais qui permet vraiment de prédire la moyenne prédire ce qui est le plus fidèle c'est un modèle qui fonctionne aussi très bien et on peut aussi s'en servir pour détecter des outliers avec les les algorithme de one class SVM les les support vector machine sont encore une
fois des modèles des une famille d'algorithes et de modèles qui sont très versatiles vous pouvez en faire tout ce que vous voulez énormément de choses c'est pour ça qu'il faut pas en général quand on créer une une carte de Lia comme ça juste dire bah il y a de la il y a des classifications il a régression et puis aussi du clustering non parce qu'en réalité on peut mettre énormément de modèles dans toutes ces boîtes là à part pour certains certaines thématiques comme le clustering justement on va le voir et la réduction de dimension alors
dans les SVM il y a aussi quelque chose chose de très connu très populaire qui les a rendu en fait très sexy pendant des décennies les support vecteur machines c'est le kernel trick parce que ce qu'on peut faire avec ces ces ces modèles là c'est en fait de trouver une façon de transformer l'espace de base qui est ici c'est qui ne peut pas être séparé linéirement comme on peut comme on peut le voir ici là vous séparez pas ça avec une simple droite euh et bien il existe des transformations qui vous permettent de projeter les
points dans des dimensions supérieures comme vous pouvez le voir là on passe de 2D à 3D pour ensuite trouver un hyperplan qui sépare super facilement ces pointsl c'est un petit peu un code triche he là quand même he alors c'est utilisé dans énormément de domaine du machine learning depuis très longtemps euh on peut parler simplement de feature engineering sauf que les modèles le tric du kernel c'est un feature engineering automatique grâce à une méthode connue sous le nom de radial base function le kernel RBF ce kernel là il peut vous permettre de vraiment isoler le
petit point là que vous avez perdu au milieu de tous il est très il est très très chouette ce ce ce Carnel là très puissant mais est très lent donc comme vous le voyez il projette simplement les choses comme ça suivant une une fonction de transformation qui ressemblerait à ça dans l'espace mais aujourd'hui c'est difficile d'utiliser ces techniques là sur beaucoup de données c'est la raison pour laquelle les SVM sont des sup outils mais il faut connaître leurs limites il faut les connaître donc retenir bien ce que je viens de vous dire ensuite on avance
parce que le temps passe très très vite on va passer à cette boîte là dans laquelle on va avoir les nearest neighbors nearest neighbors donc tous les algorithmes qui sont basés sur le calcul entre de de distance entre les points donc la star de tous c'est bien sûr le KNN k nearos neighbors on a un jeu de données là pour faire un problème de classification et puis on a deux classes vous pouvez prendre encore une fois tenez des des des des champignons toxiques et des champignons comestibles et puis là il y a un champignon que
vous connaissez pas et vous vous dites bon ok c'est quoi ce truc c'est toxique ou c'est comestible alors il y a plein de façons de répondre à cette question on peut utiliser tous les autres modèles qu'on a vu jusqu'à présent mais on peut aussi utiliser des modèles de nearest neighbors donc des modèles qui vont simplement calculer la proximité avec les autres points donc on a ici l'illustration de ce type de modèle tout simplement et là je sais pas on dirait que peut-être qu'il est plus proche de la classe bleue voilà il y a plus de
flèches bleu que de flèche rouge enfin toutes les flèches sont blanches ici mais vous voyez ce que je veux dire donc PAF ce champignon appartient à la classe bleu et ça ça marche aussi pour les modèles de régression chose qui est très souvent oublié par les Data scientist très très souvent oublié au passage d'ailleurs merci à toute mon équipe là Antonin et et les autres personnes qui m'aident pour répondre au question parce que vous êtes juste beaucoup trop nombreux à m'en poser et moi il faut bien sûr que je continue de vous présenter tout ça
je répondrai aux questions un petit peu plus tard donc l'algorithme du KNN très souvent oublié par les gens peut-être aussi utilisé pour résoudre des problèmes de régression il manque un petit accent là hop régression on a ici un point on ne sait pas forcément quelle est la valeur de ce pointlà et ben on va regarder c'est quoi les Voilin les plus proches et on va prendre le bariccentre ou la moyenne c'est la même chose voilà utilisez le terme que vous voulez les KNN sont très souvent utilisés dans des grandes entreprises lorsque ça peut être intéressant
et intelligent pour des problèmes de régression j'en ai des exemples je vous en parlerai je vous en partagerai à travers des use case à l'avenir je pense euh ouais donc ensuite petit moment de réflexion je me suis dit ouais ouais ouais on a d'autres algorithmes le radius neighbor c'est la même chose sauf qu'on contraint notre algorithme à rechercher dans un rayon donné ça peut être utile lorsqu'on a vraiment un dataset avec une une une richesse de données très très grande très développée et qu'on veut un petit peu contraindre les choses et le outlerer le local
outlerer factor encore un autre exemple de de d'algorithme qui est basé sur les voisins les plus proches pour des raisons de détection d'anomalie dans lesquels on se dit tiens là il y a un point qui se situe là-bas euh bah il semble pas faire vraiment partie du lot et bien le local outlier factor dont je parle dans le livre apprendre le machine learning en une semaine je vous décris tout cet algorithme en image et bien il il fonctionne vraiment sur la base des nearest nebors algorithme très efficace très facile à scaler c'est un bon algorithme
et voilà maintenant il nous reste deux petites boîtes ici allez je vous laisse choisir celle de gauche ou celle de droite normalement le live est contraint à 1h mais il prend son temps et ben dis donc je vais me faire je vais me faire gronder par Antonin maintenant alors quelle tuile ah merci quelqu'un il a quelqu'un a lancé un ple euh voilà violet euh violet 50 pour 50 60 attendez attendez mais donc ah là là là là là là 5 53 47 oui oui mais bon si on finit par se retrouver ah là alors là
on a quelque chose de très intéressant on se retrouve vraiment avec du 53 % 47 %. alors je vous pose la question dans le chat mais on répondra pas à cette question ce soir on y répondra peut-être une fois à la plus tard quel test statistique il faudrait utiliser pour vraiment comprendre s'il y a une différence significative entre le Varon et le violet d'après ce que vous dites en ça sachant que vous êtes un certain nombre à répondre mais j'ai pas forcément cette réponse là hein ça c'est intéressant bon en attendant c'est quand même le
violet qui l'emporte donc on va ouvrir la boîte du violet dans lequel on retrouve le clustering super le clustering alors on pourrait se dire mais le clustering c'est de l'apprentissage non supervisé Guillaume tu avait dit qu'on on mettrait pas des choses liées à à des applications dans cette cartelà et bien en fait d'une part oui mais les algorithmes de clustering sont quand même des algorithmes à part dans l'écosystème de de de du machine learning et du Deep learning de par leur fonctionnement principalement alors derrière tout ça on va toujours retrouver les mêmes idées c'est-à-dire des
calculs de distance des des voisins les plus proches parfois des concepts de modèles linéaair derrière tout ça mais ils méritent quand même leur boîes à eux euh réservé spécifiquement parce que sinon ils vont être vexés les pauvres donc la star de tous c'est le kins j'ai envie va dire malheureusement parce que il y a des algorithmes beaucoup plus efficaces que lui hein ça dépend vraiment les situations il y a beaucoup de situations dans lesquelles il ne faut pas utiliser de kins mais bon encore un autre algorithme que j'ai récemment illustré dans le livre apprendre le
machine learning en une semaine euh si vous ne si vous ne le connaissez pas ce livra il est disponible sur mon site internet mais j'imagine que la plupart des gens l'ont déjà téléchargé et lu donc bon c'est un algorithme dans lequel on place des centroïdes c'est à nous de choisir le nombre de points et voilà c'est un algorithme itératif euh dans lequel on converge progressivement vers le centre euh de nos clusters quelqu'un demande quelle est la différence entre les kans et les KNN et bien l'élément de nos neighbors est un des éléments qui va rentrer
dans l'algorithme du kins mais le kins pour le coup c'est vraiment euh euh un algorithme qui nous amène vers une position de centroïd comme ça qui vont ensuite nous permettre d'effectuer des prédictions voilà donc pour faire un kins il faut du KNN si tu veux il faut du enfin pas du KNN mais il faut du nn du nearest neighbor les cins un autre type d'algorithme c'est de clustering c'est les modèle de clustering hiérarchique très puissant très scalable vraiment très très chouette je les appelle les modèle de la main dans la main pourquoi parce que pour
les illustrer très rapidement ce sont vraiment des modèles qui vont tenter de regrouper les les les données en leur faisant se donner la main entre elles donc chaque chaque petit point va trouver son voisin et va lui dire tiens je te donne la main et puis ça va créer comme ça une un petit petit un petit premier groupe de de de points un petit rassemblement et puis ensuite ces petits groupes vont eux-mêmes donner la main au groupes qui sont directement leurs voisins et on va continuer ainsi de suite alors il y a des petites règles
un petit peu subtiles derrière tout ça he parce qu'on peut pas regrouper forcément les choses comme ça il y a des calculs de distance qui rentrent en jeu donc il y a encore une fois un concept de nearest neighbor qu'il faut qu'il faut bien prendre en compte mais c'est de cette manière là vraiment que ces algorithmes fonctionnent ils sont très efficaces dans certaines situations où les kans ne le sont pas excusez-moi par exemple des situ sittion dans lesquelles on peut avoir des des des des clusters qui qui ne sont pas gasiens qui ne suivent pas
une une bonne forme gasiennes les modèles hiérarchical peuvent être utiles dans ces situations là ensuite on a le dbcan density based c'est un algorithme qui est basé en réalité sur deux hyper paramètres importants à savoir la zone d'action des points dans lesquels on va chercher leurs voisins et la densité de points qu'on va trouver dans une zone d'action pour dire oui il s'agit d'un cluster donc ici par exemple on va dire qu'à chaque fois qu'on a trois points qui se côtoient suffisamment dans leur zone d'action et ben il forment à AE3 un cluster après s'il
y en a plus que trois très bien ces points-là sont rajoutés à ce cluster mais s'il s'il y en a que deux alors il ne forment pas un cluster et on en a une nous en avons une illustration ici avec le le type de résultat qu'on peut obtenir donc ce sont des algorithmes intéressants euh qui euh vous permettent vraiment de de trouver le nombre de de la la façon de partitionner si vous voulez un jeu de données sans avoir à vous-même dire oh je recherche tris clusters ou 18 clusters non attention toutefois je vais vous
je vais vous dire quelque chose que j'ai découvert il y a quelques temps personne ne le sait je vous le dis tout de suite personne ne le sait dans le chat personne ne le sait je le sais je ah peut-être que si mais on est 930 la probabilité qu'une personne le sache est quand même très très faible euh et je pense que très peu de gens le savent aussi sur Linkedin ou ailleurs euh l'algorithme desbscan dans S kitln euh est cassé et ça fait longtemps il y a un pool request qui a été euh euh
non pas un pool request pas pas tout de suite malheureusement euh mais il y a y a une il y a une requête qui a été lancée pour le corriger mais il y a a des améliorations qui devrai ê être effectué C sur cet algorithme à l'heure actuelle il peut ne pas vous donner les les performances que vous attendez à grande échelle je vous le dis c'est important après dans tout cet univers de de de de clustering il y a encore énormément d'autres algorithmes notamment des algorithmes de de de réseau de neurone qu'on va voir
dans un peu plus tard bon il nempêche que l'algorithme debescade est extrêmement extrêmement bien moi moi je l'utilise quand même je vois des gens qui disent RIP rest in peace desb scan non non non non faites simplement attention si vous travaillez sur des des grandes échelles en principe l'algorithme de DBSCAN doit bien fonctionner mais il y a un petit souci de partitionnement j'ai j'ai été voir le fonctionnement dans en regardant le code source moi-même et je me suis rendu compte qu'il y avait un petit souci il y avit un petit souci dans tout ça euh
mais je je je sais que d'autres personnes le savent pu puisque j'avais parlé par hasard à quelqu'un de de de la communauté machine lornia qui me l'avait elle aussi dit elle m'avait dit mais oui oui oui oui oui oui l'algorithme est cassé je lui ai dit ah bah tiens comme par quelle coïncidence je m'en suis rendu compte il y a pas il y a pas longtemps moi-même bref le monde du clustering tient dans cette boîte et je me rends compte qu'il est déjà 18h53 enfin pour vous il est 19h53 j'ai pas encore fait la moitié
de cet arbre de cette carte décidément c'est c'est un c'est une mission ratée pour moi voilà c'est je suis désolé je vais devoir m'arrêter là c'est la fin c'est la fin de tout et ce soir je je je ferme la chaîne Youtube parce que c'est pas possible la promesse n'a pas été tenue non bien sûr je plaisante on va essayer de rester un petit peu plus longtemps euh et on va sans perdre de temps rentrer dans la dernière boîte qui correspond ici aux algorithmes d'autorégression non on a encore 7 minutes euh oui oui le temps
le temps passe vite 7 minutes 7 minutes on a combien on a une 2 3 4 5 6 7 oui oui c'est une minute par boîte non je rigole les les algorithmes d'autorégression très utilisés pour bien sûr les problèmes de série temporelle puisqu'ils sont là pour les les problèmes de série temporelle ce sont un petit peu des modèles qui sont qui sont tombés un petit peu dans l'oubli depuis ces années depuis ces 10 dernières années je dirais puisque euh ils ont été complètement remplacés par tout ce qu'on trouve aujourd'hui en deep learning euh mais je
les trouve quand même toujours intéressant ils tiennent leur place et ce sont des algorithmes qui quand même rentre dans l'univers de de l'intelligence artificielle de l'IA du machine learning pourquoi parce qu'en réalité la façon de trouver les paramètres de ces algorithmes sont euh basés sur des algorithmes d'apprendre apprentissage d'apprentissage statistique des algorithmes de minimisation on retrouve dedans des choses comme le l'algorithme qui cherche qui est basé sur le maximum de vraissemblance et tous ces concepts mathématiques qui fondent vraiment le machine learning donc dans tout ça on a le principe de base le principe d'autorégression c'està
qu'on va chercher à prédire la valeur de du signal qu'on cherche à prédire par exemple le prix du pain peu importe le nombre de de passagers qui aura la chaque semaine en France de passagers aériens voilà peu importe en nous basant sur les informations des du passé donc si on cherche le signal d'aujourd'hui on va regarder ce qu'il était hier et avant-hier et cetera et cetera alors on peut choisir de s'arrêter à tout moment et de dire bah je vais baser mon calcul uniquement sur les deux premières journées mince je pensais que ça serait un
carré invisible voilà on peut choisir de se baser uniquement sur les deux premières journées voilà ça c'est les deux premières journées tout à fait possible euh la grande question qu'on se pose c'est pour pour prendre cette décision là on se demande en fait comment est-ce que y est corrélé vis-à-vis de lui-même dans le temps donc voilà quand je regarde ce graphique là j'essaie de comprendre si je place sur un un un si je trace un un diagramme un graphique avec tous les points ici encadrés en rouge et que je regarde leur relation par rapport à
tous les points ici encadrés en vert et bien sûr tous ces chosesl elles sont décalables décalable à travers le temps et bien est-ce que j'observe une corrélation une certaine corrélation lorsque la réponse est oui alors on peut choisir de sélectionner cette variable là dans notre calcul d'autorégression et là on a la base d'un algorithme extrêmement élégant j'ai envie de vous dire il est beau cet algorithme ce modèle est magnifique le l'idée même de se dire mais si je dois prédire quel va-être le prix du pain demain pourquoi est-ce que je prendrai pas le prix d'aujourd'hui
tout simplement c'est génial ça passe c'est c'est c'est un concept absolument génial mais il peut être complété avec un autre concept celui de la moving average qui n'a rien à voir avec le le concept de moving average entendu par les gens à travers le temps c'est que c'est pas vraiment un filtre ici que l'on a mais le concept de moving average c'est un concept dans lequel au lieu de prédire la valeur de y en nous basant sur la valeur de y du passé et bien on va tenter de la prédire en nous basant sur les
erreurs du passé ça nous donne un modèle qui ressemble à peu près à ça et pour vous donner une analogie c'est comme si un boulanger vu qu'on parlait du prix du pain se disait tiens en moyenne je vends 100 baguettes de pain tous les jours et ben le lundi je vais en préparer 100 mais à la fin de la journée j'en aurais vendu 105 en réalité il aura pas pu en vendre 5 il aura dû dire non à 5 clients donc il va se servir de cette information là Plou Plou Plou ploup il va rentrer
ses erreurs dans son modèle afin de prédire ce qu'il doit faire la journée d'après mais peut-être que la réponse va-être qu'il doit faire 110 baguettes de pain manque de bol cette journée làà il il a eu que 98 clients et donc il continue à mettre son modèle à jour plop plop plop plop plop et et cetera et cetera tout ça ça l'amène à créer un modèle de moving average qui est un modèle aussi assez efficace mais là où ils sont très efficac ces deux modèles c'est quand on les combine ensemble et là on a le
modèle arma autorégressive moving average j'ai marqué autorégression c'est autorégressive donc on a ces deux chosesl et c'est un modèle qui fonctionne extrêmement bien mais attention sur les les séries qu'on appelle les séries stationnaire donc une série qui n'évolue pas dans le temps en montant en descendant ou bien qui une variance qui évolue c'estàdire des fois ça des fois c'est très très très stable et d'un coup ça s'excite et puis après c'est de nouveau stable non ça c'est pas une stérie stationnaire donc ces modèles là il faut les utiliser avec précaution et c'est la raison pour
laquelle ensuite on a développé tout un autre panel de modèles dans le dans le monde des modèles ARMA Harima SARIMA sarimax et cetera dans lesquels en fait on peut prendre en compte les tendances les saisons le le S qu'on a ici c'est pour saison dans le modèle sarema et cetera et cetera et avec ça avec ces différents modèles ces différentes vraiment familles de modèles on a fait euh le le premier tour d'horizon de ce qu'on peut appeler la carte de l'intelligence artificielle alors maintenant je vous pose la question à votre avis à quoi représentent ces
couleurs à quoi représente ces couleurs ça ne veut rien dire c'est que représente ces couleurs est-ce que est-ce que quelqu'un a eu l'idée est-ce que à quoi correspondent les couleurs oui merci paramétrique versus non paramétrique mais on a mais on a un gagnant ici bravo Fabien os tout à fait alors je dévoile la réponse elle était cachée ici on a ici des madeles paramétriques et des N et des modèles non paramétriqu le fait de parler comme ça pendant 1 heure ça vous fait perdre votre français hein c'est fou oui on a ici des modèles paramétriques
et des modèles non paramétriques alors dedans on a eu quelques deux trois petites exceptions mais d'une manière générale ce qu'on a vraiment sur cette carte c'est un découpage comme ça que veut dire vraiment paramétrique et non paramétrique et bien ça signifie que d'un côté on a des modèles qui peuvent être définis par un nombre fini de paramètres donc ici W et B c'est un nombre fini de paramètres vous pouvez en ajouter 1000 des paramètres si vous voulez il y a pas de souci ça restera un modèle par paramétrique vous pouvez mettre W1 X1 + W2
X2 + W3 x3+ n non ça restera un modèle paramétrique c'est la même chose pour BS c'est la même chose pour ces techniques de factorisation ou plutôt de décomposition matricielle à part justement ces choses-là qu'on a mis ici dans un petit euh dans dans dans un petit une petite bulle d'exception les supports vecteur machine linéaires sont des modèles paramétriques les modèles d'autorégression sont des modèles paramétriques et ça n'est pas le cas d'IR neighbors des modèles ensemblistes des des arbres puisque ces modèlesl n'ont parfois même pas de paramètres un heros neighbor c'est un modèle qui est
basé sur les points tout simplement ou un arbre c'est pareil c'est un modèle qui est basé sur sa structure et des règles des IF et des else à l'intérieur je pense qu'on a besoin d'un livre d'un live ou d'un livre mathématique très bonne idée ça toi tu vas aimer certains des projets que que que je vais sortir bon et bien en 1 heure on a fait la moitié est-ce que vous voulez rester là un petit peu plus longtemps ou est-ce que vous voulez qu'on se retrouve euh dans quelques jours pour parler de la deuxième moitié
de l'arbre est-ce qu'on ferait pas un petit sondage dans le chat pour poser cette question on va faire un sondage faisons un sondage si on peut alors euh je ne sais pas comment faire de Sondag il y a beaucoup de gens qui demandent à qui demandent à rester ah non il y a aussi des gens qui demande un second live un second live ah c'est quand même c'est quand même compliqué hein et pensez essayez de penser à tous les gens qui vont devoir regarder ce live ou pensez au pensez vous-même à à ce que vous
allez à la situation dans laquelle vous allez être euh dans quelques jours si vous devez revisionner cette vidéo et qu'elle dure 2h il y a quelqu'un qui demande les deux qu'est-ce que tu veux tu veux qu'on continue tu veux qu'on fasse un deuxième live aussi oui d'accord je te comprends je vous ai manqué on dirait 2è live 62 %. allez allez voter hein parce que là pour l'instant on s'arrête ce soir allez-y VOTEZ VOTEZ VOTEZ parce que là là vous êtes en train de perdre s'il y en a qui voulait qu'on continue là vous êtes
en train de vous faire exploser parce que là 62 38 là c'est pas la peine de faire un test d'hypothèse hein là je je sais quelle est la réponse hein écoutez les amis là je pense que c'est sans appel hein ah là il va falloir s'arrêter pour ce soir hein mais c'est bien c'est bien ça vous maintient en en suspense sur l'autre moitié de ce de cette de cette carte de Lia on veut la carte vous l'aurez la carte vous en faites pas vous l'aurez écoutez les résultats sont sans appel je suis au regret de
vous annoncer à ces 38 personnes 38 % de personnes qu'on va devoir s'arrêter pour ce soir oh non mais vous en faites pas on va très très bientôt reprendre on va on va faire la suite dans quelques jours on essera de voir quel est le le le jour le le plus adapté on fera un petit sondage pas là tout de suite on va faire un sondage un peu plus à peu à plus grande échelle euh sur toute le tout le reste de la communauté pour vraiment comprendre euh quel sera le meilleur moment le meilleur jour
de la semaine euh moi ça m'a fait très très plaisir de vous voir euh euh le dimanche le temps de digérer ouais voilà moi ça m'a fait vraiment très plaisir de de vous voir ah je vois Clara une personne qui qui qui euh qui est issu d'une de mes formations euh euh ça me fait plaisir de te voir là Clara tu vois oh il y a des gens que je reconnais là je suis très heureux de vous voir euh euh Jojo pewari je te connais aussi euh je je reconnais ça toi ça fait très longtemps
que tu es là aussi euh moi ça m'a fait vraiment plaisir de vous revoir est-ce qu'il y a des gens ici ce soir qui me voi pour la première fois ça m'intéresserait j'aimerais bien j'aimerais bien savoir ça euh parce que euh euh ça fait très longtemps très longtemps euh je vois beaucoup de gens euh que je que je connais déjà et ça ça me fait vraiment très plaisir ah oui tuto rapide tuto rapide qui dit moi et ben enchanté à toi euh oui il y a deux trois personnes qui me voient ici pour la première
fois et bien j'espère que vous vous êtes conquis par cette carte de Lia on va faire la suite très prochainement euh [Musique] je pense que vous vous vous doutez de ce qu'on va retrouver ici sur la deuxième partie h peut-être certains se demande pourquoi il y a deux couleurs pourquoi il y a trois couleurs là qu'est-ce qu'est-ce qui se cache je vous laisse faire vos pronostique vous pouvez les faire dans dans la dans les commentaires de la vidéo puisque il y aura un replay pendant quelques quel quelques temps euh cette carte est géniale et ben
ça me fait très plaisir de recevoir ce commentaire euh j'ai tenté de laffire euh aussi simple et précise que possible de trouver le compromis parfait viendra le temps des détails il viendra plus tard avec des choses que vous que vous que vous n'y imaginez même pas qu'on puisse mettre sur cette carte quand on plonge vraiment dans les détails euh il y a énormément de choses à dire dans le monde de liya depuis depuis quelques années je pense qu'il y a un comble à manquer on voit énormément de gens qui parlent de ça maintenant depuis la
sortie de de chat GPT et je je je je vois je vois qu'il y a vraiment des choses à rajouter dans tout cet écosystème il y a beaucoup de de répétitions de déjà vu de oui ça ça fonctionne comme c comme ça mais il y a quelque chose de plus fondamental à comprendre derrière tout ça et je je vais vraiment avoir un très grand plaisir à vous expliquer tout ça prochainement aussi pour certaines personnes qui feront partie de mon très grand projet sur lequel ça fait 3 ans que je travaille et que vous serez bientôt
tous à connaître je je pense écoutez ça m'a fait extrêmement plaisir d'être avec vous ce soir je vous souhaite un bon weekend et je vous dis à très bientôt allez au revoir