¿Cómo funciona ChatGPT? La revolución de la Inteligencia Artificial

5.69M views10616 WordsCopy TextShare
Nate Gentile
¡REGISTRATE A LA GTC Y ASISTE A UNA SESIÓN PARA GANAR UNA GPU! 👉 https://www.nvidia.com/gtc/?ncid=r...
Video Transcript:
una Inteligencia artificial gana un concurso de pintura una revista científica Beta autores que usan Inteligencia artificial para escribir sus artículos una Inteligencia artificial puede hacer exámenes muy difíciles de medicina y abogacía qué está pasando cómo puede ser que en los últimos 2 años de repente los ordenadores pueden hacer cosas que hasta ahora pensábamos que solo nosotros podíamos hacer y además cosas que realmente nos hacen plantearnos Qué significa el arte o si realmente necesitaremos un abogado en el futuro para redactar un texto legal o incluso si harán falta programadores Oh sí las inteligencias artificiales también están
generando código y sinceramente habiendo sido programador durante 10 años de mi vida nunca me imaginé que vería un ordenador generando de la nada programas así de elaborados Y la verdad todo esto hace que uno se sienta bastante perdido sobre todo los que nos dedicamos a la informática desde toda la vida o estas noticias nos hacen dudar nos están demostrando que cosas que pensábamos que una máquina no podía hacer ahora resulta que puede y a veces incluso mejor que nosotros Así que me propuse investigar qué hay detrás de estas inteligencias artificiales y hoy te voy a
contar todo lo que descubrí desde el punto de vista de un ingeniero de software explicado para todo el mundo o sea mi objetivo es que seas quien seas sin saber nada te puedas hacer ni que sea una idea de cómo funcionan estas inteligencias y especialmente Hoy me voy a centrar en uno de los productos que está más de moda y que más ruido ha hecho chat gpt chat gbt es super popular todo el mundo la está usando para que os hagáis una idea consiguió la escalofriante cifra de 10 millones de usuarios activos cada día en
su primer mes o sea sale Y a los 30 días ya tenía 10 millones de usuarios cada día haciendo preguntas rompiendo el récord de la tecnología más rápidamente adoptada en la historia de la humanidad un crecimiento 10 veces más rápido que el de Instagram una locura total chat gpt es una web de uso gratuito aunque también tiene una versión de pago y funciona como un chat al que le puedes preguntar todo tipo de cosas es como una especie de oráculo tecnológico que te sabe decir cosas como Cuál es la mejor manera de atarte los zapatos
Cómo deberías dejar a tu novia de la forma más suave resolver problemas lógicos complejos escribir software hacer cambios en ese Software que acabas de escribir jugar a juegos contigo inventar una historia escribir poemas crearte una rutina del gimnasio con instrucciones muy específicas componer una canción con sus respectivos acordes generar un texto legal Como por ejemplo un acuerdo de confidencialidad y todo esto recordando todo lo que habéis hablado a lo largo de la conversación o sea tú hablas con él y recordando todo lo que estás hablando y son textos originales o sea todo lo que te
dice no lo vas a poder encontrar en ninguna parte de internet aunque luego hablaremos de eso cómo es posible que despertemos una mañana y esto simplemente exista bueno no ha sido realmente de la noche a la mañana han pasado décadas y décadas con muchas innovaciones tanto en el mundo de la programación como la informática la Inteligencia artificial las redes y la sociedad en Sí esta es lo que se conoce como una tecnología convergente vale nace de muchas otras tecnologías que se juntan para llegar al resultado que vemos hoy en día y esto gente es una
Revolución una Revolución que todavía no está en su punto pero se viene y para demostrarte Lo bueno que es le he pedido a gpt que me genere el sponsor de hoy y he utilizado una Inteligencia artificial para que lea el texto Así que vamos a ver qué tal Bien lo hace con un mensaje de nuestro sponsor Hola a todos Soy chat gpt y Hoy les hablaré sobre la gtc de nvidia la gtc de envidia es la conferencia más grande sobre Inteligencia artificial aceleración de gráficos y ciencias de de datos este año la gtc se llevará
a cabo en línea el 20 de este mes y nvidia está organizando un sorteo especial para los asistentes podrás ganar una rtx 4080 si te registras para asistir a la gtc el enlace para registrarse está en la descripción la gtc de nvidia incluirá más de 1000 sesiones en línea con presentaciones talleres y discusiones de expertos podrás escuchar a los principales expertos de la industria y aprender sobre los últimos avances en la informática acelerada la Inteligencia artificial el aprendizaje automático la ciencia de datos y mucho más también tendrás la oportunidad de conectarte con otros líderes de
la industria explorar nuevas tecnologías y descubrir có las soluciones de nvidia están transformando la forma en que vivimos y trabajamos regístrate ahora mismo para asistir a la gtc de nvidia y tener la oportunidad de ganar una rtx 4080 No te pierdas esta oportunidad única de aprender sobre los últimos avances en la informática acelerada y la Inteligencia artificial el enlace para registrarse está en la descripción te esperamos en la gtc de nvidia [Música] Okay chat gpt chat gpt está basado en gpt3 gpt o generative pretrained Transformer es un modelo Esto es algo de lo que ya
hablamos en otros vídeos pero a modo de resumen un modelo para que te puedas hacer una idea es un programa un algoritmo una función que intenta replicar el comportamiento de un sistema por ejemplo el más clásico vale el modelo climático sería un programa un software o algún tipo de sistema que te permite predecir el clima de la semana que viene basándose en datos históricos no por ejemplo coges el clima de las últimas semanas el viento las nubes la humedad coges todo eso lo metes en esta máquina y la máquina te predice el clima de la
próxima semana otro ejemplo de esto bueno hace poco en nate Life hablamos del amp modeling vale que son modelos que imitan amplificadores de guitarra imitan toda la parte de electrónica la parte de amplificación distorsión reverb incluso la acústica de una sala y todo esto no ocurre en la realidad sino que hay un que tiene una serie de instrucciones que lo que hace es simular el resultado que tendríamos si hiciéramos todo eso y todo esto lo hace un software un software que es un modelo gpt como te decía es un modelo pero un modelo de lenguaje
vale el modelo de lenguaje es capaz de conocer e identificar partes de nuestro idioma Y en este caso es un modelo generativo O sea que dado un texto genera palabras es como ese modelo que predice el clima Solo que gpt predice palabras o sea literalmente te dice Cuál es la palabra más probable que va a haber a continuación en un texto si lo piensas no es muy distinto del autocompletar del móvil no sé si habrás probado alguna vez que en el móvil hay un sistema que te sugiere palabras intentando predecir lo próximo que vas a
decir Solo que gpt es infinitamente mejor haciendo Ese trabajo lo hace tan tan bien que parece que entienda perfectamente de lo que estás hablando y pueda responder prácticamente a cualquier cosa de forma coherente Por ejemplo tú le dices voy a trabajar en mí y gpt te dice proyecto Y si le pides más continúa voy a trabajar en mi proyecto de investigación en el laboratorio estoy encantado de continuar con mi trabajo y espero obtener resultados significativos voy a trabajar duro y concentrarme en las tareas que tengo por hacer para avanzar en mi proyecto Wow es un
buen autocompletado verdad Ahora en el caso de chat gpt que es la página web que todo el mundo conoce esta página web usa la tercera versión de gpt gpt3 como os dije antes no aunque le llaman también gpt 3.5 porque tiene unas cuantas mejoras Pero bueno Eso lo veremos más adelante vale Y una de las cosas especiales que tiene chat gpt es que está especialmente configurada para completar respuestas como si estuviéramos en un chat o sea es un predictor de palabras pero que está condicionado para tener en cuenta que nuestro texto es una pregunta o
la intervención de una persona en un chat y la respuesta que nos genera lo que nos responde chat gpt es la cadena de palabras que más probabilidad tienen según su sistema de aparecer a continuación o sea predice texto que no existe pero bueno a nivel técnico la diferencia principal entre gpt pelado y chat gpt es que gpt completa textos y chat gpt pues responde como si estuvieras hablando con alguien o sea está configurado de esa manera luego veremos que hay muchas más diferencias vale Pero a eso llegaremos ahora todo esto que estoy diciendo Yo entiendo
que es que es muy raro vale o sea me estás diciendo que a un modelo que predice palabras le pregunto Cuál fue el emperador Romano más malvado de la historia y por qué y me está soltando que si hay varios candidatos que caligula es el más probable me cuenta todo lo que ha hecho Y encima me dice que es posible que esto no sea fiable porque podría ser propaganda que se escribió cuando caligula ya estaba muerto aquí hay algo que no cuadra verdad parece que este autocompletado haya cobrado conciencia sobre todo lo más impresionante la
primera vez que usas una Inteligencia artificial de estas Y ves todo este pfote tú lo que piensas Es que esto lo ha copiado de alguna página web y buscas ese texto incluso trozos del texto y no lo vas a encontrar porque todo esto ha sido generado es un texto único chat gpt parece que sepa de lo que habla parece que nos entienda y que nos conteste algo totalmente relacionado con lo que estamos diciendo parece capaz de desarrollar sus propias ideas analizar datos y sacar conclusiones Pero esto es totalmente falso no está haciendo nada de esto
en realidad Está prediciendo palabras y poco más la magia aquí es En qué se basa para predecir esas palabras y vamos a empezar analizando el problema juntos para intentar entender la magnitud del asunto la programación es la forma más tradicional de hablar con los ordenadores Pero bueno entiendo que no todo el mundo sabe programar Así que no voy a poner un ejemplo de programación sino que me voy a ir a algo que todo el mundo haya hecho alguna vez vale el ejemplo más claro de Cómo hablar con una máquina es probablemente el de usar una
calculadora si yo quiero sumar tres números entre ellos con una calculadora tengo que seguir un orden muy preciso de acciones si cometo un error Por ejemplo pongo mal un número tengo que borrar o Volver a empezar y esto es muy importante porque la máquina es estricta es muy estricta a la hora de recibir los datos de entrada entender las operaciones que tiene que hacer y esto es muy distinto a cuando hablamos con un humano al que por ejemplo le podríamos decir Oye eh tío Si tienes un momento quiero que sumes TR más 2 Ay no
perdona eh cuatro y luego que lo multipliques por ocho y nada Cuando puedas me dices el resultado vale una calculadora no puede entender esto porque lo estoy diciendo en lenguaje natural lenguaje natural que nosotros por algún motivo somos capaces de entender muy bien o sea de alguna forma yo con toda esa frase entiendo que lo que quieres hacer es 3 + 4 y luego multiplicado por 8 la calculadora necesita un input muy concreto expresado de una forma muy concisa con unas reglas matemáticas para extraer esa información mientras que a un humano le puedo dar vueltas
y decir muchas cosas que generalmente me va a entender Bueno pues chat gpt resuelve ese problema Mirad si le digo toda esta frase a chat gpt parece que está entendiendo perfectamente lo que le digo Y además me calcula la respuesta de forma correcta como te he dicho hace un momento esto se llama lenguaje natural el lenguaje natural es confuso y necesita que lo analicemos para poder extraer información los humanos Somos increíblemente buenos en hacer esto entendemos los conceptos clave que se nos quieren transmitir e incluso planteamos una estrategia para responder a esa pregunta será chat
gpt consciente de esto eh Wow chat gpt parece que sabe perfectamente de lo que estoy hablando esto cada vez es más surrealista verdad cuesta de creer que lo único que está haciendo esta máquina es calcular las palabras más probables que van a aparecer a continuación de mi texto Pero bueno esto en realidad no son más que trucos el truco de la red neuronal veréis gpt que es este modelo de lenguaje que usa chat gpt como te dije hace un momento está basado en redes neuronales hemos explicado por encima Cómo funcionan las redes neuronales en mis
vídeos sobre el Deep fake que por cierto si te interesa el tema de inteligencias artificial y si quieres entender Más a fondo este tema te recomiendo que los veas vale Te los dejaré linkeados abajo en la descripción y por aquí seguramente vale Pero de todos modos vamos a repasarlo un poquito una red neuronal es un programa que está diseñado para aprender a hacer tareas normalmente cuando los humanos quieren hablar con un ordenador y pedirle que haga cosas usamos la programación vale Y cuando hacemos un programa le decimos a la máquina exactamente paso a paso todo
lo que tiene que hacer como hacíamos de hecho con la calculadora cuando estamos escribiendo números en una calculadora en realidad estamos Lo que pasa que es es muy sencilla esa programación Pero hay algunas cosas que no sabemos muy bien cómo explicarlas como por ejemplo reconocer un número escrito a mano vale hay como 1000 formas de escribir números a mano o reconocer un dibujo por muy deformado que esté no imagínate un dibujo de un gato Cuántas formas hay de dibujar un gato estas son tareas que nosotros como humanos sabemos hacer de forma fácil pero que cuesta
mucho explicarle a un programa Cómo puede hacer esto paso a paso para todo esto que no sabemos cómo programar hemos inventado el aprendizaje automático o Machine learning y las redes neuronales son una de las tecnologías que se usan para el aprendizaje automático la idea aquí es muy simple La idea es simple la implementación es difícil vale Pero la idea es simple quiero que la máquina haga algo que no sé muy bien cómo se hace así que le voy a mostrar ejemplos a mi ordenador voy a preparar mi red neuronal para que sepa dónde tiene que
mirar qué puntos son los interesantes de estos datos Qué tipo de operaciones tiene que hacer con ellos para intentar sacar conclusiones o sea le voy a dar una estrategia Pero va a ser ella quien va a estudiar muchos casos muchísimos datos muchísimos casos para intentar entender qué es lo que se tiene que hacer en cada uno de ellos con estos datos básicamente mi red neuronal va sacando conclusiones va encontrando patrones incluso hay veces que estas inteligencias artificiales encuentran detalles que nosotros no somos capaces de darnos cuenta que están ahí este proceso en el que la
Inteligencia artificial estudia miles y miles de casos se llama entrenamiento por ejemplo podemos entrenar una Inteligencia artificial para reconocer imágenes de gatos o números escritos a mano o jugar a un juego de mesa un ejemplo de esto que ya vimos en el es el del Deep fake que son estos vídeos que te mencioné hace nada donde entrenábamos una Inteligencia artificial para saber cómo es mi cara y cómo es la cara de elon musk y meter mi cara encima de un vídeo de elon musk generando caras mías que se pareciesen a las de elon pero que
yo nunca hubiese puesto vale o sea literalmente generaba caras de la nada ahora en el caso del lenguaje natural que es como te decía antes el que hablamos nosotros hay varios problemas bastante graves además a la hora de que un ordenador nos pueda entender el primero es que los ordenadores no van a entender nunca los conceptos que representan las palabras por ejemplo si yo te digo coche tú te imaginas ese vehículo de cuatro ruedas hecho de metal te has sentado en un coche sabes cómo vibra cuando se conduce o si te digo árbol te imaginas
un ser vivo de celulosa el olor de las hojas color marrón y verde un ordenador no tiene ni idea de que es nada de esto es más los ordenadores solo entienden números ceros y uno para hacer más concretos esto ya lo vimos Por cierto en el vídeo de sistema binario y puertas lógicas que también te recomiendo que veas para que entiendas esta parte un poco mejor y bueno en aquel vídeo vimos que incluso el texto el audio o el vídeo que estás viendo para tu ordenador no son nada más que números con los que hace
operaciones Matemáticas ahora en el caso concreto del texto una de las codificaciones que más te va a sonar es el código aci Aunque hoy en día se usa más el utf8 por ejemplo Pero bueno que al final del día las letras que tuves en tu ordenador en Word en Wikipedia en cualquiera de estos sitios en realidad son números que identifican esos caracteres y el ordenador los trabaja como números incluso los espacios los los mismos los interrogantes hasta los emojis Por lo cual si quisiéramos entrenar una Inteligencia artificial para que nos entienda y hable con nosotros
primero que nada Hay que tener en cuenta que nuestra red neuronal no va a haber frases ni palabras ni poemas sino números y únicamente números y ese problema no tiene solución vale Así que vamos a trabajar con números Sí o sí okay dicho esto tenemos por un lado redes neuronales que son capaces de aprender en base a patrones y por otro lado tenemos texto que este texto en realidad son pues nuestras frases palabras un montón de lenguaje humano pero que para el ordenador al final del día y es importante este Matiz son números vale él
no va a ver árboles ni casas ni coches ni caras ni personas Va a haber números únicamente Así que teniendo en cuenta estos dos detalles vamos a hacer juntos el ejercicio de crear un programa que entienda el lenguaje natural vale va a ser un ejercicio mental Okay Vale configuramos nuestra red neuronal y le pasamos estos números lo primero que va a haber Son un montón de números hemos dicho que una de las habilidades especiales de nuestra red neuronal es entrar patrones dentro de datos Así que podemos configurarla especialmente para que reconozca tantos patrones como pueda
y si analiza cientos y cientas de estas secuencias de números acabaría dándose cuenta de que hay patrones que se repiten vale cada vez que encuentra esta secuencia de números entre estos dos otros números es porque hay un término A veces lo encuentra con este otro número al final pero lo que está claro es que este es un patrón que se repite y como ese puede haber muchísimos otros Esto es lo que nosotros conocemos como palabras pero pero para esta red neuronal para este ordenador son patrones numéricos únicamente de todos modos yo creo que aquí el
primer paso sería catalogarlos tenerlos en alguna lista Cosa que cuando nuestro programa se los encuentre Pues los pueda identificar mira aquí veo este patrón aquí veo este otro etcétera etcétera os hacéis una idea no a estos patrones les vamos a llamar token un token no es necesariamente una palabra depende mucho de cómo funcione la red neuronal pero no es necesariamente una palabra a veces hay palabras compuestas o palabras que varían bastante pero que tienen una raíz común y el ordenador lo que hace es separarlas en varios tokens pero bueno normalmente un token es una palabra
y como nuestra máquina ahora conoce los tokens una forma de reducir simplificar y comprimir esos datos y hacer el trabajo más fácil podría ser la de cambiar esos patrones de muchos números por una serie de tokens numéricos vale vamos a asignar un número a cada token y vamos a cambiar todas esas secuencias de números por tokens y ahora la red neuronal pues tendría un número para cada palabra en lugar de todo ese lío este proceso es uno de los primeros pasos que hacen las redes neuronales como gpt y se llama tokenización ahora la máquina conoce
las palabras vale pero no sabe qué significan y nunca lo sabrá nunca sabrá que esto es una reina ni que esto es un coche y Aunque no pueda relacionar estos términos con objetos del mundo Real Como hacemos nosotros lo que sí puede hacer si presta mucha atención es saber qué términos están relacionados con Cuáles a alguien se le ocurrió que podríamos de alguna forma poner marcadores en los tokens o sea todos estos tokens y poner como pequeñas marquitas cuando detectamos que dos son similares un poco como jugar al cedo no donde vas marcando tus pistas
de tu investigación Pues aquí podríamos decir que la reina suele estar cerca del token la igual que la chica o la princesa por lo que estas palabras tienen un marcador común también se relacionan con el token de vestido Por lo cual hay algo común Ahí lo vamos a marcar también y se relacionan con el token de comer igual que los perros y los gatos que por cierto estos dos también se usan en patrones similares junto con otros tokens al igual que kaniche o veterinario o pelota Solo que la pelota no come vale Y con un
texto lo suficientemente grande por ejemplo cientos de libros podríamos entrenar un modelo para crear una gran clasificación de términos y distintos patrones similares que va encontrando haciendo que los tokens sigue sin saber qué son vale Pero de alguna forma están ordenaditos y clasificados entre ellos con estos marcadores para nosotros hacernos una idea por ejemplo el marcador que tiene princesa reina y mujer en común representaría Lo femenino vale Aunque realmente para la máquina esto no no tiene ningún sentido simplemente es un marcador numérico que dice Pues mira yo creo que esto está relacionado por el contexto
que he leído de esta forma cada token tendría un gran número de marcadores unos 300 Por ejemplo que le dicen Cuáles son las cosas que tien común con otras palabras A ver no es nada fácil hacerse una imagen mental de cómo funciona este sistema a mí lo que me gusta pensar es que cada palabra tiene como su ADN y tiene rasgos comunes con otras palabras y de esa forma podemos saber que están relacionados Pero hay otra forma que a mucha gente le funciona para entender mejor este sistema y es imaginarlo como una nube tridimensional de
ideas repito en realidad es bastante más complejo porque esto en una nube tenemos solo tres dimensiones o sea tenemos arriba abajo derecha izquierda atrás y adelante no tenemos tres dimensiones Pero antes hemos dicho que un token puede tener 300 marcadores 300 marcadores Serían como 300 dimensiones distintas vale Pero bueno vamos a imaginarlo de forma tridimensional como podéis ver en esta nube tridimensional hay palabras que están más cerca de otras y podemos hacer operaciones Matemáticas incluso para saber cuál es la distancia entre ellas Cuáles son las más cercanas Cuáles son las más más lejanas y por
ejemplo dada una palabra o una posición en el espacio x Podríamos sacar la lista de palabras o posiciones más parecidas más cercanas a la que estamos ahora incluso hacer operaciones Matemáticas Como por ejemplo reina menos mujer igual a Rey esto si lo vemos con el ejemplo del ADN estaríamos quitando a la reina esas trazas que hacen que se identifique con lo femenino no le quitaríamos mujer por lo que tendríamos un ADN más parecido al del Rey si lo imaginamos con el mapa espacial estaríamos alejándonos de el término mujer para irnos al opuesto y en ese
sitio en el opuesto pues estaría Rey no sería un poco esta la idea este sistema de codificación se conoce como embedding es un sistema que permite agrupar palabras similares e incluso sus tendencias en cuanto a significado y este mapa tal y como está sin hacer nada más ya no sirve para muchas cosas por ejemplo en un buscador como Google cuando buscas una palabra podrías también tener en cuenta pues sinónimos palabras similares o por ejemplo para saber si una frase es triste o feliz podrías buscar Dentro de este beding y ver qué otras hay similares ahora
si nos vamos a ver el sistema de embeddings que usa gpt la cosa es mucho más compleja como decíamos una palabra como gato dentro de gpt estaría representada por un token y dentro de los embeddings estaría representada con un vector de 300 dimensiones o sea una lista de 300 coordenadas distintas o 300 marcadores distintos con distintos niveles pero luego gpt también recuerda conjuntos de tokens o sea frases por ejemplo el gato está durmiendo en el sofá es una secuencia que está hecha de varios tokens y que también estaría clasificada dentro de los embeddings o sea
estamos hablando de que si bien la idea original de embedding era palabras y Buscar Qué relación tienen entre ellas y crear un sistema complejo de etiquetado para saber cuáles van para un lado Cuáles van para otro y cuáles están relacionadas Y qué tanto están relacionadas pues gpt lo lleva a otro nivel porque directamente coge secuencias de varios tokens o sea frases enteras y hace lo mismo o sea coge frases y esas frases también las organiza dentro del espacio con sus respectivas relaciones y con más de 1000 marcadores para cada frase o sea como puedes imaginar
es un sistema bastante grande y aquí hay un Matiz muy importante vale esto es muy clave y es el motivo por el que chat gpt parece que invente cosas en lugar de copiar textos de otras personas aquí es donde está toda la chicha vamos a volver a nuestra máquina nuestro algoritmo hasta aquí habíamos dicho queb a crear este sistema de embeddings que es una técnica muy común que se usa para relacionar un poco el significado entre palabras y bueno ahora haciendo nuestra clasificación nos damos cuenta de que hay palabras como el la como mismo otros
Ojalá y términos similares que aportan muy poco valor a la frase o sea es como que están en tierra de nadie se relacionan con todo y con nada al mismo tiempo al igual que las mayúsculas las minúsculas y otros signos de puntuación que a veces pues aportan muy poco una frase no la frase se entendería igual si esos términos genéricos no estuvieran ahí así que de ahora en adelante para simplificar todavía más el trabajo que todo vaya más rápido y que sea más simple también relacionar frases pues vamos a limpiar los textos antes de meterlos
en nuestro sistema esto para que te hagas una idea es como cuando te limpian el pescado vale te quitan las espinas las escamas te lo dejan listo para cocinar y que cuando te lo comas te lo comas enterito esto sería algo muy parecido te voy a poner un ejemplo en la frase el gato está durmiendo en el sofá hay varias palabras que aportan poco por ejemplo n y el si las quitamos nos queda gato está durmiendo sofá esto también se entiende podríamos simplificarla aún más con un proceso que se llama lematización o sea Convertir las
palabras a sus formas más sencillas Como por ejemplo los verbos al infinitivo gato es dormir sofá y si lo simplificamos aún más gato dormir sofá es una frase que está comprimida está condensada Y esto es muy útil cuando entrenamos el modelo porque Qué pasa que gpt guardaría esta secuencia dentro del sistema de n bedding relacionando esta frase con otras frases parecidas usando los marcadores pero en lugar de una frase que es super lga con un montón de palabras pues la reduce a la mínima expresión y aquí viene la gran revelación todas las frases que dice
gpt la saca de su sistema de embeddings vale todo lo que gpt dice sale de una búsqueda dentro de los embeddings Busca términos palabras o incluso frases y consigue otras frases que son parecidas y están relacionadas de alguna forma no con esta Este es el gran truco del conocimiento y la gran capacidad de chat gpt para poder decir cosas relacionadas con lo que nosotros estamos diciendo o sea literalmente coge nuestras frases las analiza las convierte a su sistema de embedding y busca en ese espacio de embedding qué más nos puede decir antes le pregunté por
los emperadores romanos no por ejemplo y todo lo que me dijo pues es una mezcla de varias secuencias de tokens que están almacenados y relacionados entre ellos dentro de su sistema de meding Pero esto es solo el principio vale antes hablé de normalización y lematización que es este proceso en el que limpias el pescado simplificas las frases Por decirlo de alguna manera quitas todo eso que no aporta y comprimes la información usando tokens para representar una frase Y esto es clave para entender Por qué chat gpt genera textos únicos me explico cuando chat gpt genera
texto hace consultas a su embedding y lo que saca son estas secuencias de tokens que son frases comprimidas y que las tiene que convertir en algo aceptable por parte de los humanos por eso lo que hace es convertir estos tokens en las palabras que están más cercanas en la dentro del embedding a veces las palabras son ligeramente distintas a las que estaban en la frase original y sobre todo usa nuestras reglas de sintaxis y gramática Para volver a poner esas palabras que había quitado al principio convirtiendo esa secuencia de números en una frase que le
suene bien a un ser humano Pero qué pasa que de la frase original a la final ha habido una pérdida de información y luego una reconstrucción por eso la frase es distinta a la original porque es imposible recordar exactamente qué es lo que había en la frase original Así que se lo inventa y pone cosas que a veces son distintas Y esto es bueno es muy bueno porque lo que hace es que lo que genera chat gpt no se parezca al texto original o sea es una creación original porque literalmente cuando ha guardado esa información
ha perdido detalles y los ha tenido que reconstruir y cuando los ha reconstruido pues ha cambiado cosas es muy parecido a lo que hacemos nosotros si lo pensáis eh si yo ahora te explico algo Y mañana te pregunto qué es lo que te he explicado Pues tú seguramente tengas una serie de ideas que recuerdes de lo que te expliqué pero no me vas a recitar exactamente las palabras que te dije porque no te vas a acordar sino que me vas a decir pues con tus propias palabras lo que te dije ayer pues es muy parecido
a lo que hace gpt reduce y comprime al significado básico almacena y cuando lo tiene que sacar lo reconstruye con sus propias palabras por decirlo de alguna manera aparte de esto gpt usa otra técnica que se llama sampling el sampling básicamente permite que chat gpt tenga una cierta creatividad lo que hace básicamente es que el sistema genere un número aleatorio que sería el equivalente Pues a tirar un dado vale para que te hagas una idea de lo que es un número aleatorio y en base a ese número aleatorio se mueve ligeramente dentro del espacio del
embedding para un lado o para otro y eso le hace pues moverse hacia otra frase Y esa frase no va a estar demasiado lejos de la original lo suficientemente cerca como para que haga parte de la misma conversación y sea coherente con lo que estamos hablando Así es como chat gpt va inventando historias que parecen coherentes pero que en realidad son combinaciones de otras historias que ha leído antes en su fase de entrenamiento o sea todo lo que dice y todo lo que suelta viene de la fase de entrenamiento Okay Hemos llegado a un checkpoint
Vamos a repasar un momento lo que hemos hablado hasta aquí tenemos una red neuronal que es un ordenador que aprende buscando patrones en datos le pasamos un montón de números Random que representan las letras de nuestros textos y millones de textos para que pueda estudiarlos y Buscar patrones dentro de ellos de ahí la red saca varios patrones que son nuestras palabras o partes de palabras y crea los tokens ahora teniendo estos tokens los usa para crearse un mapa mental con cientos de parámetros y usa esos parámetros para clasificar por cercanía de significado a cada uno
de los términos y luego gracias a esto Pues también analiza combinaciones de varios tokens que parece que tienen algún sentido entre ellos que son nuestras frases y también empieza a memorizarlas y a relacionarlas entre ellas con más de 1000 parámetros y esto le permite Pues saber qué frases tienen cosas en común y qué cosas en común tienen no con qué términos se relacionan ahora Gracias a todo esto cuando nosotros le damos un término Como por ejemplo gato gpt puede buscar dentro de su embedding la posición del término gato y soltarnos unas cuantas frases sobre los
gatos Como por ejemplo que es un gato Eh cuántos gatos hay en en el mundo Pero además como estas frases están guardadas dentro del el embedding de gpt de forma super primaria las tiene que reconstruir para que suenen como si las hubiese escrito un humano y haciendo ese proceso de reconstrucción genera frases Originales por lo que parece que sepa un montón de cosas Y gracias al sampling también bailando y soltando frases nuevas que quedan bien con las anteriores un buen truco verdad Pero nos estamos dejando una parte muy importante el gran problema que ha existido
durante mucho tiempo y para el que hasta hace muy poco no había solución Okay primero que nada recordad una cosa las redes neuronales tienen dos fases una fase en la que la entrenamos para hacer algo y otra fase en la que la hace no la primera fase se llama entrenamiento la segunda se llama inferencia cuando cuando nosotros hablamos con chat gpt estamos en fase de inferencia vale está intentando adivinar cosas y cuando la entrenamos que es cuando le pasamos la Wikipedia los libros y todo lo que le demos para aprender es cuando está aprendiendo y
el problema que te voy a contar ahora afecta a las dos fases tanto la de entrenamiento como la de inferencia cuando nosotros metemos letras y luego tokens en la red neuronal vale como lo que el ordenador que veníamos haciendo hasta ahora la red neuronal tiene una entrada un tamaño x vale recoge esa entrada la procesa saca conclusiones y y ya está ahí hemos terminado nosotros hasta aquí por algún motivo hemos dado por hecho que el ordenador puede tragar cualquier tipo de frase cualquier tamaño da igual como sea cualquier texto Pero esto no es así vale
Y esto es un problema mucho más grande de lo que parece la red neuronal no Recuerda lo que pasa entre paso y paso cada vez que entra algo y Sale pues simplemente se le olvida Y esto es un gran problema primero que nada para la inferencia no cuando nosotros hablamos con la inteligencia Y Esperamos que nos genere texto hombre pues es bastante importante que entienda toda la frase que le pasamos da igual cuántas cosas mencionemos que esto es algo que gpt hace muy bien y no solo eso sino que recuerde todo lo que vamos hablando
a lo largo de la conversación que tenga algún tipo de memoria no algo que que le permita recordar y lo mismo pasa cuando esta red está aprendiendo no si la red neuronal está leyendo un artículo de Wikipedia Es superimportante que para poder clasificar las frases y conceptos pues sepa Cuál es el contexto No qué es lo que está leyendo de qué va la cosa por ejemplo antes hablando con ella pues me dijo Hay una posibilidad de que estos textos sean propaganda esto lo hizo en la fase de inferencia porque estaba hablando conmigo vale eso significa
que durante el entrenamiento en algún momento leyó esa frase y sabía de que se hablaba no sabía que se hablaba de los textos antiguos sobre el emperador Romano caligula y sabía todo esto porque yo le pregunté quién era el peor emperador Romano de la historia no pero como puedes imaginar sin todo este contexto sería prácticamente imposible hilar una conversación con sentido esto Ahora nos parece Obvio porque vemos que funciona y ya está pero no es tan fácil No es tan fácil de conseguir porque como te decía antes la red neurona tiene un tamaño de entrada
que es limitado Así que necesito algún tipo de sistema para poder tener en cuenta el contexto saber de qué estamos hablando recordar esos detalles que hacen que la conversación y la frase tenga algún tipo de sentido hasta hace poco lo que se hacía era usar redes neuronales recurrentes Bueno pues en la red neuronal recurrente lo que se hace Es que a cada vez que se procesa un token se guarda una parte del resultado y ese resultado lo usa como dato de entrada para procesar el siguiente token y el siguiente y el siguiente y el siguiente
y cada vez que pasa por un paso va guardando un poquito de significado de cada token conseguimos más o menos que se mantenga el tema del que estamos hablando a lo largo de una frase Pero hay dos problemas muy grandes con este sistema el primero es que después de aquí palabras se empieza a olvidar de todo vale o sea llega un momento que ya el significado de las primeras palabras se pierde y ya no es capaz de retenerlo Pero hay un segundo problema muy importante y es que todo esto es un proceso secuencial o sea
cuando entrenamos el modelo de lenguaje lo hacemos en secuencia un término detrás de otro vamos poco a poco y esto lo que no se puede es paralelizar Qué quiere decir esto que si yo por ejemplo quiero meter más ordenadores a procesar este texto pues literalmente no podría porque para procesar una palabra necesito tener en cuenta toda las anteriores entonces solo un ordenador puede hacer ese trabajo o sea imagínate que yo soy la red neuronal invito un amigo a que venga aquí a echar una mano a procesar todo esto y yo pues estoy ahí procesando palabra
palabra palabra palabra pero para cada palabra que proceso tengo en cuenta todas las anteriores eso significa que mi amigo pues no puede hacer nada o sea nos podemos ir turnando si él quiere pero es que él no puede ir procesando otras porque le falta todas las anteriores Y por eso es un problema vale o sea entrenar este tipo de redes es bastante lento Pero bueno Esto funcionó durante bastante tiempo era la forma que teníamos para hacer este tipo de Bots Aunque luego vinieron otro tipo de redes que son las long short term Memory que son
un poco mejores porque hacen prácticamente lo mismo pero deciden en cada momento Qué es lo más importante y solo olvidan lo menos importante pero bueno siguen teniendo el mismo problema O sea que a medida que nos alejamos del texto antiguo se pierde el contexto queda lo más importante pero aún así en textos de más de 1000 palabras se empieza a perder el significado y además eso que el entrenamiento no es paralelizado así que el gran problema de este tipo de inteligencias artificiales hasta ahora era que no podían recordar bien de lo que estaban hablando o
sea igual tenían este en bedding tenían todo esto tan Guay Pero dentro de una conversación muy larga se iban perdiendo y empezaban a divagar y esto también les impide desarrollar cosas muy largas hacer resúmenes o cualquier tipo de tarea que requiera analizar un texto muy grande y entender cosas complejas no la solución a este problema vino en 2017 cuando se publicó attention is all Unique que es un paper de unos investigadores de Google donde se planteó una solución muy buena a este problema una nueva forma de organizar las redes neuronales llamada Transformers en los Transformers
lo que se hace es Añadir una nueva capa una capa dedicada a lo que los investigadores llamaron atención la atención hace referencia a cómo los humanos vemos vale nosotros cuando vemos cosas vemos un montón de información pero solo prestamos atención a ciertos objetos mientras que todo el resto pues lo ignoramos la idea aquí es que nuestra red neuronal haga exacta ente lo mismo que analice una gran cantidad de texto todo de golpe y lo use para extraer el contexto de lo que se está hablando prestando atención solo a los detalles más importantes para hacer esto
cogemos una parte de nuestro texto la normalizamos la codificamos con nuestros tokens y de esos tokens vamos a sacar de cada uno los vectores de embedding a partir de Aquí vamos a cada uno de los vectores y vamos a mirar qué tanto se parecen a todo el resto de palabras que hay dentro de la frase por ejemplo en la frase La vida es bella Así que vívela cada día aquí haríamos operaciones para saber cuál es la relación con cada uno de los términos Y de esa forma sabríamos qué conceptos son más importantes que otros sabríamos
Cuál es el contexto de la frase sabríamos que cuando hablamos de vivir nos referimos a la vida y descartarías esas palabras que son menos importantes y aquí la idea es que la información sobre estos términos relevantes no solo se va enriqueciendo sino que también se va manteniendo a lo largo de todo el proceso y ese vector de atención se usa en el procesamiento de cada una de las palabras y esto ayuda muchísimo al ordenador no solo a saber el contexto de cada una de las frases por ejemplo cuando lee el token propaganda sabe que se
hace referencia a las escrituras sobre calígula el emperador Romano sino que además sabe el significado de palabras Como por ejemplo gato no gato para un mecánico Es una herramienta pero Generalmente pues es un animal que para una persona normal puede ser una mascota para un veterinario un paciente la atención también es la que permite a chat gpt extraer los conceptos clave de un texto escrito por nosotros saber qué términos tienen más peso Qué es lo más importante nuestra pregunta incluso hacer un resumen de un texto o responder tema por tema a todo lo que le
hemos dicho Pero además hay un poder muy grande en la capa de atención este Esto es lo mejor que tiene vale Y es que permite paralelizar me explico la atención no necesita que las palabras se procesen de forma secuencial O sea no hace falta ir palabra por palabra una detrás de la otra sino que podemos todas las palabras al mismo tiempo y esto nos permite tener decenas de tarjetas gráficas trabajando todas a la vez entrenando nuestro modelo de lenguaje o incluso generando palabras en nuestro modelo de lenguaje Así que el entrenamiento es mucho más rápido
y mucho más eficaz que los tipos que vimos antes no que necesitabas ir de forma secuencial una tras otra una tras otra una tras otra aquí coges todo junto se lo metes Y es capaz de procesarlo a la vez la idea aquí es que los Transformers han sido la gran Revolución la pieza que faltaba en el mundo de los generadores de texto la capa de atención esa capa de atención ha hecho que avancemos en dos o tres años muchísimo más de lo que se avanzó en toda la década pasada posiblemente Google de hecho fue la
primera en publicar acerca de estos Transformers y también en usarlos uno de los productos más importantes que hicieron basándose en esta tecnología fue bert en este artículo de Google podéis ver como bert es una gran ayuda a la hora de mejorar la precisión de las búsquedas en Google por ejemplo no la mejora es impresionante porque pasamos de que Google busque términos relacionados con lo que estamos buscando a que entienda perfectamente lo que estás diciendo y te dé la solución a tu problema Por ejemplo aquí podéis ver que se pregunta si en 2019 un viajero brasileño
necesita visa para ir a los Estados Unidos antes de usar este sistema te decía que bueno un artículo ahí del Washington post que está relacionado que tiene esas palabras clave y ahora directamente te lleva a la página de la embajada donde nos explica los requisitos de Los viajeros que visitan Estados Unidos con nacionalidad brasileña o sea mucho más efectivo más al grano y te lleva exactamente a la página que Necesitas visitar para para resolver este problema no Google inventó este sistema Pero Open Ai fueron los que decidieron llevar esto al siguiente nivel en 2015 Se
juntaron varios Titanes del sector tecnológico estamos hablando de Sam altman que era el director de una aceleradora de startup muy importante Greg brockman que fue uno de los primeros empleados de stripe raid Hoffman que es el cofundador de linkedin Jessica Livingston que también viene de la aceleradora de startups era la cofundadora Peter thiel que es el cofundador de PayPal y elon musk que bueno este no necesita presentaciones Bueno pues toda esta gente se juntó Y montó una organización que al principio era sin ánimo de lucro para llevar la Inteligencia artificial al siguiente nivel y así
es como nació Open Ai uno de los proyectos estrella de Open Ai es gpt no es el único vale tiene cosas muy guapas pero Pero bueno gpt es el del que va el vídeo de hoy y la idea aquí es muy sencilla dijeron Qué pasaría si cogiéramos esta arquitectura de Transformers que propuso Google y hacemos la red neuronal más grande enorme gigantesca jamás creada cada red neuronal tiene lo que se conocen como parámetros puedes imaginar los parámetros como si fueran una serie de mandos tiradores perillas pesos y una serie de ajustes que se configuran para
que la máquina funcione de una forma concreta las redes neuronales de hecho lo que van haciendo a medida que aprenden es poco a poco ajustar todos estos parámetros para que los resultados de salida sean los esperados de la máquina vale Y como podrás imaginar Cuantos más parámetros tiene una máquina en teoría más ajustable es más compleja y más flexibilidad tiene y para que quede claro no en el caso de las redes neuronales no es el usuario quien ajusta todo esto no sino que es la máquina que va cambiando todo esto para producir un resultado x
no es como una máquina que es capaz de aprender Y el aprendizaje consiste en ajustar estos parámetros ahora dicho esto este tipo de grandes modelos de lenguaje Normalmente se entrenan con algunos millones de parámetros pero como te dije hace un momento Open Ai quería llevar esto al siguiente nivel así que ya cuando entrenaron a gpt2 usaron 1,5 miles de millones de parámetros y ya para gpt3 que es en la que se basa chat gpt usaron 175 miles de millones de parámetros una locura total y qué usaron para entrenar a esta bestia de Transformer con esos
175 miles de millones de parámetros bueno Pues básicamente le pasaron el common crowd que es una base de datos que contiene muchísimo contenido de internet extraído de textos como blogs y todo tipo de páginas web entre el año 2016 y 2019 luego también usaron webtex 2 que básicamente es un un texto muy largo que contiene todos los posts de redit con un mínimo de karma y todo Su contenido de links o sea todos los links de esos post también en formato de texto aparte de eso usaron una gran biblioteca de libros Y por último toda
la Wikipedia y en fin todos estos textos que son miles y miles y miles y miles de tokens los usaron para que gpt3 aprenda todo lo que sabe y clar Claro entre este contenido hay cientos de Consejos conocimiento general tablaturas de guitarra código de programación de todo tipo y muchas más cosas esto es gpt3 señores y chat gpt no es el primer producto basado en gpt3 Open Ai creó a mitad de 2021 una variante de gpt3 entrenada con todos los repositorios de github que básicamente github es una plataforma que ahora la compró Microsoft donde la
mayoría de programadores del mundo guardan su código y esta Inteligencia artificial Pues básicamente se puso a aprender todo el código de github y aprendió programar esto lo cogieron y lo sacaron como un producto comercial llamado github copilot que es una Inteligencia artificial capaz de ayudarte a programar generando código de todo lo que tú le pides directamente desde tu editor O sea tú estás en el editor y le dices quiero que hagas esto plam y te he genera todo el código A veces tienes que cambiar alguna cosa ajustar cositas modificar Pero toda una Revolución en el
mundo de la programación ahora chat gpt es lo último que han sacado y para crear chat gpt han tenido que hacer un poco más de trabajo vale chat gpt es una versión refinada o fine tuned como se dice en inglés de gpt3 lo primero que hicieron fue empezando ya desde gpt3 entrenado con todo esto que os dije antes añadieron más entrenamiento pero esta vez en lugar de usar textos de internet que quedan libres a la interpretación de gpt porque una cosa que no mencioné es que gpt es un modelo entrenado de forma No supervisada o
sea los datos que se le pasaron no le decimos que son sino que tiene que buscarse la vida vale pero en este caso sí que le pasaron un nuevo set de datos que sí que está etiquetado cómo lo hicieron Bueno pues contrataron un grupo de humanos para que generen respuesta de chat de alta calidad y además pues diciendo que es cada cosa Esto se conoce como aprendizaje supervisado porque la Inteligencia artificial ya sabe Cuáles son las conclusiones que tiene que sacar o sea tiene que buscar los patrones el Por qué esas conclusiones son así pero
por lo menos ya le decimos Mira esto es esto Esto es esto Esto es esto Entonces cuando entrenas se centra más en entender de Por qué las cosas son como son este set de datos especialmente hecho para gpt es bastante caro porque tienes que pagar a la gente para que se dedique a escribir y etiquetar pero es muy valioso Porque le da datos de altísima calidad al Mod Pero además de eso hicieron un segundo paso un proceso que se llama reinforcement learning from human feedback en español aprendizaje reforzado de feedback humano aquí lo que hicieron
fue hacer que gpt genere cuatro posibles respuestas para cada pregunta no y luego pusieron a un montón de gente ahí a trabajar donde tenían que puntuar de mejor a peor cada una de las respuestas de esta forma el modelo va aprendiendo Cuáles respuestas y cuáles caminos son mejores o por lo menos más satisfactorios para el ser humano en base a todo este trabajo crearon una página web donde la respuesta está generada por este gpt mejorado y ultr tuneado y así es como nace chat gpt por todo esto chat gpt es tan bueno haciendo lo que
hace en pocas palabras una startup de Inteligencia artificial cogió los Transformers y pensó Oye qué pasaría si multiplicamos por 1000 los parámetros respecto a lo que está haciendo todo el mundo y luego lo entrenamos con todo el texto de conocimiento humano que podamos tener entre manos y luego lo tuneamos aú más para terminar de corregir esas cosas que hace mal y luego demás le enseñamos qué respuestas son buenas y cuáles son malas luego lo metemos en una web y lo vendemos qué pasaría Bueno pues lo que pasa es chat gpt y cuánto más se puede
mejorar gpt si le metemos por ejemplo 1000 millones de parámetros O 100 billones de parámetros Bueno pues eso no está claro o sea la tecnología de base son los Transformers esta tecnología es buena se puede mejorar bastante con ajustes manuales guiados por el Humano pero posiblemente para que podamos competir con el ser humano no va a ser suficiente simplemente aumentar estos parámetros vamos a tener que mejorar la forma en la que aprendemos y analizamos los textos ya sea con más capas o con otro algoritmo o con otra arquitectura pero al ritmo que va esto es
cuestión de pocos años antes de que descubramos algo mejor o quizás no a lo mejor podríamos estar delante de un estancamiento no todo esto lo dirá el tiempo Pero bueno ya veis que con ajustes manuales se puede conseguir que gpt haga maravillas lo que sí te puedo decir es que entrenar una Inteligencia artificial usando 75 miles de millones de parámetros no es algo que puedas hacer en tu casa en una tarde simplemente con una tarjeta gráfica da igual la Gráfica que tengas da igual que tengas un ordenador con tres rtx 4090 o sea aún así
no podrías hacerlo para entrenar a gpt con tantos datos y tantísimos parámetros necesitas muchísimos ordenadores y mucha Potencia de hecho gpt fue entrenado sobre las gráficas a 100 de nvidia que son la gama más alta y más potente que están pensada para cálculo de Inteligencia artificial pero no en una ni dos sino que en datacenters gigantes de Microsoft Así es Microsoft ha puesto su Cloud azure a disposición de Open Ai para hacer todo este entrenamiento es más Microsoft Lleva años aost and por Open Ai y hace muy poco ha invertido 10 miles de millones de
dólares en chat gpt recuerdas que hace un momento te hablé de github copilot y de cómo gpt entrenó con github para aprender sobre programación Bueno pues github es de Microsoft es más ahora mismo Microsoft es propietaria del 4% de Open Ai y no solo eso sino que hace unas semanas anunciaron algo que nos dejó a todos con la boca abierta su buscador Bing Sí ese que es competencia de Google que la gente usa para buscar Google Chrome y descargár selo Bueno pues ahora Bing una pestaña que se llama chat esta pestaña está en beta y
lo que tiene es una versión modificada de chat gpt que ahora mismo puede buscar en Bing para responder a temas de actualidad Claro tened en cuenta una cosa como os dije antes chat gpt está entrenado en base a datos de internet libros y un montón de cosas pero su conocimiento se para en 2019 O sea a partir de 2019 no sabe nada porque el set de datos que se usó para entrenarlo es ese lo que ha hecho Bing es muy distinto lo que ha hecho Bing es usar chat gbt tal como viene pero meter la
información extra en tiempo real de búsquedas que hace en internet o sea va buscando cosas en bink páginas web relacionadas con lo que tú estás diciendo se las mete para que chat gpt las lea las procese y las resuma y luego las integre dentro de su respuesta por lo cual Bing chat que sería pues este chat gpt con acceso a internet puede contestar a cosas de actualidad y lo que puede hacer la verdad es muy impresionante esto ha dejado bastante mal a Google que por cierto es la empresa más importante del mundo de Inteligencia artificial
de hecho como te dije antes casi todas las tecnologías que están detrás de gpt fueron de desarrolladas por investigadores de Google y esto nos lleva a otra pregunta que probablemente te estés haciendo ahora mismo Por qué Google o Apple o cualquiera de estas empresas grandes tecnológicas no ha sacado algo como gpt antes Bueno Google y otras empresas tienen grandes modelos de lenguaje como gpt lo que no tienen es un servicio Como chat gpt vale la respuesta de Google a Por qué no tienen eso y que además tiene todo el sentido del mundo es que no
se pueden permitir el lujo de sacar algo así O sea pensad que estas inteligencias artificiales aprenden por su cuenta y es bastante difícil controlarlo no gpt por ejemplo fue entrenada con millones de datos y evidentemente dentro de esos datos no se ha revisado todo no se ha revisado uno por uno todos los textos mensajes etcétera eso significa que fácilmente puede dar respuestas racistas que te ayuden a cometer crímenes que propongan cosas inmorales o directamente ilegales esto en chat gpt ha pasado desde el principio de hecho y ahora se está controlando mucho o sea día a
día van Ajustando van bloqueando cosas frases respuestas lo van cortando por todos lados pero al principio era bastante heavy y aún aún hoy en día salen noticias sobre cosas raras que contesta chat gpt y también sobre todo Bing eh Bing está bastante salvaje Open Ai Por otra parte es una startup ese problema no es tan dramático o polémico como Sería para Google al final es una startup de Inteligencia artificial y está para eso para innovar y para hacer una tortilla pues hay que romper algunos huevos no tienen realmente tantas políticas internas ni tanta imagen que
cuidar ni tanta burocracia a la hora de lanzar un producto y por eso pues muchas veces vemos Que empresas muy pequeñas hacen cosas que otras empresas mucho más grandes y que tienen todos los recursos para hacerlas pues no las hacen Pero lo que sí está claro es que Microsoft se está poniendo mucho las pilas y que estos últimos años ha mejorado mucho su Cloud ha comprado muchas empresas y ha puesto mucho esfuerzo en la Inteligencia artificial esta Apuesta por Open Ai es una Clara señal de que van a por Google y todo este tipo de
empresas Apple Microsoft Google tesla están invirtiendo millones en este tipo de tecnologías de Inteligencia artificial porque saben que el futuro va por ahí todo esto suena muy bien pero todavía no estamos en ese punto gpt chat gpt Bing chat y todas sus variantes aún están un poco lejos de poder sustituir un buscador por qué bueno Piénsalo de esta manera hemos dicho que gpt funciona con conceptos relacionados y cosas que le suenan internamente que pueden estar relacionadas las unas con las otras bueno Pues resulta que por culpa de esto la información que nos da chat gpt
no siempre es verdad es cierto que todos los mensajes que nos escribe chat gpt son verosímiles o sea se parecen a algo que es verdad pero no siempre son verdad son agrupaciones de cosas que cree que tienen sentido que vayan juntas un ejemplo es cuando le pedí que me resuma un guion sobre la guerra de los chips en el que llevamos meses trabajando en el que mencionamos por encima en en una frase creo que es la crisis de los coches no de que por culpa de que no hay chips pues la la industria de los
coches está h perjudicada y cuando me dio el resumen se inventó un montón de cosas por ejemplo me contó 40,000 cosas sobre los coches o sea nada que ver con nada de lo que yo decía en el vídeo o por ejemplo le pedí que me escriba un guión sobre las Team deck y empezó ahí a cruzar datos a decir cosas que no son ciertas y Lu hace manera porque al final lo que está haciendo son consultas dentro del eding o sea está mezclando conceptos hay cosas que él cree que están relacionadas pero que no sabe
exactamente si están bien relacionadas no es infalible y es una gran fuente de desinformación a veces Incluso te dice lo que quieres oír es más te acuerdas que antes Te dije que Google puso la excusa de que no podía permitirse el lujo de sacar una Inteligencia artificial como lo hizo Open Ai bueno Pues resulta que hace nada presentaron a bard que es la competencia de Google a chat gpt y en su primer vídeo promocional ya un error dijo que el telescopio James web hizo fotos de exoplanetas cosa que es mentira esto hizo caer en bolsa
a Google un 8% que básicamente son 100,000 millones de dólares por lo cual como podéis ver pues es bastante grave un error de es tipo Ahora yo lo que creo Es que este tipo de problemas no son tan fáciles de arreglar eh o sea tal y como funcionan los Transformers si piensas en todo lo que hemos visto Este vídeo Es normal que la información no sea exacta porque el sistema no es exacto no es una forma suficiente de guardar información consultarla y recibirla sino que es eso texto que parece verdad básicamente lo que necesitamos ahora
mismo Son un montón de parches humanos que corrigen cosas que cierran cosas que le impiden hacer cosas tirar por ciertos caminos y esto no es escalable y no es por ser agua fiestas Pero puede ser que pasen varios años antes de que se pueda solucionar este problema en cualquier caso lo que está claro es que estamos delante de una guerra una guerra entre tecnológicas una guerra que va a ganar la primera que sea capaz de dominar el juego de las inteligencias artificiales sobre todo los buscadores semánticos y el uso de internet ese día va a
llegar Qué tan lejos estamos Bueno pues el tiempo nos lo dirá de momento yo te animo a que pruebes chat gpt vale regístrate úsalo para tu trabajo úsalo para lo que quieras pero no te fíes de la información porque podría estar mal y con esto Me despido Espero que te haya gustado este vídeo que hayas entendido un poco de qué va este tema de dónde sale esa información cómo puede existir este tipo de Inteligencia artificial que parece brujería y si te ha gustado este vídeo y quieres ver más como este te recomiendo que te suscribas
a este canal me dejes una manito para arriba y nos vemos en el próximo [Música]
Related Videos
La "IA" lo cambia TODO | Lo que deberías saber sobre la Inteligencia Artificial
51:27
La "IA" lo cambia TODO | Lo que deberías s...
Nate Gentile
1,821,404 views
El Hackeo que casi INFECTA al MUNDO ENTERO | La puerta trasera de xzutils
25:21
El Hackeo que casi INFECTA al MUNDO ENTERO...
Nate Gentile
1,118,798 views
Cómo Utilizar ChatGPT Para Principiantes | Tutorial 2025
3:45:16
Cómo Utilizar ChatGPT Para Principiantes |...
Adrián Sáenz
1,297,016 views
AI Has a Fatal Flaw—And Nobody Can Fix It
18:02
AI Has a Fatal Flaw—And Nobody Can Fix It
Slidebean
513,972 views
Lo que no te contaron de DEEPSEEK: La IA China
37:18
Lo que no te contaron de DEEPSEEK: La IA C...
Nate Gentile
744,776 views
La Cosa Más Útil Que La IA Ha Hecho Nunca
23:18
La Cosa Más Útil Que La IA Ha Hecho Nunca
Veritasium en español
978,201 views
¿Qué es un LLM? Enormes Modelos del Lenguaje | Large Language Models
15:26
¿Qué es un LLM? Enormes Modelos del Lengua...
Dot CSV
138,443 views
Cómo 8 CIENTÍFICOS ANÓNIMOS inventaron la IA Generativa
40:43
Cómo 8 CIENTÍFICOS ANÓNIMOS inventaron la ...
Gustavo Entrala
539,418 views
MEJORO mi EMPRESA usando IA: Chatbots, LLM, RAG y mucho más!
41:26
MEJORO mi EMPRESA usando IA: Chatbots, LLM...
Nate Gentile
528,011 views
La CAIDA de BILL GATES y El GRAN JUICIO contra MICROSOFT | Parte 2
28:29
La CAIDA de BILL GATES y El GRAN JUICIO co...
Nate Gentile
1,908,989 views
El fundador de OpenAI habla sobre el futuro de la inteligencia artificial | Exponentially
24:02
El fundador de OpenAI habla sobre el futur...
Bloomberg en Español
306,484 views
¿Cómo funcionan los códigos QR? (Construí uno yo mismo para averiguarlo)
33:32
¿Cómo funcionan los códigos QR? (Construí ...
Veritasium en español
3,378,198 views
¡Creamos el PC DEL FUTURO con Inteligencia Artificial! | ESLAND PC Mod
36:10
¡Creamos el PC DEL FUTURO con Inteligencia...
Nate Gentile
955,701 views
La historia completa de la Inteligencia Artificial (por EDteam)
26:56
La historia completa de la Inteligencia Ar...
EDteam
254,686 views
ANTIVIRUS: ¡TODO lo que siempre has querido SABER!
30:17
ANTIVIRUS: ¡TODO lo que siempre has querid...
Nate Gentile
917,963 views
La inteligencia artificial, ¿nuestra salvación o condena? | Nosotros y ellos | DW Documental
28:26
La inteligencia artificial, ¿nuestra salva...
DW Documental
536,074 views
It’s Over: Trump ‘Purposely’ Crashing The Stock Market
14:25
It’s Over: Trump ‘Purposely’ Crashing The ...
Graham Stephan
779,237 views
16 Trabajos que Desaparecerán por la Inteligencia Artificial y los Robots ¿Estás Preparado?
17:32
16 Trabajos que Desaparecerán por la Intel...
Ferreidea
372,123 views
OpenAI o1 y cómo logró que ChatGPT razone
16:52
OpenAI o1 y cómo logró que ChatGPT razone
Platzi
337,210 views
Microsoft Announces World's First Topological Quantum Chip - Majorana 1 Explained
22:29
Microsoft Announces World's First Topologi...
Dr Ben Miles
1,441,462 views
Copyright © 2025. Made with ♥ in London by YTScribe.com