🚨 NOTICIAS IA 🚨: Absoluta LOCURA en el mundo de la IA 🤯💥

12.83k views12758 WordsCopy TextShare
Inteligencia Artificial
Apúntate a Nuestro NUEVO Club de la IA: https://www.jonhernandez.education/clubdelaia/#section__uy ...
Video Transcript:
váy t la menuda semanita Hola a todos Soy John Hernández y aquí me tenéis una semana más con el vídeo de Inteligencia artificial de noticias de Inteligencia artificial esta semana es el vídeo más bestia que he hecho en mi carrera en los dos años que llevo haciendo vídeos cada semana nunca había habido una semana con tantos anuncios Y es que como sabéis Open ha decidido hacer ese calendario de adviento en que cada día abrimos una ventanita a una novedad del mundo de la Inteligencia artificial y parece que no se andan con chiquitas prácticamente todos los
días hay un bombazo hay algunos eh llenos Pero la realidad es que está siendo una auténtica salvajada y no solo porque Open Ai está lanzando cosas sino porque esa cascada de anuncios de Open Ai está forzando a la competencia a Google a Microsoft a todas las otras empresas de ia a lanzar cosas al mercado también con lo cual estamos teniendo una semana absolutamente increíble con más anuncios que muchos meses de los que hemos tenido con lo cual el vídeo de hoy ya os garantizo que no va a durar media hora probablemente va a ser bastante
más largo Pero va a merecer la pena hemos seleccionado todo lo que es realmente relevante y hemos tenido que dejar pequeños anuncios de empresas más pequeñas o que igual no son tan relevantes en el momento fuera porque si no hubiese durado esto prácticamente dos días En definitiva vamos a empezar por orden vamos a ir empresa por empresa viendo los anuncios que ha hecho y evidentemente vamos a empezar por Open Ai la empresa tras chat gpt que está haciendo ese calendario de adviento bien la semana anterior Ya empezaron anunciando cosas muy fuertes al principio de este
calendario en el que nos enseñaron el modelo o1 completo el modelo que razona con toda su capacidad máxima y su multimodalidad y también el mismo día nos sacaron la versión pro de chat gpt que cuesta 200 eurazos al mes en esa opción tenemos la capacidad de utilizar de forma ilimitada todos los recursos de chat gpt Pero evidentemente tenían que habrir más cosas para justificar ese precio y una de las cosas que vino fue lo que anunciaron el lunes el lunes anunciaron sora el modelo de vídeo de Inteligencia artificial que creó Open Ai y que anunció
en febrero por primera vez y lo mostró al mundo y hasta ahora hasta diciembre 10 meses después no ha salido al mercado las primeras sensaciones no son extremadamente buenas tener en cuenta que sora yo diría que en general ha decepcionado nosotros aún estamos trabajando en ello porque creo que sora necesita de un expertise en la forma de pronte y trabajar con él que puede permitir mejores resultados pero lo que sabemos por ahora es que el modelo es del nivel de otros modelos de inteligente artificial de vídeo como runway como las últimas versiones de pica como
cling o minim Max los modelos eh chinos que realmente son muy potentes a la hora de hacer vídeo para mí la sensación es que sora cuando lo hace bien lo hace tremendamente bien pero la inconsistencia y la cantidad de vídeos que tienes que generar para crear uno que realmente sea espectacular es bastante complicado Ahora cuando lo hace bien tengo que admitir que yo no he visto nada parecido aún y así Creo que hay otros modelos que lo hacen bien quizá más a menudo Y quizá no lo hacen tan tan bien pero es más consistente y
eso puede ser una buena forma de utilizarlo de todos modos como veis aquí esto es un poco lo que hace sora podéis ver aquí el display donde podéis Ver diferentes ejemplos de vídeos esto es la página web de sora y donde podemos ver cómo alcanza y podéis ver que la selección de vídeos es absolutamente brutal porque obviamente Esto está definido no son todos los vídeos que se hacen sino más bien algunos pocos que se eligen para mostrar en la Home el problema de la inconsistencia es un problema serio Porque hace que sora se ponga carísimo
Y eso es una realidad si nos fijamos en los planes de precios que nos ofrece las cuentas de chat gpt Plus ya podéis utizar solora de forma incluida pero con muchas limitaciones para empezar podemos hacer 50 vídeos más o menos lo que serían 1000 créditos esto es importante ahora os lo explico pero también tenemos una limitación de que podemos llegar hasta 720p es decir no podemos hacer vídeos eh Full HD y además a un máximo de 5 segundos de duración si tenemos chat gpt Pro que cuesta 200 al mes recordad y ya podemos hacer hasta
500 vídeos unos 10,000 créditos aunque ya os digo que esto de los 500 vídeos ahora os lo explico mejor podemos hacer vídeos de forma ilimitada en modo relajado es decir que nos vaya llevar más tiempo crear el vídeo pero son ilimitados y por otro lado sí que podemos llegar ya a los 1080p y hacer hasta 20 segundos de duración y a la vez poder generar cinco vídeos en paralelo Además nos permite descargarlos sin marca de agua hay una limitación más Y es que cuando queremos hacer un vídeo a partir de una imagen algo totalmente normal
en este tipo de generadores sora no nos permite hacer personas si estamos en la cuenta chat gpt Plus solo en la cuenta pro es decir básicamente si no tienes una la cuenta Pro sora se hace bastante inútil a partir de aquí el tema de los créditos es importante porque si os fijáis nos dan 1000 créditos en la cuenta de Plus y 10,000 créditos en la cuenta pro Los 10,000 créditos de la cuenta Pro son para hacer vídeos acelerados lo mismo que en la Plus pero la diferencia está que en la pro podemos hacer ilimitados de
forma relajada pero cuidado con los créditos fijaros que si nos vamos al fq de sora eh nos pone un poco Cómo funcionan los créditos nos dice que básicamente los créditos se utilizan para eh generar los vídeos y fijaros como si hacemos un vídeo en 1080p y 20 segundos de duración se nos come 2000 créditos es decir técnicamente con la cuenta pro de 200 podéis hacer cinco vídeos al mes de 1080 y 20 segundos lo cual es una auténtica salvajada de momento sora no permite vender más créditos es decir no puedes comprar más por mucho que
quieras y en el momento que hagas esos cinco vídeos de 20 segundos a 1080 vas a tener que quedarte en modo relajado para el resto de tu cuenta Eso sí podrás hacer todo lo que tú quieras con lo cual Parece que sora va hacia un modelo en que se va a poner muy caro eh otra cosa es que igual el tema del cómputo de sora etcétera se optimiza mucho más y se consiguen reducir los costes pero si comparamos sora con otros proveedores de vídeo sora es el más caro de calle pensar que todo lo que
tiene que ver con Clean con minimax o con rway vale alrededor de 90 al mes si pagas las cuentas de forma mensual si pagas anual tienes incluso descuentos pero en la mayoría de ellas nos ofrecen vídeos limitados también con lo cual sora prácticamente dobla el precio hay que tener en cuenta que sora en esa cuenta de 200 nos incluye chat gpt pro es decir que podemos utilizar el modelo 1 la parte de los modelos gpt 4 o1 y o1 pro de forma ilimitada y también la voz avanzada en el móvil que es algo tremendamente útil
yo ya decidí pagar los 200 al mes solo por esas funcionalidades principalmente por la voz avanzada pero puedo entender que para muchos que lo quieran principalmente por sora eso sea una opción muy no sabemos por ahora si openi va a lanzar algún tipo de cuenta específica solo con sora para poder competir con el resto de competidores del mundo del vídeo pero por ahora Estas son las opciones que tenemos En definitiva merece la pena sora Pues yo os diría que hoy por hoy no hoy por hoy tiene cosas interesantes Como por ejemplo la opción de poder
elegir distintos frames dentro de la generación y la opción de fusionar vídeos Pero la realidad es que hoy por hoy sora es caro y tampoco es mucho mejor del resto de opciones que tenemos en el mercado Y eso es decepcion grande teniendo en cuenta que es un modelo que teníamos muchas esperanzas en él por cierto como os decía sora no está disponible en Europa si queréis acceder a ello podréis hacerlo utilizando una VPN Como por ejemplo cyberg Pero la realidad es que han puesto un Warning bastante específico de que aquellas cuentas que utilicen la VPN
podrían ser baneadas así que os recomiendo que si queréis probarlo hagáis una cuenta nueva para que no perdáis toda vuestra memoria de chat gpt que empieza a ser un repositorio importante con el que trabajar con una cuenta nuev nueva podría ser un problema importante para muchos bien el segundo día el martes nos presentaron las novedades en Canvas esa función que hace que chat gpt se comporte como un editor de texto básicamente como Word a día de hoy os puedo decir que puedo reemplazar todo mi trabajo en Word por el trabajo en chat gpt Canvas dejadme
que os lo enseñe Mira hay varias novedades lo primero nos han cambiado este botón aquí donde tenemos herramientas y podemos activar por ejemplo Lienzo que sería Canvas vale al hacerlo directamente ch gpt trabajar en ello si os fijáis aquí arriba ya no nos aparece el modelo gpt 4 con c que nos aparecía antes Y con lo cual yo le puedo poner aquí redacta un email para un cliente en el que le digo que le vamos a dar el mejor servicio de su vida vale Y partir de aquí veréis como me abre Canvas Y a partir
de ahí nos Abre esta funcionalidad de editor de texto hay varias cosas muy interesantes dentro de Canvas que hacen que el sistema sea mucho mejor de lo que era antes vale aunque son pequeños cambios son bastante bastante interesantes lo primero de todo es que yo me puedo venir cuando esta Termina de hacer el mensaje me puedo venir directamente al texto y puedo escribir sobre él convirtiéndolo básicamente en lo que sería un editor de texto como Word Y eso hace que sea mucho más útil porque uno de los grandes problemas es que todo lo que yo
quería hacer se lo tenía que pedir a chat gpt para que lo cambiase incluso cuando eran cosas muy pequeñas y eso rizaba el proceso ahora si yo quiero por ejemplo rellenar mi nombre me vengo aquí selecciono esta parte y lo cambio por John Hernández Y a partir de ahí no tengo que pedirle al modelo que escribe John Hernández en la casilla del nombre que eso ralentizar mucho el proceso Además de eso hay otros pequeños cambios que nos ayudan bastante otro de los muy buenos cambios que yo me puedo salir queo un chat de gpt nuevo
y le pongo un prom muy largo y veréis que me aparece un nuevo botoncito aquí para abrir el Lienzo lo que vamos a poder hacer es abrir el promt en Lienzo si le doy aquí veréis que me lo lanza directamente al Lienzo como prom Esto es algo que antes no se podía y era muy incómodo porque si yo quería poner un prom y trabajar sobre ese prom como parte del texto por ejemplo en este caso he copiado el primer capítulo del Quijote pues si yo quería trabajar sobre ello no tenía forma de hacerlo más que
introducí selo y decirle que lo repitiese dentro del del Canvas vale Y con lo cual ahora puedo hacer eso Y a partir de ahí empezar a trabajar sobre nuestro prom que nos aparece aquí y lo podemos eliminar el resto de funciones son más o menos las mismas donde tenemos todos estos botones que nos permiten pues aumentar la longitud del texto sugerir ediciones cambiar el nivel de lectura etcétera que ya teníamos antes otra novedad importante es que en los gpt podemos por ejemplo eh [ __ ] un gpt y Añadir la función de Canvas fijáis aquí
abajo ya nos aparece el botón que pone Lienzo y cuando le damos a este botón lo que va a hacer es que activar que el gpt pueda tener Canvas como funcionalidad lo cual puede ser muy útil y puede dar lugar a nuevos gpt que no habíamos pensado hasta ahora donde el usuario puede entrar a trabajar con las funciones del gpt dentro de ese Lienzo Y a partir de ahí poder editar el texto que genera lo cual es tremendamente útil por otro lado tenemos que Canvas nos permite trabajar con código Esto es algo que ya sabíamos
pero también ha habido ligeros cambios en Cómo cómo funciona cuando hablamos de código bien cuando hagamos código y lo hablamos en Canvas como veis el formato es ligeramente distinto Pero se parece mucho al de antes lo primero que vamos a detectar es que tiene este botón de aquí arriba que pone ejecutar Eso quiere decir que básicamente a partir de ahora chat gpt puede ejecutar código de forma interna esto no funciona por ejemplo para html pero funciona para python y para otros tipos de lenguajes con lo cual es bastante interesante fijaros en lo que sucede cuando
le doy a ejecutar lo que hace es abrir una ventanita aquí abajo que puedo hacer más grande y a partir de aquí está intentando ejecutar el código y como veis este era un código muy simple que permitía hacer una matriz de puntos y líneas entre ellos y nos lo ha generado perfectamente vale a partir de aquí tiene una cosa muy interesante y es que si yo cojo esta ventana de código y voy a cargarme una parte del código por ejemplo me voy a quitar esto aquí y lo voy a poner sin este texto y le
doy a ejecutar en teoría va a dar un error como veis aquí abajo me sale que ha habido un error que hay un un problema un book dentro del código y que ha dado un error al correr con lo cual no puede ejecutarlo lo Lo bueno que es que chat gpt ya se ha dado cuenta de que existe el error y ya me propone Cómo arreglarlo si os fijáis nos venimos aquí nos aparece esta ventanita y nos dice que el error está causado por este error que hemos cometido que hemos hecho nosotros a propósito y
le podemos dar a corregir el error de ese Back a partir de ahí puede correr el código de nuevo y veréis como el código corre sin ningún tipo de problema con lo cual podemos autocorregir de forma automática todo el código que genere chat gpt porque si tiene errores al correr los va a detectar Y a partir de ahí los va a solucionar son pequeños cambios pero que desde luego pueden hacernos la vida más fácil a todos los que trabajamos con chat gpt a diario tanto en texto como en código el siguiente día La verdad que
fue de relleno en este caso nos presentaron como chat gpt está integrado dentro de iOS y Mac pocas novedades Sinceramente alguna cosa con que Siri pueda utilizarlo Pero la realidad es que es poco más lo que nos había explicado ya Apple en su momento con Apple intelligence lo que sí que cambió fue el siguiente día el jueves porque nos presentaron esto básicamente Yo me puedo ir a chat gpt Hola chat cómo estás Eh qué tal te encuentras Hola Estoy muy bien gracias y tú qué tal va tu día Mira esta es la voz avanzada que
todos habéis visto hasta ahora pero tiene un par de funciones nuevas la primera Es que puedo hacer esto chat te voy a compartir esta la cámara de mi móvil y quiero que veas este correo electrónico que me ha mandado un cliente que me solicita Pues eso unos productos de los que ofrecemos quiero que te le eches un vistazo bien y que ahora te veas mi respuesta que le he propuesto que es esta que tengo aquí y lo que quiero es que básicamente me digas si le he respondido todas sus demandas claro John leído el correo
del cliente y tu respuesta parece que el cliente Busca vehículos fiables mantenimiento sencillo y flexibilidad en los contratos en tu respuesta mencionas que ofreces una flota fiable y eficiente además de mantenimiento incluido 247 has cubierto bien esos puntos sin embargo no mencionaste la flexibilidad en los contratos quizás podrías Añadir algo sobre opciones flexibles de contrato qué opinas y me puedes dictar cómo lo haríamos para ver qué tal sería esa opción para que que vaya en línea con el correo claro podrías Añadir algo así además ofrecemos opciones flexibles en los contratos para adaptarnos a cualquier cambio
en el tamaño de vuestra flota así podréis ajustar el número de vehículos según vuestras necesidades en cada momento Qué te parece es absolutamente espectacular lo que pueda hacer chat gpt con visión en tiempo real es decir es la voz avanzada con visión en tiempo real pero no solo eso sino que me puede ayudar por ejemplo en tema mucho más diarios evidentemente que me apoye en Cómo escribirle correos a mis clientes es una auténtica pasada es un ejemplo bastante simple pero fijaros por ejemplo en esto de aquí chat te voy a compartir una imagen que tengo
aquí eh tengo un tablón en el que quiero que mires eh Cuántas tablas puedo meter de 1 m por 23 cm claro John veo que el tablón tiene unas medidas de 122 cm por 240 cm si cada tabla mide 100 cm por 23 cm puedes colocar aproximadamente 10 tablas eso deja un poco de espacio Pero es mejor para que las tablas no queden apretadas Qué te parece Muchas gracias chat como veis es absolutamente brutal pero tiene una función aún más espectacular que es que no solo podemos utilizar la cámara del móvil sino que también le
podemos compartir pantalla fijaros en esto Hola chat Oye cómo estás Estoy buscando un collar para mi mujer algo que sea fino y que no sea muy voluminoso Ah Hola parece que estás mirando collares de de oro en Google tienes algún estilo en mente algo clásico o moderno O tal vez con algún detalle especial Sí a mi mujer le gustan las cosas muy finitas no sé cómo lo ves los que hay por aquí y qué te parecen de estos Cuál crees que podría ser más adecuado para ella veo varios collares de oro en la búsqueda si
a tu mujer le gusta las piezas finas el de la cadena deada con un pequeño colgante podría ser perfecto es elegante y discreto cuál el Hol skern este o cuál te refieres Exacto el de Hol skern tiene una cadenita fina y un colgante pequeo Oye está está muy bien de precio porque este vale 79 y el de al lado vale 359 parece que el precio más alto puede deberse a la marca o al material el de 359 podría ser de oro macizo o de una marca de lujo el holser Parece ser más asequible posiblemente por
los materiales o el diseño ambas opciones son bonitas De qué material es el de 69 el de 69 podría estar hecho de acero inoxidable con un baño de or o algún otro material chapado en oro normalmente perfecto gracias Estoy seguro que le va a encantar De nada estoy seguro de que sí le encantará si necesitas más ayuda aquí estoy buena suerte con tu regalo bien Esto es lo que vengo diciendo desde hace meses desde que vi la primera demostración de compartir pantalla con chat gbt que va a cambiar el mundo como lo conocemos porque básicamente
nos ofrece El tener un modelo de Inteligencia artificial asisti en tiempo real y es cierto que por ahora está limitado sabéis que los que podéis utilizar el tema del de la voz avanzada tenéis unos límites de una hora al día y si pagáis 200 es ilimitada pero la parte del vídeo parece que también va a estar limitada y mucho más de manera Por ahora se rumorea que hablamos de unos 15 minutos diarios para las cuentas de 20 lo cual es bastante ridículo cuando Esto es algo que yo necesitaría utilizar todo el día en mi trabajo
por lo menos a partir de ahí eso no quiere decir que no vayais a poder utilizarlo que sea extremadamente imposible de sacarle partido pensar que los modelos de Inteligencia artificial que teníamos hace un año a a día de hoy han bajado de coste en un 97 por Es decir para a día de hoy hacer algo con gpt 4 o mini que es lo mismo que podíamos hacer con el mejor modelo Inteligencia artificial hace literalmente un año es prácticamente gratis es infraestructura estamos en el punto en que esto ya está pasando de ser una herramienta para
uso puntual con un coste específico a directamente ser infraestructura como las carreteras como la electricidad o como internet eso que simplemente está alrededor nuestro y utilizamos para nuestro día a día de forma natural sin tener que pensar en cuá nos cuesta la realidad es que los modelos de Inteligencia artificial a pesar de que la gente dice que hemos tocado techo han evolucionado una auténtica barbaridad fijaros en este gráfico en que podemos ver lo que eran los modelos hace un año y medio donde básicamente en problemas eh de nivel científico podían resolver las preguntas prácticamente Al
mismo nivel que tirar una moneda al aire Es decir Random guessing lo que sería dar una respuesta sin tener ni puñetera idea y a día de hoy tan solo un año y medio después responden a esas mismas preguntas como si fueran un doctor doctorado en cada una de las áreas la realidad es que la evolución de los modelos de Inteligencia artificial ha sido brutal Y si alguien nos dice que esto está tocando te hecho o está frenando no os lo creáis porque desde luego no lo parece hay que admitir que Google fue primero en esto
Hace unos días lancé Este vídeo que casi 200,000 personas habéis visto en estos dos tres días este fin de semana lo cual es una auténtica locura eh En el que os enseñé como Google había lanzado esta misma funcionalidad desde la página web y incluso con algunas mejoras os enseñaré después os hablo un poco más de ello pero la realidad es que fueron primero no sé si mejor pero desde luego primero en cualquier caso lo que estamos viendo Es lo que os he dicho estamos ante la era de los asistentes personales en que vamos a tener
con nosotros una ía constantemente tenéis que dejar de compararlo con Excel o con Powerpoint esto ya no es una herramienta esto pasa a ser una funcionalidad que tenemos en nuestra vida como digo siempre infraestructura la realidad es que vamos a poder hacer más cosas de las que podíamos hacer vamos a poder hacerlas mejor y vamos a poder hacer incluso cosas que no sabíamos Cómo hacer ahora mismo yo recuerdo cuando construí la casa del árbol para mis hijos y de repente tuve que buscar 20,000 vídeos en YouTube incluso me compré un puñetero libro de cómo hacer
casas en un árbol a partir de ahora simplemente activo chat gpt le pongo la cámara y empiezo a preguntarle cómo hacer lo que quiero hacer y me va a ir guiando paso a paso le puedo señalar la madera decirle Por dónde tengo que cortar dónde tengo que clavar lo vamos a tener de una forma constante y eso nos va a permitir hacer cosas que ni de coña podíamos haber planteado hacer antes Por cierto esto no está disponible en Europa al menos no para las cuentas Plus y las cuentas Pro que son las cuentas normales personales
pero sí para las cuentas teams Esto es algo que ya ha pasado otras veces que nos dicen que no va a estar disponible las funcionarias de Europa pero en las cuentas teams que son las de empresa mínimo 200s a00 unos 70 al mes eh en esas sí que lo tenemos disponible no sé si es una forma por parte de Open Ai para intentar premiar a las empresas o intentar que las empresas pues le saquen más uso a chat gpt pero en este caso si queréis utilizar esta versión en que podéis compartir pantalla lo podéis hacer
A través de una VPN con las cuentas Plus o lo han activado que creo que no todas lo tienen aún o a través de las cuentas teams que sí que parece que todas lo tenemos Hey how you doing to take at presentation Power Can you see Yes I can see the powerp presentation i you to take Look at it and Tell me what slide or do Bel there Take Look at slide Which says esto que acabáis de ver es un fragmento del vídeo que os hice la semana pasada sobre Google Ai Studio esa funcionalidad parecida
a esta que Google ha sacado pero tiene dos grandes beneficios y un gran problema A diferencia de la de chat gpt la primeros beneficios son que Google a Studio es gratis completamente gratis no tenéis que pagar y podéis utilizar el modelo Aunque está limitado si no recuerdo mal a 2 minutos de interacción en vídeo con el modelo a partir de ahí Ese es el primer gran beneficio que evidentemente lo podéis usar todos y el segundo gran beneficio es que está en el ordenador no en el móvil chat gpt ha decidido sacarlo solo en dispositivos móviles
aunque parece que en usuarios de Mac en la aplicación de escritorio lo están pudiendo utilizar pero los usuarios de Windows no y con lo cual eso para mí lo hace bastante inútil porque la principal función de esta funcionalidad es compartirle mi escritorio mientras estoy trabajando para que me ayude con un Powerpoint con un email con un Excel o con lo que sea y evidentemente si solo puedo hacer desde el móvil con la cámara es relativamente incómodo estoy intentando Buscar si hay algún programador que sea capaz no sé si tien el programador o mago para que
sea capaz de conectar mi cámara de la rayan meta las gafas que tiene Inteligencia artificial con chat gpt para poder compartirle la cámara de la rivan meta y poder trabajar en manos libres con esto si alguien sabe cómo pago bien Así que escribirme un mail si sabéis Cómo hacer eso porque me encantaría y como digo la parte de Google Y si queréis más información sobre Google veros el vídeo y tenéis el link en la descripción que desde luego lo explico muy fácilmente en 10 minutos eh si queréis me la parte negativa Mejor dicho de Google
es que Google no está integrado en la aplicación de Inteligencia artificial que usamos a diario eat gpt s dejarme que me explique la historia está en que básicamente Google lo han liberado dentro de Ai Studio Ai Studio no es gemini Es el mismo modelo pero no es la aplicación de gemini donde tienes pues tus gpt y tu historias y tus chats y tu habitual donde utilizas a diario en cambio chat gpt tenemos esta funcionalidad dentro de nuestra función habitual dentro de nuestra aplicación normal de chat gpt y eso quiere decir que tiene mi memoria que
puede eh establecer el contexto que puede entender como yo suelo trabajar que lo puedo activar en un momento desde cualquier momento en que esté trabajando con ch gpt etcétera con lo cual desde luego ella estudio Parece ser de momento una muestra para poder salir antes que Open Ai Pero la realidad es que para mí hoy por hoy Open Ai es más útil con esta funcionalidad a pesar de que solo tengo en el móvil cuando est en el escritorio sin ninguna duda será más útil que en Google pero Google ha pegado un buen golpe en la
mesa enseñando que lo tenían disponible de hecho hablaremos mucho más de Google en este vídeo porque realmente hay muchas más funciones pero vamos a acabar con Open Ai porque nos queda el anuncio del viernes que se trata de projects projects es esta nueva función de chat gpt en que podemos hacer una especie de mezcla entre lo que sería un gpt avanzado y lo que sería eh Un gpt custom perdón y lo que sería básicamente una organización de nuestras carpetas vale lo que podemos hacer es crear carpetas dentro de chat gpt y podemos incluso editar el
colorcito etcétera que queramos Y a partir de ahí podemos incluso elegir Con qué modelo queremos que trabajen pero está bastante limitado de momento esto no funciona muy bien en cualquier caso como ves podemos abrir un chat nuevo Dentro de este proyecto y esto funciona como un chat normal de chat gpt pero se va a quedar en esa carpeta hasta aquí todo bien nos permite organizar por secciones Y eso es algo que llevo pidiendo Yo desde 2023 así que ya er ahora señores chat gpt pero le he añadido una serie de funciones que le podemos Añadir
archivos a la carpeta y añadirle instrucciones personalizadas es decir podemos hacer una especie de gpt y tener múltiples chats dentro de ese gpt aunque no es tan potente como un gpt custom pero permite un punto de tener ciertas instrucciones de cómo se tiene que comportar en los chats que hagamos dentro de esa carpeta esto supone que si hao una carpeta para mi vida personal una carpeta para mi vida profesional le puedo decir cómo quiero que actúe chat gpt en las cosas que tienen que ver con mi vida personal y de una forma distinta cuando trabaje
con mi vida profesional es decir una especie de custom instructions de cada una de las carpetas por otro lado le puedo dar documentación en la carpeta de mi vida personal le puedo subir pues yo que sé mis facturas de la electricidad mi hipoteca mi no sé qué no sé cuántos para que luego cuando le pregunté algo sobre todo eso tenga información de mi vida para poder ayudarme en cambio en la profesional le puedo subir todo el resto de información sobre mi trabajo para que cuando le pregunte algo sobre mi trabajo me pueda ayudar sin tener
que contaminarse con la información personal En definitiva Es una muy buena función por ahora no permite auténticas maravillas Más allá de lo que os he contado pero desde luego es una función que hacía muchísima falta en chat gpt y la tenéis aquí directamente si os bajáis en vuestros gpt después de los gpt veréis proyectos y ahí tendréis todos vuestros proyectos con todas las funciones que vayais a utilizar y estoy seguro que se va a convertir una de las cosas más utilizadas dentro de chat gpt bien como veis muchos lanzamientos pero vamos con el patrocinador del
vídeo de esta semana que es el club de la ia nuestro Club de la ia la zona comunitaria más friky del mundo de Inteligencia artificial en español es el patrocinador de este vídeo porque tenemos grandes noticias que abrimos un nuevo Club de la ia para todos aquellos que buscáis una comunidad en la que sentiros integrados en la que no os traten como locos porque estáis todo el día hablando de Inteligencia artificial el club de la ia es para vosotros se trata de un sitio de encuentro donde nos encontramos todos incluso yo evidentemente los que nos
gusta la Inteligencia artificial funciona a través de un grupo de WhatsApp y un montón de cosas de beneficios os sonará porque ya lo lanzamos a principios de año Quiero recordar y de forma inmediata tras apenas un mes de tenerlo abierto se llenó porque hay un límite de 1000 plazas Pues bien hasta ahora teníamos una lista de espera para apuntarse al club de la Y sabéis qué pasa que ya había más de 100 personas en la lista de espera del club Así que hemos decidido abrir un nuevo Club para que todos los que estáis en espera
podáis aprovecharlo sabemos que Levis meses esperando el momento ahora lo es en el club de laa tienes grupos segmentados por profesiones por ciudades por intereses por niveles de todo tipo con lo cual siempre encontrarás a alguien que pueda responder a una pregunta que tengas sobre Inteligencia artificial además de poder compartir trucos formas de utilizarlo o incluso gpt de cada una de vuestras profesiones el club de la guía además cada mes os incluye varios directos con expertos que os dan clases sobre un tema concreto como hacer chatbots Cómo sacarle partido a notion cóm utilizar la ia
en diferentes aspectos y mucho mucho más cada mes además también recibís un PDF un ebook en el que os contamos sobre un tema en profundidad y tenéis incluso todos los acumulados de todos los meses que llevamos haciéndolos se llama la nota y cada mes la Vais a recibir en vuestro correo además también tienes debates bolsa de trabajo descuentos en aplicaciones de ira y incluso tenéis descuentos brutales de Hasta el 50% en mis cursos de Inteligencia artificial todo esto lo tenéis por una membresía de 10 al mes y podéis formar parte de ellos sin ningún tipo
de permanencia entrar cuando queráis y largar cuando os apetezca cuando se llena este club de 1000 pasamos a lista de espera y cuando alguien se va ofrecemos esa plaza por si alguien la quiere En definitiva si te quieres apuntar ahora es el momento si llevas tiempo en espera no pierdes la oportunidad porque la última vez como digo se llenó muy rápido y no tengo duda de que este segundo Club también se va a llenar bastante rápido tenéis el link en la descripción bien Vamos a hablar de Google que es el siguiente de la fiesta y
como sabéis han presentado muchas cosas pero han presentado muchas cosas más que eso que Hi el vídeo de el tema de la del vídeo en tiempo real Y es que Google ha decidido pegar una patada a la mesa y enseñar de lo que realmente son capaces todo lo de Google se basa en gemini 2.0 el nuevo modelo que como sabéis han presentado la versión flash por ahora la versión flash es la más pequeñita dentro de la estructura de gemini y se rumorea que tiene relativamente pocos parámetros quizá pues son 30 y pico mil 40,000 millones
de parámetros Vale pero no tiene nada que ver con los modelos pro y Ultra y la historia está en que este modelo flash rinde increíblemente bien si nos venimos por aquí en el blog de gemini nos explican un poco primero de todo Cómo es el rendimiento Y en lugar de compararlo con modelos de la competencia lo comparan con sí mismos y podéis ver como la versión Pro que teníamos de la 1.5 rinde por debajo de la versión flash de la 2.0 lo cual es una auténtica locura Y el Salto es brutal prácticamente en todas las
métricas puntúa mejor y en algunas de ellas gemini 2.0 puntúa incluso mejor que chat gpt 4o bien la cosa es tan bestia que sabéis que hay un rey de la programación que es Sony 3.5 de antropic que puntúa por encima de todo el resto de modelos en programación Pues bien resulta que en el SW bench que es el benchmark de programación real resulta que gemin 2.0 flash la versión que sería equivalente a hiik antropic supera a sonet 3.5 programación a mí me parece una auténtica salvajada es brutal la calidad que ha conseguido Este modelo siendo
tan pequeña así que no me quiero ni imaginar lo que va a pasar cuando saquen la versión Pro esta gente de Google que ya han confirmado que va a ser en dinero bien vamos a seguir avanzando Porque además de gemini 2.0 que por cierto ya podis utilizarlo dentro de gemini Advance han presentado más cosas han presentado varios ejemplos de agentes el primer project Astra que es lo que habéis visto en el vídeo que publiqué el otro día que es básicamente esto que hemos visto que hace chat gpt de una forma integrada de momento no tenemos
acceso a ello evidentemente pero podemos acceder a través de Google Studio a esa función de preview de esta funcionalidad de compartirle pantalla pero desde luego es increíble ver este vídeo donde El chaval le enseña por ejemplo un panel de código para acceder a un airbnb y le dice al modelo que se acuerde del número de acceso Y a partir de ahí se va todo el día trabajando con él y vuelve por la noche y le dice al modelo que le recuerda el número y el modelo se acuerda de Cuál era el código con lo cual
básicamente no solo están mostrando el hecho de que tenga esa capacidad de interacción en nuestra vida real sino además que nos están dejando pistas de que vamos hacia una memoria mucho más ampliada lo que se conoce como el contexto de los modelos donde tendríamos que hablar de millones de tokens para que pudiese tener esa información en esa conversación Es evidente que chat gpt puede guardar cosas en memoria puntualmente y recuperarlas después pero creo que lo que se ve en el vídeo hablamos de un contexto prácticamente infinito y probablemente vamos a ver anuncios en esta línea
en las próximas semanas si no esta misma semana sobre contextos mucho más ampliados que van a permitir cosas como estas el siguiente que nos han explicado es project mariner que básicamente es un proyecto en el que gemini puede [ __ ] control de nuestro ordenador puede básicamente dedicarse a hacer cosas por nosotros en el ejemplo que nos han dado en esta web esta chica le pide que busque los contactos de una de las empresas Y a partir de ahí ni corto ni perezoso gemini se mete en Google busca cada una de las empresas independientemente y
va recopilando los correos electrónicos de contacto y después nos los pone en el chat para que nosotros podamos tenerlos a mano Eso quiere decir que básicamente se puede poner a hacer cosas en nuestra en nuestro ordenador por nosotros como vimos ya con el computer control de clot pero de una forma que parece más dinámica aún así sigue pareciendo muy lento porque el vídeo Está muy acelerado Pero la realidad es que esto podría ser el futuro aunque no tengo muy claro que el camino sea que el sistema que la ia coja nuestro ordenador y se ponga
a hacer cosas con nuestro ordenador porque entonces me bloquea a mí de hacer otras cosas pero veremos por dónde evoluciona esto otro proyecto que han presentado es Jules el cual es un asistente de código muy parecido a github copilot y Que de momento tampoco tiene eh funcionalidad directa porque aún solo está en una Beta cerrada pero parece que es muy parecido a un asistente de código con Inteligencia artificial clásico como los que tenéis en github copilot o los que tenéis en cursos por último nos han presentado un asistente de videojuego en el que tú puedes
estar jugando y que básicamente te va diciendo lo que tienes que hacer esto ya lo habíamos visto en la demo de Microsoft y la verdad es que no veo que sea muy distinto de lo que puedo hacer con chat gpt compartiendo de pantalla me puedo poner a compartir pantalla jugar al juego y a partir de ahí que me asista pero en cualquier caso seguramente tendremos agentes de una forma más integrada yo creo que la cosa Va de lo siguiente la cosa Va de que estamos entrando en un punto en que este tipo de asistentes van
a estar en el fondo de todo lo que hagamos en nuestros teléfonos en nuestros ordenadores es decir no va a haber que activ de activarlo simplemente va a ser una función realidad como de la misma forma que yo no activo internet cuando quiero usar una aplicación no tendré que activar la asistencia de guía cuando activo una aplicación sino que por defecto mis dispositivos tendrán esa ia activada de fondo y en cualquier momento Tendremos una palabra tipo Alexa en la que haremos que salte ese asistente y nos eche una mano pero estarán escuchando de fondo todo
el rato porque igual yo ahora mismo No quiero su asistencia pero después tengo una pregunta sobre algo que hice anteriormente Y me interesa que sepa todo lo que estoy haciendo a partir de Ahí hay muchas preocupaciones por la privacidad etcétera Pero os puedo asegurar que Esto va a ser lo que realmente nos va a hacer más productivos en el día a día sobre todo en nuestro trabajo tener esas sillas de fondo démosle tiempo sé que ahora parece que sea imposible que lo tengamos 247 todo el día escuchándonos y tal por la cantidad de información que
se supone Y cómo procesarla Y qué pasa con el cómputo etcétera Pero darle tiempo recordar lo que os he dicho antes en el último año hemos reducido el coste de la guía en un 97 por. Esto va a bajar de precio se va a hacer infraestructura y vamos vamos a acceder a ello de forma constante todo el día todo el rato si queréis probar gemini 2.0 podéis hacerlo a través de gemini Advance donde podéis elegir el modelo 2.0 flash experimental que nos permite hablar con gemini eh con la versión 2.0 esta que es más rápida
y que es tan evidentemente potente como el resto de ias que hemos visto hasta ahora y por cierto también han liberado otro modelo y es se trata de este que pone aquí 1.5 pro con Deep research Deep research básicamente es una función edad que nos permite que eh jemini investigue Por nosotros esto es tremendamente útil la verdad es que es la [ __ ] solo funciona en inglés por ahora Pero ha pasado un poco desapercibido por todo el lanzamiento 2.0 Y la verdad es que es muy muy bestia Nosotros le podemos decir al modelo que
busque información por ejemplo sobre algo que nos interese search for information about Ai and medicine vale Y a partir de aquí le damos y Vais a ver como el modelo Cuando tenemos seleccionado el Deep research cambia un poco su funcionalidad va a cambiar eh la interface y lo primero que nos va a hacer sugerirnos cómo tiene que hacer el plan para acercarse a este problema vale a partir de ahí nos dice que quiere utilizar pues encontrar artículos encontrar información etcétera esto lo podemos editar vale podemos cambiar el plan y editar lo que queramos pero si
estamos de acuerdo con él le decimos Start research y se va a poner a buscar a partir de ahí nos Abre una funcionalidad distinta y como veis empieza a buscar y Vais a ver como aquí empiezan a aparecer páginas web que está buscando gemini en tiempo real esto tarda un buen rato pero básicamente después de todo esto le podemos decir que nos haga un reporte y nos va a hacer un un reporte con toda la información que ha encontrado basándose en las páginas web que ha buscado y la información que ha encontrado aquí tenéis que
ha buscado 67 páginas web ha tardado unos 5 minutos y básicamente en todas estas webs ha sacado información la cual nos ha agrupado Dentro de este reporte que después podemos abrir en docs y empezar a trabajar sobre él como si fuese un documento cualquiera o un informe que tuviésemos que hacer si queremos incluso podemos utilizar diferentes eh tablas etcétera eh Y las podemos abrir en sheets y todo lo que se os pueda ocurrir con lo cual esto es una forma increíble de trabajar para desarrollo Pues de investigación o incluso si queréis descubrir Cuáles son las
cortinas más adecuadas para no tener ruido en vuestra casa imaginaros si puede hacer esto con el modelo 1.5 qué podrá hacer cuando tenga gemini 2.0 Pro que por cierto Logan killpatrick que es uno de los responsables dentro de Google ha dicho que va a estar disponible en enero así que prepararos porque las próximas semanas que estamos A pocas semanas de enero si alguien no se ha dado cuenta eh van a ser brutales y vamos a tener nuevos lanzamientos hay rumores de que Google ha descubierto algún nuevo algoritmo que le permite hacer cosas auténticamente salvajes con
modelos tan pequeños como este y que es algo que no parece que chat gpt aún tenga en sus manos pero vamos a ver por qué chat gpt nunca deja de sorprender y tengo más noticias de modelos pequeños con lo cual parece que no es solo Google los que han dado con la piedra para reducir el tamaño de los modelos y que sean muy eficientes permitiendo quizá que que modelos mucho más grandes sean aún más bestias Aunque cuesten un dineral de entrenar el siguiente modelo que tenemos que hablar hoy es grock grock de elon mas como
sabéis la ia de Twitter y es que ahora es gratis todos aquellos que queráis utilizar grock a partir de ahora lo tendréis gratis y pensar que grock no solo es la ia que tiene un nivel tipo chat gpt sino que además también nos permite crear imágenes prácticamente al mejor nivel que os podáis imaginar eh grock desde que tiene su nuevo proyecto que se llama Aurora que es la creador de imágenes propio que por cierto y lo más que confir mado que tardaron tan solo 6 meses en entrenarlo eh es capaz de realizar imágenes realistas absolutamente
increíbles mejor que prácticamente ningún modelo disponible en el mercado tenéis aquí un ejemplo de unas fotos de elon musk pero la cierto es que desde que he anunciado que es gratis Parece que va peor con lo cual puede ser que por temas de cómputo han tenido que reducir la cantidad de cómputo por usuario y vamos a ver cómo evoluciona lo que está claro es que si grock 2 ahora es gratis es porque probablemente está viniendo grock 3 que será de pago esto ya es una habitual en Neon Mask y en su forma de trabajar con
la ia cada vez que saca un modelo nuevo libera el modelo anterior y lo hace prácticamente Open source grog no es Open source pero desde luego de momento es público y gratuito con lo cual podría ser que como ya anunció elon musk hace un tiempo eh grock 3 salga en diciembre Y eso querría decir esta semana porque no va a salir en Navidades Así que esta semana podría caernos grock 3 y os quiero recordar que elon musk dijo que iba a ser el mejor modelo sobre la faz de la tierra de Inteligencia artificial Así que
prepararos achar los cinturones porque igual este esta semanita aún nos queda una aceleración brutal hasta final de año si queréis utilizarlo os dejo el link en la descripción pero básicamente si entráis en Twitter con una cuenta cualquiera le dais al botón de grock y podéis entrar en grock y empezar a utilizarlo bien y seguimos con muchas más noticias porque ha habido mucha más tela esto es brutal yo creo que de lo más bestia que he visto en Inteligencia artificial en anuncios de Inteligencia artificial y se trata de esta imagen que ha publicado artisans una empresa
que hace agentes de Inteligencia artificial la imagen dice así las Sas no se van a quejar del equilibrio entre vida y trabajo ha llegado la era de los empleados de Inteligencia artificial bien como veis esta Peña nos está por hostias y básicamente dice que despidas a tus empleados y contrates ias porque no se van a quejar ni te van a dar por saco con bajas o con problemas de que el niño seale al colegio y no puedo quedarme etcétera etcétera me parece una acercamiento muy bestia muy brutal que probablemente en otros sitios como en Europa
posiblemente estaría directamente prohibido y la verdad es que artisans es una web que se dedica a ofrecer agentes de ia básicamente lo que te ofrecen son empleados ia eh principalmente enfocados a atención al cliente y a procesos de ventas la idea Está en que se conectan a través de slack y tú les etiquetas les das curro Y a partir de ahí ellos se ponen a buscar leads por ejemplo y a conseguir reuniones a base de mandarles emails etcétera Y a partir de ahí si consen una reunión les pone en contacto con os de vendedores que
se siente en la reunión y intente hacer el cierre de la venta o al menos la exposición de la propuesta en cualquier caso está claro que esto va a hacer parte del trabajo pero no tengo muy claro que la acercamiento que está haciendo esta gente sea el adecuado el el fuego que les va a traer desde luego les va a dar popularidad como le está porque esto se ha hecho muy viral pero desde luego no me parece el acercamiento más adecuado a intentar hacer este planteamiento de las Sas tenemos que plantear las ías desde un
punto de vista de que puedan acompañar aumentar la productividad porque no es real que puedan hacer el trabajo de la gente a día de hoy y no dudo que en un futuro la ia vaya a hacer nuestro trabajo no tengo la menor duda Pero la realidad es que a día de hoy las ias no puedes ponerlas a trabajar a menos que sean cosas muy muy simples o cosas en modelos entrenados muy grandes como el de clar de atención al cliente con lo cual Ese ha acercamiento lo único que hace es atraer el odio de la
población en general y luego pues generar un poco de me porque al final no hace lo que pensabas si lo compras así que no me parece el acercamiento más óptimo y creo que se están equivocando vamos a ver por dónde va Pero lo que está claro es que sí que empezamos a tener empleados con Inteligencia artificial son pocos pero empiezan no sé si recordaréis seguro los programadores os acordáis perfectamente de devin devin se presentó como el primer programador independiente hecho por Inteligencia artificial Pues bien ya lo han lanzado al mercado con su primer modelo que
realmente está público y disponible para todos dein ha aparecido nada más y nada menos con un precio de 500 pavos al mes vale poca broma que no es nada barato y de momento eso tampoco no es da acceso ilimitado sino que tiene un límite de unidades de computación para devin porque funciona básicamente Como si fuese un empleado por horas de hecho esto convierte alrededor de unos $ la hora $ la hora por utilizar una ia que se supone que hace parte de tu trabajo o tu trabajo A partir de ahí si tú tienes un desarrollo
muy simple Como por ejemplo crear una página web o crear un snippet de código para algo o arreglar un book en un código eh devin lo puede hacer funciona también a través de slack básicamente lo etiquetas le dices lo que tiene que hacer y devin se pone a currar y te avisa cuando ha acabado Como si fuese un empleado remoto al final la idea es que lo han puesto en un pricing parecido a lo que te costaría un empleado remoto en el mundo de la programación pensar que 8 la hora no es extremadamente barato para
estándares europeos pero o españoles al menos pero sí que es bastante barato para estándares americanos Así que podría ser y sobre todo mundo de la programación que los programadores no son precisamente baratos lo que podríamos conseguir con devin es cada vez intentar hacer Pues un poco más la capacidad de desarrollar temas de programación yo tengo programadores en nómina y otros freelancer que me ayudan con todo lo que necesitamos en la empresa y normalmente tengo algunos en remoto los que les mando curro y me lo devuelven hecho si lo puedo hacer con aia sinceramente a mí
si georgian existe o no existe eh donde está él pues la verdad es que me preocupa relativamente poco en este caso me quiero mucho georger pero la realidad es que si yo mando el trabajo el efecto es el mismo le digo lo que tiene que hacer norment nos comunicamos por WhatsApp Y a partir de ahí me avisa Oye esto está solucionado Oye tengo est problema ayúdame con esto que no lo puedo resolver yo solo Pues a partir de ahí es es un poco la funcionalidad que enfoca a devin pensar que devin no está pensado para
programador está pensado para aquellos que no tenemos ni puñetera idea y que queremos un servicio de programación con lo cual esos 8 la hora 500 al mes no es tan exagerado siempre y cuando haga lo que promete y ahí es donde un poco tendríamos que verlo como yo no tengo ni puñetera de programación no me voy a meter a pagar los 500 porque tampoco sería capaz de juzgarlo con lo cual lo que sí que os diré es que hay una persona que se ha hecho el curro épico de sacar un blog sobre cómo funciona esto
y también un vídeo en el que realmente os Explica lo que hace lo que no lo bueno y lo malo el vídeo se llama he pagado 500 para que tú no tengas que pagarlos Y es de este programador que tiene una web muy completa sobre programación y sabe muy bien de lo que habla bien y como os decía antes Google no es el que único que ha descubierto el tema de los modelos pequeños muy capacitados Y es que antes de largarse a openi Sebastian bu principal desarrollador de ia de los modelos F los modelos más
pequeños de Microsoft ha soltado un auténtico bombazo se trata de este paper que es el F4 technical report en el que ha participado un montón de gente pero está liderado por Sebastian bubeck vale que es uno de los tíos que más sabe d del mundo con mucha diferencia Lo principal es que han lanzado un modelo muy pequeño que rinde mejor que ningún otro modelo que hayamos visto hasta ahora y cuidado porque es muy bestia de verdad vale lo primero que hacen es que nos lo comparan en benchmarks con yama 3.37 no sé si recordáis que
llama 3.3 70b os lo presenté la semana pasada y es un modelo de meta que básicamente rinde como el modelo de 400,000 millones de parámetros con cinco veces menos parámetros y rinde Exactamente igual de bien básicamente lo mismo que hemos visto con gemini 2.0 flash con lo cual tenemos que meta ya ha conseguido un modelo pequeño que rinde muy bien Y gemini también gemini parece que es incluso más pequeño que llama 370b pero la historia está en que lo de fi no tiene nombre Porque fi 4 es cinco veces más pequeño que yama 3 70b
es decir 25 veces más pequeño que yama 3 400b y rinde Exactamente igual podéis verlo aquí Tenemos aquí lo que hace fi 4 y podemos ver có compara perfectamente en algunos gana en otros pierde con llama 3.3 Incluso en algunas cosas como gpq que es básicamente el platinum este de razonamiento de doctorados supera a chat gpt 4o y hablamos de un modelo que tiene tan solo 14000 millones de par Met cinco veces menos que el de llama lo cual quiere decir que lo puedo utilizar en un ordenador con una tarjeta gráfica potente en local tenemos
un modelo más potente en algunas cosas que chat gpt 4o esto es muy bestia se lo ha sacado Sebastián bubeck de la manga y lo ha puesto en la mesa y ha dicho Hala me piro de Microsoft y se ha ido a trabajar a Open Ai es muy probable que Open Ai haya reclutado Sebastián bobak para precisamente estos resultados conseguir hacer modelos más pequeños que rindan increíblemente bien y cada vez sean más óptimos y yo repito lo de siempre si un modelo pequeño puede hacer lo que estábamos acostumbrado que hiciese un modelo grande qué creéis
que va a hacer el puñetero modelo grande cuando salga con esta misma arquitectura o este mismo rendimiento muy probablemente van a ser muy superiores Y esa es la generación que vamos a ver Quizá en grock 3 en gemine 2.0 Pro en yama 400 en yama 4 o como le llamen o en gpt 4.5 o 5 que podría salir incluso esta misma semana esto ha tenido muy poca atención porque la semana ha sido una locura de noticias Pero creo que es una de las noticias más importantes el hecho de que podamos tener un modelo de Inteligencia
artificial en local del nivel de lo que es gpt 4o es una absoluta brutalidad y esto de aquí es notebook el no sé si recordáis aplicación de Google que nos permitía hacer podcast desde documentos que podía subir diferentes Fuentes páginas web y tal Y a partir de ahí trabajar sobre ello o hacer una un podcast de audio que revoluciona un poco internet Pues bien esta aplicación se ha actualizado y han cambiado un montón de cosas porque para empezar están ofreciendo un plan de pago ya para aquellos que queráis creo que ronda los 20 al mes
y la verdad es que no ofrece demasiados beneficios Comparado con lo que es el plan gratuito Pero si alguno quiere pagar pues adelante por ello sinceramente hay muchas opciones ahora mismo en el mercado bien El caso es que lo han mejorado bastante han cambiado el interface y hay una cosa que os va a flipar os va a volar la cabeza bien lo primero de todo es que como veis ahora tenemos diferentes barras laterales es mucho más óptimo a la hora de trabajar podemos seguir trabajando aquí con el modelo Explícame este de Paper y esto básicamente
es el paper de F 4 por ejemplo el que os acabo de presentar y podemos trabajar sobre este modelo de Inteligencia artificial utilizando los modelos de ia para intentar resumir la información que tenemos en las fuentes que le damos vale a partir de ahí como veis nos da toda esta información de que va esto y lo todo el rato nos dice En qué se referencia dentro del paper con lo cual es una de las funciones más útiles cuando queremos trabajar con documentos además teníamos la opción de crear un podcast que si recordáis suena así como
recordáis esta funcionalidad lo que nos permitía es crear un podcast en principio en inglés había una forma a través de las instrucciones personalizadas de poder condicionar lo que lo hicis en español pero hacía peor etcétera Pero lo que acaban de incluir es esto es brutal es que puedes interactuar con la gente del podcast en tiempo real es decir o sea vamos a ver que lo entendamos no solo nos genera un audio de dos personas virtuales hablando sobre una documentación que le hemos dado sino que ahora ya podemos partir icipar de ese podcast Y ser parte
de la conversación en tiempo real gracias a un modelo parecido al que habéis visto con el vídeo en tiempo real etcétera que hemos estado viendo esta semana ojo que es brutal fijaros le puedo dar aquí al interactive Mode en beta y a partir de ahí fijaros como esto cambia y la interf ahora aparece con esto de aquí entonces si doy al Play va a empezar el podcast de forma normal y cuando yo le de a la mano esta de join yo puedo hacer una pregunta ojo al dat con esto New Language mod and everybody about
there up Can You tell me How many parameters soing about the number of parameters yeah That's actually really key point to What makes it we actually Just about to Get In that so good timing according to the report 54 has 14 billion parameters como veis puedo participar y preguntar lo que me d la gana Y a partir de ahí el podcast sigue su curso normal es decir distribuyen el podcast para hablar de lo que tú tenías una duda Y a partir de ahí seguir con su camino con lo que estaban haciendo me parece una aplicación
absolutamente brutal de la Inteligencia artificial es totalmente gratis y lo podéis probar en Notebook lm os dejo el link en la descripción porque desde luego si vais a esta web Vais a flipar en colores con lo que puede llegar a hacer cuando esto esté disponible en español va a ser una auténtica locura por cierto que me he olvidado y seguro que me lo preguntaréis si queréis saber sobre Notebook len Plus que es la versión de pago tenéis por aquí todas las características que a tener yo no sé vosotros pero a mí ver esto en tiempo
real Me parece que vivimos en el puñetero futuro y me parece una auténtica salvajada bien Vamos a ahora con la sección de Juego de tronos o mejor conocida como puñaladas traperas en el mundo de la Inteligencia artificial porque esta semana también viene cargadita de esto no solo de noticias Así que vamos a empezar por este artículo de The information Google le pide al gobierno americano que se cargue el acuerdo entre Microsoft y Open Ai venga Vamos allá la historia está en que no solo eh Cuando tú quieres utilizar Chan gpt en la nu solo puedes
hacerlo a través de servidores de Microsoft por el acuerdo de exclusividad que tiene Eso quiere decir que si tus servidores son a WS de Amazon o servidores de Google no puedes utilizar modelos de Open Ai por mucho que Open Ai quiera porque tiene ese acuerdo de exclusividad Con Microsoft Pues bien Google dentro de una investigación de competencia ha declarado que quiere que el gobierno americano revise este tema y tumbe ese acuerdo entre Open Ai y Microsoft Así que no entiendo Yo muy bien cómo va esto porque al final señores de Google si queríais haber aprovechado
los modelos de Open Ai haber visto el potencial y haber metido Vosotros los 13,000 millones que metio que metio Microsoft con lo cual este tipo de cosas a mí me parecen una puñetera locura pero es lo que se mueve en el mundo empresarial donde no hay perdón el otro día en una entrevista sundar pichar El ceo de Google le preguntaron qué opinaba de Microsoft Y dice Bueno si comparamos en modelos propios desde luego Microsoft no tiene nada Y a partir de ahí eh dijo que evidentemente todo lo que utilizan es de Open Ai Sebastian bube
que ha decidido pegar la patada en la mesa con fi 4 y Microsoft parece que vuelve a estar en la carrera por su propia cuenta y no sé cuánto tiempo va a durar el acuerdo de Open Ai y Microsoft no sé si por propias diferencias entre ellos o porque el gobierno les va a obligar a separarse pero en cualquier caso parece que Microsoft ha tenido ese espacio suficiente para estar en la carrera mientras se ponía el día y ha sido a base de talonario con Open Ai y suficiente le ha servido porque Microsoft desde luego
ahora mismo está en una muy buena posición en el mundo de la ia la segunda noticia es aún más impresionante y es que Mark Zuckerberg y lo más se han hecho amigos y dirás qué me estás contando John es imposible son los dos tíos más imposibles de llevarse bien Pues bien hay una cosa muy buena en el mundo que es que el enemigo de tu enemigo es mi amigo y con lo cual estos dos sean unido para putear a Open Ai y básicamente lo que están es que Zuckerberg con meta se ha sumado eh apoyando
la demanda de hilo más contra la versión eh No Non profit la parte que está intentando dejar de ser una ong de Open Ai la historia está en que Open Ai lo explicado un millón de veces se creó de una forma un poco rara se creó siendo una especie de ong en el que no tenía un un motivo de ganar dinero como misión de la empresa y a partir de ahí han visto que eso les complica mucho la vida a nivel de inversores a nivel de etcétera pues lo que han decidido es hacer una variación
y lo han anunciado varias veces ya van a dejar de ser una on para convertirse en una empresa tradicional Y a partir de ahí tener un brazo probablemente que haga el bien de la humanidad bueno en cualquier caso eh elon musk lleva cuatro demandas este año diciendo que no pueden hacer eso porque esto era una ong y ahora no puede desc convertirse con todos los beneficios Fiscales que han tenido y que les ha permitido llegar a donde están y de otra forma no hubiesen llegado etcétera etcétera Pues bien resulta que ahora Zuckerberg se suma a
no es que se sume la demanda pero apoya con una carta al gobernador diciendo que y más tiene el interés de California en mente cuando habla de lo que habla y al final lo que quieren estos es putear a Open desde luego yo no quito valor en que tienen razón y que Open no ha hecho las cosas bien pero la realidad es que elon masx no parece que sea aquí el paladín de turno y no parece que sea el tío más eh que sea más objetivo en toda esta situación Porque primero tiene un problema personal
con Sam alman que te cagas o sea tiene un problema absolutamente increíble con él Y en segundo lugar además tiene intereses económicos muy vinculados porque el tío tiene una empresa de Inteligencia artificial con lo cual no me parece que sea la persona adecuada para llevar a cabo esta demanda Y desde luego vamos a ver cómo va Open ni corto ni perezoso ha decidido hacer un sálvame delux en toda recla en medio de esta Hola de Grandes emprendedores de la Inteligencia artificial y grandes empresas con miles de millones invertidos y se han marcado un salvame deux
publicando todos los puñeteros y mails que han tenido de intercambio entre elon musk Sam altman Greg brockman y todas las la gente de Open y sacan al relucir la hipocresía de elon musk donde dejan clarísimo que desde 2017 elon Mask proponía que Open dejase de ser una ong de hecho desde el principio en su Constitución elon mus cuestionó ese formato y dijo que no era viable y que habría que cambiarlo pues señor yon mas ahora lo están intentando cambiar y usted no les deja porque le han sacado de la partida en cualquier caso desde luego
vamos a ver cómo acaba esto pero no tiene muy buena pinta para Open Ai aunque también hay que decir que elon Mask lleva cuatro demandas pero no os olvidéis que elon Mask a partir de enero está en la casa blanca y con lo cual tiene pinta de que Open Ai las va a tener crudas con un enemigo dentro del gobierno bien y buenas noticias para España y sobre todo para Barcelona Barcelona será una de las siete fábricas de Inteligencia artificial de Europa resulta que el Barcelona super computing Center ha recibido una bueno ha conseguido posicionarse
para ser una de las siete elegidos que recibirán una inversión millonaria para desarrollar modelos de Inteligencia artificial para empresas no solo para desarrollo Eso quiere decir que básicamente les van a dar 200 kg entre la inversión del gobierno del gobierno de Cataluña y de los fondos europeos para poder conseguir que algunos centros en Europa puedan ayudar a las empresas pequeñas medianas y grandes a desarrollar modelos propios de Inteligencia artificial yo tengo una duda Y es que evidentemente eso de construir tu propio modelo no me parece que sea el camino más adecuado viendo lo que está
saliendo en el mercado competitivo de los modelos grandes Es cierto que para ciertos aplicativos No necesitamos chat gpt 4 o gemini 2.0 ni mucho menos y podemos hacerlo con modelos mucho más pequeños y no tenemos los centros de datos en cada empresa para poder entrenar esos modelos desde luego eso puede ser una función muy útil Pero la realidad es que cuando hablamos de que esto lo va a hacer literalmente sin querer ch gpt 5 o seis pues realmente no le veo mucho el sentido en la parte empresarial siempre ha habido dos filosofías Buy it or
build it es decir comprarlo construirlo y sinceramente en esta revolución de la Inteligencia artificial me da la sensación que estamos viendo un modelo de bite or bite es decir comprarlo o comprarlo porque no vamos a poder competir ni remotamente ni con este tipo de centros gubernamentales con lo que están haciendo las grandes empresas privadas pensad que esos 200 millones que le llegan al Barcelona super computing Center que es una gente muy muy buena que hace un trabajo espectacular son una ínfima miseria Comparado con los 100,000 millones de dólares que se rumorea que Microsoft se va
a gastar en un superordenador para entrenar Inteligencia artificial 200 millones contra 100,000 millones creéis que realmente van a poder hacer algo que aporte valor a la comunidad de las empresas Pues no lo sé sinceramente yo creo que aquí tenemos que ir a lo que vengo diciendo a convertir la ía en infraestructura Y si para eso estas empresas se tienen que forrar con ello que se forren que el coste no sea prohibitivo para las empresas para poder disfrutar del servicio pero creo que es muy complicado que ningún gobierno de forma directa pueda crear modelos que compitan
con las grandes tecnológicas que ya están muy por delante y que probablemente va a ser difícil que puedan llegar a más aún y así Felicidades al Barcelona computing Center porque desde luego hacer un trabajo encomiable y estos 200 millones van a servir para poder invertir en infraestructura para poder entrenar modelos de Inteligencia artificial mejores ordenadores etcétera Pero además también en personal en poder atraer talento a trabajar que quizá pueden hacer descubrimientos que puedan lanzar a la comunidad Open source Y hacer que todos en global avancemos más en la Inteligencia artificial bien Por si fue poco
esta semana también ha aparecido Willow de Google que sabéis que es un nuevo chip de temas de computación cuántica como sabéis se ha hecho mucho bombo y platillo se ha anunciado que puede hacer en unos pocos minutos un cálculo que en la historia de la humanidad no se podía haber hecho con un ordenador tradicional etcétera bien Nosotros hemos consultado porque la cuántica no es lo mío como bien sabéis y en esto de la ia tampoco tiene mucho que ver aquí pero sé que es una noticia que os preocupa muchos y hemos consultado a la torre
a nuestro experto en cuántica que estuvo en el podcast hace unas cuantas semanas y que me parece que es uno de los tíos que más sabe de física cuántica del mundo por eso es director del centro de física cuántica de Singapur y de abu dhabi Pues bien nos ha dicho que mucho marketing y pocas nueces que el iba muy por detrás Y con esto se ha posicionado es un paso en la dirección correcta y realmente han hecho algo Bastante espectacular pero nada que no fuese ya existie en otras marcas en otros productos y que realmente
no es algo tan bestia como parece por los anuncios de Google Así que relajaros que no va a romper bitcoin ni nada por el estilo y tranquilizar que no es más que un paso más en la dirección correcta de la física cuántica pero a esto le quedan años lo que sí que es brutal son estas dos noticias de tecnología y ciencia la primera se han inventado unos chips que que están linadiaa estar comunicándose entre ellos por vía óptica y no por vía eléctrica y resulta que esa vía es mucho más rápida hasta 80 veces más
rápida la transmisión de datos esto podría suponer que pudieramos entrenar modelos de Inteligencia artificial muy grandes en mucho menos tiempo es decir los modelos que hasta ahora están llevando meses de entrenamiento podrían pasar a llevar tan solo semanas es absolutamente brutal Este descubrimiento vamos a ver cómo se acaba implantando porque obviamente cambia toda la infraestructura de chips que tenemos no va a ser de hoy para mañana pero desde luego parece que por aquí también vamos avanzando de una forma muy Bestia y ojo a esta otra noticia de ciencia resulta que han desarrollado un nuevo framework
de Inteligencia artificial que puede descubrir nuevas formas experimentales en microscopia y que funciona hasta 10.000 veces más rápido que los métodos establecidos evidentemente esto se escapa mi conocimiento de lejos Pero para que os hais una idea es otra noticia en el mundo de la ciencia donde de repente la Inteligencia artificial no solo mejora Un poco lo que venimos haciendo los humanos sino que lo hace hasta cuatro veces en cuatro fracciones de magnitud superior es decir hasta 10,000 veces mejor de lo que teníamos hasta ahora 10,000 veces mejor es una puñetera locura esto se va viendo
constantemente en diferentes áreas y cada vez lo vemos en más y es solo posible gracias a la Inteligencia artificial si alguno quiere profundizar más en el tema os dejo el artículo en Science Daily pero también lo tenéis en nature y en otras webs de de ciencia porque esto realmente ha sido algo bastante bastante potente bien para terminar si habéis tenido pocas noticias por hoy os voy a dejar de veres os voy a dejar un artículo muy interesante en que hablan con Joshua benio sobre los peligros que supuse esta nueva fase de la agencia que nos
hemos encontrado en la que nos vamos a encontrar desplegados en 2025 básicamente donde van a aparecer agentes para todo y por todos lados pues bien tenéis este artículo es muy interesante se titula los agentes con más autonomía que los chatbots están viniendo algunos problemas se avivan y eso es lo que dicen los expertos en seguridad de Inteligencia artificial si lo queréis leer os lo recomiendo muchísimo explica muy bien lo que es un agente lo que va a suponer Y cómo nos puede afectar de una forma preocupante Así que os dejo esta lectura como deberes y
hasta aquí el vídeo de hoy recordar que tenemos el club de la guía abierto tenéis link en la descripción y espero que esta semana sea un poco más tranquila pero tengo muchas dudas creo que la semana más bestia Aún está por venir este año 2024 nos vemos en el próximo vídeo Gracias por estar ahí to
Copyright © 2025. Made with ♥ in London by YTScribe.com