Open Ai ha dado comienzo a su temporada de anuncios con un plato fuerte la versión definitiva de su modelo de razonamiento o1 anteriormente conocido como el modelo o1 preview un nuevo modelo que como ya hemos comentado con anterioridad pues lo que pone sobre la mesa es una nueva forma de trabajar donde el modelo ahora puede dedicar más tiempo de computación para llegar a mejores soluciones otorgándole por tanto pues más inteligencia que los modelos gpt 4 anteriores Y desde septiembre que vimos la aparición del modelo uno preview pues sabíamos que Open Ai iba a sacar una
versión definitiva de este modelo pero lo que no esperábamos es que también fueran a sacar el día de hoy una versión modo Pro o1 modo Pro Ese es su nombre y Qué tiene de novedad esta nueva versión del modelo o1 Bueno pues si estamos diciendo que estos modelos se benefician de poder pensar más tiempo de dedicar más tiempo de computación Pues en el modo Pro Open Ai nos ofrece justamente esto un modelo que piensa más tiempo y que por por tanto va a tener un mejor rendimiento para problemas más difíciles a un módico precio de
$200 al mes unos 220 haciendo un cambio un poco raro en Europa y como sé que todos os estáis preguntando si realmente este modo Pro rinde lo suficiente como para justificar este precio Pues yo he hecho el desembolso y he estado haciendo diferentes pruebas comparando el modelo o1 el modelo que todos podéis utilizar dentro del chat gpt Plus con este nuevo modelo o1 pro y ahora pu pues quiero que saquemos en conjunto las conclusiones vamos a ello cuando entréis ahora en chat gpt Vais a encontrar aquí arriba en el selector de modelos la nueva versión
o1 ya no tiene la coletilla o1 previo esto viene en conjunto con el modelo que ya teníamos o1 mini que nos dicen aquí que es el más rápido razonando y si sois usuarios de pago en el modo Pro que son estos $200 al mes os aparecerá también este modelo o1 Pro mod entonces para recordar las diferencias cuando trabajamos con modelos o un estos modelos van a dedicar tiempo a pensar Pues si por ejemplo le ponemos escribe un listado de 10 frases que solo usen las letras de la palabra strawberry Vale pues le damos a enviar
y Vais a ver que aquí aparece la coletilla thinking de los modelos o1 y en este caso pues el modelo estaría pensando cómo plantear estas frases con las letras estaría comprobando que la respuesta que nos va a dar es correcta es decir está dedicando este tiempo de computación a darnos una mejor respuesta y aquí una cosa una novedad de lo que ha presentado Open Ai hoy es que el modelo piensa más rápido un 50% más rápido que el modelo o1 preview lo cual Pues también Es una muy buena noticia porque más rápido pues más densidad
de inteligencia podemos conseguir en un mismo periodo de tiempo y en este caso pues tras haber pensado 24 segundos nos ha dado unas 10 frases que creo que están correctas utilizando las letras de la palabra strawberry esto Cómo se compara con los modelos pues gpt 4 pues estos modelos Ya sabéis que son instantáneos si yo le pongo el prompt el modelo no se para pensar sino que directamente se lanza a responder lo cual para según Qué problemas pues puede ser más o menos deseable en este caso pues creo que la respuesta es correcta pero para
otros problemas pues por ejemplo de matemática de razonamiento lógico este tipo de respuestas instantáneas pues no suelen ser deseables y ahora si nos vamos al otro lado del espectro si nos vamos al modelo o1 promote pues este modelo sí va a ser capaz de nuevo de volver a pensar e incluso dedicar más tiempo si fuera necesario si le damos a enviar Vais a comprobar que la interfaz es un poquito diferente y nos aparece esta especie de barra de carga que bueno pues viene a ser como el tiempo máximo de computación que entiendo Este modelo podría
dedicar y mi sensación es que incluso si no fuera necesario el modelo va a dedicar más tiempo vale en el caso anterior pues hemos visto que o1 tradicional ha dedicado 24 segundos un problema que no es tan complejo Y en este caso pues creo que el modelo va a tardar un poco más porque creo que están orientando este tipo de modo Pro justamente a eso a No te preocupes tanto porque el modelo responda rápido sino preocúpate porque el modelo responda bien Y de ahí pues creo que viene Este cambio de interfaz y ahora sí tras
haber esperado bastante tiempo la verdad que ha dedicado más tiempo de lo que creo que tocaba o sea Comparado con lo que ha tardado en otros problemas este se le ha hecho un poco bola 2 minutos 16 segundos pues nos ha dado la respuesta que estábamos buscando con esto ya tenéis una idea de lo que aporta cada modelo gpt 4o o1 o1 promote y y ahora pues os quiero enseñar alguna de las pruebas que he ido haciendo porque ciertamente Este modelo o1 Pro Mode Me parece muy interesante porque a día de hoy sería la vanguardia
de lo más avanzado que tenemos en Inteligencia artificial en materia de llms es decir tenemos un modelo que va a dedicar tiempo de computación y además que Open Ai nos ha habilitado para que pueda pensar más tiempo eso significa que hasta que aparezca un gpt 4.5 un gpt 5 Esto es lo más avanzado que tenemos y para ello quiero enseñaros varios ejemplos que he estado probando hoy y en ese sentido hay que comentar que bueno estos modelos sobre todo van a funcionar mejor para problemas técnicos vale la demo que hacho Oy Open Ai nos hablaban
de poner un Data Center en el espacio y hacer cálculos matemáticos para demostrarlos nos planteaban un problema biomédico de proteínas y en este caso pues como podéis ver aquí tanto el modelo o1 o el modelo eh Pro vale podéis ver que para un problema de este tipo Pues un problema de teoría de conjuntos y probabilidad está un minuto y 23 segundos pensando y te hace una demostración perfecta vale Y he comprobado la respuesta esta era un un promt que un usuario en Twitter estaba preguntando la respuesta que él planteaba era 19 efectivamente Este modelo lo
consigue he estado comparándolo con clot sonet 3.5 he estado comparándolo con gpt 4o y no llegan a esta respuesta Lo cual pues ya marca una diferencia Qué sucede que estos ejemplos siendo más prácticos y siendo más eh de uso real de esta tecnología para un vídeo como este no tiene sentido plantearlos porque ni yo tengo la capacidad técnica de comprobar si la cadena de razonamiento es correcta si es incorrecta si el resultado es correcto con lo cual pues vamos a estar viendo algunos ejemplos que son un poco más tontos Pero igualmente interesantes para demostrar las
capacidades de este modelo y este tipo de ejemplos pues ya lo habéis visto en vídeos anteriores la semana pasada estuvimos hablando del modelo chino que justamente implementa este paradigma del test Time compute y una de las pruebas que vimos que no funcionaban muy interesante porque era una prueba que también o1 preview fallaba era justamente esta era el prom de Dame un listado de provincias españolas que contengan ia en su nombre pero no al final de la palabra vale Este es un problema que si lo planteáis pues listá todas las provincias de España y con esto
pues acabáis descartando todas las que acaban en ia y esto debería de darte Pues un razonamiento como el que vemos aquí fijaos que el modelo empieza a razonar este es el modelo o1 y al final acaba llegando a la respuesta correcta que es que la única provincia es asturia respuesta que que tanto el modelo 1 como el modelo o1 Pro en este caso pensando durante 58 segundos Pues nos la da de forma correcta y que es muy interesante porque como digo la semana pasada el modelo o1 preview este prompt lo fallaba con lo cual Pues
aquí tenemos una primera demostración de que al menos estos modelos son un poquito mejor a lo que teníamos anteriormente con otro prompt de los que típicamente utilizamos que es este de aquí Si a medianoche en Madrid está lloviendo podría 24 horas después estar soleado en Barcelona el modelo o1 vale el modelo normal nos responde que sí que es perfectamente posible Madrid y Barcelona a pesar de encontrarse en el mismo país tienen condiciones climáticas y patrones meteorológicos que pueden diferir bla bla bla Y si a medianoche en Madrid está lloviendo a las 24 horas Barcelona podría
encontrarse bajo influencia de un sistema de alta presión dando lugar a un día soleado pero no puede ser porque hemos dicho que era medianoche algo que el modelo o1 promote pensando 22 segundos la respuesta anterior de o1 era solamente 2 segundos pero era incorrecta dedicando 22 segundos Aquí sí el modelo se da cuenta de que no es posible ambas ciudades Madrid y Barcelona se encuentran en la misma zona horaria Y si en Madrid es medianoche y está lloviendo dentro de 24 horas seguirá siendo medianoche tanto en Madrid como en Barcelona ya que no existe ningún
defas horario significativo entre ellas y dado que a medianoche no hay luz solar pues no puede estar soleado en Barcelona a esa hora gran demostración de lo que 20 segundos más y 00 pueden hacer a tu modelo otro ejemplo mítico el típico promt de la pelotita de pingpong vale Ya os lo conocéis de memoria lo hemos visto en muchas ocasiones tenemos una pelota de pingpong dentro de un vaso relleno de agua lo metemos en el congelador 5 segundos giramos el vaso boca abajo 180 gr sacamos el vaso Dónde está la pelota En el congelador porque
no se ha congelado Y en este caso el modelo o1 se equivoca se equivoca porque nos dice dice que aunque está solo 5 segundos pues en ese breve tiempo es posible que de forma ligera se crea una capa de hielo en la superficie del agua que hace que al girarlo la pelota flote para arriba no es correcto vale en 5 segundos el congelador no va a ser capaz de generarte una capa suficiente como para mantener el peso del agua con lo cual esta respuesta es incorrecta habiendo pensado 10 segundos si nos vamos al modo Pro
vale Vais a ver Aquí dando un pensamiento de 36 segundos dedicando más tiempo para pensar de forma escueta y sin tanto lío nos dice que si el vaso no se ha tapado y solo estuvo 5 segundos En el congelador tiempo insuficiente para congelar el agua al girarlo 180 gr boca abajo la gravedad hará que el agua y la pelota de Ping pong se derramen por lo tanto la pelota de pingpong ya no estará dentro de él y lo más probable es que esté en el fondo del congelador o se haya caído en el lugar donde
realizastes el giro esto es una demostración de modelos que empiezan a razonar como toca y ya Serían dos ejemplos donde el modo Pro pues estaría por encima del modelo o1 Carlos significa esto que ahora estos modelos razonan de forma sobrehumana Por ejemplo si le damos una prueba como el arc que sabemos que es este benchmark que todavía la ia se la atraganta mucho y que está dicho que bueno si se resolviera podría ser una demostración de una ag y bla bla bla no y no porque he hecho la prueba vale fijaos aquí tenéis un prompt
aquí un poquito más complejo pero muy interesante dónde le he pasado la prueba diaria de este benchmark de de arc un benchmark donde se presentan pues pruebas muy diversas como esta que vemos aquí donde Pues el input sería los paneles que tenemos a la izquierda pues este sería un ejemplo de input output input output input output y sobre esto Pues tú tienes que encontrar una lógica una lógica que luego aplicada sobre este input genere un nuevo output os dejo 5inco segundos de Test Time compute para que resolva este asertijo vale Sí lo tenemos lo tenemos
y una vez lo habéis resuelto pues os daréis cuenta de que la lógica en este caso es que la barra roja actúa como suelo y nos indica la caída de la gravedad No pues si todas estas piezas cayeran como si fuera un Tetris se colocarían de esta forma si en este caso este fuera el suelo y la gravedad estuviera hacia la izquierda pues caería de esta forma y viceversa si estuviera la barra a la derecha pues caería de esta forma con lo cual la resolución de este problema Sería que la barra roja está aquí arriba
con lo cual las piezas caen hacia arriba y esto nos daría un patrón que tendríamos que dibujar aquí a derecha lo interesante de esto es que con esta captura podemos evaluar también otra novedad de los modelos o un que han presentado hoy y es la multimodalidad es decir el poder darle como input no solo texto sino en este caso también imágenes imágenes que el modelo va a analizar y va a utilizar para poder razonar la respuesta siendo así le he pasado esta captura y le he pedido analizando los ejemplos de la izquierda podrías resolver el
ejemplo de la derecha Dame indicaciones sobre qué color debería de colocar en cada cuadrado para resolver la cuadrícula y me ha parecido muy interesante porque el modo Pro ya os adelanto que también el modelo o1 falla los dos tienen el mismo comportamiento que vamos a comentar y es el siguiente Y es que el modelo sí consigue entender cuál es el patrón que está detrás de la cuadrícula es decir sí consigue resolver al menos en abstracto el problema que le hemos planteado fijaos dice observando los ejemplos Se aprecia un patrón la línea roja indica una referencia
contra la cual caen o se agrupan todas las piezas de colores en cada ejemplo los bloques se desplazan hasta quedar yacente la línea roja sin espacios entre ellos y dicha línea preservando el orden original de las piezas en cada columna vale Y luego nos Explica cómo podríamos resolverlo paso a paso identifica que el tablero de 10 por 10 identifica la fila roja para cada columna procede así de arriba a abajo bla bla bla es decir te da un procedimiento para poder resolverlo Dónde está el fallo Pues el fallo está luego a la hora de terminar
de interpretar la cuadrícula vale yo le pido aquí que basado en los colores me genere un patrón me ha dado este patrón fijaos que bast an bien ordenado yo esto lo he trasladado luego a la herramienta y la respuesta que teníamos era esta de aquí vale que no tiene nada de sentido pues por ejemplo este bloque de dos píxeles aquí lo convierto en un bloque de tres y luego el resto de colores pues no tiene mucho sentido y esto os vais a dar cuenta que es un problema que creo que viene de la parte de
Visión Es decir el modelo puede dedicar tiempo de computación a razonar bien su respuesta pero en este proceso de razonamiento mi sensación es que no no dedica más computación a ver mejor la imagen con la que está trabajando haciendo que en muchos casos acabe alucinando detalles que no hay como por ejemplo no entender cómo es la distribución de bloques de colores de la imagen que le hemos pasado como input siendo así pues el modelo sí se equivoca pero se equivoca razonando bien y esto Me parece muy interesante porque justo estamos a vísperas de que mañana
saquen el análisis del la competición de arc agi de este benchmark que estamos comentando aquí donde se han conseguido muy buenos resultados Durante este año que creo que ahora Se podrían ver beneficiado si en cierta parte de su forma de implementar estas soluciones integraran modelos de razonamiento como o1 que pueda plantear hipótesis sobre cómo se resuelve un problema y luego con técnicas más tradicionales Pues implementar esa solución en la cuadrícula porque como hemos comentado y como vamos a ver ahora en este conjunto de problemas que vemos que el modelo falla en muchos casos creo que
el mayor limitante es esta novedad de la parte de visión que alucina muchos detalles he probado a darle al modelo un rinto sencillo fácil de resolver si bajamos por Aquí bajamos por aquí subimos por acá por aquí por aquí por acá bajamos por aquí y acabado vale en cuestión de 5 segundos en una visión a la imagen pues es fácil moverse por el laberinto y le he pedido que lo resuelva que la entrada se encuentre en la parte superior que devuelva un listado con las indicaciones de dirección representado como flechas y en este sentido entiende
Lo que le hemos pedido piensa durante un minuto pero fijaos que la secuencia de direcciones que nota pues es una flecha para abajo una flecha para la derecha una para abajo y esto ya no tiene nada de sentido con el esquema de nuestro laberinto de nuevo creo que es una limitación de la parte de visión aún así no es del todo un limitante tal y como vamos a ver en estos ejemplos de aquí que de nuevo van a demostrar la diferencia entre el modelo o un y el Pro Mode un ejemplo que conecta con la
historia de la Inteligencia artificial porque sí vamos a hablar de ajedres El ajedres por lo que he podido comprobar con el modelo o1 preview y en este caso con el modelo o1 pues es un tema que todavía se le atraganta bastante a los modelos de razonamiento que deberían de poder operar mejor con esta información juego con reglas cerradas Debería ser fácil para una inteligencia de estas características y cuando cogemos un problema de ajedrez Tan sencillo como este un problema básico y le pedimos a laa que lo intente resolver en este caso mueve blancas y tenemos
que buscar el mejor movimiento donde en este caso el movimiento sería pues mover la reina aquí arriba para ser jacke forzar a mover al rey y por tanto comerte esta Torre si nos fijamos el modelo o1 piensa durante 24 segundos y nos dice que la jugada clave es mover F7 vale mover F7 es mover este Peón de aquí que nos dice que lo movamos entiendo aquí vale una jugada que no tiene sentido porque tenemos un peón de frente o sea no podemos ocupar esa casilla porque ya está ocupada No sería un ejemplo de nuevo de
un fallo de visión del modelo hasta aquí pues o1 sería un poco decepcionante y se lo vamos a chagar como digo a esta a este fallo de visión pero con el modelo promote pues empezamos a ver cosas diferentes fijaos le pasa la misma partida el mismo ejemplo y le decimos que cuál sería el mejor movimiento para blancas y en este caso piensa durante 1 minuto 38 segundos y la respuesta que da es muy buena la respuesta nos dice analicemos la posición con cuidado las blancas tienen una dama en h6 y un peón muy avanzado en
f6 dama y Peón lo que generalmente sugiere la posibilidad de un ataque de decisivo contra El Rey negro en el centro el rey negro está en e8 rodeado de sus propias piezas y con pocas casillas de escape el Peón blanco tatata nos hace una buena descripción del tablero y luego aquí nos dice que la jugada más contundente sería dama a h8 dama h8 significaría pues mover la dama aquí efectivamente haciendo jacke para luego comernos la torre algo que el propio modelo nos justifica nos dice Por qué dh8 este hacke aprovecha la mala situación del Rey
negro en o y la dama al situarse aquí pue jacke por la octava fila el rey negro no puede ir a F7 controlado por el Peón en f6 no puede interponerse fácilmente vale pero espérate a ver porque el Peón en f6 en este caso claro No puedes moverte F7 Pero porque está el Peón tu propio Peón vale esto sería incorrecto Y de nuevo sería la misma alucinación que hemos visto antes yo esto cuando lo he leído anteriormente cuando se ha generado pensaba que estaba correcto pero ahora me estoy fijando que en realidad no lo está
porque aquí de hecho luego comenta que una vez se desplaza el rey pues las blancas Pueden seguir con una serie de hackes pero no habla de comerse a la torre que tenemos aquí con lo cual realmente no Este ejemplo el primero que de hecho era un ejemplo básico pues no era correcto Aunque antes he pensado que sí pero ahora me estoy dando cuenta que no pero bueno Luego he continuado la conversación dándole más ejemplos y de hecho ejemplos ya de nivel un poquito más avanzado en este caso nivel medio y le pregunto lo mismo cuál
sería el mejor movimiento para blancas y en este caso si lo analizamos un poquito pues la jugada más más interesante sería mover la torre comerte este caballo y en este caso pues si el rey decide pues comerte la torre tú puedes avanzar para eh coronar el el Peón entonces siendo esto así el modelo nos dice que efectivamente la jugada más contundente y directa para lograr esto sería Torre a f5 que sería justamente la posición que estábamos comentando y luego continúa explicándonos Por qué Y aquí vuelve a cometer un error dice Esta es una entrega de
calidad temporal ya que después de eh mover el pe a f5 o el Rey a f5 por parte de las negras pues podríamos coronar Dónde está el error pues que nos dice que lo podemos hacer moviendo el rey a esta posición o moviendo este Peón negro a esta posición lo cual de nuevo no es correcto vale los peones no pueden avanzar hacia atrás esto sería un error por parte del modelo y luego hay un tercer ejemplo que sería Este ejemplo de Aquí también un ejemplo de dificultad intermedia y que en este caso Sí ya adelanto
que el modelo no ha sabido resolver de forma correcta con lo cual tres problemas que yo yo creía que estaban resueltos dos de tres pues al final se han convertido en uno de tres con algún fallo Incluso el que está correcto Así que vamos a dejar que no todavía la ajedrez no es una cosa que estas sillas puedan dominar bien aunque estaría bien hacer la eh prueba Pues con un tablero que esté directamente pasado como texto más que una imagen para evitar esta parte esta componente de las alucinaciones visuales pero si nos quedamos en el
terreno del texto estos modelos funcionan muy bien en este caso tanto el modelo nuevo o un como el modelo Pro le he pedido que me redactara una oración que tuviera sentido vale cierto sentido porque al final la restricción que le vamos a poner es bastante compleja porque le vamos a pedir que sea palindroma y que nunca se haya escrito antes una frase palindroma ya sabéis que se lea igual de principio a final y en este caso el modelo tras pensar 2 minutos 17 segundos nos dice somos seres oros seres somos que es una frase que
podemos leer tanto para acá como para acá y la frase no está mal pero es un poquito tramposa Porque si os dais cuenta la ha construido a partir de usar pues las mismas palabras que son palabras que además son palíndromas entre ellas no ha abusado de de de esta propiedad y entonces pues somos seres oro seres somos son palabras palíndromas y concatenando estas palabras palíndromas manteniendo la estructura Pues consegues un texto efectivamente palíndromo Y aquí por tanto de nuevo le concedo al modelo Pro Pues el haber conseguido una respuesta esta un poquito más original fijaos
pensando 3 minutos un poquito más nos ha llegado la frase amar a la luz azul a la rama que tampoco es una frase que tenga mucho sentido Pero como digo pues estamos poniendo una restricción bastante dura pero es una frase que sí es correcta vale amar a la luz azul a la rama vale sería una frase que podemos leer de principio a fin o viceversa Y en este caso pues creo que el modelo promote hace un mejor trabajo y con esto estamos comprobando que estos modelos van más más allá si hacéis estas pruebas con modelos
como gpt 4o con clot sonet os vais a encontrar que muchos de los prompts que nos están funcionando con esos modelos fallan Y esto es una buena noticia porque vendría a significar que este nuevo paradigma funciona pero que funcione no significa que todavía sea perfecto fijaos Qué interesante este error donde si le pedimos al modelo que escriba primero la palabra pangolín 10 veces y luego que nos responda a la famosa pregunta de qué número es mayor que sabemos que es una pregunta que por un tema de overfitting por un tema de relación con Cómo se
ordena la Biblia que esto se ha descubierto pues suele tener tendencia decir que 9,11 es mayor a 9,8 sabemos que este error se había resuelto Pues con los modelos gpt 4o a partir de hacer fine tuning seguramente Y en este caso el modelo un lo responde bien vale nos pone 10 veces la palabra pangolín y luego nos responde que Efectivamente 9,8 es mayor que 9,11 pero luego el modelo Pro si le pedimos lo mismo fijaos pangolín pangolín p pangolín bla bla bla el número 99,11 es mayor que 9,8 es decir un modelo que te Construye
un palindromo creativo nuevo original de repente con un problema tan tonto como este se le atraganta y esto pues lo que nos indica es que todavía queda mucho margen de mejora para hac de estos modelos herramientas fiables aún así que esto nos haga pensar que estamos ante modelos que no bueno representan un salto de inteligencia hacia adante quiero que os fijéis en este ejemplo de aquí porque es quizás de los más impresionantes que vamos a ver hoy y sería pues descifrar el siguiente código sería un criptograma donde si tú vas probando diferentes combinaciones de letras
y estudias los patrones de las palabras pues acabará llegando un mensaje en inglés y en este caso Este es un problema que el modelo o1 pues se lo he dado a pensar y ha estado 2 minutos 43 segundos ojo para llegar pues a una conclusión que es incorrecta vale nos ha llegado con una frase del Zelda de It is dangerous to go Alone Take this pero ya os digo yo que esta no es la frase correcta porque empieza con dos letras luego dos letras y si os fijáis al principio Pues aquí el patrón es de
dos letras y luego una pero es que amigos Este es el modelo o1 Qué pasa si dejamos que el modelo piense por más tiempo Pues si le damos esto al modo Pro fijaos que he conseguido que esté pensando 5 minutos 5 minutos de computación que hace que el modelo sin explicar exp arme un desarrollo super complejo directamente me responda que el mensaje descifrado en inglés es If I Wanted to make a statement I would Just say so frase que si me vengo a la web del criptograma donde lo he sacado y escribo aquí la respuesta
nos lo da por correcto vale tras 5 minutos pensando el modelo por primera vez con todos estos modelos que he estado probando ha sido capaz de encontrar la respuesta a este código y esto me parece importante importante porque demuestra que el paradigma de dedicar más tiempo de computación funciona y fijados luego qué interesante que también le he puesto aquí Pues un mensaje de quería dejar la URL en este chat vale para luego hacer la prueba y quería comprobar si habiendo el modelo pensado durante 5 minutos Luego tendría tendencia a una respuesta que debería ser inmediata
pues dedicarle más tiempo de computación y fijaos que no que ha pensado aquí arriba 5 minutos pero para est entendido que solamente tenía que dedicar 5 segundos para decirnos entendido no haré nada con ello con igual chicos chicas aquí tenéis unos cuantos ejemplos para ir planteando vuestras conclusiones es o1 pro Mode un modelo que esté por encima del modelo o1 que todos tenéis disponibles en ch gpt Plus Sí ahora la pregunta del millón es un modelo que justifique su precio estos 200 que Open Ai nos ha puesto que hoy no nos ha asustado a todo
el mundo pues mi respuesta es que no no creo que todavía esto sea un modelo que a la mayoría de todos vosotros os vaya a dar algo que no podáis conseguir ya con el modelo Plus pensad que estos modelos están destinados a ser modelos para resolver problemas muy técnicos muy complejos de programación vale pero seguramente a través de herramientas como cursor donde ya tenéis planes de pagos podréis acceder de alguna forma a estos modelos cuando lo habiliten en la Api problemas de razonamiento matemático problemas de razonamiento lógico si sois gente que tengáis un perfil profesional
donde esto pues pueda ser de ayuda y además suponga un valor para vosotros que justifica ese precio adelante pillad lo pero para la mayoría de vosotros pues Chad gpt Plus con $2 al mes Con acceso al modelo o1 que es una mejora sobre el modelo o1 preview que es una mejora sobre el modelo gpt 4o es más que suficiente Y si lo que os interesa del modo pro es simplemente acceder a los modelos con mayor límite de uso pues podéis acceder a través de la app y con herramientas dedicadas a ello o simplemente tener varias
cuentas donde podéis pagar 20 40 o 0 y ya está escalando vuestros costes con vuestras necesidades de uso dicho esto y quitando los 200 del medio este nuevo modelo Me parece muy interesante porque como hemos visto Durante este vídeo creo que empieza a justificar empieza a demostrarnos esta nueva tendencia este nuevo paradigma del test Time compute que promete pues ser el futuro de la Inteligencia artificial Al menos que nos propone openi Este ha sido el análisis del día 1 de este calendario de novedades que Open Ai nos va a traer en las próximas semanas y
todas las novedades que ocurran todo lo que esté por salir Lo iremos comentando aquí en dod SV lab si te ha gustado el vídeo compartelo tienes un par de vídeos más por aquí tienes por ejemplo la implementación china del modelo o1 que estuvimos evaluando la semana pasada muy interesante y chicos chicas nos vemos con más Inteligencia artificial aquí en dots SV lab chao