Bienvenidos a este curso gratuito de Iniciación a la Inteligencia Artificial. Este curso está patrocinado, por supuesto, por RPG de escuela. ¿Y por qué hemos decidido hacer este curso? Bueno, la verdad es que la mayoría de nuestros alumnos y las personas que integran nuestra comunidad están muy perdidos. No saben por dónde empezar con todo esto de la guía y otros tantos están tan abrumados por toda la cantidad de herramientas y herramientas que surgen todas las semanas que básicamente tampoco saben por dónde empezar. Sumado a que, lógicamente tienen que continuar con sus vidas y no tienen ese
tiempo para experimentar y probar y ver qué les puede aportar y qué no les puede aportar. Todo este tema de la inteligencia artificial. Así que con este curso te voy a orientar para que en cuanto lo termines ya puedas empezar a generar tus propias ideas gráficas y tus y a videos y vídeos que eso y tus vídeos. Este contenido es posible precisamente gracias al máster de Inteligencia Artificial que tenemos en RPG de escuela, donde ya contamos con más de 30 horas de formación en la fecha de grabación de este vídeo. Tenemos clases en directo todas
las semanas y vemos todas las herramientas que hay disponibles en el momento con muchísima profundidad, ahorrando precisamente a nuestros alumnos cientos de horas de investigación y experimentación. Y precisamente como es algo muy cambiante, cada vez que una herramienta se actualiza o aparece una completamente nueva, ahí estamos para enseñarla en primicia y así mantenernos todos totalmente actualizados. Y si quieres empezar esta clase con todas las herramientas previamente ya configuradas, tienes en la descripción un enlace para descargar un ebook donde te enseño a instalar estable difusión localmente en tu ordenador y a configurar mis Journey en Discord.
Respecto a este curso, recuerda que también abajo tienes el minutaje para poder ir seleccionando las partes que más te interesan o ir haciéndolo a tu ritmo, porque te aseguro que a continuación viene una gran cantidad de información si no tienes absolutamente ni idea. Así que vamos a ello. Ok, pues ya estamos aquí con la presentación de este curso. Ojo, no todo va a ser absolutamente teoría. Vas a aprender a generar también imágenes como Journey con este Stable Difusion con Leonardo y por supuesto también a generar vídeo con Ranway y Pica Labs. Eso ya te lo
adelanto que es interesante. Lo que pasa es que hay una parte teórica que tenemos que sí o sí abordar, puesto que es un curso de iniciación y gratuito a la inteligencia artificial. Vamos directamente con ello. ¿Bueno, pues qué es la inteligencia artificial? Ahora mismo te voy a dar una definición. ¿Y cómo funciona? Porque en definitiva, aquí tenemos dos palabras inteligencia artificial. Así que lo primero, que es la inteligencia. Bueno, pues según la RAE, la inteligencia es la capacidad de entender o comprender la capacidad de resolver problemas, conocimiento, comprensión, acto de entender, sentido en el que
se puede tomar una proposición, un dicho o una expresión, habilidad, destreza y experiencia. Todo esto son acepciones que puedes encontrar lógicamente en la página web de la RAE. Así que no me estoy inventando absolutamente nada. Esto es lo que dice la Real Academia de la Lengua Española. Bien. Por tanto, la inteligencia se refiere a la capacidad de adquirir y aplicar conocimiento, resolver problemas y aprender a adaptarse a nuevas situaciones y tomar decisiones basadas en la información disponible. Es una característica distintiva de los seres humanos y, en cierto grado, de otros organismos vivos. No hay diferentes
tipos de inteligencia. Lógicamente. ¿Entonces, qué es la inteligencia artificial? Bueno, pues la definición más consensuada con la que más está de acuerdo todo el mundo, porque a pesar de que la RAE define inteligencia, como acabamos de ver, realmente no hay un consenso sobre qué es realmente la inteligencia. Entonces, la inteligencia artificial se la define a nivel muy genérico, como una rama de la informática que se centra en crear sistemas y aplicaciones capaces de realizar tareas que requieren de inteligencia humana. Claro, esta definición es súper amplia. Imagínate entonces que se puede entender por inteligencia artificial, pues
los robots que tenemos en una fábrica haciendo coches, por ejemplo, porque eso básicamente está realizando tareas que requieren precisamente eso de inteligencia humana. Entonces, esta definición es muy amplia y tenemos que concretar un poquito más. ¿Básicamente es una tecnología que está inspirada en el funcionamiento del cerebro humano, así que cómo funciona? Bueno, aquí es donde entran las famosas redes neuronales. Imagina las redes neuronales básicamente como una red de nodos. Si estás familiarizado con Da Vinci, sabes a lo que me refiero. Que están conectados entre sí y además entre ellos. Pueden procesar información. Un nodo manda
información a otro, el otro también, a otros demás. Y entre todos ellos están comunicando constantemente entre sí. Esto, por supuesto, es algo muy, muy, muy básico. Entran aquí muchísimos más conceptos, pero para que te hagas una idea, sería como emular un cerebro humano dentro de una red de nodos totalmente digital. ¿Eso sí, tampoco tenemos conciencia plena de cómo funciona al 100% el cerebro humano, no? Pero hasta día de hoy, con lo que se sabe, podemos crear este tipo de tecnología. ¿Entonces, cómo funciona? Bueno, pues los nodos, como te digo aquí en la presentación, son como
neuronas, transmiten y comparten información entre ellas las neuronas de nuestro cerebro. Es lo que hacen. Después esta información se aprende por niveles y es aquí lo útil. Es decir, tenemos desde los más básicos y que luego esos nudos se van expandiendo. Pum, pum, pum, pum, pum. Vamos dando niveles de información donde efectivamente, desde conceptos muy básicos hasta capas más abstractas. Y lo bueno de aquí es que no hay límite de capas. Es decir, puede ser inmenso, puede ser infinito. ¿Cómo aprenden estas redes neuronales? Bueno, pues a partir de ejemplos les damos datos y datos y
les decimos cuál es la respuesta correcta, o por lo menos cuál debería ser. ¿Pero esto, imagínate, esto es muy, muy, muy tedioso, no? Alguien constantemente ahí, una persona diciendo esto sí es un pájaro, Esto sí es un perro. Esto no es un gato. Esto no es una cámara, esto no es un objetivo. Esto no es un ordenador. Y esto si es un ordenador, es un Imagínate entonces lo interesante es conseguir que estas redes neuronales aprendan 100% de forma automática. Y es aquí donde entra precisamente el famoso machine learning. Y no me voy a entretener, de
hecho en el machine learning, porque no quiero abrumarte con toda esta información teórica. Lo que quiero es que ya de ya puedas empezar a generar imágenes cuanto antes. Así que te voy a comentar algunos conceptos más básicos también respecto a todo esto. Y uno de ellos es el famoso espacio latente. ¿Seguramente te ha sonado, has visto algún vídeo y has dicho el espacio latente por aquí, el espacio latente por allá, y dices pero qué es el espacio latente? Bueno, es como una representación oculta de los datos que las redes neuronales pueden aprender. Esto es como
todas las imágenes posibles, todos los audios posibles, todos los vídeos posibles están ahí dentro, porque previamente y lógicamente, esa red neuronal ha sido entrenada con una serie de imágenes que ya existen preexistentes. Pero después, combinando todo eso, podrá generar más imágenes. Todas esas imágenes posibles están ahí, dentro de ese espacio latente. ¿Cómo funciona entonces? Básicamente una red neuronal dentro del espacio mente lo que puede agrupar es objetos similares y separar objetos diferentes. Es decir, es capaz de discernir a un nivel muy básico, conceptos también muy básicos, valga la redundancia, el espacio de la mente también
se le conoce como caja negra. ¿Y esto por qué es bueno? Pues porque no tenemos ni idea de cómo lo hace y además no nos interesa. Lo que nos interesa es lo qué hace, pero el cómo nos da exactamente igual. ¿Y después de esta breve introducción teórica, cuáles son las inteligencias artificiales que a día de hoy, tras más o menos unos dos años de que esto ha explotado? Porque por supuesto, la vida lleva muchísimo más tiempo entre nosotros, pero digamos que ha llegado a usuario, a nosotros, a los usuarios, de una forma totalmente abrumadora, nunca
mejor dicho. Bueno, pues las ideas más utilizadas son, por supuesto, siempre de cara a texto, mis diurnas de que la imagen esté difusión de cara, imagen y ojo vídeo. También tenemos extensiones que nos permiten hacer vídeo dentro de este tipo de difusión. Por si no lo sabías. Después también tenemos Leonardo es muy muy muy potente de cara imagen. Y por supuesto, en el apartado de vídeo tendríamos a Radwell, que es una de las fundadoras precisamente de esta difusión con sus modelos tienen uno y dos y después explica la Apps, que es una por el momento
totalmente gratuita, aunque yo creo que le queda más bien poco. Y por supuesto, también. Por último, tendríamos Kyle Labs de audio, después generadores de imágenes. Tenemos mogollón, un montón de aplicaciones, pero ya te adelanto que la mayoría de esas aplicaciones y generadores de imagen que puedes encontrar por ahí en forma de apps, en forma de web, como sea de pago o gratuitas, por lo general utilizan este tipo de difusión en su código, puesto que es una herramienta de código abierto que luego vamos a ver entonces que es un pronto. Seguramente hayas oído mucho esta palabra
durante estos últimos años. ¿Entonces, qué es? Bueno, pues en el contexto de la inteligencia artificial se refiere a la entrada de texto que le proporciona una persona, lógicamente un ser humano, al modelo para generar una respuesta o realizar una tarea específica. Eso es un blog. Así que si quieres hacer una captura de esta diapositiva porque te tiene que quedar muy clara esta definición, el prompt lo que hace es actuar como una instrucción o un estímulo que va a guiar la respuesta precisamente del modelo de inteligencia artificial. Es decir, en términos más detallados, puede ser una
instrucción o una pregunta, es decir, para solicitar información. ¿Por ejemplo, cuál es la capital de Francia? París. ¿Te responderá el modelo? No si está bien entrenado lógicamente, o explica la teoría de la relatividad. Pero ojo, le puedes decir que lo explique realmente para niños. Eso por ejemplo, lo podemos hacer en CPT y es muy interesante porque es capaz de adaptar su lenguaje algo más conciso, más fácil y en algo no tan técnico como puede ser explicar precisamente la teoría de la relatividad. Por supuesto, también puede ser un estímulo creativo, es decir, por ejemplo, un prompt
dentro de charge pt nos puede servir precisamente para generación de texto. Escribe un poema, escribe un rap. Esto se ha utilizado muchísimo o continúa una historia. A mí, por ejemplo, me pasa mucho que estoy bloqueado en este punto de la historia. ¿Cómo lo cuento? ¿Como sí o este personaje crees que aporta algo más? Aporta menos. ¿Qué puedo mejorar? Esto es muy interesante, precisamente de cara a utilizar GB Entonces, bueno, por supuesto, este estímulo creativo lo tenemos también muy presente. Las ideas generativas de imagen, donde tenemos que hacer el famoso ingeniero, no los ingenieros de prompt,
y ahí tenemos que saber como hablarle a la inteligencia artificial con un lenguaje más natural, menos natural, basado en tokens, etc Entonces, para datos de procesamiento, también en tareas más técnicas, el prom puede incluir datos e información específica que el modelo debe procesar, analizar o reformular, como por ejemplo la traducción de idiomas o la resolución de problemas matemáticos. Seguramente sabéis que CPT es capaz de ayudarnos en la programación porque hay que tenerlo en cuenta como un asistente y por eso hablo de ayudar, no como un solucionador de problemas, no como un sustituto, sino como un
copiloto realmente como lo que es después. Entrenamiento y aprendizaje Durante el entrenamiento de un modelo de inteligencia artificial, los props se utilizan para enseñar al modelo como responder a diferentes tipos de solicitudes. Esto lo vamos a ver en el siguiente bloque, pero básicamente es como dentro de ese espacio de la gente que te he hablado de todas las posibilidades, imagínate un globo, pues coges, pon un círculo concreto ahí es con el prompt donde especificas donde quieres que se centre la guía. Eso es clave. Es precisamente la fórmula secreta, por así decirlo, para obtener las mejores
respuestas para interacción y diálogo, donde en aplicaciones interactivas como los chatbots, los prompt son las entradas del usuario que el sistema utiliza para generar respuestas coherentes y relevantes. Ahora mismo hay mucha gente desarrollando chatbots para sus negocios. Es muy, muy potente. Esto es muy potente porque con un lenguaje totalmente natural y con toda la capacidad de conocimiento que tienen estas ideas, imagínate lo que se puede abarcar y el servicio al cliente que se puede dar. El diseño y la formulación de un pronto. Esto es lo que hablaba precisamente de cara al ingeniero, es decir, a
la capacidad de una persona a formular el prompt. Al principio, cuando las ideas salieron, era como muy difícil. Había que aprender, había que dar peso a diferentes partes del prompt y esto se sigue haciendo. Esto sigue siendo necesario, pero cada vez todas las ideas tienden más a que les especificamos esa entrada de instrucciones con un lenguaje mucho más natural, como si estuviéramos hablando con otra persona precisamente y esto es la gran ventaja, y por lo que muchos se preguntan si realmente el ingeniero va a desaparecer, porque todas las ideas tienden a esto. ¿De hecho, ocurre,
por ejemplo con este Bill Difusión X, que a lo mejor te suena, funciona muchísimo mejor con lenguaje natural que especificando lo típico de un retrato de un modelo o una modelo ocho k ultra HD, súper detallado, etc como que le ponemos un montón de adjetivos para que guiar al modelo por un lado o por otro? No, no, bueno, pues ahora están cada vez funcionando más, por eso, como un lenguaje natural, como si metieras esas instrucciones de texto directamente en Change pto, hablases con una persona. Sin embargo, un buen prompt, por supuesto, debe ser claro, específico
y estar formulado de manera que guía el modelo hacia el tipo de respuesta o resultado deseado. Así que muchas veces vamos a tener que guiar de esta manera, porque cuantas más palabras haya, que es más difícil que la IA tenga en cuenta nuestras instrucciones. Así que muchas veces vamos a tener que ser mucho más esquemáticos a la hora de escribir nuestro propio, estructurarlo de esa manera tradicional, como se viene haciendo durante todo este tiempo, básicamente. Bien, y ahora vamos a empezar ya con CPT. Bueno, el que es CPT es una guía del lenguaje escrito y
multimodal. Súper importante que te quedes con esta palabra multi modal y por tanto multi potencial que significa CPT significa generativa trainer, transformer y está desarrollado por una empresa que se llama Open, que seguramente has oído hablar de ella en cualquier momento y si no, lo siento, estabas dentro de una cueva que permite hacer chat CPT y comprender y generar texto en un lenguaje natural. ¿Vale? Participar en conversaciones, responder preguntas, ofrecer explicación, generar contenido creativo, una amplia gama de tareas basadas en el lenguaje. Es decir, le puedes pedir que hagas hasta la lista de la compra
o en mi caso, muchas veces le he pasado un guión o es generado un guión con GPS, después elaborado una lista de planos para la realización de ese cortometraje o lo que sea y te da una tabla con un guión técnico. Es absolutamente impresionante lo que te puede hacer y la de horas y cientos de horas que puedes ahorrarte. Eso sí, siempre va a ser necesaria la intervención humana, porque como te he dicho antes, hay que entender el GPS como un copiloto, como un asistente. Es decir, que no tenemos que dejarlo todo a que decida
la vida por nosotros, sino que la intervención humana debe estar ahí presente, porque si se lo dejamos todo a la guía, efectivamente sí que acabaremos con la creatividad humana y no acabaremos evolucionando. Así que tenemos que ser más creativos. Esto nos tiene que ayudar a expandir nuestros límites, es decir, donde tengamos nosotros el límite. La idea nos puede dar soluciones y es brutal para esto. ¿Entonces, cómo funciona? Bueno, pues mediante el procesamiento de palabras. Todas esas instrucciones que le metemos a Change PT también son Bronx. Lo que pasa es que suelen ser bastante más largos
que los que podemos hacer precisamente en vías generativas de imagen o vídeo. No bien change a veces muy lindo, como te he estado diciendo que puede generar texto ahora mismo, eso es como nació. Puede generar imágenes porque ahora mismo Dali tres Inteligencia artificial generativa de imágenes de Open, ahí está integrada ahora mismo, a día de hoy yo creo que se va a quedar porque es brutal, tiene capacidad de análisis de datos y esto no me refiero solamente a documentos extensos de big data, sino que le puedes plantar ahora mismo, por ejemplo, una novela de 200
páginas y te la puede analizar. Esto es absolutamente impresionante, increíble y que hasta hace unos meses era ciencia ficción porque podías meter pues muy poquitas palabras. Creo que recordar unos 6000 tokens. Para que te hagas una idea, unos mil tokens son unas 750 palabras. Vale que es más o menos la medida aproximadamente aproximadamente. Y luego ahora mismo también es muy reciente, tiene visión y es capaz de buscar a través de internet. Es bueno, pero es que esto también lo hacía bien. Sí, porque en Microsoft metió mucha pasta, metió mucho dinero en Open ahí y por
eso pincha. Utiliza también GP, T4 y es totalmente gratuita. Lo que pasa es que está capada entre comillas. Lo que sí que le puedes sacar jugo, la puedes explotar muchísimo, pero no llega al nivel que tiene Change BP. ¿El hecho de que tenga visión, además nosotros le podemos subir una fotografía y decirle como ponía en el ejemplo mismo Open, ahí qué le pasa a mi bicicleta? Dónde está el problema si ni siquiera señalarse y ser capaz de es capaz de decirte tienes que hacer esto, solucionar esto otro, tienes que ir al mecánico de bicis, cambiar
no sé qué, etcétera Es súper importante. Además, también puede describirte imágenes, lo que te puede ayudar precisamente a aprender a ser ingeniero, a aprender a escribir bronce para generar mejores imágenes. Así que es una pasada realmente. Ahora mismo CPT Sí, en sí todo este boom ya es una revolución. Ahora mismo es la herramienta más revolucionaria que hay en una sola inteligencia artificial. Y esto es a lo que tiende básicamente todas las ideas a que en una sola herramienta puedas hacer absolutamente todo. Exactamente igual que tenemos, por ejemplo, la suite de Adobe, donde todos los programas
interconectan entre ellos, o dentro de Da Vinci, que tenemos un solo programa desde el que podemos hacer absolutamente todo el proceso de postproducción, pues se está tendiendo a ser una idea que tenga absolutamente todo. Lo que pasa es que en la generación de imágenes ahora mismo salen imágenes muy bonitas, imágenes muy chulas, muy buenas, pero no tenemos todo el control. Que sí que podemos tener, por ejemplo, en este de difusión, que además es gratuita. ¿Así que vamos a ver que es una CPT, vamos a experimentarlo no? Bien, pues esta es la interfaz de chat GPS,
es muy actual, esto prácticamente a nosotros está actualización nos llegó hace unos días y realmente lleva una semana, semana y media como mucho y a nosotros nos llegó el viernes pasado para que te hagas una idea, entonces ha cambiado muchas cosas, pero lo básico sigue estando. ¿Qué es lo básico? Bueno, aquí tenemos todas las posibles conversaciones que tenemos disponibles o que vamos creando con el chat. GBR se va guardando todas aquí y luego además, si entramos en una de ellas y estos tres puntitos podemos bien compartirla, nombrarla o directamente borrarla. Por supuesto, aquí arriba, como
ves, es donde generamos nuevas conversaciones y aquí fíjate que pone el chat en el iconito que tenemos ahora. Aquí, sin embargo, tenemos GMT cuatro GMT 3.5, es decir, este es el modelo gratuito que puedes acceder si no estás pagando la mensualidad de GMT cuatro y luego la posibilidad de trabajar con plugins. Esto es una cosa que ya lleva un tiempo, pero que tú tienes aquí una plugin store que se llama y aquí tienes empresas que básicamente han insertado programitas pequeños, programas que se añaden a CPT. Y la verdad es que si le das aquí a
todos hay una barbaridad de plugins, hay muchísima cantidad. También tienes veces, como ves aquí 131 páginas de plugins, puedes ponerte a buscar aquí, pero bueno, ahora mismo con esta actualización la verdad es que se ha comido el mercado de muchas de estas pequeñas empresas que estaban haciendo estos plugins y prácticamente lo podemos hacer todo aquí. Lo que pasa es que a lo mejor para tareas específicas sí vamos a necesitar un plugin. No obstante, también esto puede que tenga fecha de caducidad. Bueno, puede, no tiene fecha de caducidad, pero te sigo contando lo que es la
interfaz. Aquí es donde tendríamos nuestro chat y como ves aquí, estos son temas por así decirlo, como presets que tenemos para hablar con él. Pues aquí es donde podemos adjuntar nuestros archivos, es decir, aquí podemos adjuntar una imagen, podemos adjuntar un texto, podemos adjuntar estos dos tipos de archivos y a partir de una instrucción que nosotros le mandemos, pues nos hará un análisis de una manera o de otra, o una descripción, etcétera y luego simplemente le enviamos. Entonces, como veis aquí simplemente podemos mandarle un mensaje. ¿Por ejemplo, podemos decir Hola, puedes buscar información de escuela,
Qué ocurre ahora? GPS Como te he dicho, es multimodal y ahora tiene integrado el buscador de Microsoft Bing dentro del propio SAT GPS. Esto antes no era posible. Antes necesitábamos el uso de plugins para conectarlo directamente a Internet. Y ahora fíjate, aquí aparece Blogging buscando convic. Entonces va a hacer una búsqueda y a partir de aquí nos va a dar una respuesta. Esto es súper potente, porque esto, como sabes, es una información muy, muy, muy básica. ¿Qué ocurre? Porque es potente que tengamos acceso a un buscador, porque este GPS tiene un entrenamiento concreto, es decir,
hasta un periodo de tiempo concreto ha sido entrenado con grandes, ingentes cantidades de texto. Sin embargo, el hecho de que sea capaz de ir a Internet a buscar información amplía precisamente sus capacidades para poder responder aquí. Fíjate, es una destacada institución de formación audiovisual reconocida como la mayor comunidad de este tipo en el ámbito de habla hispana. Ha logrado atraer a más de 80.000 estudiantes en sus aulas virtuales, además de contar con una significativa audiencia en su canal de YouTube. Es de millones de usuarios donde millones de usuarios han accedido a su contenido. Y aquí,
como ves, nos da la referencia. ¿Esto es exactamente igual que en Mensa, nos da la fuente y viene lógicamente de la página web de la escuela, no? Entonces esto lo podemos hacer para un montón de cosas. Si ahora por ejemplo los vamos aquí a explorar, fíjate lo que tenemos y esta es una de las grandes novedades que tenemos como mini GPS, es decir, tenemos pequeños chats, estos son predefinidos que como ves aquí aparecen hechos por CPT en el caso de, por ejemplo Daly Si queremos un chat solamente para generar imágenes, entraríamos aquí, por ejemplo, genera
una imagen de un ping bueno con cuerpo de jirafa. Se me acaba de ocurre entonces ahora mismo Dalí empezará a generar una imagen. Como ves, estoy escribiéndole en español lo suyo y lo mejor es escribir directamente en inglés, porque aquí el proceso que está haciendo es traducir al inglés y luego, con la respuesta que nos dé, básicamente la vuelve a traducir del inglés al español. Entonces le puede costar un poquito más, pero están haciendo de forma totalmente nativa en español también. Entonces poco a poco será más sencillo. También depende mucho de la hora a la
que nos conectemos. Fíjate que imágenes tan bizarras. Bueno, tendríamos que afinar nuestro pronto, por supuesto, muchísimo más y saber conseguir una imagen muchísimo mejor. Para que veas, yo había hecho un pronto un poquito más elaborado, muy poquito, no demasiado, pero fíjate que nos dio una imagen tan chula como esta. La verdad es que quedó muy muy muy graciosa, entonces no se me acababa de ocurrir de pronto, pero sí que tenía por aquí una imagen, un poquito más elaborada, así que fíjate lo que es capaz de hacer. Tiene así como un estilo muy fantasioso, Dalí tres
Pero que sepas que ya directamente con CBD puedes entrar a generar imágenes y tienes absolutamente todo dentro de una. Y la verdad que ahora sí, ahora sí. Dalí tres Porque antes con Dalí y Dalí dos no teníamos una calidad muy top y ahora sí podría hacer frente incluso a mis Jordi, aunque tenemos menos control que dentro de mis Journey. Bueno, simplemente que que lo tengas aquí en cuenta. Si seguimos en el apartado de explorar. Como veis, aquí tenemos pues diferentes tipos de chats. ¿Que son estos chats? Bueno, básicamente son como GPRS que están entrenados en
un punto específico del espacio de la gente. Por ejemplo, tenemos aquí el Creative Breitling que nos sirve precisamente para para escritura creativa, por ejemplo, yo le puedo coger y adjuntar directamente una novela que tengo y esta novela una vez la carga, yo le puedo pedir que haga un resumen de la novela y sus posibilidades de venta. Entonces hazme un resumen de la novela y coméntame sus posibilidades de venta en el mercado. Y si es interesante, dentro de un mercado de ciencia ficción, entonces nosotros le mandamos la novela y en este momento este chat que está
entrenado precisamente para este tipo de cosas, aunque le he pedido también algo más tipo marketing, bueno, nos va a decir como coach creativo de escritura, los puntos fuertes y los puntos no tan fuertes de la novela. Esto es súper potente para escritores, pero por supuesto, nosotros podríamos subir un capítulo y decir oye, estoy bloqueado como continuo, dame ideas, esto es súper fuerte también mola muchísimo. Entonces es una obra de ciencia ficción ambientada en un futuro distópico. La trama se desarrolla en un mundo afectado, con un virus catastrófico, el virus que ha desencadenado una pandemia global,
conflictos bélicos. Ojo, esto lo escribí en 2018, no tenía ni idea de la pandemia. Vale, bueno, aquí nos hace un montón de cosas. Ya está, Vale que lo tengas en cuenta. Tiene esta capacidad analítica. ¿Qué ocurre con esto? Bueno, nosotros podemos crear nuestros propios GPRS y fíjate si entramos aquí tenemos el Builder donde podemos empezar a darle una serie de instrucciones y poco a poco vamos a ir viendo aquí precisamente en esta previa, cómo va respondiendo, es decir esto tenemos una ventana aquí totalmente de entrenamiento frente a otra donde vamos a ver previsualización y después
podemos configurarlo dándole un nombre, una descripción y luego determinadas instrucciones. Esto es súper importante. También le podemos dar conocimiento subiendo la PDF. Esto es súper fuerte. Vale, esto la verdad es que tiene muchísimas aplicaciones, tiene aplicaciones en medicina, tiene aplicaciones en psicología, tiene aplicaciones también en el ámbito audiovisual, en el nuestro, por supuesto, aplicaciones para ir comer es una barbaridad. O sea, puedes hacer una cantidad de cosas brutal y lo mejor de todo esto es que si creas uno muy concreto que valga para un nicho más general, no solamente para tu negocio o para ti,
lo vas a poder vender. Va a haber una tienda de donde va a haber un mercado de mini chatbots, vale, de chatbots específicos. Esto es brutal, así que también se abren oportunidades de negocio de cara a esto. Precisamente esto digamos que sería una evolución de algo que ya teníamos aquí que se llama las instrucciones personalizadas. Básicamente las instrucciones personalizadas consiste en Aquí tenemos, como ves, dos párrafos, dos cuadros de texto donde vamos a crear una personalidad, una forma de responder. Entonces podrías explotarlo por aquí Hay un montón de instrucciones personalizadas por la web totalmente gratuitas
que puedes probar o puedes coger tú y ser como más específico, dar de las palabras exactas que necesites de cara a ver cómo te responde. Entonces esto es como un prototipo de justo lo otro que acabamos de ver. Así que GB La verdad es que se convierte ahora mismo en la gran inteligencia artificial generativa. ¿Y por qué no? Puede que en algún momento tenga la capacidades de control que tienen otras como este Boli Fusion, Leonardo o ni Jorge. Y precisamente vamos a ver ahora mis Journey y Leonardo, que es básicamente la creación de imágenes a
través de inteligencia artificial. Es decir, entramos en las inteligencias artificiales generativas. Cómo funciona Mind Journey Misión y se ejecuta a través de Discord. Si no sabes qué es Discord, básicamente es una aplicación que podamos ejecutarla tanto web, pero también tenemos aplicación directamente en local que básicamente se creó para comunidades de gamers, pero que también tiene esta funcionalidad de que podemos personalizarla al máximo y meter dentro de ella bots. ¿En este caso el bot de mis Journey, así que tendrías que descargarla bien para Windows o para Mac y después tendrías que unirte a mi Dione, como
te unes a mi tío Roy? Bueno, pues realmente es muy sencillo, tendrías que entrar en mi journey y punto. Com Y a partir de aquí fíjate que te dice un botón de beta en este join de beta. Bueno, te invitan a unirte, aceptas la invitación y en el momento en que la aceptas vas a entrar directamente en el servidor de Discord. Entonces Discord funciona por servidores. Como ves, aquí podemos añadir nuestros propios servidores y tenemos otros como Pica, que es el que después vamos a ver. Bueno, aquí podrías empezar a generar imágenes, por ejemplo, aquí
en general uno vas a ver que hay un montón de personas generando imágenes. Y para que te hagas una idea muy, muy muy sencilla, nosotros escribimos un prompt con algo muy, muy básico que es el comando barra. Imagina como estás viendo aquí donde es, fíjate que pone imagine prompt. Yo escribo y a partir de ahí voy a escribir mi prompt. Ahora no lo voy a hacer porque aquí se nos va a perder. Te voy a explicar una cosa más interesante y es que imagínate aquí con la cantidad de gente que hay generando imágenes dices ostras,
pero voy a tener que estar haciendo scroll según genero y hasta que aparezca aquí la imagen y buscar no mi journey puedes o bien crear un chat privado con el bot o bien llevarlo a tu propio servidor. ¿Recuerdas lo que te he dicho que puedes crear tu propio servidor? Bueno, pues le darías aquí además crear mi propia plantilla para mis amigos y yo. Y a partir de aquí lo que haría sería simplemente crear tu propio servidor. ¿Cómo haces para mandarlo? Básicamente harías botón derecho sobre el icono de mi torneo bot. Después le das a Perfil
y después le das a añadir aplicación y a partir de aquí selecciona un servidor. Nosotros ponemos el nuestro. Le darías a continuar y en seguida tendrías el bot disponible en tu propio servidor, de tal forma que puedes organizarte tu servidor por diferentes temas como estás viendo aquí. Nosotros en este caso la parte de vídeo. Como ves aquí tenemos ya promos como más elaborados, la parte de fotografía que tenemos aquí, un montón de ellos, la parte de random que estos básicamente experimentaciones que hacemos en la escuela y después tenemos aquí testeos donde para no mezclarlo en
la parte de fotografía probamos diferentes tipos de productos. No esto ya cada uno. Lo que sí que te recomiendo es que te hagas un apartado de settings, porque este es otro de los comandos más interesantes. Y es que si escribes barra settings a partir de aquí es donde puedes configurar el modelo, es decir, si haces clic aquí. Como ves, aquí tienes todos los modelos de misión y disponibles. Qué por defecto siempre va a estar el último, que en este caso es el 5.2. Luego tienes aquí otros como los que serían unos modelos más tipo para
anime, para hacer generaciones rollo manga. Pero después también tienes aquí un montón de cosas que en el master las contamos muy muy muy en profundidad, pero básicamente con lo que te tienes que quedar, que es que una vez te hayas suscrito, básicamente vas a poder elegir entre fast food y relax, mouse o turbo mouse. ¿Cuáles son las diferencias? Bueno, básicamente si yo le he dado otro comando aquí que es barra info, fíjate que aquí pone Fast 12,61 de 15 horas. Es decir, cuando nosotros generamos en mi journey estamos prestando horas de generación. Entonces cada vez
que tú le pides una imagen al box se te van restando esas horas de generación. ¿Qué ocurre si no utilizamos el relax move que no consume horas? Es decir, entramos en una cola vale de x generaciones y en el momento en que pueda el bot nos lo hará. Ahora que necesitamos que tenga más velocidad y ponernos al principio de la cola fast que queremos estar siempre al inicio de la cola lo máximo posible. Turbo Mouse. El problema es que Turbo Mob consume el doble de horas, entonces tenlo en cuenta. Esto es poco. Si tienes mucha
mucha, mucha, mucha, mucha prisa. ¿Y qué más tenemos por aquí? Bueno, simplemente te estoy contando lo básico. Lo más básico, más básico para que puedas generar es los estilismo. Estilismo es. Esto es básicamente cómo de caso va a ser a tu pronto o cómo de caótico va a ser. Es decir, cuanto más alto lo tengamos, más creativo va a ser. En cambio, cuanto más bajo, más se va a ajustar a nuestro prompt. Y esto de ramos no es que nos saque imágenes en DMC ni mucho menos, no, sino que nos va a dar imágenes más
fotográficas, más realistas. Entonces es otro tipo de estilismo, por así decirlo. ¿Qué podemos hacer aquí? Por ejemplo, si vamos aquí a la parte de test, Como veis, yo no tengo aquí Portrait Photo, es decir, fotografía de borde, retrato de una mujer pelirroja y aquí le estoy dando peso, etc Esto como te digo en el máster lo hablamos mucho más en profundidad. En concreto lo hace Juan Pablo de Miguel, que si no le conoces es un verdadero crack en toda la parte de fotografía, no solo el medio barniz, por supuesto medio relleno, pero en esta difusión
especialmente es auténtico pionero. Entonces, bueno, como te digo, se ve todo muy en profundidad. Yo tengo aquí, por ejemplo, una serie de programas para que lo puedas ver y te voy a contar otra cosita además que es que una vez yo pongo el comando imagen, escribo el prop y le doy aquí yo puedo elegir también la relación de aspecto. Ya sabes que la relación de aspecto es súper importante si lo quieres, el contenido destinado a redes sociales, si lo quieres para vídeo, etc, por defecto te va a aparecer en una relación de aspecto 1 a
1. Sin embargo, nosotros podemos poner guion, guión a R y aquí por ejemplo, le diremos que sea tres dos como un sensor de fotografía de formato completo. Y a partir de aquí, ojo, esto es un pronto que he cogido de la comunidad. Ahora te voy a explicar esto, pues vas a generar diferentes imágenes. En el caso, dependiendo de tu suscripción vas a poder generar varias imágenes simultáneamente. Como ves aquí yo puedo empezar a generar otra y aquí le voy a decir que sea 16/9 y se va a poder ir generando otras también. Por supuesto, también
tenemos otro tipo de comandos que en este caso, como ves aquí es este guión. Guión no, esto se llama el prompt negativo y el negativo. Lo que va a hacer es guiar muchísimo más a la ira sobre qué no quieres que aparezca. Y muchas veces el negativo es muchísimo más importante que el propositivo. Entonces aquí tendríamos nuestra primera imagen. Ojo, estos son Browns que he cogido de la comunidad. Insisto, ahora te muestro dónde los puedes coger y voy a terminar de generar esta otra imagen. ¿Y ahora, como veis aquí tenemos aquí una de Maya de
cuatro imágenes y aquí tenemos una serie de botones que dices Ostras, y esto qué hacemos? Muy fácil. Esto de 1IVU significa abs que es decir re escalado. Es decir, esta imagen tiene esta resolución que es ridícula. Si le damos a Pascal, nos sacará una imagen de una resolución mayor y si le damos a V1 lo que hará serán variaciones de esa imagen. Por ejemplo, nos gusta la dos y le doy variaciones de la dos. Y aquí lo que nos va a crear es otra malla de cuatro imágenes donde vamos a tener ligeras variaciones de esta
segunda imagen. Esta por ejemplo, me ha encantado la verdad es que esta está muy bien, pero también si queremos generar más no hace falta que volvamos a escribirlo. ¡Simplemente le das aquí a regenerar y en el momento de regenerar pum! Puedes hacer todas las que te permita, no según tu suscripción. Una vez más, la suscripción más alta permite hacer un montón de generaciones. Ahora vamos a verlas entonces, como veis, está en modo fast y básicamente está consumiendo un número de horas de generación. Como te he comentado antes, y como ves aquí, a raíz de que
le he dado a que atravesase diferentes generaciones, pues tenemos aquí otras tantas basadas en el mismo pronto, entonces esto es clave muchas veces en la ira ir mejorando el prompt también si vemos que algo no funciona lo cambiamos un poquito, etc hasta que consigamos el resultado deseado. Por lo tanto esto lleva tiempo, es decir, nos ahorra muchísimas horas. Por supuesto, imagínate diseñar todo esto directamente en Illustrator y demás, o simplemente a mano o en Photoshop, dibujarlo en Photoshop. Bueno, lo estamos generando muy rápido, pero llegar al resultado que nosotros tenemos en mente, por supuesto, lleva
trabajo y tiempo, tenlo muy en cuenta. Y luego fíjate, aquí tenemos las variaciones de esa segunda imagen. Como ves entre ellas varían un poco, es decir, la pose es prácticamente la misma, pero luego tenemos a lo mejor el reloj es diferente, el fondo también se diferencia en cada uno. La expresión en este caso cambia un poquito más en esta también. Entonces, a partir de aquí podemos generar variaciones si nos ha gustado la pose o algo en concreto. Bueno, pues a partir de ahí lo obtendríamos. ¿Cómo aprendemos a escribir pronto? Lo mejor es ir a ver
lo que está haciendo la comunidad, fijarte en el trabajo de otros y ver todos sus trabajos que te llamen la atención, por ejemplo el de este perrete donde podemos ver todo el pronto. Si le damos a copy y full command y después nos vamos a mis journey a partir de aquí, fíjate, me dice Jacob Li Hanson o Caleb Brown o los Black estándar Poll solo usa top nota very elegant dog in de star of sex and point también. Es decir Estamos explicando un estilo súper importante, especificar también el tipo de estilo que queremos, si es
más fotográfico, si es más de pintura, etcétera Entonces, como ves, aquí podemos investigar y a partir de aquí este mismo en vez de copiarlo también podríamos cambiar, es decir, en vez de internet podríamos ponerlo aquí real, histórica, foto o facultad y apartar de aquí en vez de el estilo de Cezanne. Podríamos ponerle un estilo, por ejemplo el de Juan Pablo de Miguel, que sabemos que está entrenado dentro del dataset de misiones y a ver que opciones nos da. Vale, entonces como ves aquí tendríamos dos imágenes, una más pictórica, porque es el estilo que le hemos
pedido más de Cezanne. ¿Lógicamente hay aquí más del estilo de Juan Pablo de Miguel que bueno, Juan Pablo realmente es fotógrafo de paisajes, no fotógrafo de mascotas, pero bueno, digamos que estaríamos forzando al modelo a seguir más o menos el estilo que tiene Juan Pablo, no? Entonces para que veas que todo esto lo puedes hacer porque mi Dioni tiene como un estilo muy muy muy definido, pero si le guiamos de una manera o de otra con una serie de artistas que estén dentro del propio dataset de Misiones, en este caso, pues puede servirnos y mucho
para encontrar un estilo. También podemos mezclar entre diferentes artistas, pero como te digo, esto del máster está súper al detalle, súper al completo. ¿Así que si te interesa mucho, después de que generes unas cuantas imágenes y pruebes, ya sabes lo que tienes que hacer, entonces, cuánto cuesta la suscripción de mis Journey? Porque sí que antes teníamos una serie de generaciones gratuitas a los medios, pero ahora eso se ha acabado completamente porque es la comunidad más grande que tiene Discord. Bueno, tenemos tarifas mensuales y tarifas anuales. Como ves aquí las tarifas mensuales difieren un poquito de
las tarifas anuales. Lógicamente, si tienes una mensualidad, pero durante 12 meses va a ser algo más barata. Anualmente son 24 $ el estándar plan frente a los 30 $. Si solo pagas mes a mes sin estar comprometido a esos 12 meses. Y luego, como ves, aquí tienes una serie de generaciones. Puedes probar con el plan básico que tienes unas 200 generaciones al mes o menos. Esto te lo digo que te lo fundes en una tarde o lo cual no te compensa para nada. Y el estándar plan es el que realmente empieza compensar de eso es
de los más utilizados. Y ahora mismo tienes también el plan Pro que tienes hasta 30 horas y el mega plan que tienes hasta 60 horas. Como ves en todos ellos, si pones el modo relax tienes horas totalmente ilimitadas y después aquí tienes, aquí en total un 12 hasta 12 trabajos rápidos simultáneamente, es decir, en modo fast puedes tener un montón de trabajos a la vez, haciendo lo cual es muy, muy, muy interesante frente a los únicos tres que tienes aquí. Y por supuesto, en el plan y el mega plan tienes el modo Excel, el modo
privado. Esto que quiere decir que no aparece en el showcase que hemos visto precisamente antes. Todas tus generaciones son totalmente públicas, todo el mundo puede verlas. Si te buscan como usuario pueden acceder a verlas. En cambio de esta manera no es que no sean públicas porque van a estar dentro del propio servidor de Journey, pero eso no lo vas a poder ver tú como tu propio usuario. Sólo vas a poder ver esas imágenes que tú hayas generado. No las va a poder ver entre comillas nadie más. Y después vamos a Leonardo, pero de entrada te
pido por las tarifas, ya que estábamos hablando precisamente de las tarifas de millones. Y es que Leonardo de entrada tiene gratuita 150 generaciones rápidas al día. Esto es muchísimo, no lo da nadie y la calidad de Leonardo es brutal también. Ahora la vamos a ver, pero después tienes aquí otras tantas. Como ves tienes aprendiz, artista, maestro, todo muy relacionado lógicamente con el arte. No tienes 8500 tokens al mes, 25.000 tokens al mes y 60.000 tokens al mes. Cada token te va a costar más o menos en función del modelo generativo que hagas, en función de
los trucos que le metas. Porque Leonardo tiene como un montón de truquitos que ahora vamos a ver. Pero ya de entrada te digo que básicamente es este boli fusion dentro de una propia web. Lo que pasa es que con modelos entrenados específicamente para su plataforma y esto es Leonardo, básicamente es una web. Todo se genera dentro de la propia página web. Como ves aquí tienes una de modelos, en este caso son los modelos más utilizados. La mayoría de ellos están entrenados por ellos precisamente, pero luego también la comunidad puede aportar sus propios modelos. Como ves
aquí esto sería el show X de lo que va haciendo la comunidad. Lo que pasa es que aquí también podemos elegir si queremos que nuestras imágenes aparezcan aquí o no, simplemente aparezcan dentro de nuestro usuario. Entonces aquí también puedes aprender un montón, porque la forma de escribir los prims es ligeramente diferente a mi nick. Ligeramente es muy parecida realmente, pero como te he dicho, esto realmente es este botón difusión. Entonces aquí tendríamos la parte de hoy y Next Generation y yo, por ejemplo tengo aquí ya un prompt cargado y además aquí le puedo añadir los
negativos. Como estás viendo aquí podría elegir los modelos. Como ves aquí son modelos que yo he ido utilizando y después podemos elegir otros, o bien entre los modelos que tiene la plataforma disponibles, es decir, los que ha entrenado toda esta gente de Leonardo o podemos ir a los modelos de la comunidad. ¿Incluso si lo quisiéramos, podríamos entrenar nuestros propios modelos desde aquí, o más bien cargarlos, que eso sería lo más interesante, no? Entonces fíjate que aquí le daríamos al botón de generar y tiene un total de ocho tokens, esto consume ocho tokens. ¿Qué pasa? Que
yo estoy utilizando como potenciadores, es decir, ellos tienen aquí como truquitos esto que te contaba que son al que mi y foto real foto real. Lógicamente lo que nos va a permitir es crear imágenes muchísimo más realistas y al que le va a dar una mayor resolución va a hacer una especie de escalado y luego también le va a dar un estilo como muy concreto, aparte de que se va a ajustar muchísimo más a nuestro prop. ¿Entonces esto es muy interesante también porque lo tienes con Leonardo, simplemente aquí con un par de botones muy muy
sencillo le darías a generar, pero ves que en el momento en que yo pongo foto real no tengo el negativo porque? Porque foto real ya tiene cargados una serie de procesos negativos de base que se van a utilizar para precisamente crear imágenes más realistas. Y como veis aquí el consumo de tokens ha pasado de 8 a 16, es decir, nos cuesta el doble. Por supuesto, aquí podemos elegir la resolución que si la aumentamos el número de tokens que nos va a consumir también es mucho mayor. Aquí también tenemos para elegir la relación de aspecto en
función de los modelos. Habrá algunos que estén entrenados de una manera o de otra, es decir, que hay modelos que están entrenados en relaciones de aspecto cuadradas, otros en 6/9, etc por lo general van a estar la mayoría entrenados en uno uno o si acaso en 4/3. ¿Esto te aparecerá aquí si eliges, por ejemplo, otro tipo de resoluciones, entonces nosotros simplemente le damos aquí a generar y a partir de aquí empezará a hacer una serie de declaraciones y de esos tres, pero solo genera una, no? Fíjate que aquí tenemos el número de imágenes que podemos
generar. Cuatro Si quisiéramos le damos a cuatro y aquí se pone a generar. Otra de las cosas interesantes que tiene es que también tenemos el Porn Generation, es decir, nosotros le ponemos aquí una serie de ideas básicas, por ejemplo Pikachu saltando en el océano. Le damos a idear esto. Por supuesto, también consume tokens. Y ahora fíjate que nos ha generado cuatro preguntas en concreto. Y esto podemos o bien editarlo o bien le damos directamente a generar y a partir de aquí nos empezará a generar. Fíjate este primer prompt. Lo que he hecho tiene un estilo
como muy concreto por el modelo que estoy utilizando, que es Drive Shaper. Pero si yo quisiera algo más realista, como lo que te estaba diciendo antes, lo vamos a dar a generar y a partir de aquí empezar a ello. Como veis, Leonardo a veces puede tardar un poquito más, un poquito menos en función de la resolución, en función de lo que le hayamos pedido en nuestro prompt, etc, etc, etc Y además Leonardo tiene una particularidad que una vez tenemos la imagen generada podemos hacer un zoom que en este caso lo han llamado así. Esto también
está disponible por supuesto en mi Journey y tenemos aquí dos tipos de escalado un recalado como más suave y otro escalado como mucho más crispy, que es con mucho más detalle. Y luego esto tenemos el default, que es una cosa muy de este nivel de fusión XML que se utiliza muchísimo ahí donde tenemos tres niveles y después tenemos el modo suave que te recomiendo muchísimo, lo trabajes siempre entre Low o Medium. El modo aire solamente es cuando las caras son un horror, básicamente. Entonces yo creo que aquí en este caso con Low y ahora como
ves empiezas a trabajar y en el momento en que lo tengamos disponible vamos a ver las diferencias. Como ves aquí hemos creado a Pikachu saltando dentro de El Mar. Que bueno, aquí han puesto varias colas y a lo mejor no es lo mejor, pero ya nos está dando un nivel muy muy muy muy chulo. La verdad es que funciona muy bien. Leonardo tiene un estilo muy muy muy guay y con sus modelos funciona tremendamente bien. Aquí ya ha acabado nuestra imagen. Entonces para que veas las diferencias entre el Inner low medium y la original, bueno,
aquí tendríamos la original si le pasamos el low. Como ves, la cara nos ha mejorado ligeramente, pero también el fondo nos ha cambiado y después tendríamos el medium donde la cara, así que se parece un poquito más a la original y en este caso no nos cambia tanto la imagen, pero sí que tenemos muchísimos más detalles en toda nuestra imagen. Así que interesante tener el Rafael aquí directamente incluido y aquí estarían las imágenes más realistas, como ves de Pikachu. La verdad es que hace cosas muy muy chulas, tiene cosas muy interesantes. Leonardo es muy muy
potente, muy interesante tener en el punto de mira. Y también tenemos, por ejemplo, sensaciones aleatorias de o podemos también mejorar el que tenemos. Esto lo hace de forma totalmente automática, como estás viendo. Y a partir de aquí, fíjate, nos ha dado muchísimos más toques, muchísimas más palabras. ¿Vamos a ver qué tal la diferencia entre el token que nos da, entre el prompt que nos ha generado automáticamente al principio y después el que nos ha mejorado también en base a ella? Bien, pues la verdad es que yo realmente no noto muchas diferencias entre el pronto mejorado
por Ira y el otro. Fíjate en estas dos imágenes. La verdad es que está más o menos prácticamente igual. Sí es verdad que la imagen tiene como más contraste, un poquito más de colores vibrantes. Bueno, es interesante. Es interesante tenerlo en cuenta y hasta pero por ejemplo aquí se dedicaba a hacer más Pikachu y aquí una aberración de Pikachu. Bueno, podría ser interesante también aquí como una cola. Bueno, esto después podríamos entrar a borrarlo, porque esto también tiene un módulo de límite y mix. Es decir, podemos aquí trabajar con diferentes imágenes que ya hayamos generado
y a partir de ellas retocarlas directamente con ellas sin necesidad de pasar por Photoshop. Ok, bueno, esto es interesante, como te digo debes tenerla muy en cuenta Leonardo, porque tampoco tiene unos precios muy disparatados y ya sabes que por 150 tokens al día está muy muy muy bien. Y vamos ahora con la joya de la corona. Stable Difusion, Stable Difusion es básicamente una plataforma de código abierto desarrollada por una empresa que se llama este Stability AI. Es un modelo generativa de imágenes, como te digo, de código abierto. Eso ha hecho que haya una comunidad inmensa
detrás y que se haya podido mejorar muchísimo con el paso del tiempo y por supuesto, se le hayan añadido un montón de extensiones, que es lo que nos permite precisamente generar vídeo. También Dentro de esta inteligencia artificial es capaz de producir imágenes, fotos realistas. También es así el local, es decir, desde nuestro ordenador con una CPU dedicada, con una tarjeta gráfica dedicada, con lo cual no te va a costar dinero de cara a una suscripción, pero sí te va a costar dinero de cara a la factura de la luz porque está igual difusión. Digamos que
no optimiza al 100% sus recursos, sino que utiliza todo la nube RAM, toda la RAM de vídeo disponible de tu tarjeta gráfica. Entonces al ser de código abierto, tiene una comunidad inmensa que aporta con modelos específicos de entrenamiento y extensiones para generar vídeo. Ya lo sabes. Y por supuesto, tenemos un control muchísimo mayor para la generación de imagen frente a las otras opciones que has estado viendo anteriormente. Por eso Stable Difusion es tan potente. Cuesta mucho más conseguir imágenes buenas, pero eso es porque tenemos que aprender a utilizarlo con lo otro. Tenemos un móvil, un
móvil muy bueno, un iPhone, un Samsung, un Sony Xperia que lo habéis estado viendo los tutoriales anteriores. Y aquí tenemos una cámara de fotos potente, una cámara, una, una buena, una buena cámara, un buen modelo de cámara. Y entonces la mayoría de las apps, como te he dicho antes, de generación de imágenes, básicamente están utilizando el código de este buen difusor. Así que te compensa tenerlo local. También tenemos la opción gratuita porque para generar el local mínimo vamos a necesitar un PC con mínimo ocho gigabytes de RAM. Y eso sí, en este caso aquí envidia
es la ganadora. Puedes hacerlo con a MDD, por supuesto, pero envidia la verdad es que se lleva absolutamente la palma ahí también muchos usuarios de Mac dentro de nuestros alumnos que se preguntaban si podían hacerlo y si con Apple Silicon desde los M1 se puede hacer. Lo que pasa es que las generaciones tardan muchísimo más en hacerse Después con Mac Intel hay algunas soluciones, pero no es lo más recomendable porque va a sufrir mucho tu procesador y seguramente no tengas grandes resultados. Después, la otra opción es una plataforma de pago que tendríamos la plataforma de
estabilidad, que es la beta de Drive Studio, donde tenemos muy poco control. Tenemos el modelo básico con algunas ligeras variaciones de estilos, pero como te digo, no tenemos el acceso a la comunidad. No obstante, si lo quieres probar previamente, la verdad es que tienes una serie de generaciones gratuitas con la que puedes probar este de fusión. Vale. ¿Cómo instalamos estribo de difusión? Porque hay instalado un local y aquí no tenemos un programa que descarguemos de esta habilite ahí no tenemos que ir a un repositorio de GitHub, que en este caso se ejecuta a través de
una interfaz que ha desarrollado un tipo. ¿Y esta interfaz se llama Automatic Eleven, Eleven o 11, 11 o 1111 cada uno la llama de una manera no? Así que si vas a ese enlace que aparecía ahí, pero que también te dejo en la descripción. Fíjate que tenemos aquí todo esto. Bueno, seguramente si eres programador o te dedicas a esto GitHub te sonará muchísimo, pero aquí tienes directamente acceso a las instrucciones de cómo se puede instalar este botón de fusión. De hecho, toda esta documentación es interesante que la leas, pero si quieres instalarlo, aquí tienes todas
las instrucciones de instalación como ves, aquí dice Nvidia recomendado a CPUs y luego Intel CPUs, Intel, CPUs. ¿Ambas están integradas y discretas a través de una página externa para la instalación, me refiero, no? ¿Entonces, instalación en Windows diez, Windows 11? Simplemente tienes que ir siguiendo todos los pasos. Lo que sí es importante es que tengas instalado Python tres 16. Ojo, esta versión es súper importante que sea esta y no las más actualizadas. También necesitas instalar git como te digo, si va siguiendo todo esto, todas estas instrucciones, vas a poder instalarlo sin ningún problema y además
lo vas a poder hacer en cualquier parte de tu disco duro. No necesariamente tiene que ser en el disco principal. Puedes comprar un disco duro solamente dedicado a esto que te va a funcionar exactamente igual. Entonces, como ves aquí nosotros podemos instalarlo y aquí también tienes las instituciones de Apple Silicon. Bien, y esta sería la interfaz de Automatic 111. Como ves, es como muy rede mentaria, pero lo que importa es que funcione básicamente eso, que funcione. ¿Entonces, cómo generamos imágenes? Bueno, lo primero sería que tuvieses que cargar los diferentes modelos que tienes aquí disponibles. ¿Ves
como es? Yo tengo aquí unos poquitos, la verdad es que no tengo demasiados. Voy utilizando los que más me interesan, pero aquí tienes acceso como he dicho, tanto a los modelos básicos como a modelos creados por la comunidad. Pues para descargar los modelos de la comunidad tienes una web que se llama Civit Punto A y te la dejo también en la. Básicamente lo que tienes que hacer es irte a este apartado de models y aquí tienes eso. Como ves, un montón de modelos que la comunidad ha ido haciendo y ha ido subiendo. ¿Esto está muy
bien que lo tengas en cuenta, pero cómo lo filtras? Porque aquí te van a aparecer un montón de cosas. Bueno, tienes que ir a esta pestañita de aquí y en este caso marcar checkpoints y después estilo de difusión. 1.5. No te recomiendo esta difusión XML si no tienes una tarjeta con uno grande 12 gigabytes mínimo mínimo y aún así 12 gigabytes puede ser un poco perjudicial para esa tarjeta. Yo en este caso tengo una 40 90, tengo 24 gigabytes, puedo ejecutarlos no, pero si lo desmarca, los modelos de 1.5 funcionan muy bien. ¿Y por qué
no los de 2.0 o 2.1 y demás? Porque son verdaderas aberraciones, así te lo digo. Entonces 1.5 funciona muy bien y así una comunidad muy, muy muy potente que ha creado modelos muy muy, muy buenos. ¿Cómo los descargas? Bueno, pues por ejemplo vamos a coger este Epic photo y lo que hacemos es directamente le damos a dolos options y como veis aquí tiene según su extensión. Esto te garantiza el hecho de que sea se extensor que no vayas a tener problemas que no sean malware. Así que no te preocupes porque ese extensor es totalmente seguro.
¿Entonces, dónde lo guardamos? Bueno, pues una vez tú hayas hecho tu instalación, en mi caso yo lo tengo en un disco concreto. Tendrías que ir a la carpeta de web win y después tendrías que irte a Models. Y en Models en este nivel difusión. ¿Y a partir de aquí es donde meterías tu modelo generativo, le darías a guardar y esto? Bueno, lo que tarde en descargarse lo tendrás listo y una vez lo tienes descargado simplemente lo tienes hacer aquí y ya lo tendrías. Entonces como es aquí The Big Foot, abs, las Unicorn, porque yo tengo
aquí otros. Entonces a partir de aquí tienes las dos pestañita donde tienes el positivo y el negativo exactamente igual que como has visto en Leonardo, pero aquí no queda todo. Como ves aquí tienes módulos de emails, es decir, trabajar de una imagen a otra imagen. Con lo que te he comentado puedes entrar en tus propios modelos o bien unir diferentes modelos. Esto es súper interesante. Luego también tienes aquí diferentes extensiones que las vas a instalar desde aquí y por supuesto tienes un apartado de configuración muy muy amplio que de entrada te digo que pongas esto
precisamente en la primera pestaña, la parte de JPEG, porque si no por defecto van a ser en PNG y te va a ocupar muchísimo espacio. Esto genera imágenes que al final no te das cuenta, ya has generado las hileras de imágenes. ¿Entonces yo qué voy a hacer ahora? ¿Voy a copiar el positivo y el negativo que tengo aquí de un usuario que ha generado con otro modelo, no? ¿Qué tenemos después por aquí? Porque como ves, aquí hay un montón de opciones. Básicamente tenemos los steps, que son los pasos donde va a generar una imagen con
una mejor calidad o peor calidad. Cuantos más pasos para tener una mejor calidad, el proceso de difusión va a ser muchísimo mejor. Lo que pasa es que hay veces que con 20 pasos es suficiente, es decir, a más pasos lógicamente va a tardar más y va a consumir muchísimo más. Después tenemos aquí otras dos opciones que en este caso nos interesa, sobre todo para los modelos x, L y el saber es Fitz. Básicamente es un rescatador. En este momento lo podemos hacer dentro del propio estilo de difusión. Después para modelos 1.5, la resolución base es
siempre 512 por 512. Por eso es interesante después tener aquí el rescatador. Y como veis, aquí también tenemos un montón de diferentes opciones y básicamente yo lo voy a escalar A12 por de la imagen que me va a salir va a ser al doble, en este caso de resolución. Después el CFG Skrill, esto es cuánto caso nos hace al prompt. Valores más bajos serán más creativos y valores más altos se ajustarán mucho más a nuestro problema. ¿Qué pasa? Que hay que dejarle a la idea que sea un poquito creativa. Normalmente con valores entre cuatro y
siete suele funcionar. ¿En algunos casos puede que nueve no? Aquí le voy a dar 40 pasos y después tenemos aquí otra serie de módulos que como te digo, vemos muchísimos más en profundidad en el Master y no quiero abrumarte con ellos simplemente. Por último, como detalle tienes aquí los métodos de los samplers. ¿Vale, tienes los samples? Cada sampler funciona de una manera, va a funcionar generando la imagen de una forma más realista, menos realista, con más errores o menos errores. Este que tengo yo aquí de PM Plus Plus dos se me agarras suele funcionar muy
bien o el DBM Plus Plus SD carras todos estos funcionan realmente bien, así que si quieres probar directamente lo vas a poder ver. Después le das a generar y como ves enseguida se pone a generar en este caso nuestra hamburguesa. Bueno, vamos a ver qué tal la imagen. Resultan. Como ves, en este caso tarda un poquito más de la cuenta porque yo la estoy escalando directamente desde la propia generación hasta 1024 por mi 24. Entonces, ahora si te fijas, tenemos una hamburguesa muy muy apetecible. Madre mía, que hambre me está entrando. Y aquí tenemos el
tiempo. Total, que ha tardado en general, que en este caso son 17,4 segundos y en mi caso he usado 9,8 gigabytes de RAM de los 24 que tengo disponibles. Súper interesante. Como te digo, si quitas el aire fix y vuelves a generar, vas a ver que la generación es muchísimo más rápida. Ha tardado un total de 17 segundos. Ahora fíjate lo rápido que va y en este caso ha tardado 5,8. Todo esto depende del modelo, de la cantidad de historias que le hayamos metido por aquí y en este caso, del número de pasos. Yo creo
que a lo mejor con 30 pasos también vamos a ser muchísimo más rápidos. Por supuesto, si lo que te interesa también es hacer diferentes variaciones de esta misma o diferentes puntos de vista, debes tener muy en cuenta lo que se conoce como la semilla, que es básicamente como la matrícula de la imagen. ¿Entonces, como ver esto? La imagen que tú generas tiene una semilla, que es esto que aparece aquí como XYZ. ¡Si nosotros queremos fijarla le damos directamente a este iconito del reciclaje y pum! A partir de aquí podríamos ir generando diferentes versiones de nuestra
propia imagen. De hecho, si yo genera ahora nos va a salir prácticamente la misma imagen, sino a la misma. Así que este igual difusión es muy extensa, es una herramienta que va a requerir mucha, mucha experimentación, pero dentro del Máster de Inteligencia Artificial, Juan Pablo te va a dar las claves en clases de dos horas donde te va a ahorrar a ti precisamente cientos y cientos de horas de investigación y exploración para que directamente entres ya a explorar. Y aquí te da unas pinceladas muy básicas para que puedas empezar a probar. Esto básicamente te hace
una idea de por dónde van a ir los tiros y aquí tenemos un mayor control, aunque tú a priori no lo veas, porque simplemente con todas estas herramientas que tienes por aquí, más las que puedes utilizar después en prompt, vas a obtener imágenes que es imposible que de ninguna manera obtengas en otros generadores como Leonardo o como Michonne. Bueno, imposible, porque no hay nada imposible, pero te va a costar muchísimo más. Así que si dominas este tipo de difusión, tienes acceso absolutamente a todas las posibilidades de la idea generativa. Bien, una vez tienes instalado todo
lo que es estable difusión, lo primero que tienes que hacer es ejecutar esto RAM punto bat. Esto lo que va a hacer es que va a instalar un montón de dependencias que son necesarias para que esta difusión funcione y ya una vez haya acabado eso que se te abrirá el terminal de Windows. Básicamente lo que tienes que ir es a esta carpeta de aquí de web y vas a tener que darle aquí a web muy user bat y es lo que te va a permitir entrar a la interfaz de este blog difusión. ¿Cómo lo va
a hacer? Bueno, te va abrir también el terminal de Windows y una vez te cargue todo a lo que es la interfaz dentro del propio terminal, te va a proporcionar una URL. No te preocupes por, esta URL nadie te la puede copiar, es única y solamente se puede acceder el local. Absolutamente nadie puede acceder a ella por por tu parte, así que no hay ningún problema. Esta URL es la que insertas en el navegador y como resultado vas a entrar precisamente en la interfaz de Automatic y la Benin Event. Vamos con el siguiente punto que
ya estamos acabando y es la idea generativa de vídeo Y la idea generativo de vídeo tiene una serie de ventajas y desventajas. Bien, los generadores de vídeo por lo general son buenos, generando de imagen a vídeo esto que lo tengas en cuenta y no son tan potentes precisamente de texto a vídeo. Esto hoy por hoy. Ojo aunque hay algunos como Valley que lo hacen realmente bien, unos son gratuitos como Pica Morfeo, estudio en un Valley, aunque en este último caso como un Valley ya cuentan con una suscripción, pero puedes seguir utilizando de forma totalmente gratuita
y sin límite. Y después también tenemos anime y de forum que son extensiones de este boli Fusion. Después en Rangún, que es muy interesante y en uno puedes gestionarlo todo en web como si fuera un ordenador virtual. Tienes un entorno virtual desde el que subes tus archivos, lo gestionas por carpetas, etcétera Y después la calidad, a pesar de ser una tecnología nueva, es realmente impresionante, sobre todo si hacemos trabajos de imagen a vídeo. Sin embargo, otros, como el caso de Runaway, cuentan con planes de pago. Lo que pasa es que ahora lo vas a saber.
Cuenta con una suite completa de herramientas. No solamente es para generación de vídeo, sino que también te da herramientas de postproducción que te dan inteligencia artificial y te van a agilizar mucho trabajo. Si quieres ver las herramientas que tienen. Nosotros tenemos ya un vídeo en el canal donde hablo precisamente de estas herramientas que ofrece Raúl, aunque es verdad que tiene ya cierto tiempo, estas herramientas han evolucionado y siguen siendo las mismas, aunque antes de dicho que la calidad es impresionante, esto va a depender mucho desde las generaciones de imagen a vídeo. La calidad, sin embargo,
es muy baja cuando hacemos desde texto a vídeo, entonces por eso es una tecnología muy nueva. Lo que pasa es que ya está ligeramente avanzada, pero como me gusta decirle a nuestros alumnos, es un bebé en pañales que está empezando caminar bien, pues esto sería Runway ml y como te he dicho antes, tenemos las Magic Tools, que ya sabes que las joyas de la corona aquí serían en uno y en dos, pero aquí como ves, tienes un porrón de herramientas más que puedes ver en el vídeo de YouTube que te he comentado antes y te
pueden ser muy útiles también en tu día a día, porque tiene un montón de cosas que son muy interesantes si no tienes, por ejemplo, suites más profesionales como las de Adobe. Después tenemos aquí sus dos modelos de inteligencia artificial generadores de vídeo. Obtendríamos vídeo a vídeo y después de texto a vídeo o imagen a vídeo. ¿Cómo funcionar? Bueno, como veis, es una interfaz muy, muy, muy sencilla donde nosotros simplemente vamos a subir nuestro contenido y en este caso yo Aquí, por ejemplo, tengo imágenes de un videoclip que hice que yo simplemente arrastro y puedo o
bien utilizar un preset donde tengo un estilo concreto o bien especificarlo mediante un prompt para que lo veas rápidamente, le voy a dar por ejemplo este present de Spice y le voy a aplicar. Bueno, pues una fuerza de estilo más o menos del 40%. Por supuesto tenemos un módulo avanzado que no voy a entrar en ello porque esto es un curso de iniciación, pero básicamente tienes que tener en cuenta que aquí la clave de la imagen es la profundidad que tiene, es decir, cuanta más profundidad tiene la imagen, mejor va a funcionar esta transformación a
un estilo generado por la inteligencia artificial. Lo bueno que tiene esto es que podemos hacer visualizaciones para ver exactamente como queda ese estilo y a partir de ahí generar. Como ves aquí no me está gustando demasiado lo que estoy viendo, entonces a lo mejor tendríamos que seguramente trabajar con un ojo también, porque podemos mandarle una imagen de referencia a cómo queremos que tenga ese estilo en concreto. Yo tengo aquí unas cuantas cargadas y a lo mejor me es más interesante. En ese caso le voy a poner esta imagen de referencia a ver qué tal en
vez del estilo de preset. Y según esto puedes generar el vídeo de una manera o de otra. Como ves, aquí ya sí que me parece un poquito más interesante, así que le voy a dar aquí a generar vídeo y a partir de aquí tardará más o menos como es. No he tenido que especificar ni relación de aspecto ni nada, porque ya el vídeo se la va a dar, sin embargo va a tardar menos, va a tardar más en función de lo que es ese vídeo y en función de el estilo que nosotros le hayamos aplicado
mientras esta imagen se carga, te voy a contar aquí que es lo que tenemos precisamente de cara a los planes de pago que ofrece Runway. Como veis aquí yo estoy ahora mismo en el modo explorador, que es ilimitado totalmente. No tengo minutos de generación por delante y esto es algo parecido como al modo lento, al modo relax de mis guiones. No podría cambiar directamente al modo de créditos. Y como veis, aquí me quedarían 189 segundos. Cada vídeo que generamos en Jen uno se corresponderá con la duración del vídeo que estamos transformando. Si subimos un vídeo
de diez segundos, pues lógicamente va a tardar muchísimo más y nos va a consumir aquí diez segundos del tiempo que nos queda también en rango. Y tenemos dos modalidades de pago. La mayoría de ellas las vas a encontrar así o bien por mensualidad, o bien te comprometes a un año que en este caso te hacen un 20% de descuento. De entrada te digo que la mejor de todas y le vas a dar mucha caña a rally es precisamente la máscara de todas al limited, porque es la que te permite hacer un montón de generaciones, pero
si quieres probar la gratuita te da hasta 125 créditos. Lo que pasa es que luego no vas a poder comprarlos y en cambio te vas a tener que suscribir a uno de sus planes. Si te interesa probar, pues ya sabes, puedes probar con la gratuita y vas a poder más o menos ver si te interesa o no te interesa. Y desde luego aquí también te da el espacio de almacenamiento. Como te he dicho, es como esto es como una especie de ordenador virtual y es gratuita. Tienes hasta cinco gigabytes de assets, es decir, de materiales
100 gigabytes en la estándar, en la PRO, 500 gigabytes. Y después aquí básicamente tenemos ilimitado. Podemos utilizar todo su plan de nube, así que muy muy, muy interesante que explores cuál es la mensualidad o cuál es la membresía que más interesa dentro de RAM, si es que la vas a utilizar. Y ahora que ya tenemos nuestro vídeo, bueno, pues el original para que te hagas una idea, era muy corto, menos de tres segundos este clip en concreto y aquí tendríamos la generación en base a esta imagen que le hemos metido como referencia. Pues como ves,
esto es una simplemente una opción de cómo quedaría. Podemos tener más o menos control creativo con nuestro módulo avanzado, así que ya sabes, puedes empezar a experimentar. Si ahora vamos a otro modelo que es bien dos es súper potente, también podemos cargar imágenes, o bien subiéndola o bien seleccionando desde nuestros assets. En este caso, por ejemplo, voy a elegir esta que tengo aquí de una astronauta, la arrastro y directamente la tengo. En este caso hago doble clic y la tengo bien puedo generar desde la propia imagen, es decir, le doy a generar sin más, o
bien puedo aportarle una descripción, es decir, aquí la escribiríamos un prompt y aquí es donde podemos especificar cosas de movimiento, como por ejemplo de astronauta es talking. Por ejemplo, la está hablando. ¿Por supuesto, podemos ser mucho más elaborados y después aquí tienes otra serie de opciones la interpolación de fotogramas, para que te queda la mezcla entre fotogramas mucho más suave Después cómo nos movemos con la cámara? Es decir, porque tenemos aquí una cámara virtual y por lo general suele quedar bien. Ya te digo que es un pero aquí como también tienes para panel horizontal y
panel vertical o darle rotación con el rol. Y por supuesto aquí el control de velocidad, que es muy muy muy interesante. Así que yo le daría a generar y como veis en este caso desde imagen a vídeo, nos genera un total de cuatro segundos, vamos a poder expandirlo hasta 16 segundos, entonces ya tendríamos el primero. El resultado la verdad es que no está nada mal. Ha mejorado su algoritmo de generación de imágenes de imagen a vídeo y es muy interesante. Hasta hace unos días no conseguíamos estos resultados, era muchísimo más caótico. Ahora la verdad que
funciona muy bien y mantiene mucho el realismo de la imagen con la que habíamos trabajado de punto de partida. Mientras este segundo se carga. Como ves, aquí también podríamos a poner texto a vídeo entonces de Astronauta y Sorkin futurista Suit lo tienen todo de Horizon. Esto es como un pronto muy rápido, pero te va a dar una idea de lo que es capaz de generar UE y de aquí tendríamos el otro con la cámara. Como ves, aquí nos está haciendo un zoom out, pero desde luego no está hablando entonces en rango y sí que nos
va a costar muchísimo más conseguir que los personajes hablen, que los personajes interactúen. De hecho, para que hablen y haya una sincronizada con la vida. Así es que generamos audio. Por ejemplo, con Eleven Labs vamos a tener que utilizar herramientas mucho más específicas de cara a eso, como ves aquí esto es lo que ha interpretado Rowe. Bueno, no está del todo mal, pero la verdad es que no me convence a pesar de que tengamos productos más elaborados. Pero sí que es verdad que hay gente que hace verdaderas maravillas. De hecho lo puedes comprobar yendo de
aquí a su parte de whats donde ves trabajos que hace gente directamente con Rowe. Es absolutamente especta, te lo recomiendo mucho. Además, hace poco han tenido un festival que se llamaba Gen 48, es decir, en 48 horas tenían que generar un entero, así que es muy muy muy muy interesante. Hay que haces entonces como ves aquí se pueden hacer bastantes cosas, lo que pasa es que las imágenes que dan como muy bizarras y hay que tener mucha paciencia e iterar muchísimo para conseguir este tipo de resultados. Y por lo que estoy viendo, además la mayoría
de estas imágenes seguramente provengan generadas, no texto a vídeo, sino de imagen a vídeo. Y por último, de los que vamos a ver aquí de generadores de vídeo sería pick ups y como veis es una interfaz muy muy sencilla. Es esto. A partir de aquí generamos y ya está. ¿Esto es todo lo que podemos hacer, no? Evidentemente no le tendríamos que dar aquí a join beta y esto también se ejecuta a través de Discord, así que vamos directamente otra vez a Discord y vas a ver cómo funciona. Bien Pica también tiene su propio servidor y
como ves aquí tiene diferentes de donde podemos generar nuestros vídeos. De hecho aquí hay un montón de personas también, generando pues los diferentes vídeos a raíz, imágenes o desde texto a vídeo pic. Ahora mismo estamos pendiente de que llegue su actualización 2.0, que promete ser absolutamente brutal, pero de entrada te digo que es muy muy muy buena, generando también de imagen a vídeo. Me gusta muchísimo más que web y además es totalmente gratuita, aunque no sabemos cuánto le queda. Eso sí, queremos trabajar más comedidamente y más íntimamente con el bot de Pica. En este caso
no podemos crear un servidor donde mandemos el bot pero sí que podemos tener un chat privado con él y en este caso sería iraqui. ¡Al botón derecho le damos un mensaje y le decimos hola! Y aquí tendríamos nuestro chat privado. ¿Como ves aquí yo tengo unas cuantas generaciones que he estado haciendo con Pika Labs y como ves, la verdad es que la imagen la mantiene muchísimo más, porque esto estás viendo son imágenes que yo he creado previamente, no? Entonces como ves aquí las animaciones me gustan muchísimo, muchísimo, muchísimo. Y dentro de la propia aplicación, dentro
del propio Discord, no puedes alargar la duración de los clips, sino que tienes que hacerlo a través de una aplicación externa, etcétera Y volviendo a generar con una imagen fija. Como veis, esto es una imagen que va en este caso de pronto a y a vídeo, es decir, de texto a vídeo que no está nada mal. Las modelos van mejorando, pero aquí también tenemos una serie de parámetros que nos da un mayor control sobre la propia imagen. ¿En este caso, cómo vamos a crear nuestros vídeos? Bueno, tenemos los diferentes. Uno es anímate y otro es
Krieg. Crear está más orientado a crear desde texto a vídeo, aunque por supuesto, podemos imágenes y animar está más orientado desde imagen a vídeo sin necesidad de añadirle un prop. Por ejemplo, si hacemos barra animate. Como ves aquí podemos directamente arrastrar una imagen que nosotros tengamos. Ahora lo que yo voy a hacer es coger directamente la imagen del perro que hemos creado antes en Mid Journey y directamente le puedo dar aquí a uno y podría decirle a dos o a Human dos Talking to de Camera y a partir de aquí le puedo añadir parámetros también,
exactamente igual que en vídeo. Lo que pasa es que la diferencia es que solamente vamos a añadir un guión, el parámetro más básico todos es motion. Entonces ponemos guión motion y tenemos un control desde uno hasta cuatro. Por defecto sería uno. Si queremos el máximo movimiento le daríamos. Yo en este caso creo que va a funcionar algo tipo tres, a ver qué tal. ¿Y otro control básico sería Camera, donde tenemos cuatro movimientos, igual que sería sumar hop in, paneo horizontal, paneo vertical y luego también rol, no? En este caso rotar la cámara. Yo le voy
a poner un zoom out y a ver qué tal funciona. En este caso le daría a Intro, pero también como ves yo puedo darle a Create y podría decirle exactamente el mismo prompt pero sin mandarle la imagen de referencia, aunque si le doy aquí a uno más como es, podría cargar mi image y también aquí. Por supuesto puedo especificar la relación de aspecto guión R y en este caso podría decirle que 16/9. Como veis aquí además tengo tres botones. Básicamente esto sería Este otro botón sería también regenerar, pero haciendo modificaciones dentro del prompt. Es lo
que se conoce como remix. Y después aquí podríamos borrar nuestra generación dándole a la X. Después super importante que marque si te ha gustado o no te ha gustado la generación porque es lo que les va a dar información a la gente de Pica para seguir mejorando su algoritmo. Así que como veis aquí tendríamos que ser muchísimo más específicos y afinar mucho más nuestro plan para conseguir un buen resultado. No obstante, no está nada mal, aunque por aquí aparezcan ciertos artefactos que no nos interesen para nada. Después, esto sería lo que nos ha generado de
entrada, que como veis es una imagen que está bastante bien, es bastante realista en cuanto a la claridad. Sin embargo, aquí nos ha hecho algo raro, como si el pobre perro tuviera un problema ortopédico. Pero bueno, esto básicamente podríamos darle otra vez aquí, regenerar como veis aquí y además en este caso no hay límite y seguramente al regenerar obtendríamos o acabaríamos obteniendo ese resultado que estamos deseando. Entonces aquí ya tendríamos las otras generaciones que hemos dado. Como veis aquí esta, así que nos puede resultar mucho más interesante. No sé si es que pica y ha
lanzado el modelo 2.0 como está ya es muchísimo más interesante, esta puede que también, pero a lo mejor tendríamos que especificar que no queremos un primer plano. Por supuesto, aquí tendríamos después esta otra. Aquí empieza a hacer algo raro, pero sí que parece que empieza a hablar. Y en esta última, bueno, nos hace una especie de zumo al estilo Vértigo, como Hitchcock, pero podría ser chulo, la verdad es que está muy bien planteado también, fíjate. Entonces, complicada básicamente. También tenemos el mismo proceso con el resto de otras ideas generativas, iterar, probar, experimentar y afinar hasta
que consigamos un resultado deseado. Aquí simplemente te estaba mostrando como funciona la herramienta y esto sería absolutamente todo. Estas son todas las herramientas que puedes ver y con las que puedes empezar a generar ya desde cero tus imágenes y tus vídeos. Súper, súper interesante. ¿Qué vas a poder lograr? Bueno, básicamente quien no use la guía terminará por quedarse fuera del mercado. ¿Por qué? Porque bueno, porque lo que antes se necesitaba, un equipo de diez personas ahora puede hacerlo una sola. Y lo que antes llevaba cientos de horas, ahora lo puedes tener en segundos. Esto es
literal. Así que una sola persona podría hacer una película completa. ¡Y como digo, ahí, presentación bum! Esto es tal cual. Esto puede pasar ahora mismo y además de una sola foto. Si solo quieres hacer fotografía, puedes obtener un sutil entero de fotografías también su verbo de y súper interesante. Así que ese miedo tan típico que podías tener antes de empezar este curso de me voy a quedar sin trabajo o no entiendo todo esto, vas a poder superarlo precisamente expandiendo todos tus límites creativos y todas tus habilidades en el mundo audiovisual. Y para eso te ofrecemos
precisamente el máster que tenemos de inteligencia artificial en la escuela, donde cada mes estamos abriendo 100 nuevas plazas. ¿Qué vas a poder encontrar? Bueno, pues te voy a dar un paseo pequeñito por la interfaz que tenemos ahora mismo dentro de la escuela. Aquí tendrías un vídeo de presentación aquí básicamente te vas a poder encontrar un vídeo pequeño. Me explicó toda la escuela nada más entrar y a su vez también vas a poder descargar un glosario súper superimportante. Este glosario términos para que desde el momento que entres tengas muy claro los términos o si en algún
momento de una de nuestras clases, por lo que sea, no entiendes algo en este glosario va a aparecer todos esos términos que estamos manejando después. Aquí están todas las clases que ya llevamos a día de hoy. Como veis, tenemos unas cuantas y eso sí, te tendrás que poner al día, lógicamente. Pero como te digo, esto te va a ahorrar cientos de horas. Con lo que te he contado, la verdad, ya puedes empezar. Puedes entrar a experimentar y ver si esto realmente te puede interesar, si no te puede interesar, etcétera Pero desde luego te aseguro que
no sólo vemos la parte de las generativas, todavía no hemos llegado a ello. En el máster también vamos a ver herramientas de posproducción que utilizan inteligencia artificial, que eso también te va a ahorrar muchísimo tiempo, te va a permitir ser muchísimo más productivo, mucho más eficiente y, por supuesto, abarcar muchísimos más trabajos, que es lo verdaderamente interesante. No solamente la parte creativa generativa, sino toda esa parte de herramientas que se apoyan en algoritmos de inteligencia artificial para que tu trabajo sea muchísimo más rápido. Después, aquí, como veis, tenemos un apartado de próximos directos, una zona
donde tenemos todas las aplicaciones que estamos manejando en el máster. Por supuesto, se unirán más y después una explicación de cómo acceder a nuestra comunidad en Discord, que es una absoluta pasada, porque entre los alumnos que hay ya, la verdad es que muchos de ellos están haciendo trabajos súper interesantes como estos que estás viendo aquí, que ya lo expuse en el vídeo anterior y ahora mismo tenemos activo el primer concurso de inteligencia artificial sólo disponible para alumnos, en este caso de la creación de spots de 15 segundos. Así que como te digo, cada mes abrimos
nuevas plazas a nuestro máster de Inteligencia Artificial, donde damos clases en directo entre un servidor y Juan Pablo de Miguel, que de verdad es un verdadero crack, es absolutamente pionero en lo que está haciendo. Puedes echarle un ojo a su perfil de Instagram, Es una auténtica pasada y es una suerte y un orgullo tenerle con nosotros como profesor. Y además, como te he dicho, también una vez en una clase se queda obsoleta o una herramienta es actualizada directamente. Te contamos esa actualización, pero eso sí, sin perder el avance concreto del máster, para que siempre, siempre
estés aprendiendo y avanzando en este camino de inteligencia artificial. Y recuerda que en la descripción tienes un enlace gratuito a un e-book de iniciación a la Inteligencia Artificial para aprender a instalar correctamente tanto en Windows como en Mac, este hilo de difusión, Configurar Dione en Discord y aprender a escribir pronto. Espero que te haya gustado y que te haya servido este curso gratis de Introducción a la Inteligencia Artificial. Tienes más información acerca de nuestro máster en la descripción y hasta la próxima.