te puedes considerar tremendamente afortunado de estar a la vanguardia del cambio que está por venir los agentes ia y la automatización se están convirtiendo en un futuro que cada vez es más inminente y n8n es la herramienta predilecta para este cambio hoy te voy a enseñar de forma muy detallada pero a la vez muy resumida todo lo que necesitas saber acerca de esta herramienta para que aprendas a utilizar la Inteligencia artificial antes de que esta aprenda a utilizarte a ti delante de vuestros ojos tenéis una pequeña vista general de todos los puntos que vamos a
tratar uno a uno nuestro enfoque es que empecemos siendo unos totales desconocidos de esta herramienta que no la conozcamos para nada y que acabemos siendo personas con la capacidad de integrar soluciones reales es decir nuestro enfoque no va a ser solo técnico de estudiar la herramienta y saber cómo funciona sino realmente cómo impacta esta herramienta en la vida real de los empresarios estudiar casos reales y ver cómo puede mejorar nuestra vida Y hacer que esta sea mucho más sencilla porque no tiene sentido que le demos un enfoque muy técnico si después no sabemos como esto
tiene sentido en la vida real es decir veréis que muchas veces os aportan soluciones o os enseñan ciertas automatizaciones que parecen muy bonitas pero que después cuando las aplicamos en la vida real tienen unas problemáticas que son ciertamente complejas de solucionar nosotros os vamos a llevar a los problemas y Vais a ver cómo lo solucionamos uno a uno y qué enfoque tenéis que darle a estos para que no se conviertan en problemas no solventa bles bien pues lo primero que vamos a tratar en este curso es preguntarnos qué es n8n muy probablemente si ya estás
aquí ya sepas que función cumple esta herramienta y Qué problema soluciona Me gustaría darle un enfoque algo distinto para que realmente todos entendamos lo que viene a aportar esta herramienta y que la diferencia de las demás 8n no deja de ser una herramienta que incorpora flujos de trabajo como vienen haciendo otras en otros contextos con la única particularidad y una fortaleza muy diferencia Eva en el mercado de que incorpora un concepto que son los agentes de Inteligencia artificial estos agentes son bloques inteligentes que tienen la capacidad de tomar decisiones en base a un determinado prom
es decir en base a una determinada orden que nosotros le demos el lenguaje natural es decir en texto y Esto hace que este agente tenga la capacidad de actuar en diferentes contextos y tomar decisiones inteligentes esto es muy importante y lo separa de la programación convencional que es lo que veníamos haciendo hasta ahora en la que nosotros introducí una serie de comandos o secuencias lógicas y siempre se iban a cumplir de la misma forma es decir era determinista en este caso n8n lo que nos aporta es de una forma muy sencilla es decir el un
concepto que introducimos que es low code que no no code que personas sin tener extensos conocimientos acerca de codificación convencional tengan la capacidad de desarrollar soluciones que pueden tener muchísimo impacto para mí esto sería n8n y es la forma en la que me gusta comprenderlo la siguiente cuestión que debemos abordar es Por qué debemos de aprender n8n porque está genial no es decir ahora mismo hay un repertorio muy amplio de diferentes herramientas y tenemos que enfocar muy bien nuestra atención y nuestra digamos que energía en realmente aprender cosas que nos vayan a causar un impacto
significativo de Cara a nuestro futuro y nuestra formación profesional en el caso de n8n estamos viendo que está siendo una empresa que está teniendo mucho impacto es decir está teniendo un crecimiento Muy bueno está teniendo un buen grado de adopción y todo apunta a que en el futuro esta herramienta se va a convertir en el buque insignia en cuanto a automatizaciones low code por otro lado tiene unas fortalezas que a mí me parecen muy a tener en cuenta que son sobre todo el tema de las op aciones soporta más de 400 servicios y aplicaciones por
otro lado tenemos que es código abierto esto es muy importante Ya que podemos correrlo en local y no tener un precio asociado a cada ejecución todo esto lo vamos a ver posteriormente tenemos una comunidad muy activa con más de 1000 plantillas una curva de aprendizaje por lo que comentábamos de Low code no no no no tan elevada no como otros sistemas como podrían ser l Chain de acuerdo y por otro lado te posicionas con una habilidad que va a ser muy demandada tanto en el futuro como lo está siendo en el presente Entonces es algo
muy a tener en cuenta y que quiero que os sirva de motivación para que todo este curso os mantengáis enganchado y realmente lo podéis aprovechar al 100% a la hora de ejecutar n8n tenemos dos modalidades muy diferenciadas o en local o en Cloud realmente tengo muy claro cuál de las dos modalidades tiene mayor preferencia o le Vais a dar un uso más realista en la vida real es decir en aplicaciones en empresas y esto sería el caso del local por qué Porque tenemos la cuestión de la privacidad y y la seguridad es decir el componente
diferencial a la hora de que la Inteligencia artificial se convierta en una tecnología que realmente sea relevante en nuestra vida es que esta sea privada es decir en el momento que la Inteligencia artificial comprometa la seguridad de nuestros datos queda totalmente descalificada y nadie la quiere nadie quiere que esto nos exponga es decir qué sentido tiene de que nosotros utilicemos herramientas muy poderosas y después vamos a subirlo a un servidor y no sabemos qué Qué se hace con esa información y es información realmente muy crítica porque es referente a empresas son procedimientos y son cuestiones
que no se pueden exponer de forma tan sencilla entonces Eh sí que es cierto que Cloud sería una opción muy a tener en cuenta porque no tenemos complicaciones técnicas a la hora de la integración es decir simplemente lo corremos en su servicio web y no tenemos ningún problema podemos acceder desde cualquier lugar tenemos el riesgo de de la privacidad como venimos comentando y por otro lado es más caro también nos olvidamos de ciertas cuestiones como podrían ser el mantenimiento del servidor de la infraestructura el estar actualizándolo constantemente todo esto ya nos lo daría de forma
nativa n8n ya que nos aportan la solución ellos pagando una cuota mensual por ejecución de acuerdo aquí tendríamos el servicio starter como ejemplo pero después tendríamos otros servicios asociados llegando incluso a tener un servicio Enterprise en el cual nos hacen un precio adecuado a nuestras necesidades y al uso que le vayamos a dar entonces bueno eh yo lo que recomiendo Es cuando nos iniciemos iniciar siempre en Cloud vale para integraciones de prueba pero posteriormente mediante nos vayamos profesionalizando y vayamos mejorando lo que recomiendo Es que vayamos tendiendo a el local de acuerdo esto sería un
poco para diferenciar las dos modalidades a la hora de ejecutar y tener la infraestructura de este sistema vamos a introducirnos ya de Cara a lo que sería la herramienta en sí mismo vamos a dejar introducciones de contexto y de impresas y realmente vamos a enfocarnos ahora en lo que serían las funcionalidades y los menús vamos a hacer un pequeño overview del menú general para que sepáis moveros eh Me gustaría también destacar unos aspectos que debéis de tener en cuenta vale de este menú y por otro lado eh Me gustaría haceros un pequeño aviso de que
tengáis muchísimo cuidado ya que esto se está convirtiendo en un mercado muy emergente nadie Realmente tiene mucha idea acerca de cómo funciona esto y están surgiendo gran multitud de oportunistas que se están aprovechando de toda esta emergencia y que lo que están haciendo es vender plantillas de otras personas que no son de autoría propia y está viendo mucha estafa es decir mucho vend humos que es como se suele conocer convencionalmente en esta plataforma por favor tener muchísimo cuidado no compréis cosas que no sabéis si la autoría es propia tenéis muchísimos recursos en nuestra comunidad School
gratuita en este caso pronto lanzaremos una de pago pero en la de pago Vais a encontrar valor exclusivo realmente diseñado por nosotros cursos de calidad y me gustaría comentar que tenéis una herramienta que es el n8n workflow creator que esta herramienta digamos que es un gpt que está ideado o customizado para que tenga la capacidad de apoyarnos en la resolución de ciertas cuestiones que nos pueden surgir a la hora de la creación de determinados FL flujos es decir es un asistente un gpt que En definitiva está ajustado para que nos ayude a la hora de
customizar nuestros flujos o a la hora de crearlos tenerlo en cuenta y vamos a hacer una pequeña overview de el menú general bien una vez nos registramos y accedemos al menú general de n8n véis que lo primero que encontraremos es este menú de aquí que se llama overview en el cual tenemos diferentes pestañas y diferentes posibilidades como veis lo primero que vemos a la izquierda es una columna donde tenemos los diferentes proyectos en cada uno de estos proyectos podemos tener diferentes flujos Si os fijáis en el mi personal Pues tengo unos flujos y en el
de ailing Podría tener otros totalmente distintos esto realmente comprenderlo como si fuesen las carpetas de Windows para hacernos una idea en esta parte de aquí en la parte central tenemos el menú de workflows donde tenemos todos nuestros flujos de trabajo Es decir todos nuestros códigos entre comillas tenemos las credenciales vale esto sería las integraciones con servicios externos Api después lo vamos a comentar Vamos a entrar un poco en detalle en esto tenemos las ejecuciones que esto realmente lo que nos dice es en un flujo de trabajo cuando se ha dado una secuencia determinada Cómo se
ha dado esta es decir podemos hacer un seguimiento y en caso de que se haya dado un error en esta poder realmente saber en qué momento o en qué parte del flujo de trabajo Se ha dado este error Esto está muy bien sobre todo a la hora de debugar y sobre todo a la hora de tener en cuenta los errores entonces siguiendo con la parte izquierda de la columna tendríamos el panel de administrador vale esto no lo vamos a comentar de momento y los templates los templates sí que me gustaría entrar Y que veamos un
poco esta sección me parece algo muy importante muy a tener en cuenta ya que tenemos muchísimos recursos de forma gratuita Y hay muchos proyectos que podemos copiar directamente y de esta manera ya tenemos una gran parte del diseño totalmente realizada es decir no tenemos que estar comiéndonos la olla y pensando en ciertas soluciones que ya existen es decir no no tiene mucho sentido que estemos desarrollando algo que podemos copiar de una forma muy sencilla lo único que tenéis que hacer es entrar le dais a usar el workflow y lo podéis usar directamente simplemente para que
lo tengáis en cuenta bien pues ahora que hemos visto un poco por encima todo el interfaz en general vamos a ir a nuestro espacio de trabajo para esto lo que tenemos que hacer es darle a la opción de crear el flujo de trabajo una vez estamos en nuestro espacio de trabajo como veis esto sería como un Lienzo en blanco es decir donde tendríamos todos nuestros flujos y donde pondríamos las diferentes ejecuciones tenemos diferentes posibilidades como veis a la izquierda tenemos exactamente la misma columna que teníamos en el menú anterior aquí le daríamos el nombre a
nuestro flujo de trabajo en este caso le voy a poner test le podemos poner un tag vale en este caso pues lo podríamos poner para catalogarlo el flujo y para que lo tengamos más ordenado cu tengamos muchísimos flujos esto nos puede ser de gran ayuda tenemos editor o ejecuciones ejecuciones sería el equivalente que hemos comentado anteriormente Es decir para saber en qué momento del flujo se ha dado un error o para saber cómo han funcionado las diferentes ejecuciones tendríamos la opción de activo inactivo es decir que pasamos a modo producción o estamos en modo prueba
tenemos la opción de share que es simplemente compartir guardar muy importante ahora no me deja guardar porque no he hecho ningún cambio tenemos los tres puntitos que aquí lo que podríamos hacer es duplicar Descargar el workflow que nos descarga un json que después podremos importar o compartir para que otras personas lo utilicen en su espacio de trabajo y lo primero que tenemos que hacer o lo primero que haremos siempre es poner un Trigger de acuerdo seleccionamos el Trigger y después nos dejará ejecutar o seleccionar más bien otras opciones que serían ya las ejecuciones ahora vamos
a entrar de detalladamente a ver qué significan o qué diferentes bloques tenemos bien para esta parte del vídeo vamos a quitar la cámara y vamos a centrarnos en todo lo que tenemos en pantalla os he preparado un Lienzo en el que tenemos de un vistazo la forma que he considerado más óptima de catalogar los diferentes nodos para que los entendamos en una primera aproximación quiero que nos quedemos con que tenemos tanto triggers como acciones lo que debemos de entender de los triggers es que son los disparadores de nuestra secuencia lógica es decir cuando se dé
un evento determinado que nosotros elegimos como podría ser el caso de que se dé cada cierto tiempo o a través de un clic se va a disparar toda la secuencia lógica de nuestro flujo de trabajo después tendríamos las acciones que como su nombre indica Ejecutan acciones ya sea dentro del ámbito de n8n es decir dentro de nuestro propio flujo de trabajo o fuera como podéis ver en la zona de color verde donde tenemos las integraciones las integraciones son conexiones externas que utilizamos con servicios que nos ofrecen esta posibilidad como podría ser el caso de WhatsApp
Telegram y todas las que veis a continuación tened en cuenta que hay más de 400 integraciones os las enseño aquí de forma muy resumida y cada una de estas integraciones nos dan diferentes posibilidades y están asociadas al servicio es decir todas las acciones que nos den como posibilidad van a estar asociada a las posibilidades de ese servicio en concreto por ejemplo en el caso del WhatsApp nos permitiría enviar mensajes enviar templates etcétera cada uno de ellos tendría una particularidad tened en cuenta también que las integraciones o los servicios pueden ser tanto Trigger como acción y
después Y por último me gustaría comentar el bloque de los nodos lógicos y de variables como sabéis en la programación convencional tenemos tanto los condicionantes como las variables y de momento por mucho que estemos en low code no nos podemos desprender de esto por lo tanto tenemos los típicos nodos asociados a la lógica como podrían ser el If la declaración de variables y el Loop vamos a comentarlo todo esto en el siguiente punto vamos a hacer una pequeña feria y Vais a ver cómo es muy intuitivo aunque nos vendan que la herramienta Es eh No
code es low code como hemos comentado anteriormente es decir que utiliza muy poco código Hay ciertos creadores que os venderán que con sus cursos o de forma muy sencilla pues os vais a hacer verdaderos expertos de la nada pero no es tan así es decir necesitamos entender estructuras básicas como podrían ser el json Aquí vamos vamos a haceros una pequeña introducción para que veáis De qué se compone el json y a modo de vista general entender Qué es aquí tenemos los básicos de Jason y debéis de entender que Jason En definitiva no deja de ser
una organización de datos en pares de clave y valor es decir un objeto como podemos ver aquí que es un correo electrónico en este caso que os os he puesto el ejemplo viene definido por sus partes que en este caso como vemos aquí sería la parte de el destinatario el subject vale que sería el asunto tenemos el body que es el cuerpo del correo vale Y es una forma de estructurar los datos en clave valor vale es una forma de interconectar y enviar datos entre diferentes aplicaciones y es muy importante que que entendáis este concepto
aunque sea superficialmente ahora una vez comprendemos este concepto ya podemos pasar a explicar el flujo de trabajo y vamos a poneros un pequeño ejemplo con el Excel que tenéis a continuación como vemos yo cuando pulso en este Trigger de aquí vale si le damos a test workflow lo que hace es este flujo de trabajo es filtrar una serie de libros que tengo organizados en forma de columnas en un Excel y cada uno de ellos tiene asociado un precio entonces lo que hacemos es dividirlos entre los que son caros y son baratos vale sería una forma
muy compleja como estáis viendo pero es simplemente para que lo entendamos Entonces si entramos en el Google sheet que tenemos a continuación veréis que tenemos la sección de input vale que son los datos que nos entran en este caso Simplemente nos ha entrado el click del del Trigger vale si tuviésemos un chat A través de de WhatsApp pues nos nos entrarían todos los datos referentes a ese chat de WhatsApp y por otro lado tenemos el output y aquí podemos ver cómo está estructurada la información del json asociado a este Excel de acuerdo podemos ver la
lista y podemos ver los diferentes componentes que definen a este objeto Es simplemente para que lo tengáis en cuenta y que veáis como estamos extrayendo de este Google sheets toda la información para enviarla a los siguientes nodos es una forma de estructurar la información para interconectar diferentes nodos quedados con la esencia entonces a modo de comentario para que veáis los credenciales de de Google aquí yo me he conectado con mi cuenta de Google directamente y de esta forma ya puedo descargar información de este Google sheet vale en la comunidad recordar en School tenéis diferentes píldoras
de cómo integrar estas aplicaciones para que os sea mucho más sencillo Porque veréis que hay ciertas problemáticas a la hora de conectar ciertas aplicaciones porque suelen hacerlo algo complejo Entonces vamos a a revisar las diferentes condicionantes que tenemos dentro este flujo Y como veis aquí he utilizado una que es el bucle el bucle lo que hace es iterar un flujo de trabajo quedados con la esencia después tendríamos el Ai transform que es un nodo que es un tanto particular y va un poco con la esencia no de lo que sería low code porque nos permite
programar un nodo en lenguaje natural es decir nosotros aquí le escribimos el texto en este caso como veis en el ejemplo yo lo que he hecho es quitarle el precio al String de precio Es decir le hemos cambiado al final el tipo de dato es decir hemos puesto de un dato String lo hemos cambiado a tipo número porque de esta forma posteriormente veréis que podré utilizar mucho mejor ese dato en tipo número que en tipo String y lo he programado en lenguaje natural este tipo de bloques Me parece que van muy con la esencia y
me gustaría reforzarlos en este curso para que los tengáis muy en cuenta como veis si le damos a test por un lado nos entra la input del Google sheets el precio nos entra en String lo pasamos por el bloque Mágico y nos sale el precio en un tipo de dato que sería número de acuerdo como veis aquí entonces pasaríamos al siguiente al siguiente nodo que en este caso es un If condicional que si que lo único que le decimos es si este número de aquí es decir el precio es mayor a 35 vamos a considerar
que es caro quedaos con la esencia es decir si fuese un String es decir si no si no hubiésemos utilizado el nodo de Ai transf no hubiésemos podido hacer esta comparación porque un String no se puede comparar a nivel lógico como podemos hacer con los números de acuerdo es por eso que utilizamos esta condición entonces en función de si es un libro caro o un libro barato los catalogamos es decir les damos un tag de acuerdo y lo que hacemos posteriormente es un merch que al final un merch quiero que lo entendáis como una Unión
Como si fuese una I por la que entran dos tubos de agua y sale un segundo tubo algo más grande con toda la demás información entre comillas de acuerdo entonces todo esto converger yaa y finalizaría el el bucle tener en cuenta que realmente esto lo podríamos haber hecho con un filtro es decir ya no nos da este tipo de herramientas para que podamos hacerlo de una forma mucho más sencilla pero ahora simplemente para que podamos ejecutarlo y ver los diferentes componentes y las diferentes condiciones que tenemos quisiera haceros un pequeño anuncio Y es que la
semana pasada lanzamos nuestra comunidad School estamos verdaderamente sorprendidos más de 450 usuarios en menos de una semana está siendo una completa locura es decir nos estamos convirtiendo en la comunidad de School de automatización por Inteligencia artificial de más rápido crecimiento de habla hispana estamos verdaderamente ilusionados con el proyecto Así que os recomiendo muchísimo uniros a esta comunidad estamos creciendo todos muchísimo nos estamos aportando estamos aportando proyectos conocimientos y la verdad que está siendo de muchísimo muchísimo valor por favor uniros Y de verdad que no os vais a perder una cosa tan valiosa bien Ahora vamos
con una diapositiva que me parece verdaderamente interesante que es la de los agentes de Inteligencia artificial los agentes de Inteligencia artificial son la verdadera Revolución y es lo que hace a n8n tan único quiero que entendáis a los agentes de Inteligencia artificial como un bloque inteligente que es capaz de ejecutar órdenes únicas en función del contexto y este contexto lo va a evaluar en función del prom que nosotros le demos Es decir de las órdenes que le demos el lenguaje natural o sea el lenguaje escrito de los seres humanos en n8n tenemos diferentes tipos de
agentes cada uno de ellos enfocados a una tarea en concreto o más bien optimizados no son distintos tipos al uso sino que sería el mismo gente lo que están sometidos a diferentes procedimientos de find tanning que se llama que En definitiva iba no deja de ser un procedimiento a través del cual afinan al modelo o lo hacen un poquito más específico para una tarea determinada yo os he puesto en la diapositiva que tenéis aquí como veis aquí el agente herramienta el agente conversacional y el agente de planear y ejecutar que para mí serían los tres
más relevantes en realidad hay unos cuantos más no vamos a entrar en ellos porque no me parecen lo suficientemente significativos como Para tenerlos en cuenta en un curso inicial Pero estos De aquí sí que me parecen interesantes porque son los que vamos a utilizar con mayor recurrencia en el caso de la del agente de herramientas es un muy buen agente a la hora de utilizar como su nombre indica herramientas externas es decir podemos conectarle como vemos aquí una herramienta que en este caso pues sería WhatsApp y ejecutar instrucciones como hemos visto en el caso de
los bloques de los nodos que nos permita esa herramienta como podría ser enviar un post a través de Instagram o Enviar un mensaje a través de WhatsApp las diferentes posibilidades que nos ofrezca el blo recordar después tendríamos la memoria es decir podemos dotar a nuestro agente con una memoria para que tenga memoria de las interacciones que vamos teniendo con él es decir imaginad que le preguntamos a la gente acerca del tiempo acerca de la climatología de aquí a dos días Pues el agente nos va a dar la respuesta y en la interacción posterior es decir
cuando vuelva a comunicarme con él posteriormente a esa respuesta el agente va a saber que yo ya le he preguntado anteriormente por eso es decir va a evaluar el contexto de las preguntas que le hemos ido haciendo y las va a ajustar para saber que ya ha hablado con nosotros anteriormente después tendríamos el modelo Aquí sí que me gustaría hacer una pequeña overview veréis que hemos preparado una pequeña diapositiva posteriormente para hacer un poco digamos que hincapié en los conceptos fundamentales y el modelo lo que hacemos Es conectarlo a la gente para que actúe como
intermediario a la hora de interpretar tanto las órdenes como estructurar las respuestas en lenguaje natural de acuerdo esto sería el caso de la agente herramienta la agente herramienta tendría estas tres ramas el agente conversacional De igual forma las tendría estas tres lo que estaría más optimizado a tareas de conversación como su nombre indica es decir sería un chat Bot pasa que hay que diferenciar un poco entre lo que sería un Bot y un agente un agente siempre es más inteligente es decir tiene la capacidad de elegir en función del contexto esa sería la palabra clave
y después tendríamos el agente de ejecutar y planear que en este caso simplemente le conectaría un modelo y le conectarías una tool el matiz es interesante ya que como su nombre indica tan solo ejecuta y planea y por lo tanto no debe tener memoria tan solo debe ejecutar y planear las instrucciones en función del contexto ya está esto serían los asistentes o los agentes como comúnmente son conocidos y ahora vamos con el siguiente con el siguiente bloque bien siguiendo un poco con el hilo de lo que serían los agentes vamos a hacer una pequeña descripción
también de una función que es muy interesante de n8n que sería la función de from Ai como veis aquí en la pequeña diapositiva esta que os he preparado esta función de lo que se encarga es que podemos decirle a un agente que completa automáticamente la información que que falta dentro de nuestros flujos es decir imaginad por ejemplo que tenemos un agente asociado a un nodo de ejecución de Gmail pero que sin embargo no hemos declarado en ningún sitio lo que sería la variable de correo entonces con esta función de aquí Dollar from Ai parenthesis con
esta sintaxis en particular tenemos la capacidad de pedirle al modelo que él mismo sea capaz de generar en función del contexto la respuesta asociada al correo bien poco a poco conceptualmente nos vamos acercando a lo que sería nuestro primer flujo de prueba no nuestro primer proyecto real Pero antes de introducirnos en esto quiero que veamos a nivel de digamos que de introducción y que sepamos los conceptos y los fundamentos para que tengamos criterio posteriormente cuestiones tan básicas como como Qué formas tenemos de cuantificar el uso de los modelos de Inteligencia artificial Por qué es importante
cuantificar el el uso es importante cuantificar el uso porque En definitiva Si queremos asociar el uso a un precio y saber a qué precio nos va a salir el servicio que estamos ofreciendo y por lo tanto poder presupuestar lo o tener un control de los gastos pues tenemos que saber la unidad mínima que está asociada al uso de ese servicio en este caso la unidad mínima asociada a ese servicio sería el token el token como su nombre como su nombre indica sería la moneda que emplea la Inteligencia artificial o los modelos para cuantificar el uso
y está asociado al número de caracteres es una aproximación realmente no hay una relación directa por eso veis aquí que es una aproximación en inglés serían un token cuatro caracteres en promedio vale esto tomarlo no lo toméis a pies puntillas es algo aproximado Pero esto nos introduce a un nuevo concepto que es la ventana de contexto la ventana de contexto es la cantidad máxima que podemos enviar por prompt es decir por solicitud a un modelo de Inteligencia artificial en una sola petición por ejemplo jamás podríamos enviarle la Biblia porque la Biblia no sería capaz de
procesarla esto está asociado a Potencia de cómputo es decir Open a está usando Potencia de cómputo para procesar esa petición y como entenderéis no podemos enviar todo aquello que nosotros queramos tenemos una limitación de acuerdo Y esa limitación está asociada al servicio que utilicemos si si utilizamos Google Tendremos una limitación en tokens si utilizamos Open Ai tendremos otra limitación si utilizamos modelos locales tendremos otra limitación pero debéis de conocerlo porque veréis que cuando enviáis determinadas instrucciones o proms a veces no responde del todo bien y es por esta limitación de acuerdo como veis gpt 4.5
tiene una limitación de hasta 4096 tokens y gpt 4 pues hasta 8,192 simplemente para que veáis las diferencias entre de diferentes modelos y como muchas veces está asociada a la potencia como podría ser el modelo 4 con en comparación al 3.5 con la cantidad máxima de tokens permitidos vale aquí os he hecho una pequeña eh digamos que descripción del precio no por millón de tokens en este caso como veis los tokens de entrada es decir las peticiones de entrada suelen tener un precio algo más reducido ya que como entenderéis la respuesta siempre está supeditada o
está asociada al cómputo que emplea el modelo de Inteligencia artificial y es realmente lo que tiene tiene un precio y lo que repercute en Open Ai por lo tanto es aquí donde entra la diferencia de precio vale por eso vale cuatro veces más el el token de salida que el token de entrada simplemente para que lo tengáis en cuenta Es decir debéis de optimizar siempre el prom de entrada para que el prom de salida sea lo más óptimo corto posible para que el precio sea lo más reducido una vez tenemos esto iríamos directamente con una
cuestión que también me gustaría que sepáis y es la potencia del modelo y la capacidad que este tiene asociada también a la velocidad Por qué Porque siempre tenemos que hacernos una pregunta y esta pregunta es qué modelo tengo que utilizar Y por qué es decir no vale con siempre el modelo más potente no vale con siempre el modelo más rápido siempre veréis que cuando os hacen una demostración cogerán el modelo de referencia porque lógicamente va a funcionar bien Si pones el o1 que es el buque insignia que tiene actualmente Open Ai pues lógicamente va a
funcionar perfecto a la hora de rastrear listas porque estáis matando moscas a cañonazos pero es que la intención de la Inteligencia artificial no es esa es decir tenemos que economizar imaginos por un momento tener 800 caballos de potencia como podría ser el caso de un Mustang y tener la carrocería de un Renault twingo no tiene muchísimo sentido verdad pues por eso mismo debemos de optimizar la potencia y la velocidad del modelo y contextualizarla al caso de aplicación Entonces qué debéis de tener en cuenta debéis de tener en cuenta que tenemos modelos avanzados y modelos ligeros
normalmente no siempre los modelos ligeros están asociados a una mayor velocidad de respuesta y Consecuentemente al ser más ligeros y utilizar una menor cantidad de parámetros los parámetros son los datos por los cuales Este modelo está alimentado suelen ser más económicos y más rápidos pero con la contrapartida de que suelen ser menos precisos y menos potentes Consecuentemente sin embargo los modelos avanzados son más caros tienen más parámetros y son más lentos de acuerdo Entonces si son recuperaciones de información pequeñitas si es para enviar correos que son muy sistematizados modelos baratos y rápidos no os vayáis
a los caros tengamos lo en cuenta y vamos con el siguiente punto bien pues ya Hemos llegado al punto clave de este vídeo que es cuando vamos a analizar el proyecto vamos a hacer un proyecto real vamos a ver el impacto que tiene en la vida de un empresario y vamos a estudiar el caso de aplicación cómo hacemos esto lo primero que tenemos que hacer es identificar una necesidad real es decir imaginaos que somos una empresa que nos dedicamos a ofrecer servicios asociados a la Inteligencia artificial para optimizar procesos productivos o mejorar la vida de
las personas lo primero que tenemos que hacer es identificar la necesidad es decir vamos a poner el ejemplo de que tenemos un empresario que recurrentemente este empresario de aquí está enviando correos de forma masiva y constante y que además son muy repetitivos esto le hace perder en promedio unas 4 horas al día aproximadamente y él está viendo que estas 4 horas al día no las está podiendo dedicar a cosas que son verdaderamente importantes como pueden ser sus clientes o realmente el crecimiento de la empresa y la optimización de procesos es ahí donde nosotros debemos de
definirle el valor es decir tenemos que decirle Oye no solo te estoy solucionando un problema que te va a hacer tener más tiempo sino que debido a que vas a tener más tiempo vas a poder dedicarlo a cuestiones que te van a dar un Roy es decir un retorno de inversión por el tiempo que estás aportando mucho más elevado entonces aquí es donde justificamos el por qué estamos aplicando el proyecto y el sentido que tiene contextualmente ahora iríamos a la parte donde definí la viabilidad en cuanto a la implementación técnica tenemos que hemos definido el
problema Es decir tenemos un empresario que tiene un problema que está enviando correos de forma recurrente son muy repetitivos es fácilmente automatizable de acuerdo le hemos demostrado que esto se puede hacer y ahora lo que tenemos que ver es los componentes que necesitamos para que esta herramienta se adecúe lo mejor posible a sus usos diarios tenemos que pensar que al final somos como un sastre o un zapatero y tenemos que construir el zapato a medida que le vaya perfecto Es decir que no le cause ningún tipo de adherencia Porque si tiene que utilizar aplicaciones que
no está utilizando en su día a día o si tiene que utilizar ciertos ciertas plataformas que no utilizan su día a día estamos en un problema porque le estamos generando fricción a la hora de entrar en estas herramientas Entonces no lo va a utilizar y con el tiempo lo que va a tender es a despreciarlos Entonces en este caso vamos a suponer que el empresario en cuestión es una persona que tiende a utilizar Telegram como plataforma de mensajería internamente dentro de su empresa y es una plataforma que utiliza de forma recurrente es decir está entrando
prácticamente de forma constante para comunicarse después nos comunica que tiene un Excel en la que en el que tiene en forma de columnas todos sus contactos y en forma de filas pues lo que serían los números o los correos asociados por lo tanto aquí ya podemos extraer muchísima información tenemos dos elementos claves que serían el Telegram y los contactos vemos que utiliza Gmail para enviar los correos suele utilizarlo como la plataforma preferencial vale ya sabemos que esto en los contextos empresariales no suele ser así suele utilizar más otras como podrían ser Outlook Y tal Pero
bueno para poner el ejemplo como esto es más fácil de utilizar o de integrar para la aplicación vamos a utilizar Gmail de acuerdo y después tendríamos que ir a la cuestión de qué modelo debemos de utilizar el modelo que debemos de utilizar en este caso según mi punto de vista y evaluando el contexto tiene que ser un modelo lo suficientemente potente como para que no incurra en errores muy evidentes ya que se trata de una cuestión prioritaria que son comunicaciones con los clientes por lo tanto yo aquí voy a utilizar un modelo de referencia como
sería el 4o es decir en este caso sí que me merece la pena matar muscas a cañonazos vamos a la implementación directamente en n8n para que veáis cómo lo hacemos paso a paso y que realmente es muy sencillo pues aquí estamos en n8n de nuevo y vamos a crear nuestro flujo de trabajo lo primero que hacemos es siempre darle nuestro nombre al proyecto en este caso sería agente barra baja empresa vale para el ejemplo y vamos a Añadir nuestro primer Trigger vale nuestro primer Trigger estará asociado como comentábamos a Telegram vale buscamos Telegram y seleccionamos
que sea un Trigger que esté asociado a un mensaje es decir cuando recibamos un mensaje desatamos toda la secuencia lógica estamos escuchando todo el rato a ese mensaje de acuerdo como comentábamos anteriormente siempre que conectemos un servicio externo necesitamos una credencial en este caso es una Api de acuerdo Vamos a darle al lápiz y tenemos que conseguir la Api de Telegram en este caso lo vamos aer directamente aquí con vosotros vamos a Telegram vamos a nuestro Bot Father pondríamos Start en Start le tenemos que decir New Bot vale le damos un nombre en este caso
yo le voy a decir test video YouTube un poco raro y de ten debéis de tener en cuenta que para el nickname debéis de poner siempre un nombre finalizado en Bot es por un tema de diferenciar entre usuarios reales y Bots En definitiva eh soy un Bot 25000 barra baja Bot vale para el ejemplo no quiero no quiero poner un nombre que pueda que pueda estar ocupado perfecto vemos que nos da un token vale Este token tenemos que copiarlo que sería el token que vamos a utilizar como credencial para acceder desde n8n veis lo pegá
aquí y directamente si el token es correcto Se os tendría que poner en verde vale como es mi caso Entonces vamos a abrir el chat con este con este Bot lo lo selecciono aquí y le damos a Start Para probarlo lo que tenemos que hacer es le damos a test workflow y veremos que ya directamente nos ha llegado el Trigger es decir ya tenemos conectada nuestra aplicación externa con nuestro nodo disparador de n8n un mensaje a través de Telegram hacemos test Step bien una vez tenemos el nodo conectado ya hemos enviado la solicitud lo que
vamos a hacer es seleccionar nuestro agente de Inteligencia artificial venimos aquí le damos al má directamente desde el nodo para que ya se nos conecte directamente con el anterior de acuerdo lo podríamos hacer con el más que teníamos aquí arriba pero esta sería una forma mucho más rápida de hacerlo seleccionamos Advanced Ai y seleccionamos nuestro agente vale veis que tenemos muchísimos agentes esto realmente serían digamos que cadenas específicas para unas tareas en específico lo veremos todo esto en el curso vamos a Ai agent seleccionamos y aquí veremos que tenemos nuestro agente y se nos despliegan
una serie de opciones Como por ejemplo el tipo de agente que esto es lo que comentábamos anteriormente en este caso debemos de seleccionar un Tools agent porque vamos a utilizar herramientas como comentábamos anteriormente para ofrecerle esta solución al empresario debes seleccionar tanto una herramienta para enviar los correos como otra para la base de datos como sería el Excel por lo tanto es un Tools agent vale lo seleccionamos le decimos la source of pront que sería algo así como De dónde provienen las órdenes que nosotros le damos Cuál sería la fuente No recordar que si seleccionamos
fixet es que siempre esa información va a estar fija dependientemente de la iteración O del momento del flujo sin embargo si lo ponemos en expression es que el valor de la variable que pongamos dentro que va a ser el chat va a cambiar por cada iteración del flujo es decir por cada vez que el flujo se dé de acuerdo Entonces de momento vamos a decirle que la source of pront va a definirla de bajo vale la vamos a definir abajo y que no la vamos a del chat anterior directamente entonces la definimos abajo y aquí
tenemos una posibilidad para hacerlo algo más fino vale que sería hacerlo a través del System mage ahora lo Vais a entender pero de momento no quiero liaros y vamos a quedarnos con el text vamos a seleccionar la función de expression y aquí introduciría el prom que le vamos a dar a nuestro agente en este caso es un agente que se encarga de enviar correos mirando una base de datos que esta base de datos tiene asociados una serie de contactos de acuerdo Entonces le digo eres un agente encargado encargado de enviar correos usando la herramienta entre
paréntesis enviar barra baja correo recordar que entre paréntesis hace que sea algo más específica la herramienta Es decir es una manera de referenciarlo algo mejor para que nuestro agente sea capaz de entenderlo y que no se lí con las herramientas porque esto es un pequeño defecto que tiene y tenemos que ser muy finos con esto Vale y consultas consultas los clientes en eh bases clientes vamos a llamarle por ejemplo de acuerdo realmente este prom se podría extender tanto como nosotros quisiéramos es decir necesitamos ser extremadamente específicos para que la gente no se salga de las
órdenes que le damos Cuanto más específicos seamos cuanto mejor le definamos la estructura del mensaje Cuanto más acot temos las posibilidades mejor vale es por eso que yo ya he preparado un prompt alternativo que os voy a pegar y vamos a analizar entonces directamente lo enganchamos vale Y veréis lo que hemos hecho en este prom aquí lo que le digo que es un asistente encargado de gestionar el envío de correos electrónicos consulto la base de datos de contacto tactos y uso la herramienta enviar correos Envía un correo a la persona solicitada por está aquí el
Jason mage que sería el mensaje que nosotros le enviamos a través del Telegram de acuerdo que sol lo haríamos arrastrando directamente como este pequeño tag que tenemos aquí a la izquierda veis que tenemos la sección de input lo arrastramos y lo pegamos vale directamente ya nos pillaría la entrada e independientemente de cuando se diese ese ese momento del flujo o ese texto variaría al momento que nosotros le hemos enviado el mensaje tenerlo en cuenta eso por favor y aquí le damos una serie de consignas no por ejemplo aquí le estoy diciendo que el cuerpo incluye
un título breve y queo que resuma el propósito del correo una firma una introducción de acuerdo y le doy una estructura de Cómo deben ser esos correos de lo estoy acotando al máximo para que no se salga de sus posibilidades bien ya tendríamos nuestro agente recordar que este prom que ponemos directamente en texto como como os he comentado antes podríamos hacerlo un poquito más fino Aunque funciona igual introduciéndolo en System misat Vale pero no quiero aros porque es el curso básico cuando hagamos el curso avanzado vamos a ver todas estas cuestiones entonces de momento vamos
a darlo por Bueno ya tendríamos configurado nuestro agente vamos al siguiente paso el siguiente paso Qué sería el siguiente paso sería conectar nuestro modelo de lenguaje en este caso yo voy a utilizar el modelo de Open Ai podría conectar cualquiera de los que veis aquí incluso modelos locales como vamos a ver en la segunda parte de este de este curso vamos a conectar el modelo de Open Ai recordar que siempre debemos de conectarlo y además Iniciar sesión con nuestras credenciales vale en este caso Yo ya tengo mis credenciales de Open Ai previamente configuradas tengo un
vídeo el primero que subí en el que explico detalladamente Cómo conseguir las credenciales de Open Ai sin embargo recomiendo que siempre vayáis a la comunidad a la hora de Buscar estos recursos iríamos al siguiente paso que sería conectar la memoria la memoria tenemos diferentes tipos de memoria cada una de ellas tiene una partic particularidades y unas funciones algo más específicas pero quiero que os quedéis con el detalle fundamental Y es que la Windows buffer Memory que sería como la más sencilla de hecho ya te lo indica aquí en HN directamente no tiene una memoria remanente
es decir cada vez que iniciemos el flujo O cada vez que reseteos esta memoria se va a resetear por eso es la más básica también y no tiene control de usuarios es decir no tenemos control de acceso esto lo veremos en las partes más avanzadas entonces de momento para probar vamos a poner la window buffer Memory vale que nos va a funcionar perfectamente y vamos a seleccionar que el sison ID se lo voy a definir yo vale la aquí sería como el número de usuario Imagínate que tuviésemos 300 usuarios Pues yo soy el usuario número
uno bien entonces pues ya tenemos conectado nuestro modelo de Inteligencia artificial tenemos nuestra memoria y ahora faltaría conectar lo más fundamental no que sería las herramientas y como sabemos el empresario en este caso nos ha pedido que trabaja con con Excel Entonces vamos a seleccionar Google sheets vale Y lo que tenemos que hacer como siempre es conectar nuestras credenciales yo me he conectado con mi cuenta de Gmail donde tengo asociada una página donde tengo todos los clientes y lo que haríamos sería darle la tool description vale que esto es que O lo haces manualmente la
descripción o la descripción está automáticamente basada en la descripción digamos y en la operación Vale y eh lo que le digo es donde tengo que recuperar esa información vale el resource que en este caso pues sería el sheet within document vale aquí le decimos la operación la operación en este caso es get rows es decir conseguir las filas dentro de ese documento y le tenemos que decir de la lista Es decir de todos los documentos que tenemos dentro de nuestro Google sheets cuál de ellos queremos seleccionar en este caso pues yo tengo uno de contactos
clientes Pues sería este lo seleccionamos seleccionamos la hoja es decir sabéis que tenemos una pestañita en la parte inferior con diferentes hojas pues seleccionamos aquella donde tengamos la información en este caso pues para mí sería la Uno Vale y ya tendríamos completamente creada esta herramienta vale muy importante que no nos saltemos el paso de darle un nombre vale Y este nombre debe estar asociado a el nombre que le hayamos dado en el tool agent a la hora de definir el prom de acuerdo quedaos con que aquí le hemos dicho que se va a llamar contactos
muy importante vale Si no la gente no va a saber qué es esa herramienta Es decir la única forma que tiene de saber el agente qué herramienta tiene que utilizar es a través de los nombres entonces muy importante que no nos saltemos Este paso entonces aquí le tenemos que Poner contactos bien contactos perfecto y ahora la única herramienta que nos quedaría por conectar sería la de Gmail vamos a seleccionarla la seleccionamos aquí nos dice la las credenciales de nuevo seleccionamos nuestra cuenta vale le tendríamos que dar aquí a sing in cerramos aquí le tenemos que
dar la descripción Exactamente igual que antes aquí la seleccionamos automáticamente el resource seleccionamos el mage en este caso la operación que queremos hacer es enviar vale tenemos diferentes operaciones podemos hacer get podemos hacer remove podemos hacer responder pero en este caso lo que queremos hacer es enviar y ahora viene la parte tan interesante de la función que comentábamos anteriormente vale que es la de from Ai vale aquí yo lo tengo creado y quiero que lo veáis directamente para que no me veáis a escribirlo todo desde cero from Ai como comentábamos lo que hacía esto recordar
de ponerlo siempre en expression lo que hacía era rellenar esta variable rellenar entre comillas es decir completarla o recuperarla en función del contexto y esto lo hace la agente automáticamente en el caso contrario tendríamos que hacerlo recuperando la información de la sección de input Y entonces tendríamos que definirlo y sería bastante más complejo from nos ahorra y nos iza muchísimo este tipo de operaciones porque directamente ya nos proporciona la información vale muy importante Entonces esta es la sintaxis Vale entonces yo le digo to from Ai y el correo de acuerdo la siguiente sería el subject
es decir el asunto vale se lo ponemos aquí Exactamente igual el email type en este caso pues sería texto de acuerdo porque queremos que lo envíen texto y el mensaje Exactamente lo mismo vale fijaos que en el caso del mensaje lo que hacemos vale en este caso es que si ponemos una coma y encadenamos una cadena de texto en este caso se autocompletar con esto que tenemos aquí vale es decir No solo sería el mensaje del correo sino que sería el mensaje del correo que ha recuperado el el agente de Inteligencia artificial más esta cadena
de texto que nosotros introducimos aquí manualmente vale bien entonces nos aseguramos de que todo esté en expression nos aseguramos de que este de aquí sea el de contactos vale vamos a ver cómo le hemos puesto a nuestro agente la referencia eh enviar coro Vale entonces a esa herramienta recordar le tenemos que llamar Enviar correo bien le ponemos aquí Enviar correo enviar barra baja correo perfecto Cuál es el único paso que nos queda pendiente el único paso que tenemos pendiente actualmente es el de darle la respuesta al empresario entonces para darle la respuesta al empresario tenemos
que utilizar exactamente el mismo medio que hemos utilizado a la hora de enviar el mensaje inicial que sería Telegram Entonces lo seleccionamos para unirlo a nuestro agente y que la agente directamente envíe la respuesta a ese nodo de Telegram buscamos Telegram dentro de Telegram hay una función vale una digamos que instrucción de enviar Entonces le decimos sen una acción text mage Perdón este de aquí vale la seleccionamos iniciamos con nuestras credenciales Exactamente igual que con el L de anterior veis que me las ha guardado si las introducí una sola vez ya las guarda Entonces le
decimos el el resource vale en este caso sería directamente del mensaje Vale es decir dónde va a actuar el el el chat en concreto Vale y la operación de enviar el mensaje Entonces tenemos que darle el chat ID en este caso eh n8n tiene una cosa que no me acaba de gustar y es que para ejecutarlo por primera vez tenemos que poner un número digamos que hipotético en este caso le pongo un uno para que nos deje ejecutarlo solo una vez y de esta forma recuperemos el chat ID del noo anterior entonces ponemos estos datos
tal cual le damos a test workflow y veremos que ya directamente gracias al el agente podemos recuperarlo y conseguir nuestro chat ID vale que sería este de aquí Entonces ya lo podemos poner bien vale en expression siempre Y en este caso el texto es decir el mensaje que nos va Nos va a enviar a nosotros en este caso el empresario sería este de aquí vale que sería la respuesta ves que el Ai agent nos da una respuesta un output ha enviado el correo a Agustín Medina si necesitas tal pues Perfecto entonces ves aquí tenemos la
respuesta esto sería lo que nos envía a través de Telegram ahora pasaríamos a probarlo directamente enviarle a nuestro agente la la solicitud le decimos Envía un correo a ausín bien vemos cómo se está ejecutando accede a nuestra hoja de contactos itera dentro del del de buscar y ha enviado un correo a agustinn Medina si necesitas realizar alguna otra acción o enviar otro correo házmelo saber recordar que dentro del prom de la gente le he definido una estructura de cómo tienen que ser los correos de Por qué etcétera vale pues aquí tenemos la respuesta o el
correo que nos ha enviado el agente de forma automática pero ves que hay un pequeño problema y es que directamente en el asunto nos ha puesto la función esto es que seguramente nos hemos equivocado en la sintaxis y lo hemos escrito mal vamos a ver qué ha pasado vamos al a nuestro agente vamos al Enviar correo y vemos Que en eh subject Es decir en el asunto eh lo teníamos en fixed por lo tanto como veis no interpreta la variable y no la tiene en cuenta O sea directamente envía el texto natural que ve ahí
y lo envía para adante entonces lo ponemos en expression y ahora veréis que sí que nos funciona perfectamente vamos a volver a guardar y vamos a Telegram Envía un correo a Agustín le damos a test workflow y vamos a ver qué nos qué nos hace en esta ocasión está cargando bien nos responde la gente que ha enviado un correo a Agustín y vamos a ver lo que tenemos en el correo tenemos mensaje para Agustín Hola Agustín espero que te encuentre muy bien quería ponerme en contacto contigo para discutir temas pendientes que tenemos etcétera no pero
ya vemos que la gente funciona a la perfección a la perfección pero no sabemos si se adecúa al 100% a lo que necesita el empresario ahora vamos a ver las problemáticas bueno como veníamos comentando el flujo que hemos puesto anteriormente pues tiene unas problemáticas y es un problema que os vais a encontrar en la vida real Pese a que ciertas personas os quieran creer hacer lo contrario realmente eh Hay un problema muy evidente y que el que el empresario nos ha notificado en este caso y es que la automatización tiene unos problemas son los siguientes
quiere que sea las respuestas en contexto de su empresa es decir no quiere que sean emails genéricos porque realmente no tiene ningún valor y más hoy en día o sea la gente es capaz de decifrar muy rápidamente cuando un correo está hecho por la Inteligencia artificial y cuando no porque es como que no tiene alma no es un poco vacío le falta contexto por otro lado nos dice que le falta precisión es decir que a veces Funciona muy bien bien mientras que en otras funciona de forma un tanto dudosa y por otro lado nos dice
En referencia a que queramos que vaya con el contexto de su empresa que no tiene muchos datos y que la calidad de sus datos no son del todo buenos para poder entrenar a su modelo o utilizar un rack que es el concepto que os introduzco totalmente nuevo y que os va a salvar la vida En estos casos vamos a verlo cómo lo solucionamos Y cómo implementamos mejor y cómo implementamos mejoras en este flujo de trabajo para que se convierta en una herramienta que debe verdad sea útil para la vida diaria de esta persona vamos para
allá bien lo primero que tenemos que abordar Es la falta de precisión Por qué un modelo no es tan preciso o por qu a veces las respuestas son de una determinada forma y en otras se dan de una forma totalmente distinta Supongo que es algo que todos hemos visto que a veces le preguntamos a ch gpt algo y nos responde de una forma le volvemos a preguntar ese algo y nos responde totalmente nada que ver con lo que nos había dicho anteriormente quisiera introducir a Por qué ocurre esto o cómo podríamos minimizarlo más bien no
hay una cosa que es el fenómeno de la alucinación que es que un modelo cuando no tiene suficiente información vale asociada a un contexto va a tender a inventarse información y a darnos una información que no es del todo fiel por lo tanto hay unos parámetros asociados a reducir este fenómeno de la alucinación es decir al fenómeno de que el modelo sea creativo o que tienda inventarse información Cuáles son estos parámetros asociados son los siguientes tenemos por un lado el sampling temperature vale que simplemente quiero que os quedéis con que controla la creatividad es decir
a valores más altos generan respuestas más variadas por lo tanto Cuanto más bajo esté este valor más determinista va a ser nuestro modelo sus respuestas van a ser más moderadas y constantes después tenemos el top p que es que filtra las respuestas para incluir las más probables realmente es un valor que actúa a niveles prácticos muy similar a la temperatura lo único con con lo que os tenéis que quedar es que tenéis que bajar este valor para hacer que el modelo de nuevo sea más determinista pasaríamos al siguiente concepto que realmente me parece muy interesante
que es el de frequency penalty qué es esto el frequency penalty es una penalización que le ponen a los modelos a la hora de idearlos para que no tiendan a repetir palabras o formas o estructuras claras dentro de una misma frase por qué porque realmente cuando hablamos de modelos en lenguaje natural es poco probable que en una interacción con un ser humano preguntándote algo genérico tengas que responder la misma palabra de forma repetitiva no sin embargo cuando estamos hablando de Procedimientos por ejemplo de una empresa cuando queremos recuperar información de Procedimientos puede ser que tengamos
la misma palabra o la misma estructura y que siempre sea así por lo tanto tenemos que quitarle esta penalización vale después tenemos el presence penalty vale que aquí os he os lo he os lo he tachado que básicamente motiva al modelo a usar ideas nuevas en las nuevas respuestas es decir si el modelo mod nos ha respondido de una determinada forma en una interacción en la siguiente va a tender a ser más creativo esto también lo ideal es reducirlo lo máximo posible para que de esta forma el modelo sea lo más determinista posible queremos que
el modelo sea controlable no que sea creativo ni que se vuelva loco Entonces vamos con lo siguiente ya hemos abordado lo que sería la falta de precisión ahora vamos a introducir el concepto clave que nos va a salvar la vida en nuestras automatizaciones el concepto es la base de datos rack Y sobre todo el local Por qué la base de datos racket local es tan poderosa la base de datos racket en local es tan poderosa porque nos ofrece la posibilidad de alimentar a nuestro modelo con información externa a este es decir con información a la
que este no ha estado sometido a entrenamiento previo como pueden ser los procedimientos de Nuestra Empresa los documentos referentes a cierto tipo de maquinaria o todo lo que nos podamos llegar a imaginar y además abordamos otra problemática y es lo que veníamos comentando de la ventana de contexto vamos a ver de forma muy genérica como nosotros abordamos esta problemática desde un punto de vista algo técnico de acuerdo Entonces quiero que sepáis que rack significa retrieval augmented generation que En definitiva en castellano sería recuperación aumentada por generación de acuerdo recuperación aumentada por generación En definitiva tiene
mucho sentido este nombre Porque lo que estamos haciendo es aumentar la generación recuperando información de una base de datos que que nosotros le hemos dotado extra No a lo a lo a lo que tiene el modelo ya de base Entonces cómo funciona esto del rack En qué consiste Y qué no soluciona tenemos que saber por la ventana de contexto como os he dicho Ahora mismo que el modelo no tiene la capacidad de inspeccionar documentos que tengan una determinada longitud vamos a poner el ejemplo que suelo poner en la mayoría de mis vídeos que es que
tenemos un PDF de 500 páginas en el cual tenemos información asociada a los procedimientos de Nuestra Empresa y el modelo va a atender a ser perezoso porque no tiene la capacidad de inspeccionar todo el PDF página a página línea a línea porque no es capaz de una en una sola solicitud tramitar todos estos tokens y por lo tanto va a tender a consultar en la parte inicial o en la parte final es decir nos va a dar una información parcializada no va a ser una información completa de acuerdo esto es un gran problema ya que
no es una información concreta que realmente tenga utilidad en el día a día y tenemos que ver cómo podemos solucionar tanto esta operación parcializada como el problema de la alucinación entonces lo que hacemos Es someterlo al procedimiento de la arquitectura rack poner una base de conocimientos o una base de datos customizada en este caso le cargarías unos pdfs con los procedimientos de Nuestra Empresa hacemos trocitos de ese PDF es decir lo cortamos en unos trocitos controlables que nosotros le definimos en parámetros ya veremos cómo lo definimos esto posteriormente Y estos trocitos se conocen comúnmente como
chuns de acuerdo estos trocitos pasan al modelo de embedding este modelo de embedding lo que hace es estos trocitos que están en lenguaje natural es decir que están en texto y convertirlo en vectores quiero que entendáis los vectores que son vectores de dimensionalidad muy alta como una lista de números que cada uno de ellos tienen asociados una ubicación en el espacio de acuerdo Entonces quiero que imaginéis que cada uno de estos numeritos o cada uno de estas listas de numeritos significan algo en este espacio entonces en función del significado se asocian en cuanto a proximidad
semántica imaginar que aquí tenemos la palabra perro y que siguient aquí tuviésemos la palabra gato como son dos palabras que están próximas y además tienen asociadas una ubicación en el espacio podemos determinarlo y por lo tanto hacemos al modelo o le damos la capacidad de que este tipo de recuperaciones sean muchísimo más digeribles eso sería en cuanto a cómo le cargamos la información pero por otro lado tendríamos el tema de las solicitud o el promt el promt de igual manera tiene que tratarse a través de un modelo de embedding para que se puedan casar tanto
los embeds asociados a la carga de datos como los modelos asociados al prom es decir a la solicitud entonces lo que hacemos Es mirar la distancia que existe entre la solicitud del usuario y la información de la base de datos vectorial Es decir de los trocitos de información puestos en forma de lista numérica de acuerdo esto es muy importante le asociamos un contexto este contexto está asociado a una ubicación en el espacio y En definitiva hace que la recuperación por parte del modelo sea mucho más óptima rápida y eliminamos en la problemática de que el
modelo tenga que repasar todo el PDF porque ahora se va a ir concretamente a la sección es decir al chunk donde está la información relevante y ahora vamos a poner un ejemplo por si no lo hemos acabado de entender porque sé que es un concepto algo digamos que complejo no así a primera vista hasta que no hacemos nuestras primeras aplicaciones y es que quiero que imaginéis que tenemos una persona no en este caso esta persona pues sería un fotógrafo o un periodista profesional y este periodista debe de ir a una biblioteca a hacer una investigación
relacionada con un trabajo de periodismo donde tiene que investigar muchísimo acerca de diferentes temas muy dispersos entre sí Y entonces el bibliotecario que en este caso sería é la base de datos vectorial porque tiene información de dónde están cada uno de los libros le va a decir exactamente en qué fila o en qué biblioteca o en qué más bien En qué en qué estantería dentro de la biblioteca y en qué pasillo va a encontrar la información asociada a su tema de interés esto es superimportante Es decir si no dominamos lo que son los embet si
no dominamos lo que es un rack no dominamos la Inteligencia artificial y por lo tanto no debemos de introducirnos en n8n como expertos de acuerdo Qué necesitamos o qué podemos concluir de este punto necesitamos un modelo de embet necesitamos un text splitter que es el que se encarga de cortar el texto en trocitos necesitamos una base de datos vectorial que es la que vamos a utilizar como estantería donde guardamos la información y por último necesitamos un extractor de datos Porque En definitiva nosotros no podemos darle un PDF directamente y que el modelo debet se encargue
de todo no es tan inteligente ya nos gustaría entonces necesitamos primero masticar esa información dársela masticadas forma él sea capaz de extraer sus conclusiones con sus bases de datos vectoriales e introducirlas donde él considere vamos a ver cada uno de estos puntos de forma genérica vamos a detallarlos sin profundizar en exceso y vamos a hacer una vista general entonces el siguiente punto que me gustaría comentar y que debéis de saber es olama olama es una plataforma de código abierto que no deja de actuar como si fuese un digamos que un concentrador donde tenemos diferentes recursos
asociados a la Inteligencia artificial Open source es decir olama sería algo así como el Netflix gratuitos de los modelos de Inteligencia artificial en Netflix tenemos muchísimas series Pues en olama tenemos diferentes modelos y podemos acceder a ellos y descargarlos en local siempre y cuando los necesitemos de acuerdo Entonces vamos a recurrir a olama para descargar nuestro modelo de lenguaje Si queremos trabajar en local Siempre vamos a utilizar olama para descargar nuestro modelo de embet y va a ser como nuestro Hub nuestro concentrador vale Quiero que penséis en olama como el concentrador actualmente es el líder
y es el que mejor lo hace en este tipo de casos pasamos con el siguiente punto y aquí de forma general como venimos haciendo Me gustaría también comentaros que tenemos modelos de lenguaje natural es decir large Language model tenemos posibilidades tanto gratis en local vale como modelos de betet gratis en local y aquí os voy a poner las opciones de referencia vale o las más conocidas o las que más impacto están teniendo actualmente después tendríamos Exactamente lo mismo pero de pago en la nube recordar que siempre que trabajemos en local vamos a utilizar Potencia de
cómputo local y por lo tanto la relación entre la potencia y el uso que le vayamos a dar a este modelo es incluso más prioritario es decir tenemos que economizar al máximo porque si no vamos a estar gastando recursos de forma totalmente inútil y también tener en cuenta que por lo general los modelos que vamos a utilizar en la nube son más potentes entonces en el rack tenemos la ventaja de en el rang en local concretamente tenemos la ventaja de tener una privacidad y el control absoluto de nuestros datos con la desventaja de tener modelos
que mayoritariamente a menos que tengamos una Potencia de cómputo abismal no tengamos un servidor increíble va a ser o va a tender a ser algo menos potente siguiente punto y abordando solo muy rápido tendríamos el punto de las bases de datos vectoriales Quiero que tengáis en cuenta que cuando trabajamos en local Existen dos alternativas gratuitas que son actualmente las líderes en el mercado y hay un consenso generalizado por parte de la comunidad en cuanto a Cuáles son las mejores y el Por qué y estas bases de datos serían kudr vale Y mil buus básicamente quiero
que os quedéis con el concepto de latencia latencia no deja de ser el el digamos que el tiempo que tarda la base de datos vectorial en recuperarnos esa información o el tiempo que que tardamos en acceder a ella Entonces es muy importante que la latencia de una base de datos vectorial sea lo más baja posible porque precisamente las bases de datos vectoriales se caracterizan por tener este parámetro muy bajo es decir las bases de datos normales las relacionales no tienen esta capacidad o no están tan optimizadas como podrían ser las bases de datos vectoriales para
hacer consultas constantes en muchísimas filas y columnas y recuperar información de forma muy constante y masiva entonces Eh quiero que os quedéis también con que eh En este caso kudr no trabaja en entorno distribuido es decir que no podemos tramitar multitud de solicitudes en un mismo servidor de acuerdo mientras que mil buus sí que puede tramitar gran cantidad de solicitudes en este mismo servidor esto si vamos a desarrollar aplicaciones en a gran escala es decir vamos a trabajar en empresas muy grandes donde tenga unas cantidades de solicitudes abrumadoras vale con abrumadora me refiero pues tal
vez empresas multinacionales donde ya tenemos una cantidad de empleados muy significativas o aplicaciones donde tenemos que estar constantemente haciendo consultas pues en ese caso sí que tien sentido no optar por mbus pero por lo general vamos a seleccionar kran para las aplicaciones donde eh realmente estemos trabajando en entornos más controlados no aplicaciones más pequeñitas donde las empresas son pues una cantidad de emple de empleados no no no exagerada no en torno a 20 y no nos va a dar problema es es una aplicación que funciona muy bien y que realmente la comunidad está muy contenta
con ella sobre todo por el tema de las integraciones tiene muchísimas integraciones es Open source el interfaz que tiene muy intuitivo Es agradable me gusta la he probado y está bien tenemos otra cosa que quiero que sepáis también a modo de cultura general a la hora de implementar estas soluciones y si nos queremos convertir en buenos solucionadores tenemos que saberlo y es la segmentación dinámica de los vectores Qué es la segmentación dinámica de los vectores la segmentación dinámica de los vectores lo que nos viene a decir es Eh como sabéis teníamos los chunks estos chunks
se convertían en vectores y nosotros íbamos a cada uno de esos cajoncitos para recuperar información no entonces el cajoncito que nosotros más utilicemos es decir el chun que más utilicemos se va a posicionar de forma prioritaria es decir lo va a colocar en una memoria de más rápido acceso como sería la ram para que cuando hagamos solicitudes lo recuperemos de de forma prácticamente instantánea es decir en función del uso de la información en función de Cuántas veces la solicitemos la va a posicionar más prioritariamente para que de esta forma optimices recursos de cómputo esto es
muy importante también es decir que tengamos este tipo de herramientas que sepamos en cuanto a implementación de este tipo de herramientas es muy importante para diferenciarnos en el mercado pensar que actualmente el mercado está muy aturado de personas que simplemente saben herramientas de internet y simplemente pues colar lasas no con calzador Entonces si nos convertimos en solucionadores que sepamos customizar herramientas vamos a ser líderes en lo nuestro importante entonces después por otro lado tendríamos la opción de pago en la nube vale que el líder actualmente hay un consenso también muy generalizado y parece que también
muy contundente no en cuanto a esto de qu es pinec pinec es Perdón por la palabra la no porque tiene todo lo que teníamos en el caso de la de las locales no en en en cuanto a las ventajas a una las ventajas positivas de ambas pero la latencia en este caso estaría condicionada un poco por la conectividad que tenga nuestro servidor es decir si nuestro servidor no tiene una buena conectividad a internet pues en ese caso tendríamos el cuello de botella por ahí bueno tiene servidores muy potentes todo lo que tú quieras pero al
final dependemos de un servidor externo O sea que tenemos ese pequeño handicap aunque no lo es del todo si lo optimizamos bien recordad que es de pago por lo que tengo entendido depende del del del plan que escojamos puede ser algo cara no al final pensar que estos recursos se están posicionando Rápido como recursos prioritarios lo están utilizando muchísimas empresas entonces pues están inflando inflando el precio un poco como como quieren bien Vamos con lo siguiente Y es que una pregunta que nos hacemos todos y que todo el mundo da por hecho cuando explican el
tema del rack es de dónde sacamos o de cómo extraemos nuestra información es decir en qué formato debe estar nuestra información para nosotros poder extraerla y dársela al rack de la forma más digerible posible es decir que no se haga líos ni ni ni tengamos cosas raras para esto podemos tenerla en multitud de de formatos no como podrían ser PDF como podrían ser Word etcétera no como si es en txt lo único que sí es muy importante Si queremos mejorar la optimización y ya queremos hilar fino sería tener una estructura y una limpieza de contenido
muy buena es decir eliminar portadas eliminar índices eliminar páginas locales créditos pies de página es decir todo aquello al que no aporte al contexto que simplemente sea información irrelevante como podían ser pues lo que venimos diciendo no páginas legales índices y tal lo podemos descartar Ar y de esta forma le damos al modelo todo aquello que necesite simplemente y no le damos información irrelevante Entonces el formato del texto es muy importante que respetemos la estructura jerárquica vale de títulos subtítulos y secciones del documento de esta forma el modelo va a tener más contextualización y a
la hora de recuperar la información va a tener mejor capacidad de ofrecernos una respuesta más acorde al prom que nosotros le le hemos solicitado y después tenemos el tema del manejo del contexto vale introducimos eh encabezados buenos para que el modelo deb también tenga la capacidad de contextualizar un poco la línea de lo que veníamos diciendo con el tema del formato vale en n8n en este caso ya nos ofrece la posibilidad con un bloque de extract from file este extract from file Yo podría tener directamente aquí el Google Drive vale gdrive Y aquí Podría tener
directamente mi base de datos vectorial Vale y de esta forma extraer toda la información referente al texto de este PDF y cargarla en nuestra base de datos vectorial primero tendríamos que pasar por un modelo debet etcétera Pero bueno para que nos hagamos una idea vale otro componente muy importante dentro de nuestro sistema rack es el splitter el splitter es aquella parte dentro de un sistema rack que se encarga de trocear la información es decir de generar los chunks Es decir de generar los trocitos de información que veníamos comentando anteriormente Pero esto es Antes de que
lo vectorize recordarlo entonces dentro de n8n tenemos este nodo de aquí que se encarga de generar los splits tenemos dos modalidades distintas de splitter tenemos el recursive carac splitter y el caráter text splitter es decir aquí se diferencian en la recursividad ahora vamos a ver en qué casos vamos a utilizar uno y en qué casos vamos a utilizar otros un parámetro que tenemos que tener muy en cuenta es el chunk size es decir cuánto de largo es nuestro chunk cuánto de largo va a ser nuestro trocito de información o El cajoncito que veníamos comentando antes
cuando Tenemos uno más largo En definitiva tenemos más contexto pero si Tenemos uno más corto vamos a tener mayor precisión es decir debemos de tener en cuenta que si tenemos un chun muy pequeñito va a ser muy puro En definitiva debemos de pensar los chuns como si fuesen palabras o frases si tenemos una palabra donde solo consta la palabra perro va a ser mucho más pura que la palabra perro dentro de una frase donde tiene muchísimos más significados Y muchísimas más similitudes con otros contextos Entonces si queremos más contexto lo ponemos largo y si queremos
más precisión para búsquedas muy concretas sobre cierto tipo de información vamos a hacerlo más cortito después teníamos otro parámetro que es el overlap es decir el overlap En definitiva lo que nos dice es de esos trocitos de información Cuánto se solapa uno con el siguiente es decir el final del primero con el siguiente al inicio esto es muy importante porque si tenemos información que está muy concatenada es decir que tiene una relación constante está vinculada y tiene muchísimo contexto o mucha continuidad es muy importante que pongamos un overlap alto para no cortar el contexto o
no cortar digamos que frases que están relacionadas por la mitad porque si no puede ser que damos cierto tipo de información relacionada con el con el marco general de nuestro de nuestro documento entonces este parámetro Normalmente se suele poner en torno a 20 30% vale Y el caráter test el carácter splitter vale que era este bloque de aquí se va a usar siempre o casi siempre cuando tenemos textos más simples o estructurados uniformemente es decir son textos que no tienen muchísima complejidad Vale y la la digamos que la ventaja que tiene esto es que no
nos va a consumir tantísima Potencia de pututo vale como sería el recursive caráter splitter que ya sería un sistema algo más avanzado más complejo vale Y tiene múltiples niveles de estructura es decir va generando diferentes secciones en función de lo próximo que esté a estos en cuanto a tokens Vale y sería en orden de palabras frases u oración vale me gustaría enseñaros esta pequeña demo que está publicada en la página que tenéis a continuación os la dejaré en la descripción para que la podáis echar un vistazo e y básicamente lo que tenemos aquí es un
texto que es un poco un poco largo Vale y vemos como se generan los chuns en diferentes colores y Cómo afecta en función de las diferentes técnicas de splitter que apliquemos lo primero que vamos a ver es como la longitud del chunk afecta a los trocitos que tenemos si nos fijamos ahora se han hecho algo más cortos vale Y ahora muchísimo más cortos después tendríamos el overlap que si os fijáis hay cierto solapamiento las zonas estas que están más grises sería el overlap es decir el solapamiento que hay de la primera estructura con la segunda
segunda y después tendríamos los diferentes tipos de sistemas o métodos vale que sería el recursive y el carácter sios fijáis el recursive Vale ahora perfecto que no lo no lo había no lo había captado bueno básicamente para que lo sepáis a nivel anecdótico el recursive es algo más complejo Es más sofisticado no corta jamás contextualmente Es decir siempre va a mantener una estructura mínima es decir entre palabra oración y frase y para ciertas aplicaciones donde necesitamos un mayor contexto va a funcionar mejor vale Pero si lo que queremos es optimizar potencia de cómputo utilizamos la
opción sencilla bien pues ahora iríamos directamente a la parte donde hemos mejorado nuestro sistema eh Como comentábamos anteriormente teníamos unas ciertas problemáticas Y es que los correos que enviamos por un lado no eran del todo precisos por otro lado no lo hacíamos con la información concreta de la empresa y Eh Esto Pues estaba generando una serie de problemáticas no entonces hemos aplicado estas mejoras y lo que hemos hecho es por un lado bajarle los parámetros relacionados con la temperatura de acuerdo si os fijáis aquí en el en la opción esta de add options si seleccionamos
temperature vamos a bajarla a 02 vale que sería baja en este caso sería un parámetro que que 02 consideraríamos bajo y añadimos una base de datos vectorial con eh una base de datos vectorial de supabase vale esto tengo un vídeo explicándolo en detalle realmente no es una base de datos vectorial al uso es una base de datos convencional lo que pasa es que tiene un plugin que es capaz de hacerla funcionar como tal para que tenga una baja latencia no es lo más óptimo simplemente a a modo educativo no no gustaría no me gustaría estar
durante mucho rato desplegando una base de datos local y haciendo correr n8n el local ya que creo que perdería muchísimo tiempo y no realmente no no tendría tantísimo impacto el vídeo a la hora de demostrar Cómo funciona la tecnología en sí misma no Igualmente tenéis otro vídeo donde explicamos esto uniros a la comunidad también encontraréis detalles acerca de de de este tipo de cuestiones y básicamente quiero que veáis lo que es la la estructura hemos hecho lo de lo de unir una base de datos vectorial por lo tanto al unir esta nueva herramienta esta nueva
tool anclada a la rama de tool del del del agente lo primero que tenemos que hacer es indexar la es decir tenemos que asociarle un nombre para que la gente sea capaz de conocerla recordar Entonces como antes no teníamos esta herramienta referenciada dentro de nuestro prompt debemos de ir y poner que va a usar esta herramienta a la hora de estructurar los correos si os fijáis aquí yo ya me he encargado de añadirlo vale Para no haceros perder el tiempo y que directamente veamos cómo funciona Entonces siempre usará la información obtenida del contexto de la
base de datos vectorial Buscar todo esto es muy mejorable recordar que quiero que os quedéis con la esencia esto sería a nivel de consulta vamos a ir a supabase para que veáis cómo esta información se ha hecho vectores Y cómo estos vectores se ordenan en la base de datos vamos a supabase y aquí lo que tenemos es en las tablas de contenido toda la metadata asociada vale a el propio chun del vector vale si si vemos aquí tenemos el embedding tenemos la metadata Y tenemos el contenido asociado a ese chunk en concreto vale esto simplemente
para que lo sepáis también a modo anecdótico es muy bueno de ver y es algo que Considero que cuando tengáis un rato y cuando vayáis profundizando en estas herramientas perdáis el tiempo en mirar y ver como en función de diferentes parámetros del splitter de diferentes parámetros de temperatura etcétera nos da una respuesta más o menos precisa y cóm la base de datos vectorial va a cambiar dinámicamente haciéndose más o menos pequeños los chuns y ir jugando Vale entonces vemos que tenemos la estructura de lo que sería nuestro agente en cuanto a lo que debe hacer
en cuanto a lo que en el ámbito que debe de actuar ahora vamos a ir a la parte de Cómo debemos de cargar la información que esto también nos lo preguntamos No yo en este caso he creado una pequeña estructura un pequeño flujo es muy simple Realmente es extensamente mejorable como de hecho el que hice en el vídeo anterior sería mejor en este caso lo que pasa que de nuevo queremos que os quedéis con la esencia este flujo lo que hace es que conecta con nuestra cuenta de Google Drive Google Drive lo que hacemos bueno
es supervisar cada minuto el Trigger en este caso sería si hay un cambio en torno a un eh a una carpeta en específico lo que hacemos Es mirar la carpeta de Test y vigilamos Para mirar a ver si se ha update un file es decir que hayamos cargado un PDF por ejemplo en el momento que se ocurre lo que hago es que defino una variable en mi file de acuerdo y descargo el Google Drive de acuerdo ya directamente tengo la Data para poder pasarlo por el bloque que comentamos antes que este bloque la verdad que
es una maravilla porque nos ahorra muchísimo trabajo lo que hacemos aquí es convertir la Data del del PDF que nos hemos descargado directamente desde Google Drive a Jason recordar la importancia de Jason vale volvemos lo que haríamos ahora es pasarlo directamente al supabase vector Store a la al bloque que nos dan directamente desde n8n lo conectamos con nuestro modelo de embedding vale de Open Ai Lo bueno es que n8n también tiene integraciones con modelos de embedding y de esta forma ya generamos nuestros chunks y los vectorizando con el default dat loader lo que hacemos Es
splitear es decir generar los chunks y con el modelo de embedding lo que hacemos Es vectorizar losos dentro de nuestra base de datos vectorial por lo tanto en el momento que yo le haga una consulta a través de Telegram asociada a enviar un correo referente a la información técnica de la empresa va a utilizar la base de datos vectorial de forma exclusiva a la hora de enviar ese correo Es decir ahora este agente tiene contexto y es mucho más determinista ahora bien este agente de momento no es privado es decir no está haciendo en local
es decir lo tenemos en Cloud como veníamos comentando se puede hacer en local lo enseño en mi vídeo anterior eh es para evitar complejidad y vamos a hacer la demostración ahora le decimos Envía un correo a Agustín explicando cómo funciona nuestra gui vale nuestra interfaz gráfica porque bueno el el documento que le he subido a w Drive en este caso es un documento relacionado con maquinaria vale es este documento de aquí que es un documento que he rescatado de internet entiendo que si está publicado pues no tiene ningún tipo de de privacidad y vamos a
decirle a nuestro a nuestro agente que ejecute esta acción y a ver qué tal qué tal funciona le enviamos el mensaje vemos Que accede a nuestra trabada de contactos parece que lo está haciendo bien accede a la base de datos de vectorial recupera la información se la pasa al modelo para que el modelo tenga la capacidad de de convertir los vectores a lenguaje natural y una vez eh ocurre todo esto veremos que nos da una respuesta directamente en nuestro Telegram y nos dice que ha enviado un correo correctamente a Agustín explicándole Cómo funciona el Wii
vamos a ir a nuestro y aquí tenemos esta maravilla donde nos explica datos asociados a nuestra base de datos vectorial y en contexto con la información de Nuestra Empresa esto la verdad que no no sabemos el impacto que puede tener este tipo de herramientas sobre todo teniendo en cuenta que esto es un preámbulo es decir esta es la fase inicial podemos mejorar esto muchísimo el otro día estuve investigando acerca de unos ciertos métodos bm25 lo compartiremos por la comunidad es un método un tanto avanzado en el cual le damos contexto lo asociamos a cada uno
de los chuns y Esto hace que la proximidad en cuanto a los vectores y y el y el contexto también lo tenga en cuenta a la hora de buscar la información y la verdad que es muy interesante es decir estamos avanzando muchísimo todo Está avanzando de forma muy frenética debemos de estar en constante evolución esperemos de verdad tener la capacidad de irnos adaptando para poderos ofreceros la mejor las mejores soluciones y las que estén más a la vanguardia del momento y espero que de verdad os haya gustado muchísimo esta guía que os aporte muchísimo en
vuestras automatizaciones y nos vemos en el siguiente vídeo gracias