siguiendo con el seminario empezamos ahora el panel con el tema potencialidades riesgos de la Inteligencia artificial ética y regulación en la era digital conma la mesa como moderador do Osorio secretar general del supremo tribunal federal y como ponent la doora profesora de derecho de la universidad Brasil abogada laua de gobier deidad y el Dr cado doctorando por la universidad de Oxford y por la universidad de San Paulo y cofundador del instituto Vero en este momento tiene la palabra la doctora Alina Osorio Buenas tardes a todas y todos es una felicidad Un gusto estar aquí presente
con nuestros ponentes con todos ustedes y considerando que ya estamos casi en el horario del almuerzo mi papel aquí es básicamente pasar la palabra a los ponentes para que puedan hacer sus presentaciones entonces presento a la doctora Ana frasón que es abogada profesora de derecho civil comercial y económico de la unb la profesora Ana frasón es doctora en derecho por la pu de San Paulo fue consejera del caj entre 2012 2015 y fue también directora de la facultad de derecho de la unb de 2009 a 2012 Ana la palabra es suya Muchas gracias querida lini
buenas tardes Ya a todas a todos en nombre de la ministra lob y también querida amiga Laura sher saludo a todos que nos acompañan hago un saludo especial a querida Lía Juan coo es un gusto estarmos juntos en esta mesa y mi idea ya que nuestro panel mostraba un poco el tema necesidad de regulación y hacer todas las interlocucion también con las discusiones éticas sería en una primera parte de mi presentación volver un poco a lo que fue mencionado en el excelente primer panel para intentar entender un poco Cuál es el estado del arte sobre
el uso de Inteligencia artificial en el momento Después hablar un poco de Cómo regular la Inteligencia artificial partiendo de la premisa de que hoy la discusión no es más sobre si debemos pero sí como debemos y al final traer algunas consideraciones sobre el uso de Inteligencia artificial en el poder judicial ya que como estamos en el supremo Y ese es un tema absolutamente importante urgente veo que sería también muy interesante tratarmos ese tipo de asunto entonces yendo entonces la primera parte de mi presentación quedó muy claro aquí en el panel anterior y cuando analizamos las
actuales aplicaciones de Inteligencia artificial la literatura específica sobre el tema como la Inteligencia artificial hoy más que hacer parte de nuestra vida ella va mostrando nuevas esferas de vida y básicamente tenemos sistemas de Inteligencia artificial varios procesos de decisión que antes eran tomados por agentes privados y por agentes públicos y hay no es exagero mencionarnos que algoritmos son instrumentos de la acción política que estamos hablando repito muchas veces de valores sea la Esfera privada Quién va a ser contratado Quién va a tener acceso a una determinada oportunidad Quién va a ser promovido vean que en
la Esfera del consumo hasta el precio que durante mucho tiempo fue considerado el punto central de la iniciativa hoy es hecho por sistemas algoritmos Y si ese proceso ya está avanzado en el sector privado él también está avanzado en el sector público Y eso está generando de verdad varios problemas y retos sociales políticos y jurídicos en el ámbito empresarial esos retos son muy grandes porque cuando conjugamos eso con una economía de plataforma las posibilidades de competencia desleal de prácticas predatorias son muy grandes pero cuando analizamos bajo la óptica del consumidor del ciudadano ahí de verdad
las consecuencias son eh nos preocupan más hoy sistema de Inteligencia artificial cuando decide muchas veces las vidas trae impactos muy grandes también en los derechos fundamentales de los ciudadanos como el propio ministro boso ya mencionó en la apertura entonces frente a un contexto anterior donde muchas de las garantías fundamentales eran pensadas frente a estado Hoy el constitucionalismo digital ha sido creado a partir de un de esas garantías para agentes privados que muchas veces tienen poderes equivalentes o a veces hasta superiores a los Estados fue mencionada aquí la expresión leviatan algoritmo que trae muchas muchas repercusiones
en nuestro debate y vean Que para más allá de todos los riesgos lo que hemos visto es que eso sistemas y eso fue visto en el primer panel no son propiamente tan objetivos cuando se piensa ellos pueden de verdad cometer varios errores Muchas veces ni consigamos comprender Por qué están equivocándose hay toda una discusión también sobre cambio de jerarquía de información el problema de las Deep fakes de las discriminaciones y porque como el profesor Flavio mencionó en su ponencia todo que es probable en términos de cálculos probabilísticos necesariamente Está correcto entonces esos sistemas a veces
consiguen procesar una cantidad grande de informaciones y en muchos casos ellos no nos darán la respuesta correcta y vean que esos riesgos se proyectan en tantas y tantas dimensiones ellas van desde el nivel individual profesora Patricia trajo aquí todas las preocupaciones relacionadas a los neuroderechos la idea de que hoy quizás nuestra mayor lucha sea para preservar nuestra privacidad cerebral nuestro Li libre arbitrio lo que se proyecta en el derecho de no ser manipulado Pero eso también tiene una dimensión colectiva social y política muy importante cuando ministre y tantos otros trajeron las repercusiones del uso de
la Inteligencia artificial en procesos electorales vean que hablando de Inteligencia artificial es hablar de aquello que es importante para nosotros hablar de nuestra actuación hablar del desarrollo de la personalidad hablar de la sociedad hablar de un flujo de información adecuado hablar de la preservación de las instituciones democráticas vean que no estamos hablando acá de un tema que es sencillo hablar de riesgos de Inteligencia artificial no es realmente estar hablando de teorías de ación o de excesos o exageros es hablar realmente de algo real si esas tecnologías traen muchos beneficios ellas también también traen riesgos y
vamos a necesitar encontrar una manera de equilibrar los beneficios que ellas traen con la manutención de los derechos fundamentales de las constituciones y de los procesos democráticos Entonces paso para la segunda parte de mi presentación para hacer una provocación Por qué entonces regular y cómo vamos a hacer eso Por supuesto que esa discusión sobre la ética la Inteligencia artificial ella es muy importante pero yo veo que ella no va a a servir solita y tenemos toda una experiencia práctica recientemente tuvimos oportunidad de ver tod todas las cosas que la inteligencia generativa adoptada por el Google
empezó a producir sugiriendo que personas colocaran eh pegamento en pizza y que salieran corriendo con tijeras y otras cosas absurdas esos resultados muestran varias limitaciones en esos sistemas no tenemos ninguna duda al respecto pero desde el punto de vista jurídico y político como una empresa tan interesante una bigtech tan poderosa disponibiliza una tecnología que rápidamente ya se mostró tan ineficiente y una de las respuestas es que ya hace porque puede porque tiene mucho poder político y económico y no tiene ninguna ninguna prohibición desde el punto de vista jurídico Entonces él puede transformar sociedades sistemas políticos
en un gran laboratorio someter todos nosotros a una tecnología para ver qué da y eventualmente solucionar si va a solucionar los daños en el momento donde Ya piensa que es adecuado ese es un punto que muestra que las iniciativas voluntarias de los agentes económicos que están involucrados en este proceso no están solucionando el problema y todos discuten programas de compli parámetros éticos en la elaboración de esos sistemas en su ejecución entonces la práctica nos ha mostrado un escenario muy diferente y quizás por este motivo en el sentido de pensar que solo una autorregulación una iniciativa
voluntaria de las empresas va a solucionar todo eso sí estoy de acuerdo con la profesora Laura cuando ella habla de la importancia de la autorregulación y como ella subrayó la autorregulación no puede suceder en cualquier lugar institucional y para eso la autorregulación es muy importante cuando muestra Cuáles son las obligaciones que deben ser adoptadas por por varios de esos agentes y es por este motivo que cuando vamos observar esa discusión en el ámbito mundial vamos ver sea por la iniciativa de la Unión Europea recientes resoluciones de órganos importantes como ONU todas esas iniciativas muestran que
necesitamos avanzar Sí en La regulación de una Inteligencia artificial pero vean una primera dificultad para esa regulación es entendermos que Inteligencia artificial no es hablar de un bloque único es hablar de un conjunto considerado como diversificado de usos que exactamente por eso presentan riesgos variados como una cosa que está presente en un proyecto de ley que fue elaborado por una comisión de juristas y yo tuve el honor de hacer parte profesora Laura también participó ministro de esta comisión ya se basó siguiendo todas las tendencias mundiales más modernas en el sentido de una regulación por riesgo
que exactamente por ser una regulación por riesgo es también una regulación responsiva que va a admitir y hasta mismo demandar una interacción muy grande entre regulador y regulado pero vean lidiar con riesgo no es algo tan sencillo así Por supuesto que va a involucrar una gran dimensión de regulación por evidencias y varias otras áreas del conocimiento que van a ayudarnos a entender Qué tipo de riesgos y exactamente por eso van a exigir un nivel de atención de cuidado de inteligencia mayor por parte de esos agentes para no perjudicarnos varios usos de Inteligencia artificial que no
sean que no tengan tanto riesgo como varias obligaciones como todos nosotros sabemos imponen un coste a las empresas mismo que eso sea justificado en varios espacios pero vean para Más allá de este componente científico del riesgo la literatura más contemporánea ha mostrado también que existe una dimensión social y cultural del riesgo hablar de riesgo no es hablar solo de un tema científico es hablar también de los valores culturalmente compartidos por una determinada comunidad es hablar sobre si en qué medida una determinada comunidad está dispuesta a correr también determinado riesgo pasar por ese riesgo y es
por eso que esos modelos reguladores regulatorios también van a necesitar encontrar una manera de participación popular para que uniendo ciencia y participación popular que podamos encontrar caminos para evaluación de ese riesgo cuando la comisión de juristas estaba reunida para pensar en eso después entendió que existiría una necesidad de hacer una clasificación de riesgos algunos riesgos son riesgos que no pueden ser aceptados son los llamados riesgos excesivos y ahí No puede haber una otra respuesta sino la prohibición los autos riesgos necesitan si ser asumidos con una serie de contrapartidas y obligaciones que disminuir y controlar ese
riesgo incluso dejando posible a accountability y supervisión por autoridades competentes y por la sociedad civil y para aquellos riesgos que no son ni excesivos ni altos entonces La idea es que el modelo regulatorio sea más suave para posibilitar la innovación en una escala más avanzada pero vean clasificar riesgos no es algo sencillo Sería más Cómo conciliar algo que es tan Dinámico con la seguridad jurídica una de las soluciones del proyecto fue al lado de la clasificación de riesgos presentar una taxonomía de sus riesgos para adelantar desde entonces lo que es considerado un riesgo excesivo y
que es considerado un alto riesgo y más admitir que exista una autoridad competente que pueda actualizar esa clasificación porque ahí esa solución intentaría dentro siendo posible compatibilizar la seguridad jurídica que es tan importante y al mismo tiempo encontrar elementos de de adaptación y flexibilidad posibilitando entonces una actualización frecuente de ese momento y aún es necesario quedo contenta que pl 2338 haya recibido esta solución dejaros un espacio para el principio de la precaución porque hablar de riesgo es hablar de algo que por lo menos podríamos mínimamente prever y Consecuentemente controlar y gerenciar pero lo que hemos
visto es que en temas complejos como medio ambiente tecnología y algunos otros relacionados estamos vemos lo que algunos llaman de incertidumbres radicales o sea aquello que ni sabemos que sabemos y es exactamente por eso que entre varias circunstancias vamos necesitar ir más allá de la prevención que es un principio que como sabemos fue estructurado para el riesgo y que tengamos que seguir también con la precaución que es exactamente aquella actitud que de alguna manera es para direccionar las preocupaciones veo que ese es un camino Muy interesante Espero que realmente el proyecto cuente con varias adaptaciones
y que pueda de verdad seguir porque yo veo que presenta as una solución adecuada y compatible con todos estos retos y esos retos no son pocos y como yo dije Me gustaría volver al problema del poder judicial ya que hablar de Inteligencia artificial en el poder público Generalmente ya es algo más difícil todavía una serie de los sistemas de Inteligencia artificial que ya existen en el sector privado dejan aún más dramático el sector público una cosa es una decisión en el sector privado y ese es un gran problema de decisiones algoritmos la falta de explicación
pero cómo hacer con este problema del poder público Cómo actuar que tiene varios principios propios como deber de motivación vean entonces que traer todo esa complejidad para el poder público creando muchas veces H una especie de Alianza ent poder público y poder privado porque puede ser un agente privado esa relación entre hombre y máquina no es una relación sencilla más que eso varios conflictos podrán suceder acá imaginen ustedes que es un gran agente privado que va a elaborar un sistema de Inteligencia artificial del supremo los datos probablemente del tribunal él va a tener acceso Cuál
es la seguridad é puede ser parte del proceso muchas veces es un gran demandante o demandado cómo hacemos para que usa las informaciones privilegiadas que tiene acceso en su beneficio en su propio beneficio él puede ofrecer un sistema de Inteligencia artificial para un tribunal y al mismo tiempo ofrecer soluciones de tecnología para parte y para agentes privados que tengan interés directo con aquel tipo de situación vean que usar la Inteligencia artificial en el judicial es algo muy delicado porque yo veo que hay un gran riesgo para Más allá de la violación de varias garantías fundamentales
hay un gran riesgo de transformar la disputa judicial que debería ser por la mejor tesis en una disputa porque entiende la mejor tecnología porque partir el momento que los tribunales empiezan a tener sistemas tecnológicos Se comprende que grandes agentes intenten entender esos sistemas aprovechen sus fallas y obvio que personas más poderosas tendrán más condiciones de enfrentar ese nuevo mundo que aquellos que son débiles frente a un país como Brasil y como la ministra destacó donde Tenemos tantos problemas relacionados no solo a raza y géner pero también la discriminación contra pobres Cómo hacer con que esa
entrada de tecnologías de verdad pueda suceder sin conflicto de interés sin privilegios sin que pueda perjudicar los principios del proceso y más siendo un instrumento que lejos de perpetuar discriminaciones intenta incluso solucionar esas discriminaciones ese es un problema muy serio y vean entonces de nada sirve decir ah estamos lejos de la figura del juez robó mismo la clasificación de un proceso puede ser algo muy importante para el destino de aquel proceso mismo cuando una máquina funciona como asesora y simplemente somete al juez un modelo de decisión vean puede ser que aquel juez en su contexto
ni tenga ni pueda cuestionar eventualmente el resultado de la máquina incluso tenga inúmeros incentivos para aprobar ese resultado aún más frente a la cantidad inmensa de procesos que generalmente Es un juez brasileño que él tiene Entonces no son puntos tan sencillos vean cuando imaginamos todos los problemas que vienen de estos sistemas que ya fueron mencionados acá falta de objetividad posibilidad de resultados contradictorios entonces esos problemas no son tan sencillos pero la máquina muchas veces muestra para el futuro el pasado porque ella se alimenta de datos pasados pero el derecho no vive solo del pasado él
abarca algunos momentos transformadores y las máquinas tienen una gran capacidad de procesamiento de datos la literatura actual ha demostrado que ellos no consiguen ellos no consiguen hacer varios juicios que solo el ser humano es capaz de hacer no son capaces de hacer el framy un que cambie el problema que vea la solución que considere eso que puede ser diversificado durante mucho tiempo en Brasil entendieron que la unión estable era Era una rendición de servicio y se convirtió en una sociedad de verdad y para ha una unión familiar pasó a ser decidiendo que ese mundo es
completo las consecuencias jurídicas de aquel vínculo de aquella relación que fue en virtud de ese cambio de actuación que fue posible una adap del derecho para la realidad social más que eso las máquinas trabajan con correlaciones no con causalidades que son riesgos humanos complejos Incluso en las Ciencias Naturales porque no vienen del cielo sin No exigen de alguna forma una alta dosis de interpretación las máquinas no trabajan con contrafactuales Entonces delegar los juicios o las actividades de la mente humana las máquinas tiene que ver con un gran riesgo Se involucra un gran riesgo y hay
que caminar hacia alternativas que de hecho concilien La potencia de las máquinas con la supervisión humana que no se puedan identificar las los discursos de las máquinas o que puedan suplir las deficiencias de los juicios de las máquinas siempre o suplirlas cuando sea posible me gustaría terminar porque ya me di cuenta que terminó mi mi tiempo refiriéndome a un a un libro llamado Power donde los autores se dedican a estudiar la innovación los últimos 2000 años y los lo más interesante que se al contrario de lo que se cree la innovación No necesariamente mejora la
vida de la mayor parte de la población en varios momentos viene Exactamente para reforzar la desigualdad y apropiarse de una población o y reforzar aún más la inclusión si se dice que hoy la ciencia avanzó con relación a la tecnología se dio mucho por las luchas sociales y la propia acción del derecho en el sentido de tratar de distribuir socialmente los beneficios de esa tecnología y parece que es una reflexión fundamental en este momento para entender que como se dijo como dijeron otros antes de mí difícilmente si dejamos que las cosas se se corran eh
va a haber un desequilibrio y difícilmente habrá un ajuste de los beneficios de las tecnologías creo que con estas palabras ya puedo concluir y les agradezco la atención y estoy a disposición de ustedes Muchas gracias [Risas] agradecemos a integrante discurso de la profesora sin perder un segundo le quiero pasar la palabra a Juan Gutiérrez pH políticas públicas por la universidad de boxford profesor asociado del gobierno de la Universidad de los Andes en Colombia su palabra quiera pñol entonces les pido que tengan mucha paciencia organicé mis diapositivas para que estén en portugués Entonces eso les va
a ayudar un poco Yo quiero comenzar por agradecer esta invitación por supuesto para mí es un honor estar acá el supremo tribunal Federal ha iluminado el derecho constitucional de América Latina en otros asuntos como el acceso a la salud de en particular digamos los los los los farmacéuticos en protección de datos personales y y me alegra mucho que que ahora quiera también contribuir en en este frente yo he tenido la oportunidad de hablar en muchos países particularmente de América Latina en eventos muy parecidos a este y este es uno de los mejores de comienzo a
fin que ha asistido realmente los felicito los agradezco muchísimo también que me den la oportunidad de contarles cómo desde Colombia eh estamos también contribuyendo a esta discusión Global en la que eh el sur global o si quieren mejor la mayoría global tiene mucho que aportar tiene mucho que decir voy a dividir mi charla en tres puntos eh está basada en en las investigaciones que yo desarrollo en la universidad de los Andes eh algunas de ellas eh También en el trabajo que est haciendo para UNESCO Entonces les voy a compartir algunos hallazgos de esas consultarías que
hemos hecho para UNESCO en tres puntos cómo los jueces están utilizando los sistemas de Inteligencia artificial Cuáles son algunos de los riesgos eh asociados a los tipos de usos que hemos encontrado en en en jueces y en general en el sistema judicial Y por último hablaré de iniciativas alrededor del mundo sobre reglas y orientaciones para el uso de Inteligencia artificial en los sistemas judiciales Comencemos entonces con el primer punto el primer punto sale de una encuesta global que diseñé para UNESCO y cuyos resultados pueden encontrar en este momento disponibles en internet en donde nos preguntamos
Cómo se estaban usando los sistemas de Inteligencia artificial a nivel global y encontramos que eh digamos hay haí una alta familiaridad con los sistemas de Inteligencia artificial un una adopción de sistemas de Inteligencia artificial relativamente baja no más del 25% digamos de los operadores judiciales declararon que usaban algún tipo de sistema de Inteligencia artificial pero digo relativamente Baja porque son pocas las organizaciones que le entregan a sus servidores judiciales herramientas de Inteligencia artificial Por una parte y por otra parte los sistemas de Inteligencia artificial generativa por lo menos de acceso masivo son relativamente recientes entonces
realmente hay una adopción rápida de esta tecnología y que seguramente seguirá creciendo pero más allá de Cuántos personas en el sistema judicial de diferentes países del Mundo están usando estos sistemas la siguiente pregunta es bueno y qué hacen particularmente con los sistemas de Inteligencia artificial generativa que son los que universalmente tienen acceso verdad todos sabemos que podemos entrar a chat gpt a copilot en alguna versión gratuita o licenciada la respuesta más común de esas personas es que el 43 por usan estos chatbots para buscar información esto ya empieza a hablar de los riesgos verdad Porque
todos sabemos que y si no lo sabemos ya deberíamos empezar a saberlo que los chatbots pueden producir información imprecisa Inc correncia incluso falsa eh en Brasil desafortunadamente hay un caso que seguramente todos ustedes conocen de un juez que copió y pegó a partes de contenido generado por chat ipt y desafortunadamente no controló y en su sentencia aparece jurisprudencia inexistente verdad Pero eso ha ocurrido en otros lugares del mundo también tanto para abogados como para jueces y es un riesgo que sigue latente porque luego les voy a comentar Cómo es mucho más alta la proporción de
personas usando estos sistemas que personas que han pasado por algún tipo de entrenamiento formal sobre cómo funcionan y cuáles son sus limitaciones eh una segunda respuesta muy común es para redactar documentos aquí digamos nosotros tenemos un poquito de más de granularidad en esa respuesta y sabemos que cuando hablamos de redactar documentos no es que esté redactando de cer0 a 100 la sentencia o la decisión judicial sino que los jueces las juezas lo están usando para resumir para que sus textos sean más claros para eh tratar de aumentar el acceso a personas que de pronto no
son abogadas eh para entender sus fallos bueno y podría seguir hablando un poquito más de de los usos eh que incluye explorar explicar analizar datos eh pero esos son un poquito más marginales respecto de los usos principales que estamos viendo de búsqueda de información y de tratar de eh complementar el proceso de de escritura ahora riesgos de los sistemas de Inteligencia artificial en el sector justicia basados en en estos hallazgos Bueno yo ya no tengo que pasar por estas diapositivas afortunadamente porque ya tuvimos toda una mañana en la que hablamos de los riesgos de los
sistemas de Inteligencia artificial recientemente la universidad de mit publicó un repositorio de riesgos con más de 700 tipos de riesgos documentados Los invito a que lo conozcan me pareció super interesante ese repositorio Por otra parte si ustedes tienen interés en conocer casos en donde ha habido incidentes negativos de uso de sistema Inteligencia artificial tanto en lo privado como lo público pueden acceder a repositorios tanto de la osd como de organizaciones eh sin ánimo de lucro en el que ustedes pueden ver miles de casos y de hecho si ustedes ven este esta gráfica ven que en
los últimos aos años el número de incidentes en la base de datos ha crecido muchísimo seguramente porque hay más reportería pero seguramente también porque simplemente avanzados su uso en el digamos se se ha adoptado más masivamente las herramientas y Consecuentemente pues está produciendo más incidentes negativos Entonces como decía mi colega Ana no es teórico es qué está pasando ahora verdad Ahora Nosotros también le preguntamos a las a a los operadores judiciales qué percepción tenían sobre la existencia de riesgos particularmente asociados al uso de Inteligencia artificial generativa en su trabajo eh Como pueden ver ustedes la
gran mayoría casi 70 por dicen sí creemos que hay riesgos un 21 no sabe eso es grave es muestra que necesitamos trabajar en alfabetización digital un 99% dice que no Bueno okay podemos discutirlo e pero la siguiente pregunta es bueno y a quienes respondieron que sí existen riesgos Cuáles son esos riesgos y eh el 27 por es consciente de la de los problemas de la calidad de la información que aparece en el contenido Eso me parece positivo que tantas personas hayan que tanto porcentaje de las personas hayan respondido eso porque pues esa es una de
las principales eh debilidades pero fíjense que Eh hay otras que los mismos usuarios manifiestan eh digamos asuntos relacionados con la protección de datos y la privacidad que ha sido mencionado hoy si ustedes insertan en un prompt eh para chat gpt versión gratuita o cualquiera de los eh chatbots en versión Premium cualquier cosa que inserten ahí en el prompt va a ser reusado por la empresa según los términos y condiciones Luego si ustedes insertan información confidencial o información personal y si ustedes son funcionarios públicos Pues están incurriendo en una falta gravísima verdad porque están perdiendo el
control de esa información y Y esto es muy importante Porque algunos colegas se imaginan que entre más información inserten en el prompt y más detallada mejor va a ser la respuesta Entonces no no no sería sorprendente que muchos están insertando información que es confidencial o incluso personal verdad por otra parte muchos están preocupados eh Por asuntos de copyright y de integridad eh porque saben eh que como se mencionó en algún momento del panel estos sistemas han sido entrenados con una gran cantidad de datos muchos de los cuales están egidos por derechos de autor sin que
haya el respectivo reconocimiento Pero además eh Porque cuando el chatbot produce la respuesta y pues el chatbot finalmente es un un gran detector de patrones y reproductor de patrones dentro de esos patrones pues hace un colage de cosas que seres humanos han producido y que no van a tener ningún tipo digamos de eh reconocimiento no se va a hacer ninguna atribución Y por supuesto que el trabajo de de nuestros jueces de nuestras juezas implica la atribución ellos no pueden simplemente decir porque en Colombia dirían porque Ajá no tienen que decir por la Norma por la
jurisprudencia por las fuentes del Derecho Bueno hay otros e preocupaciones la opacidad eh asuntos asociados con con el el derecho los derechos laborales asuntos asociados con los sesgos con el impacto al medio ambiente entonces hay algún tipo de de preocupación entre las personas que que los usan usan y la siguiente pregunta que hicimos es si existían reglas sobre el uso de estas tecnologías Y si recibió instrucción entrenamiento formal y ustedes pueden ver que la gran respuesta es no no recibí entrenamiento formal y tampoco tengo ninguna orientación de parte de mi organización eso es muy grave
dado que como ustedes vieron avanza el uso de los del uso de los sistemas y alguien de pronto me puede decir pero estás satanizando los sistemas no No para nada Yo lo único lo que quiero es que ellos sepan Cómo usarlo porque yo puedo usar un automóvil para llevar para ir al trabajo muy rápidamente pero también puedo usarlo para atropellar a alguien para matarme a mí mismo si no sé usarlo verdad entonces aquí hay un reto muy grande de parte de las organizaciones de alfabetizar y de orientar también les preguntamos si deberían existir directrices o
reglas para el uso de Inteligencia artificial generativa Por una parte para jueces Por otra parte para los abogados Por otra parte para no abogados porque ustedes saben que en muchos procesos las personas pueden acudir directamente cuando no hay Us postulandi y como ustedes pueden ver la gran respuesta de más del 70 por es sí queremos directrices sí queremos reglas eso puede ser contraintuitivo muchas personas de pronto Se podrían imaginar que que la gente no quiere ser regulada pero sí Aquí la gente quiere ser regulada y y estamos en Mora de hacerlo de hecho una nota
Y es que en una alian como decían ustedes en una parcera entre la universidad de los Andes y la justicia colombiana realizamos entre enero y mayo de este año un curso para 14 magistrados jueces y servidores judiciales sobre fundamentos de Inteligencia artificial en el sector justicia un curso de 50 horas sincrónico maravilloso e luego en por fuera de la conferencia de pronto les puedo contar más detalles sobre eso pero lo traigo a colación primero por el esfuerzo de una jurisdicción como la colombiana de masivamente eh educar entrenar y fueron 100 pero tendrán que ser más
porque hay muchos más servidores judiciales pero el segundo punto que quería contarles es que yo aproveché este curso que diseñé y organicé para hacer una encuesta entre los 14 funcionarios judiciales y las respuestas son muy parecidas a esa encuesta global de la UNESCO que Les acabo contar O sea no no es tan diferente digamos Esa esa imagen global de lo que estamos viendo en un país como Colombia y seguramente mu muy pareco lo que ocurre en Brasil habría que hacer la encuesta ahora hubo una pregunta que hice a mis colegas colombianos y y por eso
también quería traérselo a colación que yo no hice en la encuesta global de UNESCO por tonto porque no se me ocurrió pero aquí se me ocurrió y es qué obstáculos se encuentran para que puedan usar sistemas de Inteligencia artificial para su trabajo y para mí fue s sorpresivo el hallazgo de que la primera respuesta es neces neces necesitamos que nos den entrenamiento para mí fue sorpresivo porque yo pensé que lo primero iba a ser necesitamos computadores necesitamos mejor internet necesitamos software qué s yo no eso eso está pero está mucho más abajo Ellos dicen primero
queremos ser entrenados segundo otro obstáculo es no tener reglas no tener orientaciones si estas herramientas son riesgosas Pues a nosotros nos da miedo usarlas pero el segundo punto el el tercer punto Perdón que está relacionado con ese es queremos tener acceso a herramientas propias porque sabemos que si usamos chat gpt o copilot u otra sistema Inteligencia artificial generativa o no que esté disponible en internet no sabemos cuáles son sus estándares de calidad y particularmente por ejemplo de seguridad para que podamos usarlo no sabemos qué datos se usaron para entrenarlos no conocemos el modelo no sabemos
mucho y por lo tanto esa opacidad va en contravía con el tipo de trabajo que nosotros tenemos que hacer que no puede ser opaco Entonces sorprendentemente los obstáculos que al menos ellos perciben no son los que uno se imaginaría de máquinas cómputo y tecnología sino son obstáculos muy humanos de querer saber cómo funciona algo de tener unas reglas de tener unos equipos que respondan a los objetivos propios porque como creo que Ana era la que lo mencionaba una cosa es que una empresa utilice tecnologías que están allá afuera y donde no importa por ejemplo la
transparencia o no importa la imparcialidad o no importa la autonomía y la independencia Pero tú no puedes trasladar eso al sector público y mucho menos al sistema judicial donde sí importa y llego ya a la parte final de Mi intervención y es bueno Y qué iniciativas hay sobre sobre reglas y orientaciones me voy a enfocar en el sector justicias Por qué Porque por supuesto que podos hablar de regulación en general y ahí voy a hacer otro paréntesis voy a aprovechar para hacer otra public y es en en en UNESCO me contrató para escribir un policy
brief sobre los las aproximaciones emergentes de regulación de Inteligencia artificial alrededor del mundo porque la discusión Parece ser cuando uno revisa los términos de la discusión global Parece ser muy como bueno está el modelo de la Unión Europea y está el modelo de Estados Unidos y está el modelo de China y cuando uno va a ver los proyectos de ley que hay alrededor del mundo la historia es mucho más compleja es que solo hay que visitar Brasil para ver que el proyecto de ley de Brasil si recoge muchos aspectos que están en el Ai act
de la Unión Europea pero tiene otros que no tiene la Unión Europea por ejemplo tiene unos capítulo sobre Derechos sobre nuevos derechos y eso es muy interesante para la la en términos de la contribución del sur global que parece que otros no están tratando de contribuir por muchas razones que pueden ser incluso geopolíticas e y ese ese documento eh eh esta semana va a ser publicado Los invito no tengo tiempo Acá de explicar ese documento pero en ese documento explico nueve aproximaciones regulatorias diferentes que que encontré en proyectos de ley y leyes alrededor del mundo
porque no sé si son conscientes pero solo en América Latina Hay 11 países cuyos congresos o asambleas nacionales están discutiendo proyectos de ley y luego en África también hay proyectos y luego en también proyectos y por supuesto que estamos viendo mucho efecto Bruselas es decir mucho efecto de eh ver que en la Unión Europea se aprueba una ley y eso como luego empieza a irrigar en otros lugares del mundo bueno se ve mucho eso pero también se ve mucha novedad y eh Y creo que vale la pena eh estudiar las legislaciones y los proyectos de
ley de muchos países pero volviendo a mi presentación porque Además creo que me quedan solo unos minutos en lo que tiene que ver con reglas y orientaciones para el sector justicia les voy a contar diferentes ejemplos Porque además hay diferentes instrumentos regulatorios primero hay normas puras y duras obligatorias el Ai act el el reglamento de Inteligencia artificial de la Unión Europea Establece que un riesgo alto de uso Inteligencia artificial se da cuando se utilizan sistemas para la toma de decisión en el marco de procesos judiciales y el hecho de que tenga un riesgo alto implica
unas obligaciones especiales para quien desarrolla y para quien pretende desplegar el sistema como por ejemplo hacer una evaluación de impacto antes de sacar a producción el sistema como por ejemplo tener un sistema de gestión de riesgos Me parece muy importante yo yo creo que eso no debería limitarse solo al sistema judicial por supuesto que en general el sector público toma muchas decisiones a partir de estos sistemas que pueden afectar la vida de las personas entonces creo que hay esto es importante para sistema judicial Pero hay otros eh áreas del sistema público del sector público donde
También es importante este tipo de normas Por otra parte diferentes entidades que gobiernan lo judicial en el mundo han empezado a publicar directrices el año pasado por ejemplo el Reino Unido Nueva Zelanda y Canadá publicaron directrices sobre uso Inteligencia artificial particularmente generativa en eh el sistema judicial el caso por ejemplo de Nueva Zelanda es muy interesante porque sacó tres diferentes guías para magistrados y jueces para abogados y para no abogados Porque además hay unas obligaciones que pueden ser diferenciadas y eh Ahora voy a hacer otra publicidad asociado a eso Pero hay hay otro instrumento y
es la jurisprudencia la corte constitucional de Colombia recientemente expidió una sentencia bastante detallada son casi 200 páginas a propósito del uso de chat gpt para redactar una sentencia a comienzos del año 2023 un juez en Cartagena decidió hacer cuatro preguntas legales de asuntos legales jurídicos hgpt para complementar la parte de motiva la parte de la decisión de justificar su decisión en un caso en donde los derechos fundamentales de un menor de edad estaban en juego eh el juez digamos tuvo en cuenta además de lo que chat gpt respondió alguna legislación y alguna jurisprudencia pero yo
fui una de las personas que criticó públicamente la manera que lo usó porque no demostró que hubiera contrastado las respuestas de chpt con otras fuentes fiables y Porque dejó la respuesta de chpt como si fuera una fuente confiable a pesar de que la la las respuestas habían sido un un poco imprecisas digamos que no incluye información falsa pero sí eran un poquito imprecisas las respuestas Y esto llegó a manos de la corte constitucional porque se digamos terceros digamos no las partes del caso sino terceros interesados quisieron hacer el caso de que se estaba violando el
debido el derecho al debido proceso cuando se usaba un sistema respecto del cual no conocíamos Con qué datos fue entrenado ni cómo funcionaba el modelo ni su nivel de precisión ni Cuál era la pertinencia para usarlo digamos eh en el marco de un proceso constitucional y por eso la corte constitucional abordó este caso es es un eh una sentencia en la que por una parte admite que los jueces pueden usar herramientas de Inteligencia artificial pero lo que lo tienen que usar bajo determinado marco bajo determinadas reglas y entonces la corte constitucional procede a eh proponer
una serie de principios Aquí está el listado completo que no no alcanzar van a ver pero son 12 principios que propone la corte constitucional para el uso de Inteligencia artificial en el sector justicia y antes de eso ha dicho pero ojo hay una regla Y es que las máquinas no pueden sustituir al ser humano si la máquina sustituyera al ser humano por lo menos en el marco constitucional colombiano sería inconstitucional no podría digamos por muchas razones asociadas precisamente a la violación del debido proceso y a la opacidad de muchos de estos sistemas entonces eh la
corte constitucional dice sí se deben usar bajo determinados parámetros nunca para para sustituir la propia pensamiento y juicio del juez y además el tribunal en su sentencia le pide al consejo superior de la judicatura que es el órgano que gobierna la rama judicial en Colombia que primero que publique unas orientaciones para los jueces sobre Cómo usar y cómo no usar y segundo le pide al consejo superior de la judicatura que también siga entrenando los jueces que necesitamos más entrenamiento aquí viene la otra parte de la publicidad y con esto les juro que voy a terminar
y es que para UNESCO preparé unas guías de uso de Inteligencia artificial en cortes y tribunales e Esas guías ya están disponibles en internet en formato de consulta pública eh digamos mi borrador pasó por las manos de una cantidad de expertos que me enviaron un montón de feedback pero en UNESCO dijeron esto necesita una mayor fusión y por eso pusieron el documento para que cualquier persona pueda enviar su retroalimentación Los invito a hacerlo por favor si les interesan estos temas bienvenidos eh sus comentarios y después de eso Seguramente se producirá un mejor documento que no
alcanzo a explicarles porque se me acabó el tiempo es un documento que también tiene unos principios unas recomendaciones puntuales para los jueces y para los funcionarios y con esto termino Ese es mi correo electrónico Por si les interesan estos temas Me encantaría seguir dialogando con ustedes muchas Gracias obrig profesor juanz Gracias profesor Juan Gutiérrez mi deber de casa es leer todos esos documentos va a ser un trabajo largo y ahora le paso la palabra al profesorado que es abogado en la escuela de ingeniería y doctorando por la universidad dex y la usp gracias a los
guerreros que se quedaron hasta ahora al stf particularmente a Víctor y a lini y sigamos ustedes van a ver que usé mucho y generativo y eh está liberado por el bien de la ciencia les voy a hablar sobre algoritmos como adjudicadores No necesariamente es una cuestión de hiana Justicia sino es una discusión más amplia y quería [Música] empezar cómo va a ser nuestro recorrido Cómo este meme voy a empezar con muchos detalles después no voy a tener tiempo voy a salir corriendo pero quiero hablarles de un caso hipotético de qué hablamos cuando hablamos de algoritmo
qué este concepto de algoritmo significa cuando lo implementamos en la sociedad y usamos las tecnologías como estoy haciendo con el chat gpt d y voy a discutir con ustedes un caso de moderación de contenido que profesor Flavio mencionó un estudio que hicimos juntos voy a aprovechar su explicación y algunos caminos Hacia dónde vamos vamos a empezar con un problema voy a describir un caso hipotético voy a llamar a esta voy a llamarlo kaio él estaba en el aeropuerto y recibió el anuncio de que se canceló el vuelo es hipotético entra en el sitio abrimos la
cuenta buscamos las eh bien Podemos remarcar les explica los derechos eso te ayudó no tienes a dónde ir clicas no Ah sí soy orines viene la sopa de letra es sigue el diálogo hasta que termina Ah Discúlpame eh Gracias pero no puedo eh atenderte puedes ir al sitio o a la aplicación vas a la aplicación encuentras un error que te manda al teléfono y después encuentras otra máquina que te dice ay disculpa no puedo atenderte e tu no puedo responder tu pregunta y te quedas en este ciclo infinito eh saltando de una máquina a otra
Y en este punto tenemos un flujograma el flujograma de cfca donde uno se pierde la democracia donde se mezclan gente empresa y herramienta esto es un una broma uno accede el sitio que lo manda al call center que manda el WhatsApp después Este va call center y vuelve volvemos a cero eh nosotros tenemos estos problemas todos los días conflictos que no son en un primeros momentos pasibles de judicialización podemos hacerlo pero no vamos a judicializar el dolor de cabeza que tuvimos de ir al call center al chat etcétera Pero es un conflicto que hay que
resolver y se resuelve a través de máquinas estas máquinas permiten que la empresa gigante aprenda todo atiende a todo el mundo y mira el fluxograma queé Yo quiero trabajar el concepto de algoritmo y tenemos que especificar de quién está hablando en este sala cuando hablamos de algoritmo este algoritmo en estricto senso como Flavio dijo Es un paso a paso ns damos una entrada y nos da la salida aquí tenemos un flujograma de un algoritmo que dice Cuál de los tres números es el más grande TR númer coloca ya tres números se pasa esa secuencia y
al final te da un resultado más o menos como chatbox que vimos la importancia de trabajar el concepto de algoritmo es porque algoritmo es el ladrillo de la Inteligencia artificial incluso algoritmos componen algoritmos más complejos Y usted puede unir un montón y hacer un rendir un servicio Como shat gpt que usa esos algoritmos de aprendizaje Entonces en un primer momento tenemos la impresión que estamos hablando eso pero el profesor glp él yo coloqué la Fuente si ustedes quieren porque hay veces nombres que son difíciles de entender él separ en cuatro conceptos de algoritmo porque mezclamos
uno de verdad es la solución es la matemáticas Pero él habla también que tenemos un talismán hay un argumento comercial de tenemos un algoritmo nuestra aplicación de encuentros es encontrar el par perfecto Tenemos también la idea de que científico ese compromiso con procedimientos de alguna manera que está allí no es de la Esfera humana es la ciencia dándote un resultado son dos partes interesantes pero no es nuestro enfoque ahora más importante es el algoritmo como sinedo que es una metonimia está hablando del algoritmo pero está hablando de un todo Estamos hablando de una empresa con
políticas con personas con normas con decisiones que ofrecen productos y servicios usando tecnología compleja un algoritmo complejo Pero uno no se separa del otro Entonces como ejemplo acá hasta mencioné matemática y Harmony era una aplicación antigua que tenía ese algoritmo para encontrar su par perfecto aood dice no escogemos no es mi primo que va a buscar su entrega colocamos un algoritmo y va a determinar quién está más cerca Quién va a serc la entrega más rápida Cuál es el camino más rápido y est dando ejemplos shat gpt servicio que usamos muestra varias decisiones por ejemplo
decisiones de ajustar sesgos cuál público usted cuál público usted quiere llegar entonces todas esas empresas cuando hablamos del algoritmo del Google estamos hablando de todo el Google que está controlando y Ajustando el algoritmo que usamos Y ese es el punto principal porque caemos con el error de que es una parte de verdad Pero puede ser un error también en muchos aspectos empezar que hay un robot manipulando toda nuestra experiencia y me encanta el chat gpt que trae ese elemento interesante para nuestra conversación pero estamos tratando de un un conjunto socio técnico Hay personas por detrás
de esta máquina y estamos interactuando con esta máquina Entonces cuando se ofrece un servicio hay alguien allí que paga el servidor que paga la cuenta de luz que desarrolla que ajusta entonces guarden ese concepto algoritmos como adjudicadores el ministro bajos trajo un dato más actual que el mío entonces sabemos que los tribunales del judicial en Brasil tiene 83,1 por eh millones de procesos atípicos Perdón ya ya no sé si si es real o no que el judicial brasileño es el mayor del mundo supongamos que sí porque es algo increíble porque es un número Interesante pero
justificando algo que yo quería trabajar con ustedes y Ah no son solo empresas de la Inteligencia artificial pero son algoritmos que trabajamos ahora esos datos son de un archivo de dos profesores dos profesores etan kesh y orna habin que está eras geológicas desactualizado pero los números sirven para nuestra discusión 2015 alibaba a través de su mecanismo de de resolución de disputas que uso que usa incluso eso para solucionar las disputas alibaba es como si fuera Mercado libre Amazon él había producido 150 millones de votos en disputas entre clientes Entonces solo ahí en términos de alibaba
es casi el mayor tribunal del mundo sí de alguna manera son disputas que quizás no fueran para el judicial pero son disputas que alibaba está solucionando al lado está el fundador de airbnb que habla que podemos Describir una línea de código que va a solucionar el problema de una 10,000 o 10 millones de personas entonces dentro de la lógica del servicio de la rendición del servicio está la solución de disputa a través del algoritmo entonces existe toda una parte de disputa que No necesariamente va para el judicial porque son pequeñas Pero ellas son pulverizadas el
valor y el volumen es muy grande y quién está controlando eso de manera deliberada cómo es ese caso que ustedes están observando son las plataformas y vamos discutir no expo en un para dar una idea de las dimensiones algunos años atrás la gran discusión era blockchain dentro del Smart code existe ese concepto de hacer un contrato elaborado en una organización que opera solita que es que es una organización distribuida Autónoma básicamente un contrato operado solito y en ese espacio tenemos registros de acciones solucionadas ejecutadas por contratos inteligentes que sumaban 3000 millones de dólares Cuál es
la importancia porque el contrato inteligente no es solo un contrato a veces menos no es menos que un contrato pero es un mecanismo de ejecución es un mecanismo de resolución de conflictos él recibe aquellas entradas del algoritmo y ella da el output ejecuta No ejecuta cancela multa etcétera entonces de verdad esas máquinas ya están operando soluciones y ahora no es una solución que viene de la cabeza de la máquina yo oí una situación muy interesante esos días que decía que quizás el robot lleve su empleo pero no va a llevar su sueldo más o menos
esa lógica é está ejecutando la resolución de conflicto Pero quién está por detrás Y quién está operando no es la máquina y ahí el punto principal de eso es que traemos para esa infraestructura nuestra de transacciones los algoritmos Y tenemos un desplazamiento privado un espacio privado la solución de conflictos nuevamente a veces explícita a veces implícita y ahí quiero trabajar con ustedes uno de esos casos simplos que es muy común y quizás ustedes también ya hayan pasado como nuestro caso hipotético Espero que ustedes que para ustedes sea algo conocido que ustedes conozcan por ejemplo eso
con líneas aéreas y empresas de telefonía que sería el caso de la moderación de contenido cada post que hacemos tenemos filtros algoritmos de Inteligencia artificial que miran aquella publicación y van a decir bueno puede quedar ahí normal o no puede es pornografías violencias terrorismo y ahí lógico ese ejemplo es del Instagram Pero todas redes sociales grandes hacen eso estamos haciendo eso cada vez más hasta por un motivo jurídico resoluciones del tse que fueron mencionadas Acá hay una presión una necesidad de controlarnos la información y eso incluso yo participé mucho y apoyo esas normas mi test
de doctorado en Oxford Es sobre desinformación de ciencia en la salud en Brasil pero necesitamos entender Cómo que ese conflicto usted publicó alguna cosa que puede que debe o no estar ahí funcionando hay un conflicto que debe ser solucionado está moderando nuestra libertad de expresión una empresa por ejemplo Entonces el concepto de moderación de contenido es muy sencillo usted hace una publicación que puede ser una imagen del estado islámico cualquier imagen eso pasa por un modelo y el modelo y eso va a ser considerado si va a dejar o no publicado voy a aprovechar la
publicación que el profesor Flavio hizo usamos algunos modelos de Google por ejemplo y esos modelos eran buenos pero ellos no estaban de acuerdo en algunos puntos más o menos es como esa imagen hay dos modelos buenos que están mirando el mismo objeto pero están describiendo de manera diferente realmente quién escribió el número quería decir nueve o seis pero no sabemos Qué es y los modelos están disputando eso y no tenemos una razón para escoger entre uno u otro y qu descubrimos Es que de verdad los modelos están actuando a partir de elementos aleatorios y eso
preocupa y ahí para no repetir todo que Flavio dijo y Añadir una parte para nuestro debate tenemos una parte que escapa no solo un riesgo al derecho no solo cuando hablamos de la noción jurídica que usted puede tener un horror escapamos de la lógica de proceso profesor Ana también mencionó este tema escapamos del procedimiento Esperamos que vaya a mirar la libertad de [Música] expresión una lógica de estadística y ahí eso es una lógica esencialmente comercial eso no quiere decir que hay una falta de una línea específica todo el tiempo no sería el mejor uso del
tiempo del ministro bajos de cualquier otra persona no sería eso el mejor uso del tiempo pero debemos saber nos darnos cuenta de que esta parte de resolución de disputas también es controlada por una empresa por esa parte privada que va a beneficiarse de todo eso si usted tiene un problema en el Uber usted reclama y el chófer que va a contestar yo iba a decir nunca pero a veces hay excepciones casi nunca la plataforma va a decir no eso fue un error de mi algoritmo y yo voy a pagar los dos o tú o el
chófer va a pagar Entonces sí tenemos una estructura tecnológica de resolución de conflictos pero usted de tener eso es un poder enorme que Ne estamos discutir es esencialmente y aquí voy a colocar algunas diapositivas es explícito es una jurisdicción que observamos en el alibaba usted veía Eso es Es 2015 ya es Antiguo estamos hablando de medios alternativos para resolución de conflictos y en otros casos una manera más interesante ent debemos pensar en esos problemas y un dato me refiero a un estudio que el profesor Flavio mencion todo eso llevaba a una discriminación entonces Endo de
quién usted es A quién estás direccionando eso tiene una chance menor o menor de algo que es basado en fundamentos o en una otra perspectiva y ahí Yo vengo para el momento final para el constitucionalismo profesora profesora Shan también de Harvard ella dijo que la tecnología trae un momento constitucional para dónde vamos ella tiene un poder constitucional no solo cuando ella cambia la ley pero ella trae cambios de la realidad que nos obligan a discutir valores jurídicos constitucionales entonces la foto de la luna no tiene referencia porque yo que hice esa foto no fue shat
gpt Pero quizás consigamos ir para la luna tronco es vida o no salud tenemos Ai que exp Incluso lanzando un libro hoy Qué es salud vamos a tener un diagnóstico usando ia el papel del Médico de la médica es solo producir diagnóstico después de solo mirar la persona dolor de cabeza toma di pirona o el papel de la médica del Médico es muy diferente Cuando hablamos de Cuidado entonces introducimos esa tecnología excelente va a Gar va a ganar en escala pero estamos manteniendo ese concepto de salud Cuál es el concepto por ejemplo de salud en
en la Constitución que queremos ver preservado a través de las tecnologías Y para dónde vamos Cuáles son las soluciones que Yo propongo no pienso que debemos dejar la tecnología de lado no quiero hablar mal de las empresas ese no es el camino quiero de verdad que esas tecnologías ellas son muy útiles Entonces yo veo que el shat gpt Es casi la calculadora del abogado Ese es el nivel de revolución es una cosa que usted sabe hacer usted consigue hacer más rápido pero usted no va a direccionar la calculadora para un campo abierto y ella va
a mostrarte el edificio el ingeniero tiene que ir allá a hacer cuentas observar entonces necesitamos ser arquitectos del problema necesitamos entender Cuáles son las preguntas que nosotros debemos hacer cómo formular esas preguntas y ahí también Cuáles Cuáles serían estas partes entonces un archivo fue publicado llamado ya constitucional Entonces ella está adelantándose y proponiendo soluciones pero que ella llama de constitucional en este artículo Y ustedes pueden consultar es una gran encuesta interesante donde ellas colocan dentro del programa gpt Y de alguna manera eso está todo amparado por directrices constitucionales Incluso en un momento yo les pregunté
y yo pienso que eso no está de acuerdo con el concepto jurídico de Constitución porque la Constitución no es una gran encuesta que nosotros documentamos y colocamos ahí en esta parte a veces es una parte un instrumento de interpretación y en muchos casos ella va a ser usado para interpretar un caso nuevo la estadística no va a darte una solución nueva ella va muchas veces Mostrar ella va a mostrar que tiene mayor incidencia entonces necesitamos apropiarnos de esa salvaguardia necesitamos proponer eso No necesariamente necesitamos entonces estar en un nivel pulverizado de Mercado pero necesitamos saber
que eso está sucediendo y ahí necesitamos regular Pensando en todos los niveles desde la incorporación de esas tecnologías en el judicial entendiendo como ell son usadas porque es una caja negra como se dice y también discutir ese nivel de infraestructura y es por eso Entonces para terminar yo hago investigación Yo trabajo con eso Entonces con ese punto yo finalizo mi presentación dejo mis contactos Entonces ustedes pueden eh escribir estoy investigando en estoy con investigación en Oxford estoy realizando varios tipos de investigaciones y agradezco la atención de [Aplausos] todos me gustaría agradecer a todos los panelistas
a Cayo Ana Juan todos los panelistas del seminario entero por las presentaciones de altísimo nivel y paso ahora la palabra a nuestre maestro de ceremonia deseando un buen almuerzo a todos y Agradeciendo la presencia y la paciencia de todos agradecemos las manifestaciones de todos los ponentes que aportaron para el éxito de este evento agradecemos también el apoyo en la realización de este seminario instituto brasileño de enseñanza de desarrollo investigación idp y la Embajada de Estados Unidos que en este año celebran 200 años de relaciones diplomáticas con Brasil con la autorización declaro finalizado el seminario impactos
de la Inteligencia artificial en el constitucionalismo contemporáneo y tengan todos una excelente tarde an