21 de Noviembre de 2024 /
Actualizado hace 4 horas | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Especiales / Invitado


“La pluridisciplinariedad es clave en la evolución del ejercicio de la profesión jurídica”

13 de Septiembre de 2023

Reproducir
Nota:
166601
Imagen
Valerie-Saintot(archivoparticular)

Recientemente, la Cámara de Servicios Legales de la ANDI realizó el evento Inteligencia artificial: retos desde la ética, en ejercicio de la misión que ha trazado para promover el Derecho, la seguridad jurídica y el desarrollo socioeconómico de Colombia.

Entre las conferencistas invitadas para tratar temas como la ética y las tecnologías avanzadas, entre otros, se encontraba Valérie M. Saintot, abogada y sicóloga experta en inteligencia artificial (IA), miembro activo del Liquid Legal Institute y exdirectora legislativa del Banco Central Europeo.

ÁMBITO JURÍDICO aprovechó este espacio para conocer su opinión sobre algunos de los temas que se discutieron durante el encuentro.

ÁMBITO JURÍDICO: ¿Qué aspectos éticos cree que están expuestos por el uso de la IA en la práctica jurídica?

 

Valérie M. Saintot: Centrándonos en el caso de los profesionales del Derecho, se pueden señalar cuatro riesgos principales. El primero es la privacidad de los datos. Hay que evitar utilizar datos sensibles de clientes o empresas en grandes modelos lingüísticos que no se controlan. El segundo riesgo al que se enfrentan los profesionales del Derecho es la necesidad de mantener la estricta confidencialidad de las interacciones con sus clientes. Si el abogado utiliza un bot del tipo ChatGPT para redactar previamente la correspondencia con los clientes, el contenido podría perder el control de los abogados. Un tercer riesgo es incumplir el deber de competencia, al utilizar información errónea para preparar documentación jurídica para asesorías, litigios o mediaciones. Y un cuarto riesgo es incumplir el deber de independencia, tomando prestadas las conclusiones de un chatbot, en lugar de llegar a unas conclusiones a través de su propio análisis.

Un ejemplo de esto, ya tristemente célebre, fue informado por el New York Times, el 29 de mayo del 2023: un abogado utilizó referencias de sentencias judiciales que eran inexistentes. Un tonto con una herramienta sigue siendo un tonto. La máquina no es culpable. Es el abogado el irresponsable.

Á. J.: ¿Cómo encontrar un equilibrio entre innovación y ética a la hora de aplicar la IA a la práctica jurídica?

V. M. S.: No hay contradicción entre innovación y ética. Comúnmente, la ética se percibe como burocrática, mientras que la innovación se promueve como buena. Esto es demasiado simplista para mantener una conversación constructiva. Los aspectos éticos son una forma de trazar restricciones saludables. Innovar, porque sí, no es necesariamente útil. En resumidas cuentas, debemos ayudar a resolver problemas reales y no inventar algunos para aplicar a la innovación que acaba de salir al mercado.

La mentalidad que se tenga hacia la ética y hacia la innovación definirá cómo se verá la forma de asociarlas. Si la ética se tiene en cuenta, desde el principio, en un proyecto tecnológico, podría, incluso, ser útil y fomentar la innovación. La ética trata de invitar a los seres humanos a plantearse y a responder proactivamente a la pregunta ¿cómo debemos actuar en el mundo?

La IA y la tecnología jurídica pueden convertirse en buenas amigas y en grandes fuentes de innovación ética. Los abogados no operan a corazón abierto en un entorno de sistemas vivos. Atraviesan hechos, leyes y conclusiones. La mayoría de las profesiones jurídicas necesitan añadir empatía humana y contexto a la mezcla. El número de variables es conceptualmente manejable por la mente humana, al igual que el conocimiento con el que tratamos. Lo que es más difícil de manejar por el ser humano es la velocidad del cómputo y la cantidad de fuentes de conocimiento que hay que reunir en series de tiempo prolongadas. Tenemos sesgos y todo tipo de debilidades. Al fin y al cabo, cuando señalamos con un dedo a la máquina, nos señalamos con tres a nosotros mismos.

Á. J.: ¿Cree que el uso de IA requiere reforzar o replantear la enseñanza de la ética en las facultades de Derecho?

V. M. S.: La enseñanza, en adelante, debe plantearse desde tres perspectivas. La primera, abarca la formación como abogado en la facultad de Derecho y los primeros años en la abogacía. La segunda, el aprendizaje permanente, durante los 40 o 50 años de ejercicio. Y la tercera implica enseñar los conocimientos jurídicos básicos a los no abogados con los que se trabaja, como los informáticos, que se dedican a codificar y a desarrollar soluciones de IA para abogados.

Obviamente, la alfabetización en IA debe formar parte de los programas de aprendizaje y adaptarse a las funciones (como juez, litigante, asesor, asistente jurídico o tecnólogo jurídico). Por nombrar una, de un largo catálogo de nuevas competencias, la ingeniería rápida o de peticiones (prompt engineering) para el profesional jurídico es una forma de interactuar concretamente con un chatbot de gran modelo lingüístico, como chatGPT4. 

Á. J.: ¿Qué aspectos no deben pasarse por alto durante la enseñanza?

V. M. S.: Para mitigar el riesgo de que la IA se convierta en una amenaza, el aprendizaje más importante debería centrarse en enseñar a las personas cómo ser humanas; qué es pensar y sentir y cómo relacionarse con la vida, con las personas y con la naturaleza. Es importante contar con talleres para aprender varios principios de neurosicología y biología, para recordarnos lo único que es el cerebro, así como el cuerpo y la mente humana. Eso ayudaría a ver la relación con la máquina como una ganancia, no como una sustitución.

Las facultades de Derecho también deberían considerar la posibilidad de diseñar un programa básico para los no abogados que les sirven de apoyo. Los programadores, codificadores y paralegales deberían comprender los principales procesos y el vocabulario, para trabajar mejor en equipo y diseñar las soluciones más pertinentes. La pluridisciplinariedad es una mentalidad clave en el siglo XXI y en la evolución del ejercicio de la profesión jurídica.

Además, las facultades de Derecho pueden reactivar o introducir otras asignaturas, como Historia del Derecho y Razonamiento Jurídico. También tendría sentido incluir, aunque solo fuera algunas horas, la filosofía de la tecnología, para dotar a los abogados de una mentalidad indagadora. Los talleres sobre cosmología o ciencias naturales también serían transformadores. No se trata de convertir a los abogados en expertos en todo, sino de ampliar sus conocimientos, para que puedan cuestionar la tecnología y la IA, desde un punto de vista ético y epistemológico.

Á. J.: ¿Eso implica, entonces, profundizar en nuevas competencias?

V. M. S.: Los abogados tienen un papel social único que desempeñar en las democracias y deberían aprovechar sus competencias básicas, que son pensar y empatizar, para influir de forma proactiva en el avance de la IA en todos los ámbitos de la vida. Se lo deben a la comunidad de destino que los humanos compartimos en el planeta Tierra.

Otras competencias, como la capacidad de gestionar proyectos, diseñar estrategias, colaborar y movilizar la inteligencia colectiva, obviamente deben formar parte de las cajas de herramientas adicionales necesarias.

Además, los abogados tienden a encerrarse en el reino de las palabras y el pensamiento lineal. Los grandes modelos lingüísticos utilizados con fines de IA generativa son, desde el primer día, multimodales: datos numéricos, visuales, gráficos, audio, videos, etc. Por eso, el siguiente paso es ayudar a los abogados a convertirse en multimodales, utilizando el pensamiento de diseño jurídico y la visualización del conocimiento jurídico.

El diseño jurídico aumenta, de forma impactante, el potencial de pensamiento analítico individual y colectivo de los profesionales del Derecho. En combinación con un lenguaje sencillo, mejora la comprensión por parte de los ciudadanos de sus derechos y obligaciones, y es de esperar que contribuya a reducir los conflictos y a crear una cultura de la mediación que aspire al crecimiento y a la paz.

 

Á. J.: ¿Cree que el uso de la IA debería limitarse a determinados ámbitos de la práctica jurídica?

V. M. S.: Creo que el mayor riesgo al que se enfrenta la humanidad es su tendencia natural a elegir el camino de menor resistencia y el impulso natural de adicción tranquilizadora que conduce a la pereza y a elecciones placenteras insostenibles. La prensa ya ha relatado casos de situaciones jurídicas que han salido mal, porque los abogados utilizaron la IA generativa para redactar demandas citando bases jurídicas o jurisprudencia erróneas. La IA no es defectuosa, sino el operador humano que se conforma con la expresión barata de su inteligencia biológica.

Á. J.: ¿Cómo y quién debe supervisar la IA en la práctica jurídica?

 

V. M. S.: La regulación de la IA es, seguramente, uno de los temas más debatidos en todo el mundo. La tecnología utilizada por la IA no comprende el mundo en una lógica territorial (país), industrial (profesión o dominio) o lingüística. Además, los gigantes tecnológicos son globales. Así que regular el uso de la IA a nivel de una profesión, como la abogacía, podría no tener sentido ni en teoría ni en el día a día.

Lo que debería producirse es una conversación activa entre los organismos profesionales responsables o reguladores de la profesión, como las cámaras de servicios jurídicos, las asociaciones profesionales de jueces, las asociaciones de abogados internos o los profesionales jurídicos encargados de hacer cumplir la ley, para debatir activamente sus casos de uso y los dilemas éticos de la vida real. Deberían compartir, de forma continua, sus retos y soluciones provisionales. La tecnología puede ayudar a crear plataformas útiles para almacenar conocimientos y activar el saber hacer colectivo de los profesionales que comparten necesidades idénticas. 

Una de las tendencias actuales se dirige a apoyar la idea de contar con una función y/o persona dedicada a cuidar activamente de los aspectos éticos de la IA en las empresas u organizaciones. Si los grupos optan por establecer un responsable de cumplimiento de la IA, es necesario comprobar que no se trata de una simple apariencia y que equivale a un “lavado de cara” ético. De lo contrario, es una pérdida de tiempo y recursos. Se corre el riesgo de conseguir lo contrario de lo que se pretende afirmar.

Á. J.: ¿Cómo cree que debe implementarse y utilizarse la IA en la práctica jurídica?

V. M. S.: La complejidad del uso de la IA en los ecosistemas jurídicos es un hecho: en la empresa, en las firmas de abogados y en los tribunales. Y será una tarea exigente en un par de años. Por lo tanto, en cuanto a la oportunidad, es posible que se prefiera adoptar un enfoque escalonado para la implementación de sistemas generativos basados en la IA; es posible que los bufetes de abogados deseen contar con herramientas basadas en la IA, que les ayuden con las tareas logísticas diaria, como la correspondencia, resúmenes de documentos no jurídicos o investigaciones jurídicas en etapas iniciales.

Los abogados pueden querer gestionar sus conocimientos jurídicos y producir borradores iniciales utilizando la IA, inclusive, para practicar el aprendizaje del uso de las herramientas y las interfaces. Nada puede ser usado sin un exhaustivo control de calidad humano. Si no puede escribir lo que produce la máquina, entonces, simplemente, no la utilice. Si le falta conocimientos o no es capaz de producir el razonamiento ofrecido, entonces no utilice el texto producido por la IA generativa.

A su vez, los tribunales pueden querer seleccionar reclamaciones con criterios jurídicos claros, para contribuir a estructurar elementos en el proceso de toma de decisiones. Por ejemplo, para analizar hechos y pruebas, durante el control de admisibilidad. O en casos de valor económico limitado, como, por ejemplo, ante demandas de pasajeros aéreos que solicitan el reconocimiento de perjuicios, en caso de retraso o cancelación de sus vuelos.

Todos estos ejemplos de uso tienen el mérito de mejorar el trabajo de los abogados, pero, sobre todo, mejoran el sistema judicial, haciéndolo más rápido y asequible económicamente. Esto democratizaría el acceso a la justicia.

Más adelante, cuando más partes interesadas hayan desarrollado sus capacidades, podrían plantearse casos de uso más complejos y exigentes, como la justicia predictiva o el diseño de argumentos. Lo anterior supone que las distintas partes interesadas tengan un grado de digitalización relativamente avanzado, ya que la IA se alimenta de datos e información que proceden de bases de datos construidas a partir de los metadatos de la documentación y del análisis de contenidos.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)