24 de Noviembre de 2024 /
Actualizado hace 1 día | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Especiales / Informe


ChatGPT y la escritura jurídica

13 de Septiembre de 2023

Reproducir
Nota:
166605
Imagen
REVISTA-INNOVACON-26

Juan Martín Fierro
Abogado y consultor en marketing y comunicación

www.juanmartinfierro.com

 

El debate está servido: ¿pueden los abogados usar herramientas de inteligencia artificial (IA) generativa como ChatGPT para producir textos jurídicos? ¿Es ético hacerlo? ¿A qué peligros se exponen ellos o sus clientes? ¿Qué podrían aprovechar y qué les perjudicaría al usar la IA a la hora de escribir?

La idea de este artículo es aportar algunos argumentos que nos ayuden, no tanto a encontrar respuestas definitivas a estas cuestiones, sino a entender el alcance de las mismas. Después de todo, nos hallamos ante uno de los desafíos más interesantes que hoy tiene la profesión jurídica: el uso de ChatGPT para producir textos jurídicos. En el día a día, los abogados dedican buena parte de su tiempo a escribir, casi siempre bajo presión, lo cual pone a prueba sus habilidades en este campo. El conocimiento sigue siendo su mayor activo y de la calidad de los textos que producen se deriva, en gran medida, su éxito profesional, bien se trate de artículos académicos, libros, ensayos, monografías, alegatos, demandas, conceptos o columnas de opinión. En términos prácticos, la escritura es una de sus principales cartas de presentación.

Lo primero es recordar que ChatGPT es un modelo de lenguaje de IA generativa desarrollado por OpenAI, que puede ser usado por cualquier persona de cualquier profesión u oficio alrededor del mundo. Basta ingresar algunas instrucciones a la plataforma para que ChatGPT produzca textos simples o complejos según nuestras necesidades. Lo interesante de esta herramienta es que tiene la capacidad de hacer conexiones entre ideas, conceptos o procesos, y, al mismo tiempo, “aprender” a partir de la información que el usuario le suministre. Según esto, conforme más interactúe la IA con nosotros, y más precisos sean los inputs que le demos, mejor será el resultado.

¿Amenazas de esta tecnología? También las hay. Desde la fuga de conocimiento, pasando por la “fabricación” de falsas fuentes jurisprudenciales, hasta los clones de ChatGPT que se están desarrollando en la dark web; clones que, según explica un reciente editorial del diario El Tiempo, “carecerían de las cortapisas que contiene ChatGPT para evitar su empleo con fines delictivos, como la creación de virus o de intercambios diseñados para inducir a una persona a ceder información financiera”. De ahí al acceso a fórmulas para la fabricación de explosivos o al hurto de información o de secretos industriales, los pasos son cortos. Por otra parte, el aparente uso “legal” de la IA en reemplazo de la creatividad humana es uno de los puntos centrales de la huelga del Sindicato de Escritores de Estados Unidos (WGA, por su sigla en inglés), que ya completa más de 100 días sin que se llegue todavía a un acuerdo que les garantice a los guionistas y demás trabajadores de la industria cinematográfica no ser desbancados por este nuevo bum tecnológico.

Ahora bien, llevando el foco a lo que ocurre con el uso de ChatGPT en la producción de textos jurídicos, el debate ha mostrado argumentos a favor y en contra, con tres niveles básicos de permisividad, que expongo a continuación:

El “No” rotundo

 

En un primer nivel, están aquellos abogados que definitivamente no usarían IA por varias razones: una, relacionada con el margen de error, pues tratándose de asuntos legales, ChatGPT podría inferir conclusiones equivocadas a las que no llegaría un abogado experimentado con la capacidad de sopesar riesgos y poner en la balanza una solución integral a un determinado problema jurídico.

Otra tiene que ver con la posibilidad de que la competencia o alguien con intenciones non sanctas acceda a las consultas y los documentos generados por un abogado y pueda hacer pública esa información, por ejemplo, en desarrollo de un proceso o como una forma de desprestigiar a un colega con el que compite en el mercado de servicios legales. Este obstáculo, que no es nuevo, está ligado a uno de los grandes retos de la profesión jurídica: el de la ciberseguridad y confidencialidad de la información propia o de los clientes, que, valga decirlo, no solo está amenazada por el uso de la IA. También es vulnerable quien trabaja en la nube, sostiene conferencias virtuales, envía documentos por correo electrónico, usa WhatsApp para compartir archivos sensibles con un cliente o acumula un historial de búsquedas en internet.

A esto se añade la nada fácil pregunta sobre los derechos de autor de los textos jurídicos generados con ayuda de IA. ¿Son de la plataforma que hayamos usado para escribirlos? ¿Se comparten entre dicha plataforma y los abogados? ¿Ante quién se reclaman y bajo qué condiciones o medios probatorios?

El “Sí”, pero en ciertos casos

En este nivel de permisividad, se encuentran los abogados que aceptarían un uso condicionado y paulatino del ChatGPT solo para producir ciertos textos. Por ejemplo, contratos modelo, cartas u oficios básicos, e incluso artículos o columnas de opinión con fines periodísticos. No lo usarían —todavía— para redactar demandas o documentos complejos que requieran un análisis detallado del riesgo o la estrategia que más le conviene al cliente, pues consideran que, en este escenario, el abogado “humano” sigue siendo irremplazable.

Este “sí” condicionado se somete a la premisa de que, tal como ocurre con cualquier pesquisa realizada a través de internet, es deber del abogado verificar la autenticidad y veracidad de las fuentes de Derecho que emplea, en especial, aquellas que son materia de debate procesal. Se trata, pues, de un aspecto ético inherente a la profesión jurídica desde sus inicios, pues tanto el plagio como la no validación de las fuentes alegadas o citadas en el curso de una audiencia o una investigación académica son faltas graves a la ética profesional y afectan seriamente la reputación del implicado.

En una columna publicada recientemente en Ámbito Jurídico, el profesor Nicolás Parra Herrera formulaba una pregunta sobre esta especie de “umbral crítico”, que bien vale la pena reiterar aquí: ¿a qué parte de nuestra identidad profesional estamos dispuestos a renunciar para adaptarnos a la era de la IA? Sea cual sea esa respuesta, está claro que sacrificar la ética no es una opción.

“Sí” y sin tantos rodeos

Write Law, una herramienta creada para producir textos jurídicos, afirma en su web que los usuarios pueden mejorar la manera de dar instrucciones a la IA generativa a través de la llamada prompt engineering (ingeniería rápida). También recuerda que, en los casos más sonados de errores cometidos por la IA en materia legal, hubo fallas provenientes de personas que no sabían cómo funciona. Como ejemplo, cita a alguien que le pregunta a ChatGPT si la persona que gana un juego de golf es aquella que obtiene más puntos, a lo cual es muy posible que la herramienta responda con un “sí”. La explicación es sencilla: la IA analiza toda la información de que dispone, y encuentra que, en la gran mayoría de deportes, el ganador es quien acumula más puntos y concluye que esto también debe ser cierto en el caso del golf. Pero si esa misma persona aborda el problema paso a paso, pidiéndole a la IA que primero aprenda las reglas del golf y luego responda quién gana el juego, la respuesta será la correcta.

El éxito de ChatGPT radica también en cómo abordar y orientar las preguntas, pues, como se vio en el ejemplo, no se trata de sopesar toda la información disponible sobre todos los juegos, sino de aplicar algún tipo de razonamiento específico al caso del golf.

Entramos aquí a uno de los terrenos más sensibles, y es la manera en que los abogados interactúan con ChatGPT para producir textos de calidad, pues nadie mejor que ellos, formados casi siempre con buenas técnicas de argumentación, para saber en dónde está la vuelta a la tuerca a la hora de plantear la mejor solución para un cliente que necesita resolver un problema jurídico. En otras palabras, nos encontramos todavía en una fase en la que es importante comprender en qué es buena la IA de una forma predeterminada para luego aprender a guiarla según nuestras necesidades. De hecho, ese trabajo de orientación es muy parecido al que se tiene con otro ser humano a partir de un lenguaje natural basado en instrucciones simples, teniendo conversaciones sobre lo que se está haciendo bien y lo que no.

Ahora bien: ¿en qué casos sería recomendable aprovechar herramientas de IA generativa para redactar textos jurídicos?

Puedo ofrecer algunos ejemplos: uno, para mejorar el estilo de lo que se escribe. De hecho, esta es una de las formas más fáciles de empezar a usar ChatGPT, pues no estamos a la caza de una respuesta correcta ni de realizar un análisis complejo de un problema jurídico. Si usted, como yo, es de los que prefiere el lenguaje claro a la jerga recargada e incomprensible, ¿por qué no echar mano de la IA para afinar la pluma? Los resultados, al revisar la versión final, pueden sorprendernos. La mejor escritura jurídica posible es aquella que pone en balance el rigor técnico del Derecho con la claridad y precisión que nos ofrece el idioma.

Otra posible forma de uso inicial para ChatGPT es pedirle que resuma textos jurídicos ya escritos, o que dé mayor fluidez a secciones o apartados específicos de un texto que necesitamos para estructurar un escrito dirigido al juez o al cliente, teniendo en cuenta que, en nuestro medio, se sigue abusando de las formalidades y las frases pomposas. Aunque no es todavía ciento por ciento confiable en materia de jurisprudencia o del análisis que pueda generar a partir de los hechos que se le planteen, ChatGPT puede ayudar a elaborar un resumen rápido de un auto, mejorar una plantilla de uso habitual o extraer información de un texto definido, así como organizarla y clasificarla. También se puede foguear pidiéndole que traduzca o explique terminologías complejas y que le ayude a desglosarlas de una forma comprensible para los demás. Todo sujeto, desde luego, a una rigurosa verificación final por parte del abogado.

Conclusiones

 

Si bien el debate sobre el uso de ChatGPT en la abogacía apenas comienza, lo cierto es que la IA llegó para quedarse y esta es una realidad de la cual nuestra profesión no puede abstraerse. Aplicaciones como ChatGPT Law, por ejemplo, ya ofrecen planes por suscripción para ayudar a crear documentos en línea mediante IA. Y no es la única. De hecho, cuando hacemos consultas de cualquier tipo en Google, ya estamos usando poderosos motores de búsqueda apoyados por IA.

Uno de los puntos más interesantes de este debate tiene que ver con la cuestión de si las firmas de abogados podrían o deberían restringir el uso del ChatGPT incluso diseñando manuales o políticas internas. ¿El instinto regulador nato del abogado que quiere normalizar lo que no conoce para prevenir posibles riesgos? Quizás. Pero también es cierto que hay un costo reputacional en juego aún difícil de cuantificar.

El éxito del uso de ChatGPT en la producción de textos jurídicos aún no está asegurado y dependerá, en buena parte, de cómo evolucionan los aspectos de ciberseguridad, de la complejidad y entrenamiento que la IA generativa obtenga de los abogados, y de que estos provean un uso ético y eficiente a este tipo de herramientas tecnológicas.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)