Los retos de la Inteligencia Artificial (IA) en el trabajo legal.

“El modelo de IA no “sabe” ni “entiende”. Lo que hace es predecir.” (Jara Rey, 2024)

El juez de la Corte Suprema de Justicia de la Nación, Dr. Ricardo Lorenzetti, se expresó recientemente sobre la creciente integración de la inteligencia artificial (IA) en el ámbito judicial, subrayando la importancia de que el Poder Judicial continúe siendo un contrapeso frente a este nuevo poder, indicando que la IA plantea dilemas existenciales para la humanidad. Agregando que el uso de la inteligencia artificial supone uno de los mayores retos actuales, particularmente cuando se pierde el control humano sobre los sistemas generados por IA. (Diario Judicial, 2024)

Para comprender el reto al que se refiere el ministro es necesario precisar que la inteligencia artificial (IA) tradicional abarca todo sistema informático que pueda realizar tareas que antes requerían inteligencia humana. Estas tareas implican, por ejemplo, la percepción, el razonamiento lógico, la toma de decisiones y la comprensión del lenguaje natural. Que, a su vez, como rama de la IA tradicional surge el aprendizaje automático (machine learning). Esta noción se refiere al desarrollo de algoritmos que permiten a las computadoras hacer predicciones o tomar decisiones basadas en miles de datos, pero sin estar programadas expresamente para hacerlo de determinada manera. Es así que la Inteligencia Artificial Generativa (IAGen) trata de un subcampo de la IA que se utiliza para crear contenido nuevo o para modificar el contenido existente, como texto, imágenes, música y vídeos. Se basa en el aprendizaje automático para identificar patrones en los datos y luego utilizar esos patrones para generar nuevo contenido. Técnicamente, estos sistemas generativos de información aprenden patrones a partir de datos de entrenamiento y generan predicciones y también nuevos resultados a partir de criterios probabilísticos.

Entonces, si bien es cierto que los nuevos modelos de Inteligencia Artificial Generativa (IAG) han permitido la generación de contenido, la automatización de procesos y, más sorprendentemente, la argumentación. También es muy cierto que la IAG solo puede estructurar y presentar argumentos basados en datos y patrones aprendidos. Es decir, no puede generar argumentos que introduzcan conceptos o ideas radicalmente inéditas que no estén de alguna forma presentes en los datos con los que fue entrenado.

A diferencia del juicio humano, que puede innovar, interpretar y crear argumentos originales basados en intuición, experiencia y creatividad, los modelos de IAG se limitan a combinar y reorganizar información ya existente, de manera coherente.

Por ahora, la IAG carece de la capacidad para comprender esta naturaleza dinámica y ofrecer una mirada novedosa y adaptativa del derecho porque basa sus respuestas en interpretaciones pasadas. Es que, la IAG se limita a reorganizar información existente, lo que puede ser insuficiente en casos donde se requiere una nueva interpretación o un enfoque creativo para resolver un problema legal complejo. Además, la IAG enfrenta críticas relacionadas con la falta de transparencia en cómo genera sus respuestas, lo que es particularmente problemático en un contexto legal donde la justificación y la claridad, son cruciales.

Respecto a este sensible extremo, el Dr. Lorenzetti, citó un ejemplo de la aplicación de IA en la justicia: el caso de Eric Loomis en Estados Unidos, donde se utilizó un software de análisis predictivo, llamado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), para determinar la sentencia de un conductor implicado en un accidente menor. En ese caso, el uso de este algoritmo fue cuestionado, ya que Loomis no tuvo acceso a la lógica detrás del sistema, protegido por derechos de propiedad intelectual, lo que generó un debate sobre el derecho a la defensa.

En el año 2013, en el estado de Wisconsin, Estados Unidos, Eric Loomis (caso: 881 N.W.2d 749.Wis. 2016) se encontró en el centro de una controvertida situación legal al ser acusado y, posteriormente, declarado culpable de su participación en un tiroteo. Sin embargo, lo que hizo que su caso se destacara fue la utilización del software COMPAS desarrollado por Northpointe, que realizó una evaluación algorítmica del riesgo de reincidencia de Loomis. La controversia surgió cuando Loomis impugnó la sentencia argumentando que el uso de la evaluación de riesgos por parte del tribunal violaba su derecho al debido proceso, en parte, porque que no se le otorgó la oportunidad de analizar y entender el funcionamiento del algoritmo que tuvo peso en su condena. La naturaleza confidencial del algoritmo, protegido como secreto comercial, le impidió acceder a la información en la que se basaba software.

A pesar de los esfuerzos de Loomis, sus argumentos fueron rechazados en diversas instancias, incluida la Corte Suprema de Wisconsin, que confirmó la sentencia. Sin embargo, la mayoría de los magistrados expresaron preocupación por el uso de algoritmos no transparentes, e insistieron en incluir advertencias sobre las limitaciones de COMPAS en informes previos a las sentencias, con el objetivo de prevenir violaciones del debido proceso.

El caso de Eric Loomis sentó un precedente crucial en la jurisprudencia estadounidense, destacando la creciente influencia de algoritmos y programas de predicción de delitos en el sistema legal. COMPAS es solo un ejemplo entre muchos programas que utilizan el aprendizaje automático para prever delitos, recopilando y analizando una gran cantidad de datos sobre crímenes pasados para anticipar eventos futuros que el ser humano es incapaz de abordar.

En tal sentido, aunque algunas jurisdicciones mantienen interés en la Inteligencia Artificial explicativa (IAx), que son sistemas de IA que puedan explicar cómo sus algoritmos llegan a determinadas conclusiones y predicciones, reconociendo que los códigos fuente a menudo no proporcionan una explicación pertinente o una explicación a secas.

Entonces, y a pesar de las limitaciones planteadas, no puede desconocerse que la IAG, sí tiene un potencial significativo como herramienta complementaria en el ámbito jurídico. Puede automatizar tareas rutinarias, como la revisión de documentos legales, la búsqueda de jurisprudencia relevante y la gestión de grandes volúmenes de datos. Y puede mejorar textos o darnos sugerencias, lo que permite a los profesionales del derecho concentrarnos en el análisis crítico y la toma de decisiones. Lo que significa que la IAG puede servir como una herramienta complementaria. Pero el juicio y la capacidad de innovar en la argumentación jurídica siguen siendo dominio de las personas humanas.

Por tanto, para que la integración de la IAG en el derecho sea efectiva y ética, es crucial que la comunidad jurídica mantenga una supervisión constante sobre el uso de estas tecnologías. Esto incluye la evaluación crítica de los argumentos generados por la IAG en cada interacción para garantizar que no se perpetúen prejuicios, estereotipos o desigualdades respecto de sectores vulnerables.

La IAG en el ámbito jurídico representa una herramienta poderosa que, si se utiliza de manera adecuada, puede mejorar significativamente la eficiencia y la precisión en el ejercicio del derecho. No obstante, es crucial que su integración se realice con cautela, asegurando siempre que el juicio humano y la capacidad de innovación en la argumentación jurídica se mantengan como elementos centrales e insustituibles del proceso legal.

En conclusión, la IAG debe ser vista como un complemento, no como un sustituto, del análisis y la toma de decisiones en el derecho.

En todo caso, estos nuevos grandes modelos de lenguaje no son más que herramientas que complementan, facilitan e impulsan la labor profesional, pero no reemplazan el conocimiento humano y, por lo tanto, no nos eximen de controlar la veracidad, precisión, fidelidad y utilidad del resultado.

D.O.

 

Referencias:
Lage, Daniel. “Inteligencia Artificial y Justicia: el caso Loomis”. El Observador.com. 27 de diciembre 2023. Dirección URL del artículo: https://www.elobservador.com.uy/nota/inteligencia-artificial-y-justicia-el-caso-loomis-202312261550
Diario Judicial, Lorenzetti habló sobre IA (diariojudicial.com) 2 de octubre dee 2024. Dirección URL del artículo: https://www.diariojudicial.com/news-98897-lorenzetti-hablo-sobre-ia
Jara Rey, Agostina. Legal Prompts : guía práctica de instrucciones para uso de IA generativa : agosto 2024. 1a ed – Ciudad Autónoma de Buenos Aires. La Ley ; Universidad de Buenos Aires. Facultad de Derecho.
Macchiavelli, Nieves. “Inteligencia Artificial y su Impacto en el derecho: Un Análisis Crítico desde la Perspectiva Jurídica”. Abogasos.com.ar. 02 de octubre de 2024. Dirección URL del articulo: https://abogados.com.ar/inteligencia-artificial-y-su-impacto-en-el-derecho-un-analisis-critico-desde-la-perspectiva-juridica/35585

 

Esta entrada fue publicada en El cambio., El Derecho, La Creatividad, La Educación para un mañana desconocido., La formación del abogado del siglo XXI, La innovación y la creatividad. Guarda el enlace permanente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *