» El futuro de la investigación legal está aquí OK

La inteligencia artificial en los procesos judiciales y en la litigación puertorriqueña

09 de septiembre de 2024
COMPARTIR

Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.

Por Alfonso Martínez Piovanetti, Catedrático Auxiliar Escuela de Derecho Universidad de Puerto Rico

Mucho se ha discutido en tiempos recientes sobre el impacto que ha tenido el crecimiento exponencial y la masificación de la inteligencia artificial (IA) generativa en múltiples aspectos de nuestras vidas. Los modelos de lenguaje extenso (LLM) como ChatGPT, Gemini y Claude no solo se consumen ampliamente para crear contenido de todo tipo y realizar tareas cotidianas (como generar listas de compras y rutinas de ejercicio), sino que también se utilizan para ejecutar funciones de transcendencia en el ámbito profesional (como diagnosticar enfermedades, escribir códigos de programación y diseñar campañas de publicidad). El mundo jurídico no es la excepción, pues estos modelos se están usando en la actualidad para ayudar a profesionales del derecho y estudiantes en faenas relacionadas con la investigación y redacción jurídica.

Claro está, la IA generativa no piensa ni tiene consciencia. Tampoco tiene experiencias, emociones, subjetividades ni percepción del mundo real, por lo que su «creatividad» es el resultado de combinaciones de datos existentes, no de una innovación genuina o comprensión humana. Aun así, sus algoritmos avanzados tienen indudablemente una gran capacidad para identificar patrones en los hechos, vincular conceptos legales, encontrar analogías y predecir resultados. Ello basándose en el procesamiento de lenguaje natural y sus voluminosas bases de datos, que incluyen leyes, decisiones judiciales, tratados y artículos de revista jurídica. Tanto la argumentación jurídica como los procesos judiciales y de resolución de disputas pueden beneficiarse de una utilización juiciosa y crítica de estos modelos de IA, pues tienen el potencial de facilitar y agilizar significativamente las tareas de investigación y redacción jurídica.

Sin embargo, lo que representa esta tecnología para la práctica legal no es algo nuevo ni reciente, sino que es el desenlace de un proceso histórico extenso y complejo. Poco después de que se acuñara el término «inteligencia artificial» en la Conferencia de Dartmouth celebrada en 1956, comenzaron los esfuerzos para determinar si una máquina podría de algún modo replicar o imitar el razonamiento humano. Considerado un hito en la intersección de la IA y el Derecho, los profesores Bruce Buchanan y Thomas Headrick publicaron en 1970 un artículo en la revista jurídica de la Escuela de Derecho de la Universidad de Stanford titulado Some Speculation About Artificial Intelligence and Legal Reasoning, que sirvió como marco teórico en la creación de las primeras herramientas experimentales de IA para tareas legales.

A partir de ese marco teórico, el profesor de ciencias de cómputo L. Thorne McCarty creó en los años setenta el programa de computadora experimental TAXMAN para ayudar a realizar algunas tareas jurídicas en la reorganización contributiva de corporaciones. TAXMAN demostró que era posible imitar el razonamiento legal mediante el uso de algoritmos computacionales para hacer funciones «rudimentarias», como analizar casos de reorganización tributaria para clasificarlos entre distintas categorías estatutarias.

En la práctica, los(as) profesionales del derecho llevan décadas utilizando elementos de IA en su trabajo, aunque no fuera de manera hiperconsciente. Desde hace mucho tiempo, ciertos rasgos de esta tecnología ya estaban integrados de algún modo en las plataformas con motores avanzados de búsqueda (como Microjuris); en programas para la clasificación y análisis de documentos electrónicos (mediante las herramientas de revisión de documentos y e-discovery); e incluso en otros programas para la predicción de resultados en los procesos judiciales ante salas o jueces particulares. En el 2004, o hace 20 años, el Supreme Court Forecasting Project utilizó técnicas de aprendizaje automático de IA para predecir correctamente las decisiones del Tribunal Supremo de Estados Unidos con una precisión del 75%, mientras que un grupo de expertos solo acertaron un 59.1%.

Desde esos pasos iniciales hasta el presente, las herramientas y los usos de la IA se han desarrollado y diversificado a pasos agigantados. El 2022 marcó un hito en la historia con el lanzamiento público y gratuito de ChatGPT, el cual ya tiene más de 180 millones de usuarios en la actualidad. Este desarrollo y el despliegue de otros modelos de lenguaje extenso (LLM) desde entonces han resultado en un mayor acceso y democratización de esta tecnología.

Además, no deja de impresionar las mejoras constantes y exponenciales de esta tecnología en periodos cortos de tiempo. En una investigación de la Escuela de Derecho de Stanford, la versión GPT-4 del modelo en que se basa Chat GPT pasó el Uniform Bar Exam (UBE), posicionándose en el percentil 90 frente a sus contrapartes humanos. Su predecesor de tan solo meses (GPT-3.5) fracasó, habiéndose posicionado en el percentil 10. Tras realizar un experimento a esos fines con la reválida y con algunos exámenes que he impartido como profesor de Derecho, puedo aseverar que en Puerto Rico los resultados no son muy distintos.

Por otro lado, tal como ha explicado el futurólogo legal británico Richard Susskind, «[e]l carácter verdaderamente disruptivo de estas nuevas tecnologías no reside tanto en su capacidad de automatizar tareas como en su potencial de innovación de los procesos para hacer cosas que antes no eran posibles, cambiando radicalmente las formas en las que son prestados los servicios e introduciendo nuevos métodos de trabajo». A tono con este pronóstico, las funciones de investigación y redacción jurídica que están disponibles en el mercado legal son cada vez más avanzadas y sofisticadas. Las plataformas de búsqueda ya van ofreciendo directamente funcionalidades de IA generativa para crear contenido basado en su algoritmo predictivo y encontrar fuentes primarias y secundarias, preparar resúmenes de casos o borradores de mociones, analizar los alegatos de las partes, e incluso seguir formatos o modelos preestablecidos para preparar escritos (como mociones o sentencias) en atención a las preferencias particulares de los(as) abogados(as). Estos desarrollos también van abriendo el paso para que el Poder Judicial integre eventualmente funcionalidades de IA generativa a partir de la base de datos del Sistema Unificado para el Manejo y Administración de Casos (SUMAC).

En el ámbito adjudicativo, la IA generativa ya se utiliza en distintas partes del mundo para realizar predicciones y recomendaciones basadas en los argumentos de las partes, la prueba admitida y el derecho aplicable. Por ejemplo, el Tribunal Supremo Federal de Brasil utiliza el sistema VICTOR para atajar una de las crisis judiciales más graves del mundo. Brasil tenía un
rezago de casi 80 millones de casos pendientes y solamente en el 2018, el Tribunal Supremo Federal recibió más de 50,000 apelaciones. En su fase inicial, VICTOR se enfoca en identificar mediante su algoritmo si los casos tienen «repercusión general», un criterio necesario para que una apelación sea aceptada por el tribunal. Antes de VICTOR, esta evaluación la realizaban funcionarios judiciales y tomaba alrededor de 40 minutos por caso. Con el algoritmo integrado en VICTOR para estos fines, el tiempo para realizar esa misma tarea se ha reducido a solo 5 segundos.

La IA generativa también es un componente esencial del concepto de los tribunales en línea («Online Courts») promovido por Susskind, en los cuales los tribunales ya no son vistos como un mero lugar o espacio físico, sino como un servicio en beneficio de la ciudadanía. La virtualización de los procesos y la interacción asincrónica de las partes con el tribunal no se limita al uso de la videoconferencia para la celebración de las vistas judiciales. Por ejemplo, en el British Columbia Civil Resolution Tribunal se atienden ciertos asuntos (reclamaciones monetarias menores de $5,000.00, controversias de condominios, accidentes vehiculares, e incluso reclamaciones sobre el derecho de intimidad y el uso indebido de fotografías) mediante un enfoque colaborativo de
resolución de disputas con herramientas de IA para diagnosticar y promover la auto-resolución negociada del problema, antes de que la controversia se plantee ante el tribunal.

Estos esfuerzos dirigidos a la virtualización de los tribunales tienen el potencial de ampliar el acceso a la justicia. En Puerto Rico nos dirigimos hacia ese objetivo con las funcionalidades del Tribunal Electrónico y los procesos establecidos por el Poder Judicial a partir de la pandemia del COVID-19 para ampliar las audiencias remotas; permitir las solicitudes electrónicas de órdenes de protección, salud mental y otros asuntos urgentes a nivel municipal; así como con el uso de los formularios interactivos, sencillos y accesibles desarrollados por AyudaLegalPR.org.

Podemos vislumbrar que ese apoderamiento legal para litigantes indigentes y por derecho propio se verá aún más beneficiado en el futuro cercano con el desarrollo y la implantación del SUMAC para asunto de competencia municipal. Sin duda, la posible integración de formularios interactivos con los sistemas de presentación electrónica (e-filing) y de «chatbots» basados en la
IA para asistir a las partes y al funcionariado judicial en ese proceso pudiera simplificar y agilizar significativamente el trámite de peticiones urgentes y de impacto social en las Salas de Investigaciones de Puerto Rico.

En el ámbito administrativo y secretarial, la IA generativa también está teniendo un impacto cada vez más presente. A modo de pruebas, el Poder Judicial ya ha utilizado herramientas de IA generativa para transcribir vistas y preparar minutas de casos atendidos en el Tribunal de Primera Instancia con un alto nivel de precisión, mediante un proceso que toma mucho menos tiempo que la labor humana para ese mismo propósito. Estas funcionalidades también pudieran ser incorporadas en la práctica del litigio para que la toma de deposiciones sea cada vez más ágil, económica y accesible. Lo mismo podría ocurrir con las funcionalidades de IA generativa que ya proveen para la traducción e interpretación de idiomas o señas en vivo.

La IA generativa también tiene un potencial para optimizar los procesos de evaluación judicial y para medir el desempeño cualitativo y estadístico de la judicatura. Para el beneficio de la academia y de los(as) litigantes, esta tecnología se está utilizando en otras jurisdicciones para evaluar la carga de trabajo y el rendimiento de jueces(zas), así como sus tendencias y patrones al adjudicar determinadas controversias. De igual modo, serviría para identificar deficiencias y fortalezas, así como para sugerir mejoras en la administración del tribunal y la distribución de la carga de casos entre el funcionariado del Poder Judicial.

Ahora bien, la incorporación y el entrelazamiento de las herramientas de IA generativa con las funciones adjudicativas de la judicatura debe ser examinada de manera crítica, pues su uso irreflexivo puede tener consecuencias nefastas para las partes y la sociedad. Y es que todo proceso judicial tiene el potencial de culminar en la privación de la libertad o la propiedad de las personas. Por imperativo ético, se debe evitar el uso indiscriminado de estas herramientas tecnológicas para la función judicial ante la posible prevalencia de sesgos algorítmicos y la falta de transparencia de la base de datos utilizada para entrenar al modelo.

Un ejemplo ilustrativo de este problema es el caso Loomis v. Wisconsin, 881 N.W.2d 749 (Wis. 2016), certiorari denegado, 137 S. Ct. 2290 (2017), en el que se determinó que no violentaba el debido proceso de ley la utilización del sistema Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) por parte del tribunal para ayudarle a determinar el riesgo de reincidencia criminal al momento de imponer sentencia. Lamentablemente, el uso de COMPAS ha abonado al racismo sistémico en algunas jurisdicciones, pues ha redundado en la clasificación errónea de acusados(as) afroamericanos(as) como «de alto riesgo» con el doble de frecuencia que a acusados(as) identificados(as) como blancos(as).

En España, se utiliza el sistema VioGén para evaluar índices de letalidad y factores de riesgo con el propósito de mitigar la violencia de género y reducir la reincidencia. Sin embargo, su algoritmo o su uso inadecuado por parte de sus manejadores (al no brindarle toda la información pertinente) también ha producido avalúos incorrectos. Una clasificación errónea de «riesgo bajo» resultó en que la policía dejara ir a un sospechoso de violencia doméstica, quien poco después asesinó a la víctima.

Los márgenes de error y las injusticias algorítmicas que pueden producir algunos modelos de IA deben ser examinados rigurosamente para evitar este tipo de problemas al momento de elaborar un argumento o conceder algún remedio. Se debe promover que las empresas de tecnología hagan los ajustes técnicos correspondientes en la programación y en las bases de datos que utilizan para entrenar sus modelos. Además, los gobiernos y los poderes judiciales alrededor del mundo deben promulgar la reglamentación que corresponda para impedir que la IA se utilice para fines discriminatorios o violatorios a los derechos fundamentales de las personas, sin socavar el desarrollo de la tecnología. Según señala la profesora Nuria Belloso Martín en un estudio sobre este tema, los sesgos algorítmicos se pueden identificar, mitigar y eliminar desde la fase del desarrollo técnico del modelo hasta la depuración de su base de datos y su readiestramiento continuo. Por lo tanto, la IA generativa desarrollada de manera consciente incluso pudiera utilizarse para lograr resultados de mayor equidad racial, de género y de condición social en el sistema de justicia (e incluso para reducir el margen de error en la expedición de órdenes de protección por parte de la judicatura, entre otras cosas).

Además, no se debe pasar por alto las otras implicaciones éticas, normativas y técnicas que tiene el uso de esta tecnología para la profesión jurídica. La IA generativa es una herramienta de trabajo, pero no puede sustituir de modo alguno el conocimiento especializado, las responsabilidades éticas ni el criterio y la creatividad jurídica de un(a) abogado(a) o un(a) juez(a), aun cuando estos modelos cada vez tienen más capacidad y precisión.

Como en cualquier otro asunto relacionado con el Derecho y el cambio social, es indispensable que los(as) abogados(as) adquieran un entendimiento razonable de las capacidades y limitaciones particulares de las herramientas de IA generativa. Este llamado es cónsono con el concepto de la competencia tecnológica, el cual figura como una exigencia ética en las Reglas Modelo de Responsabilidad Profesional y en el Código Modelo de Ética Judicial de la American Bar Association («ABA»); y que también debería ser incorporado por nuestro Tribunal Supremo en el proceso de revisar ambos cuerpos deontológicos que rigen tanto la ética profesional como la ética judicial en Puerto Rico.

A su vez, y según se advierte en la Opinión Formal 512 de la ABA del 29 de julio de 2024, se debe tener cautela con la información sensitiva que se le provee a estos modelos, pues ello podría violar el deber de confidencialidad, comprometer el privilegio abogado(a)-cliente y derrumbar «murallas chinas» para evitar conflictos de interés en los bufetes. Por ende, se deben
analizar los términos y las configuraciones de las plataformas antes de compartirle cualquier
información sensitiva o privilegiada.

Para concluir, Susskind ha explicado que las plataformas actuales de IA generativa realizan tareas a un nivel tan avanzado como la de un(a) asociado(a) de primer año en un bufete de abogados(as). Sin embargo, estos modelos no son infalibles y sus algoritmos aún cometen errores (o alucinaciones) al invocar hechos y fuentes de derecho inexistentes para «rellenar» los espacios en blanco con la información que le resulte más probable. Por consiguiente, sería impericia profesional depender del contenido generado por la herramienta de IA generativa, ya sea en tareas de investigación o redacción jurídica.

Así lo exige el Canon 35 de Ética Profesional, el cual dispone que «[n]o es sincero ni honrado el utilizar medios que sean inconsistentes con la verdad ni se debe inducir al juzgador a error utilizando artificios o una falsa relación de los hechos o del derecho. Es impropio variar o distorsionar las citas jurídicas, suprimir parte de ellas para transmitir una idea contraria a la que el verdadero contexto establece u ocultar alguna que le es conocida».  Por tal razón, estamos obligados (as)a verificar la atribución, citación y corrección de los resultados que provee el modelo.

En fin, la efectividad y razonabilidad en torno al uso de la IA generativa en la profesión jurídica dependerá esencialmente de las destrezas de discernimiento y delegación por parte de cada profesional del derecho, sujetas a su deber final e indelegable de verificación del contenido generado por esta tecnología. Asimismo, le corresponde al Poder Judicial, a las instituciones gubernamentales, a las escuelas de derecho y a las empresas de tecnología mantenerse a la vanguardia en el uso y la expansión de la IA en el mundo jurídico, de modo que esta facilite la solución justa, rápida y económica de todo procedimiento sin menoscabar el derecho de las partes o el acceso a la justicia.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Powered by Microjuris.com