En 2016, un tribunal de Wisconsin utilizó el sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) para informar una decisión de condena. El algoritmo, desarrollado por una empresa privada, asignaba a los imputados un puntaje de riesgo de reincidencia. El caso llegó hasta la Corte Suprema del estado, que en el fallo "State v. Loomis" avaló el uso del sistema con restricciones.

Lo que se reveló después fue perturbador: el algoritmo discriminaba sistemáticamente a las personas afroamericanas, asignándoles puntajes de riesgo más altos que a personas blancas con perfiles similares. La "objetividad" del algoritmo era, en realidad, la codificación matemática de décadas de sesgos en el sistema de justicia penal estadounidense.

Este caso no es una anécdota lejana. Es el espejo en el que Argentina debe mirarse antes de avanzar en la incorporación de sistemas de inteligencia artificial a su sistema de justicia.

¿Dónde se usa la IA en la justicia argentina hoy?

Argentina ya tiene implementaciones de IA en el Poder Judicial, aunque aún de alcance limitado:

  • Análisis documental: Sistemas de procesamiento de lenguaje natural para clasificar expedientes, identificar tipos de causas y sugerir jurisprudencia relevante. El Poder Judicial de la Nación ha implementado herramientas de este tipo en el área de jurisprudencia.
  • Predicción de resultados: Startups legaltech argentinas ofrecen a estudios jurídicos sistemas que predicen el resultado probable de un litigio basándose en el análisis de fallos anteriores.
  • Asistentes virtuales: Algunos tribunales han implementado chatbots para la orientación de justiciables en trámites administrativos.

Lo que Argentina no tiene —todavía— son sistemas de IA que influyan directamente en decisiones judiciales sobre la libertad de las personas. Pero el camino que otros países han recorrido sugiere que es solo una cuestión de tiempo si no se establecen límites claros con anticipación.

Los riesgos constitucionales

La incorporación de IA en decisiones judiciales que afectan derechos fundamentales plantea al menos tres desafíos constitucionales que el sistema jurídico argentino debe enfrentar:

El derecho a conocer los fundamentos de la decisión

El art. 18 de la Constitución Nacional garantiza el derecho de defensa en juicio. Este derecho incluye, según jurisprudencia consolidada, el derecho a conocer los fundamentos de las decisiones que afectan a la persona. Si una decisión judicial se funda total o parcialmente en el output de un sistema de IA cuyo funcionamiento interno no es transparente o explicable, ¿puede el imputado ejercer su derecho de defensa? La respuesta es claramente no.

El sesgo algorítmico como discriminación estructural

Si el algoritmo reproduce sesgos históricos del sistema (como ocurrió con COMPAS respecto de la población afroamericana), su uso en la justicia transforma la discriminación estructural en discriminación matemáticamente validada, lo que puede ser incluso más difícil de impugnar que la discriminación abierta.

La responsabilidad de la decisión

El juez que dicta una sentencia es personalmente responsable de ella: puede ser recusado, puede ser objeto de recurso, puede —en casos extremos— enfrentar sanciones disciplinarias. ¿Quién responde cuando la decisión la tomó un algoritmo? ¿El juez que siguió su recomendación? ¿La empresa que lo desarrolló? ¿El Estado que lo implementó? La cadena de responsabilidades es difusa, lo que puede generar impunidad.

La experiencia de Estonia

Estonia implementó en 2020 un "juez robot" para resolver disputas contractuales de hasta 7.000 euros. El sistema fue diseñado como complemento del juez humano, quien puede revisar y modificar la decisión del algoritmo. Esta "supervisión humana significativa" es considerada por la doctrina europea como el estándar mínimo aceptable para el uso de IA en decisiones con consecuencias jurídicas.

Lo que Argentina debería hacer antes de seguir avanzando

La incorporación de IA en la justicia no es en sí misma ni buena ni mala. Puede mejorar enormemente la eficiencia del sistema, reducir tiempos de resolución y democratizar el acceso a la información jurídica. Pero requiere un marco regulatorio previo que establezca:

  • Una clasificación de los usos de IA por nivel de riesgo (bajo: asistencia documental; alto: influencia en decisiones sobre libertad o derechos fundamentales).
  • La prohibición de usar sistemas de IA como factor determinante en decisiones sobre la libertad de las personas, sin supervisión humana significativa.
  • El derecho de todo afectado por una decisión asistida por IA a conocer el funcionamiento del sistema, impugnar sus resultados y obtener una revisión por un juez humano.
  • La auditoría periódica de los sistemas de IA utilizados en el Poder Judicial para detectar y corregir sesgos.
"El problema no es si la IA puede ayudar a la justicia. Sin duda puede. El problema es si vamos a dejar que reemplace el juicio humano en los momentos en que ese juicio es más necesario: cuando se decide sobre la libertad de una persona." Análisis editorial — Procesos Legales, Edición N° 7