En 2018, Amazon desactivó un sistema de selección de personal basado en inteligencia artificial cuando descubrió que el algoritmo penalizaba sistemáticamente los currículums que incluían la palabra "mujer" —por ejemplo, en menciones a clubes femeninos universitarios— y favorecía perfiles similares a los de los empleados históricos de la empresa, que eran mayoritariamente hombres. El algoritmo no "decidió" discriminar: aprendió a hacerlo a partir de los datos con que fue entrenado.

Este caso, que tuvo gran resonancia global, ilustra con claridad el problema jurídico que este artículo aborda: cuando un sistema automatizado causa un perjuicio a una persona, ¿existe responsabilidad civil? ¿Quién la asume? ¿Cómo se prueba el daño? ¿Qué herramientas tiene el derecho argentino para responder?

El daño algorítmico: definición y tipología

El daño algorítmico puede definirse como el perjuicio patrimonial o extrapatrimonial causado a una persona como consecuencia de una decisión total o parcialmente automatizada adoptada por un sistema de inteligencia artificial o de procesamiento de datos. Sus manifestaciones son múltiples:

  • Discriminación algorítmica: El sistema trata de manera diferente a personas en situaciones comparables en función de características protegidas (género, origen étnico, edad) que el algoritmo "aprendió" a utilizar como proxy de otras variables.
  • Error de identidad: El sistema atribuye a una persona datos o conductas que pertenecen a otra (falsos positivos en sistemas de reconocimiento facial, confusión de identidades en bases de datos crediticias).
  • Decisión opaca: El sistema adopta una decisión que perjudica a la persona sin que esta pueda conocer los criterios utilizados ni impugnarlos.
  • Sesgos de entrenamiento: El algoritmo reproduce y amplifica los sesgos presentes en los datos históricos con que fue entrenado, perpetuando desigualdades estructurales.

El marco del Código Civil y Comercial

El CCC no menciona la inteligencia artificial ni los algoritmos —fue sancionado en 2015, cuando estos temas no tenían la centralidad que tienen hoy— pero sus disposiciones generales sobre responsabilidad civil son suficientemente amplias para abarcar el daño algorítmico.

El art. 1716 CCC establece que la violación del deber de no dañar a otro genera la obligación de reparar el daño causado. Los arts. 1722 y 1723 regulan los factores de atribución: la culpa (factor subjetivo) y el riesgo creado (factor objetivo). Es precisamente en este último donde el daño algorítmico encuentra su encuadre más natural.

El art. 1757 CCC establece la responsabilidad objetiva por actividades riesgosas: "toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización". El despliegue de sistemas de inteligencia artificial en decisiones que afectan derechos de personas es, sin duda, una actividad riesgosa en los términos de esta norma.

El problema de la prueba

El mayor obstáculo práctico en los casos de daño algorítmico es la prueba. Los algoritmos de machine learning son, en muchos casos, cajas negras: ni siquiera sus creadores pueden explicar con precisión por qué el sistema adoptó una decisión específica. Esto genera una brecha probatoria que el derecho procesal civil argentino aún no ha resuelto satisfactoriamente.

¿Quién responde? El problema de la cadena de responsabilidades

En un sistema de IA típico intervienen múltiples actores: el desarrollador del algoritmo, la empresa que lo entrena con sus datos, la empresa que lo implementa en sus procesos decisorios y, en algunos casos, un tercero que comercializa el producto. Determinar cuál de estos actores responde —o si todos responden solidariamente— es una de las preguntas más complejas del emergente derecho de la inteligencia artificial.

El CCC ofrece la herramienta de la responsabilidad solidaria cuando varias personas participan en la causación de un daño (art. 1751). Sin embargo, aplicarla al daño algorítmico requiere acreditar la participación causal de cada actor en la cadena, lo que es técnicamente complejo cuando el sistema opera de manera autónoma y sus decisiones no son fácilmente atribuibles a una acción humana concreta.

La regulación que viene: el Reglamento Europeo de IA como referencia

El Reglamento Europeo de Inteligencia Artificial (AI Act), aprobado en 2024, es el primer marco regulatorio integral de la IA a nivel mundial y es inevitable que influya sobre el debate argentino. Sus principios más relevantes para el derecho de daños son:

  • La clasificación de los sistemas de IA por niveles de riesgo, con obligaciones más estrictas para los de alto impacto en derechos fundamentales.
  • El derecho a una explicación de las decisiones automatizadas que afecten significativamente a las personas.
  • La prohibición de determinados usos de IA (reconocimiento facial en tiempo real en espacios públicos, sistemas de puntuación social).

Argentina no tiene legislación específica sobre IA, aunque existen proyectos en el Congreso y el gobierno nacional ha publicado lineamientos no vinculantes. El vacío normativo no significa impunidad: el CCC y la Ley de Protección de Datos Personales (25.326) ya ofrecen herramientas para reclamar por daños algorítmicos.

"El algoritmo no tiene personalidad jurídica. Pero detrás de cada algoritmo hay una empresa que tomó decisiones de diseño, entrenamiento e implementación. Esa empresa responde." Análisis editorial — Procesos Legales, Edición N° 7