IA & LegalTech

Responsabilidad Civil de los Asesores Jurídicos basados en IA en Argentina

JP
Ab. Juan Pablo Baudracco
Marzo 12, 2026
10 min de lectura
Responsabilidad Civil de los Asesores Jurídicos basados en IA en Argentina

En 2025 llegaron a los estrados argentinos los primeros casos de "mala praxis algorítmica": situaciones en las que un contrato, una demanda o un dictamen generados —total o parcialmente— por una herramienta de IA resultaron erróneos, causando perjuicios económicos concretos a los clientes.

La pregunta que ninguna norma argentina responde todavía con claridad es: ¿quién responde? ¿El estudio jurídico que usó la herramienta? ¿El abogado que la firmó sin revisarla a fondo? ¿O el proveedor del software de IA?

El Marco Legal Actual: Un Vacío Regulatorio Peligroso

Argentina no cuenta con legislación específica sobre responsabilidad civil derivada del uso de IA. Las herramientas disponibles son el Código Civil y Comercial (CCyC), la Ley de Defensa del Consumidor (N° 24.240) y los principios generales de la responsabilidad profesional del abogado.

El CCyC establece en su art. 1768 que "el profesional liberal responde por su culpa personal". Si el abogado utilizó una IA para redactar un contrato y el resultado fue deficiente por no haber revisado el output con el estándar de diligencia exigible a un profesional, la responsabilidad recaerá sobre él, con independencia de que la herramienta haya fallado.

"El abogado no puede delegar en un algoritmo la responsabilidad intelectual de su trabajo. La IA es una herramienta auxiliar, no un colega con matrícula."

Los Primeros Fallos: Señales de Alerta

En el primer trimestre de 2025, se registraron al menos tres casos en la Ciudad Autónoma de Buenos Aires donde clientes demandaron a estudios jurídicos por cláusulas contractuales defectuosas que, tras una pericia informática, se determinó habían sido generadas por herramientas de IA sin suficiente revisión humana. En dos de ellos, el juzgado admitió la procedencia del daño directo y condenó al estudio a indemnizar.

En Córdoba, el Tribunal Superior de Justicia recibió en diciembre de 2025 el primer caso de "alucinación jurídica": un abogado citó en un recurso de casación tres precedentes que el modelo de IA había fabricado. Ninguno existía. La sanción disciplinaria fue inhabilitación de 30 días.

Estrategias para Mitigar el Riesgo

Para los estudios jurídicos que ya usan IA —o que planean hacerlo— las medidas de mitigación son hoy una obligación ética y profesional:

  • Política de uso documentada: Registrar qué herramientas de IA se utilizan, para qué tareas se habilitan y cuál es el protocolo de revisión humana obligatoria antes de cualquier entrega a clientes.
  • Verificación de fuentes: Todo cite jurisprudencial o normativo generado por IA debe ser cotejado contra fuentes primarias (InfoLEG, Sistema Argentino de Información Jurídica, SAIJ) antes de su uso procesal.
  • Cláusula contractual de transparencia: Informar al cliente, en el contrato de servicios, que el estudio puede utilizar herramientas de IA como apoyo, manteniendo siempre supervisión profesional.
  • Seguro de responsabilidad civil actualizado: Las pólizas contratadas antes de 2024 casi con certeza no contemplan la mala praxis algorítmica como siniestro asegurado. Es hora de revisar la cobertura.

Conclusión: El Abogado del Futuro es el Supervisor, No el Operador

La llegada de la IA al ejercicio del derecho no elimina la responsabilidad profesional; la redefine. El abogado del futuro no será quien escribe todo desde cero, sino quien tiene la pericia para supervisar, corregir y responder por el output de sus herramientas. Y en la Argentina de 2026, ese rol de supervisor exigente es también una obligación deontológica que los tribunales empiezan a exigir.