Usted cree que su proceso de selección es objetivo porque lo decide una máquina. Sin embargo, en los tribunales laborales de Córdoba y Buenos Aires, empieza a gestarse una nueva jurisprudencia: si el algoritmo discrimina, la empresa es responsable. La "caja negra" de la IA ya no es una excusa válida ante la ley argentina.
La Falsa Promesa de la Neutralidad Tecnológica
En la carrera por la eficiencia, miles de empresas argentinas han delegado el filtrado de miles de CVs a sistemas de IA (ATS - Applicant Tracking Systems). El argumento de venta es tentador: "eliminamos el prejuicio humano". Pero en 2026, la realidad nos ha golpeado de frente. Los algoritmos no son entes matemáticos puros; son espejos que reflejan y amplifican los sesgos históricos de los datos con los que fueron entrenados.
Si una empresa en el Polo Tecnológico de Córdoba o un ingenio en Tucumán entrena a su IA con datos de sus "mejores empleados" de los últimos 20 años —un periodo donde la diversidad era escasa—, el modelo aprenderá, por ejemplo, que los candidatos de cierto género, edad o zona geográfica son "menos aptos", descartándolos automáticamente antes de que un ser humano siquiera vea su perfil.
El Marco Legal Argentino: Discriminación y Carga de la Prueba
La Ley Antidiscriminatoria (N° 23.592) y el artículo 14 bis de la Constitución Nacional son claros. No obstante, el desafío del sesgo algorítmico reside en su invisibilidad. ¿Cómo prueba un candidato que fue rechazado por una variable discriminatoria oculta en el código?
"En el derecho laboral argentino, rige el principio de las 'cargas probatorias dinámicas'. Si un postulante demuestra indicios de discriminación sistémica, será la empresa quien deba abrir su 'caja negra' y probar que el algoritmo operó bajo criterios de idoneidad técnica y no por prejuicios automatizados."
Riesgos Críticos para las Gerencias de Capital Humano
Desde Espacio Legal, identificamos tres frentes de tormenta judicial que las empresas deben desactivar hoy:
1. Acciones de Clase (Class Actions)
Ya no se trata de un candidato aislado. En Buenos Aires, vemos los primeros intentos de demandas colectivas contra plataformas de empleo que, mediante algoritmos de recomendación, segmentan ofertas laborales excluyendo a grupos protegidos (edad, discapacidad o género).
2. Daño Reputacional y ESG
En un mercado globalizado, una denuncia por sesgo algorítmico destruye la marca empleadora. Los inversores de 2026 exigen métricas reales de Gobernanza de IA como parte de sus estándares de inversión ética.
Auditoría LegalTech: Cómo Blindar su Proceso de Selección
El "Compliance de IA" es la nueva frontera del derecho preventivo. Una auditoría seria de sus herramientas de RRHH debe contemplar:
Evaluación del Dataset de Entrenamiento
Analizamos si los datos históricos utilizados para alimentar la IA contienen sesgos de origen. Si los datos están sucios, el resultado será discriminatorio.
Test de Impacto Dispar
Realizamos simulaciones para verificar si el algoritmo arroja resultados significativamente diferentes para distintos grupos protegidos bajo igualdad de competencias técnicas.
Protocolo "Human-in-the-loop"
Rediseñamos el proceso para asegurar que la decisión final de contratación siempre pase por una supervisión humana crítica y documentada.
El Rol de la Transparencia Algorítmica
La transparencia no significa entregar el código fuente de su software —protegido por secretos comerciales—, sino ser capaz de explicar la lógica de decisión. En una audiencia laboral en Córdoba, el juez no querrá ver líneas de Python; querrá ver qué variables de peso determinaron el rechazo de un postulante. Si usted no puede explicarlo, usted pierde el caso.
Proteja su Empresa de la Discriminación Automatizada
¿Su software de selección ha sido auditado legalmente bajo la normativa argentina vigente? Evite demandas millonarias por sesgos invisibles. En Espacio Legal, somos expertos en compliance legaltech y auditoría de algoritmos.
Conclusión: Liderazgo Humano en la Era de la IA
La Inteligencia Artificial es una herramienta extraordinaria de productividad, pero delegar en ella la ética de una organización es un error de liderazgo y un riesgo jurídico inasumible. El abogado del futuro en Argentina debe ser un garante de que la tecnología sirva para ampliar derechos, no para recortarlos bajo el manto de una falsa objetividad matemática.