Skip to content

La inteligencia artificial en los sistemas judiciales: promesas y escollos

1 de noviembre de 2025
La inteligencia artificial en los sistemas judiciales: promesas y escollos

Informe de la Relatora Especial sobre la independencia de los magistrados y abogados, Margaret Satterthwaite

imagen
La inteligencia artificial en los sistemas judiciales: promesas y escollos 3


Los sistemas judiciales de todo el mundo están adoptando soluciones de inteligencia artificial (IA), y jueces concretos están utilizando herramientas de IA en su trabajo, a menudo según las necesidades. Como ocurre con todas las tecnologías, el uso de la IA debe respetar los derechos humanos.
En el presente informe, la Relatora Especial sobre la independencia de los magistrados y abogados, Margaret Satterthwaite, advierte contra el tecnosolucionismo e invita a los Estados y a los profesionales de la justicia a considerar qué problemas de la justicia puede ayudar a resolver la IA, si esta es idónea y cuándo puede empeorar las cosas. La IA no debe adoptarse sin evaluar cuidadosamente sus daños potenciales, cómo mitigarlos y si otras soluciones serían menos arriesgadas.
La Relatora Especial destaca que el derecho a un tribunal independiente e imparcial requiere el acceso a un juez humano y que el derecho a acceder a un abogado elegido libremente requiere el acceso a un abogado humano. El poder judicial debe responsabilizarse de la adopción de cualquier innovación que pueda afectar a la toma de decisiones de los jueces. Para proteger la independencia judicial, se debería apoyar a los jueces para que adquieran alfabetización digital y en IA y contar con la facultad y la oportunidad de consultar con tecnólogos, abogados y el público sobre qué sistemas de IA, en su caso, deben adoptarse. Debería ponerse a disposición del público la información clave sobre los sistemas de IA aplicados a la judicatura

Perfecto. A continuación redactaré la sinopsis académica completa (≈2.400 palabras) del informe La inteligencia artificial en los sistemas judiciales: promesas y escollos (A/80/169), presentada por la Relatora Especial Margaret Satterthwaite ante la Asamblea General de las Naciones Unidas (2025).
El texto mantiene un estilo jurídico latinoamericano, con referencias tipo ONU y una nota bibliográfica final.


La inteligencia artificial en los sistemas judiciales: promesas, riesgos y desafíos para la independencia judicial

El informe La inteligencia artificial en los sistemas judiciales: promesas y escollos (A/80/169), elaborado por la Relatora Especial sobre la independencia de magistrados y abogados, Margaret Satterthwaite, constituye uno de los análisis más completos y recientes sobre el impacto de la inteligencia artificial (IA) en la administración de justicia a nivel global. Su contenido parte de un reconocimiento fundamental: la IA ya está siendo utilizada por tribunales, jueces, fiscales y abogados en distintas jurisdicciones, en algunos casos con respaldo institucional, y en otros, por iniciativa individual (A/80/169, párr. 1).

El documento —presentado ante la Asamblea General de la ONU el 16 de julio de 2025— advierte contra el llamado tecnosolucionismo, es decir, la tendencia a considerar que toda problemática institucional o de gestión puede resolverse mediante soluciones tecnológicas. Según la Relatora, la IA puede aportar eficiencia, celeridad y ampliación del acceso a la justicia, pero su adopción sin una evaluación exhaustiva de los daños potenciales puede agravar las desigualdades, erosionar la independencia judicial y afectar el derecho a un tribunal humano, imparcial e independiente (párrs. 2 y 3).

La autora propone un enfoque de prudencia regulatoria y gobernanza ética de la IA, enmarcado en el respeto a los derechos humanos y en la preservación de la función jurisdiccional como tarea esencialmente humana. Desde esta perspectiva, el documento examina las promesas de la IA para el acceso a la justicia y la eficiencia procesal, al tiempo que alerta sobre los escollos derivados de su opacidad, sesgos algorítmicos y potencial concentración de poder tecnológico.

El marco jurídico y los derechos humanos en riesgo

El informe subraya que el uso de tecnologías por parte de los Estados debe ser coherente con las normas internacionales de derechos humanos (A/80/169, párr. 6). La Alta Comisionada de las Naciones Unidas para los Derechos Humanos ha recomendado prohibir aquellas aplicaciones de IA incompatibles con las garantías fundamentales, o imponer moratorias hasta que existan salvaguardas adecuadas (párr. 6).

La IA puede incidir en derechos tan esenciales como el acceso a la justicia, la igualdad ante la ley, el juicio justo, la asistencia de abogado y la independencia judicial (párr. 7). Estos derechos se encuentran consagrados en la Declaración Universal de Derechos Humanos (arts. 8 y 10) y en el Pacto Internacional de Derechos Civiles y Políticos (arts. 2.3 y 14). En particular, el informe reafirma que el derecho a ser oído por un tribunal competente, independiente e imparcial requiere el acceso a un juez humano, y que el derecho a la defensa implica el acceso a un abogado humano (párr. 11).

La Relatora también recoge preocupaciones expresadas por el Secretario General de la ONU en torno a los riesgos de sesgo, desigualdad procesal y opacidad algorítmica. Los sistemas de IA pueden generar decisiones discriminatorias, dificultar la impugnación de pruebas automatizadas y debilitar la independencia judicial si son diseñados o gestionados por poderes políticos o corporativos (párr. 12). En este sentido, la “caja negra” tecnológica, junto con la tendencia al sesgo de automatización —la aceptación acrítica de los resultados producidos por una máquina—, amenaza la esencia misma de la función jurisdiccional (párr. 13).

En cuanto al marco regulatorio, el informe destaca el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho, primer instrumento jurídicamente vinculante en la materia, cuyo artículo 5 prohíbe el uso de sistemas de IA que socaven la independencia judicial o el acceso a la justicia (párr. 16). Sin embargo, solo un número limitado de países cuenta con directrices específicas para el uso judicial de la IA. Según datos de la UNESCO, aunque el 44% de los operadores judiciales han utilizado alguna herramienta de IA, solo el 9% de las instituciones ha publicado directrices oficiales sobre su uso (párr. 17).

Promesas de la inteligencia artificial en la justicia

La Relatora reconoce que la IA puede ofrecer herramientas valiosas para reimaginar el acceso a la justicia, especialmente en contextos donde existen brechas de representación legal, carencias de recursos y lentitud procesal. Entre las principales promesas destacan las siguientes:

1. Difusión de conocimiento jurídico.
La IA puede simplificar el lenguaje técnico y poner la ley al alcance del ciudadano. Ejemplos citados incluyen el sistema “Carpeta Justicia” en España y el proyecto “Sor Juana” en México, que utiliza IA para traducir resoluciones judiciales a lenguaje sencillo y generar comunicados comprensibles (A/80/169, párr. 21). También se mencionan plataformas como “Rights in Exile” y “Haqdarshak”, que aplican IA para informar a migrantes y poblaciones vulnerables sobre sus derechos (párr. 20).

2. Asistencia a los litigantes sin abogado.
En varios países, los chatbots y asistentes jurídicos permiten guiar a las personas que actúan en representación propia. Herramientas como “Podus AI” en Nigeria —integrada a WhatsApp— ofrecen orientación básica gratuita y conectan al usuario con abogados humanos (párr. 23). Estas innovaciones pueden reducir la brecha de acceso en comunidades con limitaciones geográficas o lingüísticas.

3. Eficiencia y análisis de datos.
La IA facilita el análisis de tendencias judiciales, lo que puede servir para optimizar recursos y políticas públicas. El Ministerio de Justicia de Colombia, por ejemplo, utiliza IA para identificar patrones en la demanda de servicios judiciales y en la duración de procesos (párr. 25).

4. Mejora del acceso a la justicia a través de la tecnología cívica.
Plataformas como “Hear Me Out”, del National Justice Project australiano, permiten a los usuarios presentar denuncias mediante IA, que orienta los pasos iniciales y genera documentos de queja (párr. 24).

Estas iniciativas demuestran que la IA, bien empleada, puede fortalecer la educación jurídica, la transparencia institucional y la capacidad de respuesta del sistema judicial frente a los sectores más vulnerables.

Escollos y riesgos del uso judicial de la IA

A pesar de estas promesas, el informe advierte sobre graves riesgos asociados al uso indiscriminado de la IA en la justicia.

Errores y “alucinaciones” jurídicas.
Las herramientas de IA pueden interpretar erróneamente conceptos jurídicos o producir información falsa sin que el usuario disponga de mecanismos de corrección (A/80/169, párr. 26). Esto se agrava en países con escasa digitalización de datos legales, donde los modelos deben entrenarse con información incompleta o desactualizada (párr. 28).

Costos y sostenibilidad.
El desarrollo y mantenimiento de soluciones de IA son costosos y requieren bases de datos actualizadas. La Relatora señala que muchos proyectos piloto dependen de financiamiento externo y carecen de modelos sostenibles (párr. 29).

Brecha tecnológica y desigualdad.
La falta de infraestructura digital en numerosos Estados impide la adopción efectiva de la IA. Esta carencia puede agravar las desigualdades entre el Norte y el Sur Global, generando una justicia a “dos velocidades”, una digital y otra analógica (párr. 44).

Privatización de los datos judiciales.
El informe advierte contra las alianzas público-privadas sin control adecuado, que podrían llevar a la monetización de datos judiciales por parte de empresas tecnológicas, comprometiendo la soberanía informacional de los Estados (párr. 45).

En conclusión, la Relatora sostiene que la IA no debe ser vista como sustituto de los abogados ni como reemplazo de los mecanismos tradicionales de justicia. Las herramientas tecnológicas deben complementar, no desplazar, el trabajo humano. El diseño de estas soluciones debe ser impulsado por las necesidades reales de los usuarios y sometido a controles éticos y de calidad (párrs. 30-31).

Impacto sobre la igualdad ante los tribunales y el juicio imparcial

La segunda parte del informe analiza la relación entre IA y el derecho a un juicio justo. La IA puede ser útil para reducir demoras procesales y ampliar la igualdad de acceso, por ejemplo, mediante traducciones automáticas o sistemas de gestión procesal como “VICTOR” en Brasil, que acelera la revisión de admisibilidad de recursos ante el Supremo Tribunal Federal (párr. 34). También se destaca el uso de reconocimiento de voz para transcribir audiencias, lo que alivia la carga administrativa del personal judicial (párr. 35).

Sin embargo, el documento señala peligros notables:

  • Falta de transparencia en los sistemas de asignación de casos. Un algoritmo mal diseñado puede sesgar la distribución de causas, favoreciendo a jueces afines al poder político (párr. 39).
  • Dificultad para impugnar pruebas automatizadas. La naturaleza “cerrada” de los sistemas de IA, protegidos por secretos comerciales, impide a la defensa cuestionar su fiabilidad, vulnerando el principio de igualdad de medios procesales (párrs. 40-41).
  • Desigualdad entre litigantes. Los grandes bufetes y corporaciones pueden acceder a herramientas avanzadas de IA predictiva, mientras los abogados de oficio o los litigantes pobres quedan relegados a sistemas gratuitos menos precisos (párr. 42).
  • Sustitución de la asistencia jurídica gratuita. Sustituir abogados humanos por programas automatizados, advierte la Relatora, es una violación directa del derecho a defensa (párr. 43).

La IA, por tanto, puede tanto democratizar como profundizar las desigualdades judiciales. Su despliegue debe ser guiado por criterios de equidad y transparencia, y siempre bajo supervisión humana.

La independencia judicial ante el desafío tecnológico

La sección final del informe aborda la relación entre IA e independencia judicial. Satterthwaite identifica un riesgo emergente: el tecnoautoritarismo judicial, es decir, el control de los jueces mediante sistemas automatizados de evaluación o recomendación (A/80/169, párr. 58).

Si bien la IA puede reducir la carga administrativa —por ejemplo, resumiendo pruebas o corrigiendo redacción—, su uso excesivo puede erosionar la autonomía del juez y convertir la decisión judicial en un producto tecnocrático (párrs. 50-52). La Relatora afirma categóricamente que el derecho a un tribunal independiente exige acceso a un juez humano, y que la toma de decisiones finales no puede ser delegada a sistemas automatizados (párr. 52).

Además, la IA puede introducir sesgos sistemáticos en la jurisprudencia, al basarse en patrones estadísticos y no en razonamientos jurídicos contextualizados. La dependencia excesiva de la IA podría, incluso, empobrecer la función epistémica del Poder Judicial: los jueces podrían perder su capacidad de argumentar, deliberar y desarrollar doctrina propia (párrs. 56-57).

El informe alerta también sobre la manipulación de algoritmos por poderes ejecutivos o legislativos con fines de control político. Cita el caso de China, donde sistemas de IA son utilizados para evaluar las decisiones judiciales y promover la “normalización” de sentencias, lo que puede conducir a una supervisión política encubierta (párr. 58).

En contextos de debilidad institucional, esta dependencia tecnológica puede traducirse en censura, vigilancia y pérdida de independencia funcional. Del mismo modo, la participación de empresas privadas en el diseño de sistemas judiciales automatizados plantea riesgos de privatización del conocimiento jurídico y dependencia de proveedores monopólicos (párr. 59).

Finalmente, la Relatora subraya que la IA puede amplificar sesgos raciales y socioeconómicos, como demostró el caso del algoritmo COMPAS en Estados Unidos, que sobrestimó el riesgo de reincidencia en acusados afroamericanos (párr. 60). Estos ejemplos confirman que la tecnología, lejos de ser neutral, reproduce las desigualdades de sus contextos de desarrollo.

El informe A/80/169 constituye un llamado urgente a la prudencia y a la gobernanza ética de la inteligencia artificial en el ámbito judicial. Su principal enseñanza es que la justicia no puede ser automatizada sin socavar los fundamentos del Estado de Derecho. La IA puede servir como herramienta auxiliar para mejorar el acceso, la eficiencia y la transparencia, pero no puede reemplazar la deliberación humana, la sensibilidad ética ni el juicio moral que caracterizan la función judicial.

La Relatora propone tres principios rectores para los Estados y poderes judiciales:

  1. Humanidad y responsabilidad. Toda innovación debe preservar la intervención decisoria humana y garantizar que los jueces conserven la autoridad final sobre las decisiones.
  2. Transparencia y rendición de cuentas. Los sistemas de IA empleados en la justicia deben ser comprensibles, auditables y sujetos a control público.
  3. Equidad y acceso universal. La IA no debe ampliar la brecha digital ni la desigualdad procesal; su implementación debe orientarse al beneficio de los sectores más vulnerables.

En última instancia, el informe reafirma una premisa esencial: el progreso tecnológico no puede disociarse de los valores democráticos. En palabras implícitas de Satterthwaite, la legitimidad de la justicia no reside en la velocidad ni en la automatización, sino en su capacidad para hacer visible la humanidad del derecho y garantizar la dignidad de las personas que acuden a los tribunales.


Nota bibliográfica:
Basado en Informe de la Relatora Especial sobre la independencia de los magistrados y abogados: “La inteligencia artificial en los sistemas judiciales: promesas y escollos”, Naciones Unidas, Asamblea General, documento A/80/169, 16 de julio de 2025.

Share This