Skip to content

La Regulación de la Inteligencia Artificial en el Arbitraje Internacional

21 de diciembre de 2025
La Regulación de la Inteligencia Artificial en el Arbitraje Internacional
La Regulación de la Inteligencia Artificial en el Arbitraje Internacional
La Regulación de la Inteligencia Artificial en el Arbitraje Internacional 3

La Regulación de la Inteligencia Artificial en el Arbitraje Internacional: Un Análisis Exhaustivo de las Directrices de la SVAMC y la SCC

Raymond Orta Martinez: Investigación asistida por IA

Resumen Ejecutivo

La integración de la Inteligencia Artificial (IA) en el arbitraje internacional representa el cambio de paradigma más significativo en la resolución de disputas desde la digitalización de los expedientes. Sin embargo, esta transformación tecnológica ha traído consigo riesgos existenciales para la legitimidad del sistema arbitral: desde la «alucinación» de precedentes legales hasta la opacidad de las «cajas negras» algorítmicas y la amenaza de deepfakes probatorios. Ante la ausencia de tratados internacionales o legislaciones nacionales uniformes que aborden estos riesgos específicos, las instituciones arbitrales y los organismos especializados han asumido el rol de legisladores de soft law.

Este informe técnico ofrece un análisis profundo, crítico y comparado de los dos marcos regulatorios más influyentes publicados hasta la fecha: las Directrices sobre el Uso de la Inteligencia Artificial en el Arbitraje (Guidelines on the Use of Artificial Intelligence in Arbitration) del Silicon Valley Arbitration & Mediation Center (SVAMC), publicadas en abril de 2024, y la Guía sobre el Uso de Inteligencia Artificial en Casos Administrados bajo el Reglamento de la SCC (Guide to the Use of Artificial Intelligence in Cases Administered Under the SCC Rules) del Instituto de Arbitraje de la Cámara de Comercio de Estocolmo, adoptada en octubre de 2024. A través de un examen detallado de sus textos, principios subyacentes e implicaciones prácticas, este documento establece cómo estas normas buscan equilibrar la eficiencia algorítmica con las garantías inalienables del debido proceso.

1. El Nuevo Paradigma Tecnológico y la Crisis de Gobernanza

1.1. De la Automatización a la Generación: La Naturaleza del Desafío

Durante décadas, la tecnología en el arbitraje se limitó a herramientas de procesamiento pasivo: correo electrónico, almacenamiento en la nube y bases de datos de jurisprudencia (como Westlaw o Lexis) que operaban bajo reglas deterministas de recuperación de información.1 La emergencia de la Inteligencia Artificial Generativa (GenAI) y los Modelos de Lenguaje Grande (LLMs) ha roto este modelo. Estas nuevas herramientas no solo recuperan información, sino que poseen la capacidad de «crear» contenido nuevo, sintetizar argumentos complejos y predecir resultados basándose en patrones probabilísticos masivos.2

La SVAMC define la IA en este contexto moderno como «sistemas informáticos que realizan tareas comúnmente asociadas con la cognición humana, como la comprensión del lenguaje natural, el reconocimiento de patrones semánticos complejos y la generación de resultados similares a los humanos».2 Esta definición es crucial porque desplaza el foco de la mera «herramienta» al «agente cognitivo», reconociendo implícitamente que la IA está asumiendo funciones intelectuales que tradicionalmente definían el oficio del jurista y el árbitro.

1.2. El Vacío Normativo Global y los Riesgos Estructurales

El arbitraje internacional opera en un ecosistema descentralizado, gobernado por la voluntad de las partes, las reglas institucionales y la lex arbitri de la sede. Hasta 2023, este ecosistema carecía de normas específicas para gestionar los riesgos de la IA. La EU AI Act y otras normativas nacionales, aunque relevantes, se centran en la clasificación de riesgos generales (como los sistemas de alto riesgo en la administración de justicia), pero no abordan las sutilezas procedimentales del arbitraje privado.3

Este vacío regulatorio dejó expuesto al arbitraje a tres amenazas críticas identificadas en los materiales de investigación:

  1. Integridad de la Evidencia (Deepfakes): La capacidad de generar audio, video y documentos falsos indistinguibles de los reales, lo que amenaza la función de búsqueda de la verdad del tribunal.5
  2. Fiabilidad Jurídica (Alucinaciones): La propensión de los modelos generativos a inventar hechos o citas legales para llenar vacíos de conocimiento, fenómeno conocido como «alucinación».5 Casos en tribunales ordinarios, donde abogados han sido sancionados por presentar jurisprudencia ficticia generada por IA, han encendido las alarmas en la comunidad arbitral.3
  3. Opacidad Decisoria (Cajas Negras): El uso de algoritmos cuyos procesos de razonamiento son ininteligibles incluso para sus creadores, lo que contraviene el deber fundamental del árbitro de motivar sus decisiones.6

2. Análisis Profundo: Directrices de la SVAMC (2024)

El Silicon Valley Arbitration & Mediation Center (SVAMC), posicionado en la intersección de la tecnología y el derecho, publicó sus Directrices definitivas el 30 de abril de 2024 tras un extenso proceso de consulta pública.3 Este documento se erige como el código de conducta más detallado existente, estructurado en tres categorías de participantes: todos los involucrados, las partes/representantes y los árbitros.

2.1. El Marco Conceptual y Definiciones

A diferencia de definiciones restrictivas adoptadas por la OCDE o la UE, la SVAMC optó por una definición amplia orientada a la «cognición humana».2

  • Implicación Estratégica: Al vincular la IA con la cognición, la SVAMC asegura que las directrices sean «a prueba de futuro». No regulan una tecnología específica (como los transformadores generativos), sino cualquier sistema que emule el razonamiento humano. Esto abarca tanto la IA generativa (creación de borradores) como la IA discriminativa (análisis predictivo o clasificación de documentos en e-discovery).3

2.2. Análisis de las Directrices Generales (1-3)

Directriz 1: Comprensión y Competencia Tecnológica

La norma establece que todos los participantes deben hacer «esfuerzos razonables» para comprender las herramientas de IA que utilizan.7

  • El Fin de la Ignorancia Excusable: Ya no es aceptable que un abogado o árbitro alegue desconocimiento técnico. La guía exige una comprensión funcional de las limitaciones de la herramienta, específicamente sus sesgos y su propensión a alucinar.
  • Mitigación de Sesgos: Se reconoce que la IA perpetúa sesgos presentes en los datos de entrenamiento (raciales, de género, culturales). Los usuarios tienen el deber afirmativo de mitigar estos sesgos, lo cual es crítico en la selección de árbitros o en la valoración de credibilidad de testigos, para evitar la discriminación automatizada.5

Directriz 2: La Fortaleza de la Confidencialidad

El arbitraje es elegido a menudo por su confidencialidad. La IA representa una amenaza directa a este principio si los datos del caso se utilizan para entrenar modelos públicos.

  • Prohibición de Modelos Abiertos: La guía prohíbe explícitamente introducir información confidencial en herramientas que no garanticen la seguridad de los datos. Se insta a los usuarios a revisar las políticas de retención de datos y optar por soluciones «empresariales» o de «jardín amurallado» (walled garden) que no comparten datos con el modelo base.5
  • Anonimización: Cuando no se disponga de herramientas seguras, se exige la redacción o anonimización previa de los materiales.5 Esto impone una carga logística significativa a los equipos legales.

Directriz 3: El Régimen de Divulgación (Disclosure)

Este es el punto más polémico y matizado de las Directrices.

  • La Regla de «No Divulgación General»: Contrario a lo que podría esperarse, la SVAMC establece que «la divulgación de que se utilizaron herramientas de IA… no es necesaria como cuestión general».5
  • La Racionalidad: Esta postura pragmática reconoce que la IA es omnipresente (correctores ortográficos, motores de búsqueda). Exigir la divulgación de cada uso saturaría el procedimiento.
  • Las Excepciones Cruciales: La divulgación se vuelve mandatoria «caso por caso», dependiendo del debido proceso y los privilegios. La guía sugiere que se debe revelar el uso cuando sea necesario para evaluar la salida de la herramienta, detallando el nombre, versión y los parámetros (prompts) utilizados.6 Esto es vital para la reproducibilidad de la evidencia técnica.

2.3. Obligaciones de las Partes (Directrices 4-5)

Directriz 4: Deber de Verificación y Responsabilidad

La guía codifica el principio de «humano en el bucle» (human-in-the-loop) para la abogacía.

  • Responsabilidad Personal: Los representantes son responsables de cualquier error o inexactitud generado por la IA.5 Si una IA alucina un precedente y el abogado no lo verifica, la falta es atribuible al abogado, no al software. Esto alinea las directrices con los estándares éticos de los colegios de abogados.
  • Estándar de Cuidado: Se exige verificar la precisión «desde un punto de vista fáctico y legal» de cualquier output de IA.5

Directriz 5: Integridad del Procedimiento y Evidencia

Esta norma aborda directamente el riesgo de los deepfakes.

  • Prohibición de Fabricación: Se prohíbe el uso de IA para crear evidencia falsa o distorsionada.
  • Poderes del Tribunal: El tribunal está facultado para excluir evidencia sospechosa, derivar inferencias adversas (asumir que la evidencia oculta es perjudicial para la parte que la manipuló) y adjudicar costas como sanción por el uso de «tácticas de guerrilla» tecnológica.5

2.4. Obligaciones de los Árbitros (Directrices 6-7)

Directriz 6: La No Delegación del Mandato

Este es el núcleo filosófico de las directrices.

  • El Mandato Personal: El nombramiento de un árbitro es intuitu personae; se contrata su juicio humano, no su capacidad para operar un software. Por tanto, «un árbitro no delegará ninguna parte de su mandato personal a ninguna herramienta de IA».5
  • Prohibición de Sustitución: La IA no puede reemplazar el análisis independiente de los hechos, la ley y la evidencia. El árbitro puede usar la IA para resumir, pero no para concluir.5

Directriz 7: Debido Proceso y el Expediente

  • Información «Fuera del Récord»: Un árbitro no puede basarse en información generada por IA que no esté en el expediente sin revelarlo a las partes y permitirles comentar.6
  • El Peligro del Conocimiento Privado: Si un árbitro consulta a ChatGPT sobre una cuestión técnica y basa su decisión en esa respuesta sin informar a las partes, viola el derecho de defensa, ya que las partes no pueden refutar esa «evidencia» algorítmica.

3. Análisis Profundo: Guía de la SCC (2024)

El Instituto de Arbitraje de la Cámara de Comercio de Estocolmo (SCC) publicó su guía el 16 de octubre de 2024. A diferencia del enfoque reglamentario detallado de la SVAMC, la SCC optó por un documento conciso basado en principios de alto nivel, reflejando la tradición jurídica escandinava y europea continental.9

3.1. Principios Rectores: Integridad, Calidad y Eficiencia

La SCC enmarca el uso de la IA no solo como un riesgo, sino como una oportunidad para revertir la tendencia de costos crecientes en el arbitraje.11 Sin embargo, esta eficiencia está subordinada a la «Integridad» y la «Calidad».

3.2. Transparencia como Estandarte Institucional

Mientras que la SVAMC es cautelosa con la divulgación, la SCC adopta una postura proactiva.

  • Fomento de la Divulgación: La guía «anima» a los tribunales a revelar cualquier uso de IA en tareas sustantivas como «investigar e interpretar hechos y leyes».9
  • Justificación: La transparencia se vincula directamente con la legitimidad. La divulgación asegura que las partes sepan quién (o qué) está ayudando a decidir su caso, protegiendo así el derecho a ser oído.11

3.3. Control de Calidad y Supervisión

La SCC introduce el concepto de «no reducción de calidad».

  • Estándar de Revisión: Los tribunales deben aplicar un «nivel apropiado de revisión y verificación» a los resultados de la IA.11 Esto implica que la velocidad ganada por la IA no puede resultar en una decisión menos precisa o fundamentada que la que produciría un humano trabajando solo.

3.4. La Prohibición de Delegación en la SCC

Al igual que la SVAMC, la SCC establece que la IA no puede reemplazar la toma de decisiones.

  • Redacción Categórica: «Los Tribunales Arbitrales no pueden delegar la decisión o el razonamiento que conduce a ella a nadie ni a nada».9 La inclusión de «ni a nada» (nor anything) es una novedad semántica que cierra la puerta a la personalidad jurídica de la IA en el procedimiento arbitral bajo reglas SCC.

4. Análisis Comparativo: SVAMC vs. SCC

La siguiente tabla desglosa las diferencias operativas y filosóficas entre ambos instrumentos, permitiendo una visualización clara de sus divergencias.

Tabla 1: Comparativa Estructural y Sustantiva

DimensiónSVAMC Guidelines (EE.UU./Global)SCC Guide (Europa/Institucional)
Enfoque RegulatorioPrescriptivo y Detallado: Reglas numeradas con comentarios extensos y ejemplos.Principista y Conciso: Guía breve centrada en valores institucionales (Integridad, Calidad).
Definición de IAExplícita, técnica y orientada al futuro (Cognición Humana).2Implícita, enfocada en los riesgos prácticos del uso de herramientas.
Divulgación (Partes)No necesaria por defecto. Enfoque pragmático para evitar saturación.5No regulada explícitamente para partes; foco en el Tribunal.
Divulgación (Árbitros)Requerida principalmente si introduce hechos fuera del expediente.7Alentada activamente para tareas de investigación e interpretación legal.9
ConfidencialidadReglas estrictas de vetting de herramientas y prohibición de modelos públicos inseguros.Advertencia general sobre consecuencias no deseadas; deber de informarse.10
DelegaciónProhibición de delegar el «mandato personal».Prohibición de delegar la decisión a «nadie ni a nada».
Manejo de EvidenciaReglas específicas contra la manipulación (Deepfakes) y poderes sancionadores.Enfoque en soluciones técnicas para marcar y detectar contenido manipulado.11

4.1. Divergencia Filosófica en la Divulgación

La diferencia más notable radica en la expectativa de transparencia para los árbitros.

  • SVAMC: Prioriza la eficiencia procesal. Si un árbitro usa IA para corregir gramática o resumir un texto simple, no necesita revelarlo. La divulgación es una excepción.
  • SCC: Prioriza la percepción de justicia. Alentar la divulgación en tareas de interpretación sugiere que la institución prefiere pecar por exceso de transparencia para evitar futuras anulaciones de laudos basadas en la «falta de mandato humano».

4.2. Convergencia en el Control Humano

Ambos instrumentos coinciden en que la «caja negra» de la IA no puede gobernar el arbitraje. La insistencia compartida en la verificación humana y la no delegación crea un estándar internacional de facto: La IA es una herramienta de soporte, nunca un adjudicador.

5. Implicaciones Prácticas y Estratégicas

5.1. La Cláusula Modelo y las Órdenes Procesales

La SVAMC ha proporcionado una «Cláusula Modelo» para facilitar la adopción de sus directrices.4

  • Recomendación Práctica: Las partes deben incluir en la primera Orden Procesal (PO1) una disposición que adopte estas directrices. Esto estandariza las reglas de juego desde el inicio, evitando que una parte utilice IA avanzada en secreto mientras la otra teme hacerlo por riesgos éticos.
  • Escenario de Desigualdad de Armas: Si no se regula, una parte con acceso a herramientas de IA costosas y seguras (e.g., Harvey AI, CoCounsel) podría tener una ventaja injusta en velocidad y profundidad de análisis frente a una parte con menos recursos. La regulación mediante PO1 permite al tribunal nivelar el campo de juego o al menos transparentar las herramientas usadas.

5.2. Desafíos en la Admisibilidad de Evidencia

La advertencia de la SVAMC sobre la evidencia manipulada y la sugerencia de la SCC de usar «soluciones técnicas» 11 anticipan una nueva categoría de disputas incidentales.

  • La «Forensia de IA»: Los tribunales arbitrales pronto requerirán peritos capaces de autenticar grabaciones de audio y video. La carga de la prueba recaerá probablemente en quien presenta la evidencia digital, debiendo certificar su «cadena de custodia» no sintética.

5.3. Costos: La Paradoja de la Eficiencia

Aunque la IA promete reducir horas facturables en revisión de documentos, el cumplimiento de estas guías introduce nuevos costos 2:

  • Costo de Vetting: Tiempo facturable dedicado a revisar los Términos de Servicio de las herramientas de IA.
  • Costo de Verificación: La obligación de verificar cada cita generada por IA (para evitar alucinaciones) puede, irónicamente, duplicar el trabajo en el corto plazo (generar con IA + verificar por humano).
  • Licencias: El costo de herramientas de «Jardín Amurallado» que cumplan con la Directriz 2 de SVAMC será un nuevo gasto administrativo trasladable a las costas del arbitraje.13

6. Riesgos para la Validez del Laudo

El incumplimiento de estas directrices no es solo una falta ética, sino un riesgo legal que puede llevar a la anulación del laudo bajo la Convención de Nueva York.

6.1. Violación del Mandato (Exceso de Poder)

Si un árbitro delega la redacción sustantiva del laudo a una IA (violando la regla de No Delegación de SCC/SVAMC), la parte perdedora podría impugnar el laudo alegando que el tribunal no cumplió con su mandato personal. El argumento sería que la decisión no fue tomada por los árbitros nombrados, sino por un algoritmo no designado.

6.2. Violación del Debido Proceso

Si un árbitro utiliza IA para investigar hechos y la IA «alucina» información que influye en la decisión, y el árbitro no revela este uso (violando SVAMC Guideline 7 o la guía SCC), se priva a las partes de su derecho a contradecir esa evidencia. Esto constituye una violación clásica del debido proceso y el derecho a ser oído.

6.3. Orden Público y Sesgos

El uso de una IA con sesgos demostrables (por ejemplo, que valore sistemáticamente menos el testimonio de mujeres o de ciertas nacionalidades debido a sesgos en los datos de entrenamiento) podría atacar el orden público procesal, fundamentando una anulación por falta de imparcialidad e independencia.

7. Conclusión

La publicación de las Directrices de la SVAMC y la Guía de la SCC marca el fin de la «inocencia tecnológica» en el arbitraje internacional. La comunidad arbitral ha pasado de una adopción entusiasta y acrítica de la tecnología a una fase de gobernanza responsable y defensiva.

El análisis comparado revela que, aunque los enfoques varían en detalle (la precisión reglamentaria de Silicon Valley frente al principismo ético de Estocolmo), el consenso fundamental es sólido: la integridad del arbitraje depende de la primacía del intelecto humano. La IA es bienvenida como un acelerador de eficiencia, pero estas guías trazan una «línea roja» infranqueable alrededor de la función decisoria y la verdad probatoria.

Para los practicantes, estas normas transforman el uso de la IA de una curiosidad técnica a una competencia profesional obligatoria. La ignorancia de los riesgos de alucinación, sesgo y confidencialidad ya no es una defensa, sino una fuente de responsabilidad. En el futuro inmediato, la capacidad de navegar estos marcos regulatorios será tan crítica para el abogado internacional como el conocimiento de las propias reglas de procedimiento arbitral.

Works cited

  1. Artificial Intelligence in Arbitration, accessed December 21, 2025, https://svamc.org/artificial-intelligence-in-arbitration/
  2. AI and Arbitration: The Silicon Valley Arbitration and Mediation Center Guidelines on the Use of AI in Arbitration – Freshfields Risk & Compliance, accessed December 21, 2025, https://riskandcompliance.freshfields.com/post/102j97d/ai-and-arbitration-the-silicon-valley-arbitration-and-mediation-center-guideline
  3. A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, accessed December 21, 2025, https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/
  4. The Legal Framework Applicable to Using AI by an Arbitral Tribunal – Daily Jus, accessed December 21, 2025, https://dailyjus.com/legal-tech/2025/03/the-legal-framework-applicable-to-using-ai-by-an-arbitral-tribunal
  5. SVAMC Guidelines on the Use of Artificial Intelligence in Arbitration, accessed December 21, 2025, https://svamc.org/wp-content/uploads/SVAMC-AI-Guidelines-First-Edition.pdf
  6. From Draft to Published Version: A Commentary on the Changes Implemented in the SVAMC AI Guidelines | Kluwer Arbitration Blog, accessed December 21, 2025, https://legalblogs.wolterskluwer.com/arbitration-blog/from-draft-to-published-version-a-commentary-on-the-changes-implemented-in-the-svamc-ai-guidelines/
  7. SILICON VALLEY ARBITRATION AND MEDIATION CENTER GUIDELINES ON THE USE OF ARTIFICIAL INTELLIGENCE IN ARBITRATION DRAFT of 31 Augu, accessed December 21, 2025, https://www.iareporter.com/wp-content/uploads/2023/08/SVAMC-AI-Guidelines.pdf
  8. Charting the Use of AI in Arbitration: A Closer Look at the CIArb Guideline (2025) – Linklaters, accessed December 21, 2025, https://www.linklaters.com/en/insights/blogs/arbitrationlinks/2025/july/ciarb-ai-guideline
  9. SCC Guide to the Use of AI in Cases Administered Under the SCC Rules 2024 – Jus Mundi, accessed December 21, 2025, https://jusmundi.com/en/document/rule/en-scc-stockholm-chamber-of-commerce-guide-to-the-use-of-artificial-intelligence-in-cases-administered-under-the-scc-rules-2024-scc-guide-to-the-use-of-ai-in-cases-administered-under-the-scc-rules-2024-wednesday-16th-october-2024
  10. How does guidance from arbitral institutions help navigate the challenges of use of AI in arbitration? – Clifford Chance, accessed December 21, 2025, https://www.cliffordchance.com/insights/resources/blogs/arbitration-insights/2024/11/how-does-guidance-from-arbitral-institutions-help-navigate-the-challenges-of-use-of-ai-in-arbitration.html
  11. Guide to the Use of Artificial Intelligence in Cases Administered Under the SCC Rules, accessed December 21, 2025, https://sccarbitrationinstitute.se/wp-content/uploads/2024/12/scc_guide_to_the_use_of_artificial_intelligence_in_cases_administered_under_the_scc_rules-1.pdf
  12. The SCC Arbitration Institute leads the way in embracing the age of AI, accessed December 21, 2025, https://sccarbitrationinstitute.se/en/news/the-scc-arbitration-institute-leads-the-way-in-embracing-the-age-of-ai/
  13. Reports – SCC Arbitration Institute, accessed December 21, 2025, https://sccarbitrationinstitute.se/en/resource-library/reports/

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Share This