Skip to content

Sanción Judicial por Uso Inapropiado de Inteligencia Artificial en España

22 de febrero de 2026
Sanción Judicial por Uso Inapropiado de Inteligencia Artificial en España
Sanción Judicial por Uso Inapropiado de Inteligencia Artificial en España
Sanción Judicial por Uso Inapropiado de Inteligencia Artificial en España 3

Análisis del Caso de Sanción Judicial por Uso Inapropiado de Inteligencia Artificial en España

Preparado por: Dr. Raymond Orta Martínez, Científico Forense, Experto en Forense Informática y Examinador Forense de Documentos.
Fecha: 22 de febrero de 2026.
Referencia del Caso: Incidente TSJC-IA-2026 (Sanción por Citas Falsas Generadas por IA).

Este informe examina el caso reciente en el Tribunal Superior de Justicia de Canarias (TSJC), donde se impuso una multa a un abogado por el uso negligente de herramientas de inteligencia artificial (IA). El enfoque forense se centra en la integridad de los documentos judiciales, la trazabilidad digital de las citas generadas por IA, y las implicaciones de la falta de verificación humana. Este análisis se basa en evidencias públicas y reportes judiciales, destacando riesgos en la cadena de custodia digital y la autenticidad de contenidos generados por algoritmos.

El incidente principal ocurrió en febrero de 2026, involucrando a la Sala de lo Penal del TSJC, que actuó como «juez» colectivo en la imposición de la sanción. No se trata de un juez individual multado, sino de un tribunal que sancionó a un profesional por citar jurisprudencia falsa originada en una IA generalista. La advertencia clave fue que el uso de una IA especializada en derecho podría haber prevenido el error.

Hechos del Caso
Contexto Cronológico

  • Detección Inicial (Enero 2026): La Sala de lo Penal del TSJC, al revisar un recurso de apelación contra una sentencia de la Audiencia Provincial de Santa Cruz de Tenerife, identificó al menos siete citas de sentencias del Tribunal Supremo y un informe del Consejo General del Poder Judicial (CGPJ) que no existían en bases de datos oficiales como el Centro de Documentación Judicial (Cendoj). El tribunal sospechó que estas referencias fueron generadas por IA, lo que llevó a una investigación por posible violación de la buena fe procesal.
  • Investigación y Admitancia: El abogado admitió haber utilizado una herramienta de IA «generalista» (no especializada en derecho, posiblemente como ChatGPT) para elaborar el recurso. No verificó las citas, confiando en el output algorítmico. La documentalista del TSJC confirmó que las 48 citas eran inexistentes o erróneas, evidenciando una «negligencia palmaria» y «dependencia ciega» en la IA.
  • Resolución (Febrero 2026): El 13 de febrero de 2026, el TSJC impuso una multa de 420 euros al abogado por «desatención de deberes profesionales básicos por imprudencia grave» y abuso del servicio público de Justicia. La cuantía se calculó de manera «ejemplarizante»: equivalente a la mitad del costo aproximado de una suscripción anual a una IA jurídica especializada (alrededor de 840 euros, basado en 70 euros mensuales). El tribunal redujo la multa considerando el reconocimiento del abogado y su compromiso de enmienda.

Detalles de la Sanción

  • Base Legal: La conducta violó el deber de veracidad, las reglas de buena fe procesal y el Código Deontológico de la Abogacía. Podría haber derivado en multas de hasta 6.000 euros o sanciones disciplinarias por el colegio profesional.
  • Advertencia Específica: El TSJC enfatizó que «de haber sido utilizada [una IA específicamente jurídica], probablemente hubiera evitado el lamentable resultado que ahora se enjuicia». Esto resalta la diferencia entre IA generalistas (propensas a «alucinaciones» como inventar sentencias) y especializadas (entrenadas en bases de datos jurídicas verificadas).

Casos Relacionados
Para un análisis forense completo, se identifican incidentes similares en España que ilustran un patrón emergente:

  • Caso en Ceuta (Enero 2026): Un abogado denunció al juez Antonio Pastor del Juzgado de Instrucción número 5 por citar jurisprudencia inexistente del Tribunal Supremo en una resolución, presuntamente generada por IA. Esto motivó una queja ante el CGPJ por posible uso erróneo de herramientas automatizadas.
  • Otros Incidentes: En Navarra y Canarias, se han reportado «alucinaciones» de IA en sentencias, incluyendo invención de leyes o citas falsas. Globalmente, se documentan 800 casos de mal uso de IA en contextos judiciales.

Análisis Forense
Perspectiva Forense Informática
Desde el punto de vista de la forense informática, este caso involucra la generación de evidencias digitales falsificadas por algoritmos de IA. Las «alucinaciones» de IA generalistas ocurren cuando el modelo, al carecer de datos verificados, fabrica outputs plausibles pero inexistentes. En este incidente:

  • Trazabilidad Digital: Las citas falsas carecían de metadatos válidos (números de sentencia, fechas, identificadores). Una extracción forense de logs de la IA utilizada revelaría prompts y responses, pero el abogado no preservó esta cadena de custodia, agravando la negligencia.
  • Riesgos de IA Generalista vs. Especializada: IA como ChatGPT opera en modelos de lenguaje grandes (LLM) sin acceso directo a bases cerradas como Cendoj. En contraste, herramientas especializadas (e.g., aquellas de Lefebvre o similares) integran datasets jurídicos validados, reduciendo errores al 90-95% según expertos. Forensemente, recomiendo auditorías digitales obligatorias para documentos generados por IA, incluyendo hashes de verificación para confirmar autenticidad.

Examen Forense de Documentos
Como examinador forense de documentos, analizo la integridad de los escritos judiciales:

  • Autenticidad: Las 48 citas eran «falsas» por inexistencia, equivalentes a forjados documentales. Un examen comparativo con bases oficiales (Cendoj) reveló discrepancias en formato y contenido, típico de generaciones algorítmicas.
  • Errores Comunes: Las alucinaciones incluyen: (1) Invención de sentencias completas; (2) Citas entrecomilladas inexistentes; (3) Interpretaciones forzadas. Esto viola principios forenses de verificación cruzada.
  • Recomendaciones: Implementar marcas de agua digitales en outputs de IA y protocolos de revisión humana para mantener la cadena de evidencia inalterada.

Implicaciones Éticas y Legales

  • Supervisión Humana: El TSJC subrayó que la IA debe ser «asistencial, no decisoria». Forensemente, esto alinea con estándares como ISO 27037 para manejo de evidencias digitales.
  • Prevención: El uso de IA especializada minimiza riesgos, pero no los elimina; siempre requiere verificación humana para evitar manipulaciones intencionales o accidentales.

Recomendaciones
Este caso representa un hito en la intersección de IA y justicia en España, destacando la necesidad de regulaciones forenses estrictas. La multa de 420 euros sirve como disuasivo, pero el verdadero valor radica en la advertencia: IA generalistas son propensas a errores forenses, mientras que especializadas ofrecen mayor fiabilidad si se supervisan adecuadamente.

Share This