Skip to content

El Prompt Injection (IA) como técnica de comisión de delitos informáticos 24

21 de septiembre de 2024
https://raymondorta.com/el-prompt-injection-como-tecnica-de-comision-de-delitos-informaticos/ El Prompt Injection como técnica de comisión de delitos informáticos
El Prompt Injection como técnica de comisión de delitos informáticos
El Prompt Injection (IA) como técnica de comisión de delitos informáticos 24 3

El prompt injection es una técnica de ataque informática emergente que involucra la manipulación de entradas en modelos de inteligencia artificial, como los de procesamiento de lenguaje natural (PLN), para obtener resultados no deseados o maliciosos. Desde una perspectiva legal, esta técnica plantea desafíos importantes en el marco de los delitos informáticos, particularmente en los sistemas legales latinoamericanos, donde las normativas relacionadas con la ciberseguridad y la protección de datos aún están en desarrollo o son relativamente recientes en algunos países.
Definición de «Prompt Injection»

El «prompt injection» consiste en inducir a un modelo de inteligencia artificial (IA) a realizar acciones no previstas por sus programadores o a generar respuestas que podrían ser utilizadas de manera maliciosa. Un atacante puede inyectar datos cuidadosamente manipulados (un «prompt») en el sistema de IA para alterar su funcionamiento normal, obtener acceso a información sensible o incluso realizar acciones automatizadas que generen daños.

Desde un punto de vista legal, esta técnica tiene similitudes con otros delitos cibernéticos, tales como el phishing, la ingeniería social, o los ataques por inyección de código, aunque su mecanismo de acción se dirige a la IA en lugar de sistemas tradicionales de software.
Posibles Delitos Asociados

La utilización de «prompt injection» puede dar lugar a la comisión de varios delitos informáticos, que varían según las legislaciones locales. A continuación, analizamos los tipos de delitos más relevantes en relación con este tipo de ataque.

  1. Acceso Ilegítimo a Sistemas Informáticos

Muchos países en América Latina, como Argentina y México, contemplan en sus códigos penales el delito de acceso ilegítimo a sistemas informáticos. Esto ocurre cuando una persona, sin autorización, accede a un sistema protegido para obtener información. El uso de la técnica de «prompt injection» podría considerarse como una modalidad de acceso indebido, ya que permite extraer información o modificar el comportamiento de un sistema que no está diseñado para proporcionar esos resultados.

Desde el punto de vista de la Ley Especial contra los Delitos Informáticos de Venezuela, el «prompt injection» podría encuadrarse bajo varias tipificaciones penales. Esta ley, aprobada en 2001, regula el uso indebido de tecnologías de la información y comunicación, y establece penas para quienes accedan de forma ilícita a sistemas protegidos o modifiquen datos sin autorización. Específicamente, la Sección IV, que trata sobre el acceso indebido a sistemas informáticos, y la Sección V, sobre la manipulación de datos, resultan pertinentes para los ataques de «prompt injection».

  1. Acceso indebido a sistemas protegidos

La Ley Venezolana sanciona a quienes accedan a sistemas o redes de información sin autorización, incluso si no modifican o destruyen datos, con penas que varían de dos a seis años de prisión. Si el «prompt injection» es utilizado para acceder a áreas restringidas de un sistema de IA, podría ser considerado acceso indebido, pues el atacante estaría utilizando un «prompt» para obtener información o modificar el comportamiento del sistema sin el consentimiento del propietario o administrador del mismo.

  1. Manipulación de datos

Si un ataque de «prompt injection» se utiliza para modificar, borrar o insertar datos en un sistema basado en inteligencia artificial, esto podría entrar en la tipificación delictiva de modificación indebida de datos, regulada en la misma ley. Este delito conlleva sanciones que pueden llegar a ser de seis años de prisión cuando el acto afecta la integridad de los datos almacenados en un sistema informático.

  1. Violación de la privacidad

Dado que algunos ataques de «prompt injection» pueden buscar obtener datos sensibles o confidenciales, estos también podrían infringir los artículos que protegen la inviolabilidad de la privacidad y la confidencialidad de los datos personales. Esto sería aplicable si el atacante logra manipular la IA para obtener acceso a información privada, como datos financieros o de identidad.

  1. Responsabilidad del operador de la IA

Es importante señalar que la ley también puede imponer responsabilidad a las entidades que operan sistemas de IA vulnerables si no han implementado las medidas necesarias de seguridad, lo que podría derivar en sanciones por negligencia o falta de cumplimiento de estándares mínimos de protección de datos.

  1. Perspectivas futuras en Venezuela

La Ley Especial contra los Delitos Informáticos de Venezuela es un marco legal amplio, pero no contempla específicamente los sistemas de inteligencia artificial ni los riesgos asociados a su manipulación. Sin embargo, con la rápida evolución de la tecnología y el creciente uso de IA en distintos sectores, es probable que las leyes venezolanas necesiten ser actualizadas para abarcar explícitamente delitos como el «prompt injection», en línea con las regulaciones internacionales emergentes en la materia.

En conclusión, aunque la ley venezolana actual aborda aspectos fundamentales como el acceso indebido, la manipulación de datos y la violación de la privacidad, el desafío para los legisladores será integrar la protección de los sistemas de IA en el marco jurídico, asegurando que los delitos como el «prompt injection» sean adecuadamente sancionados y prevenidos. Esto implica un enfoque integral que combine la protección de la seguridad informática con los derechos de privacidad y confidencialidad de los datos personales.

La Ley 26.388 de Delitos Informáticos en Argentina, por ejemplo, prevé sanciones para quienes accedan, interfieran o utilicen sistemas o datos informáticos sin autorización. Si el uso de «prompt injection» logra vulnerar una barrera de seguridad en la IA, podría encuadrarse en este tipo de delito.

  1. Modificación o Daño de Datos

Otra categoría de delitos relevantes sería la modificación o destrucción de datos. Algunos ataques de «prompt injection» podrían estar diseñados para modificar registros o bases de datos almacenadas en sistemas que dependen de IA, causando un perjuicio económico o alterando información crítica. Este tipo de acción encuadraría dentro del delito de daños a sistemas informáticos, que, en algunos países, también está penado bajo la legislación penal.

En el contexto de México, el Código Penal Federal incluye sanciones severas para quienes interfieren con la integridad de los datos informáticos, un área que podría abarcar los daños causados por esta técnica en sistemas controlados por IA.

  1. Acceso a Información Privada o Confidencial

El «prompt injection» también podría utilizarse para obtener acceso a información confidencial o datos personales, lo que podría violar las leyes de protección de datos personales, como la Ley Federal de Protección de Datos Personales en Posesión de los Particulares en México o la Ley 25.326 de Protección de Datos Personales en Argentina.

Si un atacante utiliza un modelo de IA para acceder a datos protegidos (como correos electrónicos o contraseñas) mediante manipulación de «prompts», es probable que incurra en un delito vinculado con la protección de la privacidad y los datos sensibles. Esto también podría incluir responsabilidades civiles, más allá de las sanciones penales.

  1. Uso Malicioso de IA

Otro aspecto legal relevante está relacionado con el uso malicioso de sistemas de IA en general. Dado que el «prompt injection» manipula las decisiones de un sistema de IA, podría derivar en situaciones donde la IA sea utilizada para cometer actos delictivos, como suplantación de identidad o generación de contenido falso, en especial si el sistema controlado puede automatizar respuestas o generar instrucciones de manera autónoma.

El fraude informático es una categoría que podría incluir el uso de IA manipulada para obtener beneficios económicos o causar daño a terceros. En países como Chile, el artículo 3 de la Ley de Delitos Informáticos (Ley 21.459) castiga el uso de herramientas tecnológicas para defraudar a una persona, lo que podría incluir la manipulación de IA a través del «prompt injection».
Dificultades en la Tipificación Penal

Uno de los principales retos legales que enfrenta el tratamiento del «prompt injection» es la tipificación penal de este tipo de conductas. En muchos casos, las legislaciones sobre delitos informáticos no prevén específicamente las particularidades de los sistemas de IA, lo que genera vacíos legales en cuanto a la clasificación exacta del delito. En la mayoría de las jurisdicciones, el enfoque actual de las leyes sobre ciberseguridad no considera de manera explícita los modelos de lenguaje y IA como posibles objetivos de ataques cibernéticos, lo que podría hacer que los casos de «prompt injection» sean difíciles de perseguir penalmente.

Otra dificultad radica en la prueba del daño. Si bien un ataque exitoso de «prompt injection» puede alterar el comportamiento de un modelo de IA, el daño tangible que esto pueda causar (por ejemplo, económico o a la reputación) puede ser difícil de demostrar, especialmente si no hay un impacto inmediato.

Asimismo, existe el reto de identificar a los responsables de estos ataques, ya que el uso de redes privadas virtuales (VPN) y técnicas de anonimato digital complican la trazabilidad de las acciones maliciosas, lo cual es un desafío común en los delitos cibernéticos.
Regulación de la IA y la Protección de Datos

Dado que la IA es un campo en constante evolución, algunos países latinoamericanos han comenzado a introducir marcos regulatorios específicos para abordar los riesgos y beneficios de su uso. Aunque estas normativas son aún incipientes, se espera que, a medida que se desarrolle la tecnología, las leyes evolucionen para incluir la protección contra ataques como el «prompt injection».

Por ejemplo, la propuesta de regulación sobre IA en Brasil, que busca establecer un marco ético y legal para la utilización de sistemas de inteligencia artificial, también menciona la necesidad de proteger a los ciudadanos contra abusos y vulnerabilidades en los sistemas de IA. Iniciativas como esta probablemente incluirán la criminalización de manipulaciones maliciosas de sistemas de IA, como el «prompt injection», en el futuro cercano.
Responsabilidad Civil y Penal

Finalmente, es importante destacar que los responsables del diseño de modelos de IA también podrían enfrentar responsabilidad por los ataques de «prompt injection», si se demuestra que no tomaron las medidas necesarias para prevenir este tipo de vulnerabilidades. Esto podría dar lugar a demandas civiles por negligencia o por el incumplimiento de normas de ciberseguridad.

En términos de responsabilidad penal, si un ataque de «prompt injection» resulta en daño económico o la divulgación de información confidencial, tanto el atacante como el operador del sistema podrían enfrentar sanciones, dependiendo de las leyes locales. Los marcos normativos más avanzados en materia de ciberseguridad ya contemplan sanciones para los operadores de sistemas que no cumplen con estándares mínimos de protección de datos y seguridad informática.
Conclusión

El «prompt injection» es una técnica que representa una amenaza emergente en el campo de los delitos informáticos, especialmente en lo que respecta a la manipulación de sistemas de IA. A nivel legal, los países latinoamericanos enfrentan el desafío de actualizar y adaptar sus normativas para incluir estos nuevos riesgos. La correcta tipificación penal de este tipo de ataques será esencial para garantizar la protección de los sistemas basados en IA y los derechos de los ciudadanos en un entorno digital cada vez más complejo.
Prompts por Raymond Orta Maestrante en IA +584143220886 +19544953300