Revista Iberoamericana de Derecho, Cultura y Ambiente

Revista Iberoamericana de Derecho, Cultura y Ambiente
RIDCA - Edición Nº8 - Derecho Penal y Criminología

Alberto Pravia Director

Diciembre de 2025

Por Ángel Nassif[1]

 

  1. Introducción: el crimen ya no es humano

En abril de 2024, una entidad financiera argentina sufrió una maniobra fraudulenta que desvió fondos de múltiples cuentas. La investigación inicial apuntó a empleados internos, pero pronto se descubrió que el ataque había sido ejecutado por un bot autónomo, diseñado para aprender y optimizar su estrategia de intrusión sin intervención humana directa. El código había sido liberado meses antes en un repositorio internacional y adaptado por un usuario desconocido. El dilema jurídico se planteó de inmediato: ¿Quién era el autor penalmente responsable? ¿El programador original, el adaptador anónimo, el propietario de la infraestructura que alojaba el bot o nadie en absoluto?

Este escenario, que hace una década habría parecido ciencia ficción, hoy es una cuestión tangible para el Derecho Penal. Las tecnologías de Inteligencia Artificial (IA) ya participan activamente en ámbitos financieros, médicos, logísticos, judiciales e incluso en la seguridad pública. La cuestión que nos interpela es clara: ¿puede delinquir una máquina y, si no, cómo responsabilizamos a los humanos detrás de ella?

  1. Marco conceptual: ¿qué entendemos por Inteligencia Artificial?

La IA no es un ente único, sino un conjunto de tecnologías capaces de realizar tareas que tradicionalmente requerían inteligencia humana: aprendizaje automático (machine learning), procesamiento del lenguaje natural, visión por computadora, sistemas expertos, entre otros.

En el ámbito jurídico-penal, la atención se centra en los sistemas con autonomía decisoria, es decir, aquellos que pueden operar y tomar decisiones sin intervención humana inmediata, y en algunos casos, aprender de la experiencia.

La Comisión Europea ha propuesto definir a la IA como “un sistema diseñado para operar con distintos niveles de autonomía y que, al recibir datos, puede interpretar, procesar y generar resultados, adaptando su funcionamiento” (Propuesta de Reglamento Europeo sobre IA, 2021). Esta definición destaca dos elementos clave para el derecho penal:

Autonomía relativa (no requiere intervención constante).

Capacidad adaptativa (puede modificar su conducta en función de datos).

  1. El principio de culpabilidad frente a sistemas autónomos

En el Derecho Penal argentino, todo delito requiere: acción típica, antijurídica y culpable (art. 19 CN; arts. 1, 5, 34 y ss. CP). Esto presupone conducta humana voluntaria.

La IA, por más avanzada que sea, no es persona física ni jurídica, carece de conciencia y de capacidad de culpabilidad. La Corte Suprema de Justicia de la Nación ha reiterado que “la pena sólo puede imponerse a quien, pudiendo actuar de otro modo, voluntariamente realiza la conducta prohibida” (Fallos: 323:1322, “Gramajo”).

Aquí surge el primer vacío legal: si el autor inmediato es un sistema autónomo, el esquema tradicional de imputación no encaja.

  1. Hipótesis de imputación penal

La doctrina internacional y nacional explora tres modelos principales:

4.1. Responsabilidad del programador

Se atribuye responsabilidad a quien diseñó el sistema, si:

Prevé que el sistema pueda ser utilizado para delitos (dolo eventual).

Omite implementar barreras de seguridad necesarias (culpa).

Problema: el programador inicial puede haber perdido control sobre el código una vez liberado.

4.2. Responsabilidad del usuario u operador

Imputar a quien pone en marcha o gestiona la IA.

Ventaja: mantiene el vínculo entre control y responsabilidad.

Problema: en sistemas de aprendizaje autónomo, el resultado puede diferir radicalmente de lo previsto.

4.3. Responsabilidad de la persona jurídica titular

El art. 304 CP prevé responsabilidad penal para personas jurídicas en delitos económicos y de corrupción. Este esquema podría ampliarse a delitos cometidos mediante IA bajo control corporativo.

Problema: requiere modificar la ley para incluir expresamente conductas cometidas “por o con sistemas autónomos”.

  1. Tipologías de delitos vinculados a IA

La expansión de la IA ya produce riesgos concretos:

Ciberfraudes y estafas automatizadas: Bots que simulan transacciones legítimas y burlan controles bancarios.

Deepfakes con fines delictivos: Creación de imágenes o audios falsos para extorsión, difamación o fraude.

Manipulación algorítmica electoral: Segmentación de propaganda engañosa que incide en la voluntad popular.

Vehículos autónomos: Colisiones fatales con decisiones tomadas por el sistema.

Sistemas de armas autónomas: Uso militar sin supervisión humana, con potencial de homicidio masivo.

Discriminación algorítmica: IA en procesos de contratación o acceso a servicios que reproduce sesgos ilegales.

  1. Derecho comparado: lecciones y advertencias

Unión Europea: Propuesta de Reglamento sobre IA (2021) que clasifica sistemas de alto riesgo y prevé sanciones administrativas y civiles, pero no resuelve la imputación penal directa.

España: Doctrina sobre “agente moral artificial” y análisis de responsabilidad por omisión de control (Revista Española de Derecho Penal, 2022).

EE.UU.: Jurisprudencia en materia de vehículos autónomos atribuye responsabilidad a fabricantes bajo teorías de producto defectuoso, más que a usuarios.

Latinoamérica: Brasil discute proyecto de ley para regular la IA con perspectiva de derechos humanos y responsabilidad.

  1. Vacíos y riesgos para el Derecho Penal argentino

En Argentina, la Ley 26.388 incorporó figuras de delitos informáticos, pero no contempla la autonomía decisoria de sistemas de IA.

El Código Penal carece de previsión específica sobre:

Conductas cometidas por sistemas no humanos.

Responsabilidad de personas jurídicas más allá de delitos económicos.

Obligaciones de prevención tecnológica.

Riesgo principal: que delitos graves queden sin autor penalmente responsable, generando impunidad tecnológica.

  1. Propuestas de reforma legislativa

Incorporar un Título Especial en el Código Penal sobre delitos cometidos mediante IA, con:

Definición legal de IA.

Responsabilidad diferenciada para programadores, operadores y titulares.

Ampliar el art. 304 CP para incluir delitos cometidos con sistemas autónomos.

Obligaciones de seguridad tecnológica: estándares mínimos para desarrolladores y usuarios.

Registro y trazabilidad de algoritmos de alto riesgo.

Formación especializada para jueces, fiscales y defensores en IA y cibercrimen.

  1. Conclusión: la frontera penal del siglo XXI

El Derecho Penal argentino nació para juzgar conductas humanas. Sin embargo, el siglo XXI nos enfrenta a un paradigma inédito: sistemas que deciden, actúan y aprenden sin control humano constante. El riesgo no es sólo tecnológico, sino jurídico: la brecha normativa puede dejar sin respuesta penal a conductas gravemente lesivas.

Regular la IA en clave penal no significa criminalizar la innovación, sino asegurar que nadie se esconda detrás de una máquina para eludir la ley.

Como advierte Silva Sánchez, “la dogmática penal debe adaptarse a las nuevas realidades tecnológicas sin sacrificar garantías, pero evitando espacios de impunidad”[^1].

La historia penal persiguió al delincuente humano. Hoy debemos decidir si el próximo “autor” puede ser un algoritmo… y quién pagará por sus crímenes.

Citas

 [^1]: SILVA SÁNCHEZ, Jesús-María, La expansión del Derecho Penal, 4.ª ed., Civitas, Madrid, 2019.

[^1]: SILVA SÁNCHEZ, Jesús-María, La expansión del Derecho Penal, 4.ª ed., Civitas, Madrid, 2019, p. 57.

[^2]: Corte Suprema de Justicia de la Nación, “Gramajo, Luis F. s/ recurso de hecho”, Fallos: 323:1322 (2000).

[^3]: Comisión Europea, Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial), COM(2021) 206 final.

[^4]: REVISTA ESPAÑOLA DE DERECHO PENAL, “La responsabilidad penal por los actos de sistemas autónomos: problemas y perspectivas”, Nº 45, Madrid, 2022, pp. 112-145.

[^5]: Ley 26.388, Modificación del Código Penal sobre delitos informáticos, B.O. 25/06/2008, Argentina.

[^6]: Proyecto de Ley Nº 21/2023, Senado Federal de Brasil, “Marco Legal de la Inteligencia Artificial”, Brasilia, 2023.

[^7]: Corte Interamericana de Derechos Humanos, Opinión Consultiva OC-24/17, “Derechos humanos y entorno digital”, San José, 2017.

[^8]: Organización de Estados Americanos (OEA), Declaración de Principios sobre Libertad de Expresión en la Era Digital, Washington, 2020.

Bibliografía final

BUSTOS RAMÍREZ, Juan, Derecho Penal del enemigo y nuevas tecnologías, Tirant lo Blanch, Valencia, 2017.

CANCIO MELIÁ, Manuel; POZUELO PÉREZ, Laura, Inteligencia Artificial y Derecho Penal: límites y posibilidades, Marcial Pons, Madrid, 2021.

COMISIÓN EUROPEA, Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial, COM(2021) 206 final.

CORTE SUPREMA DE JUSTICIA DE LA NACIÓN, “Gramajo, Luis F. s/ recurso de hecho”, Fallos: 323:1322 (2000).

LEY 26.388, Modificación del Código Penal sobre delitos informáticos, B.O. 25/06/2008, Argentina.

MARTÍNEZ GARAY, Lucía, “Responsabilidad penal por actos de la inteligencia artificial: un enfoque desde la teoría del delito”, Revista de Derecho Penal y Criminología, Nº 19, UNED, Madrid, 2020.

ORGANIZACIÓN DE ESTADOS AMERICANOS (OEA), Declaración de Principios sobre Libertad de Expresión en la Era Digital, Washington, 2020.

PROYECTO DE LEY Nº 21/2023, Senado Federal de Brasil, “Marco Legal de la Inteligencia Artificial”, Brasilia, 2023.

SILVA SÁNCHEZ, Jesús-María, La expansión del Derecho Penal, 4.ª ed., Civitas, Madrid, 2019.

 

 

 

 

 

[1] Abogado egresado de la UNL; Especialista en Derecho Penal; Doctor en Derecho  Cursado UNL; Magister en Derecho Penal; Conjuez Federal; Conjuez  Tribunales Provincial; Miembro de la Asociación Argentina de  Medicina y Criminologia legal; Miembro del Instituto de Derechon Penal UNL; Especialista en Derecho Procesal; Master en derecho  Asociativo; Autor del libro Delitos Por Daños Ecológicos

 

Buscar

Edición

Número 8

Diciembre de 2025

Número 7

Marzo de 2025

Número 6

15 de diciembre de 2024

Edición Especial 

Derecho Penal y Criminología

Alberto Pravia, Director

Número 5

15 de julio de 2024

Edición Especial

22 de febrero de 2024

Antártida Argentina:  120 años

de Presencia Ininterrumpida

Número 4

20 de diciembre de 2023

Número 3

15 de julio de 2023

Número 2

20 de diciembre de 2022

Número 1

15 de junio de 2022

Portada

Sobre la Revista

Capacitaciones Recomendadas

Diplomatura en

Derecho Antártico, Gestión y

Logística Antártica Ambiental

AIDCA – Universidad de Morón

Dirección: Dr. Javier A. Crea y

GB (R) Edgar Calandín

Coordinación: Dra. María de

los Ángeles Berretino

Modalidad: Virtual

Publicaciones Recomendadas

Javier Alejandro Crea

María de los Ángeles

Berretino

Tratado de Derecho Antártico.

La gestión polar ambiental en

el marco de los Derechos

Humanos

Javier A. Crea

Mauricio H. Libster

Derecho Penal Ambiental.

El Acceso a la Justicia y la  

integración a los Objetivos del 

Desarollo

¿Te interesa recomendar la Revista Iberoamericana de Derecho, Cultura y Ambiente de AIDCA?

REVISTA IBEROAMERICANA DE DERECHO, CULTURA Y AMBIENTE
ASOCIACIÓN IBEROAMERICANA DE DERECHO, CULTURA Y AMBIENTE – AIDCA
Dirección: Paraná 264, Piso 2º, Oficinas 17 y 18. Ciudad Autónoma de Buenos Aires. Argentina
Código Postal:C1017AAF
Teléfono: (5411) 60641160
E-mail: info@aidca.org
Website: www.aidca.org