«Crear imágenes de abuso sexual infantil con IA es delito» [Argentina] ~ Segu-Info


Crear imágenes de pedofilia con Inteligencia Artificial (IA) es delito.

Así lo dictaminó la Justicia argentina en un precedente histórico e inédito en
el país. Un fallo de la Cámara de Apelación y Garantías en lo Penal del
Departamento Judicial Zárate-Campana dictaminó que
el actual artículo 128 del Código Penal argentino comprende y penaliza las
representaciones de abuso sexual infantil generadas o modificadas mediante
IA, incluso cuando no hay víctimas reales identificadas.

Por primera vez en Argentina, la Justicia declaró delito la creación de CSAM (material de violencia sexual contra NNyA, mal llamado «pornografía infantil») generadas con IA. El fallo marca un punto de inflexión: aunque no haya una víctima real retratada, estas producciones cosifican, normalizan la violencia y alimentan la demanda de material aberrante que pone en riesgo a niñas, niños y adolescentes.


Este fallo redefine la persecución de la explotación de menores en la era
digital y sienta un pilar fundamental en la lucha contra la pedofilia
impulsada por las nuevas tecnologías.

Este dictamen judicial parte de la denuncia contra un hombre acusado de
publicación y distribución de representaciones de menores de 18 años en
actividades sexuales.

Y así establece una clara señal de que el vacío legal que preocupaba a
fiscales y especialistas está siendo llenado por la interpretación judicial,
hasta tanto el Congreso sancione una ley específica.

El argumento de la defensa y el rechazo de Cámara

La defensa del acusado alegó que no se había logrado acreditar la existencia
de víctimas reales y que el contenido podría haber sido generado o alterado
digitalmente mediante IA o imágenes generadas por computadora (CGI). La
premisa de la defensa era que el artículo 128 del Código Penal busca proteger
a menores de edad concretos y no penaliza representaciones ficticias.

Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro
rechazaron esto y confirmaron la elevación a juicio. Los jueces sostuvieron
que el artículo 128 del Código Penal, reformado por la Ley 27.436, contempla
las representaciones de menores en situaciones sexuales explícitas, sin
importar cómo hayan sido creadas. La clave está en el término
«representación», que incluye «imagen o idea que sustituye a la realidad». De
esta manera marcaron precedente jurídico.

La jueza de Garantías Graciela Cione determinó que una
«simple observación de los videos y fotografías permitía concluir que se
trataba de niños y niñas de entre 3 y 8 años, y hasta 13 años, más allá de
su falta de identificación».

Además, el Tribunal advirtió sobre un riesgo mayor: permitir este tipo de
contenidos, incluso si fueran creados artificialmente, llevaría a normalizar
la pedofilia, lo que, en definitiva, pone en peligro el bien jurídico
protegido: la libertad e integridad sexual de las infancias.

Respecto a la prueba, el fallo señaló que, si bien el informe pericial inicial
no detalló si las imágenes eran representaciones de personas inexistentes, el
perito sí informó sobre la disponibilidad de los elementos multimedia y sus
metadatos (como fecha de creación, modificación o ubicación). Esto abre la
puerta a cualquier medida adicional que se requiera durante la etapa de juicio
para determinar el origen y la naturaleza precisa del material.

Este dictamen refuerza la postura de que el daño inherente al material de
abuso sexual infantil, incluso si es digitalmente fabricado, es real y
perjudicial para la sociedad y la protección de los menores.

Una legislación vieja y la necesidad de actualización

Daniel Monastersky, director del Centro de Estudios en Cibernética y Datos de
la Universidad Austral,
dijo a Clarín
que la
«producción de material de explotación sexual infantil, aunque las imágenes
sean generadas por IA, están basadas en fotografías reales de menores y las
representan en situaciones sexuales explícitas».

Y agregó: «El uso no autorizado de las imágenes originales de las menores para
crear este contenido constituye una clara violación de su privacidad. Al crear
versiones falsas y sexualizadas de las menores, se podría argumentar que hay
una forma de suplantación de identidad (contravención en CABA). Debería
considerarse urgente incluirlo como delito en el Código Penal de la Nación».

La urgencia de una ley «take it down» a la Argentina

El fiscal Lucas Moyano, de la fiscalía especializada en Cibercrimen de Azul,
puso, en diálogo con TN Tecno, el foco en la necesidad urgente de que
Argentina adopte una legislación similar a la ley «Take It Down» de
Estados Unidos. Esta normativa, pionera a nivel federal en EE.UU., fue
diseñada precisamente para abordar los «deepfakes» de contenido sexual
explícito y la difusión no consentida de imágenes íntimas.

La ley estadounidense sanciona de manera explícita la creación y difusión de
imágenes generadas con IA que simulan situaciones sexuales explícitas sin el
consentimiento de la persona representada. Para Moyano, una medida análoga en
Argentina permitiría una herramienta legal más robusta y específica para
enfrentar este flagelo, que no solo afecta a menores sino también a adultos
víctimas de la difusión no consentida de «deepfakes» sexuales.

Este llamado a la acción legislativa subraya que, aunque la justicia avance
con interpretaciones audaces, la complejidad y la rápida evolución de la IA
exigen una respuesta normativa clara y actualizada para proteger a las
víctimas y cerrar cualquier brecha que los delincuentes puedan explotar. La
pelota, ahora, está en la cancha del Congreso.

Fuente:
Clarín


Ver fuente

Related Post