doi: 10.56294/ai2024123

 

ORIGINAL

 

Child Sexual Abuse Material provided by Artificial Intelligence

 

Material de Abuso Sexual Infantil facilitado por Inteligencia Artificial

 

Antonella Petrini1, María Belén Gauna1

 

1Universidad Siglo 21. Cordoba, Argentina.

 

Citar como: Petrini A, Gauna MB. Child Sexual Abuse Material provided by Artificial Intelligence. EthAIca. 2024; 3:123. https://doi.org/10.56294/ai2024123

 

Enviado: 01-08-2023          Revisado: 19-12-2023          Aceptado: 10-05-2024          Publicado: 11-05-2024

 

Editor: PhD. Rubén González Vallejo

 

ABSTRACT

 

The present study aimed to analyze how artificial intelligence can facilitate the production and distribution of child sexual abuse material. The scope of the study was descriptive, adopting a qualitative approach, and the research design was non-experimental cross- sectional. The selected sample comprised documents, agreements, laws and books related to the subject matter; the sampling method was non-probabilistic and qualitative data collection instruments were used in the conduct of the study. The results demonstrated the development of Artificial Intelligence (AI) in the criminal sphere, as well as the lack of efficient legislation at both national and international level, even though initiatives addressing these matters have been explored in both contexts, along with an analysis of how these crimes operate. In conclusion, the paper highlighted an increase in the prevalence of crime, emphasizing the complexities of combating it without a clear and robust regulatory framework. This study also underscored the risks posed by social platforms lacking appropriate restrictions. Mutual collaboration among governments, organizations, companies and society is key to address these crimes, and the implementation of preventive strategies is fundamental to mitigate risks and safeguard minors in digital environments. The findings presented in this paper emphasize the need for a regulatory framework that addresses child sexual abuse material preventively and reactively.

 

Keywords: Child Sexual Abuse Material; Artificial Intelligence; Child Abuse Prevention Digital Platforms; Legislation.

 

RESUMEN

 

El presente trabajo buscó analizar como la inteligencia artificial facilita la creación y difusión de material de abuso sexual infantil. El alcance fue de tipo descriptivo, con un enfoque cualitativo, y su diseño fue no experimental-transversal. La muestra elegida se basó en documentos, acuerdos, leyes, libros, relacionados al tema; el muestreo elegido fue no probabilístico y los instrumentos de análisis fueron cualitativos. Los resultados evidenciaron el desarrollo de la inteligencia artificial en la esfera criminal, como también la insuficiencia de legislaciones eficientes tanto en el contexto nacional como internacional, aunque se exploraron iniciativas para ambos escenarios; así mismo se analizó el funcionamiento de estos delitos. Finalmente, a modo de conclusión, se destacó la presencia de un delito creciente, donde sin marcos regulatorios claros y robustos se complejiza combatirlo, y se destaca los riesgos que también presentan las plataformas sin restricciones adecuadas. La colaboración entre gobiernos, organizaciones, empresas y la sociedad es clave para abordar la problemática, y la implementación de estrategias preventivas resulta fundamental para reducir los riesgos y proteger a los menores de edad en el entorno digital. Estos hallazgos resaltan la necesidad de un marco regulador que aborde de manera preventiva y reactiva el contenido de abuso sexual infantil.

 

Palabras clave: Material de Abuso Sexual Infantil; Inteligencia Artificial; Prevención; Plataformas Digitales; Legislación.

 

 

 

INTRODUCCIÓN

En los últimos años, los Estados de América Latina —primordialmente, los gobiernos locales-, empezaron a incorporar la competencia de seguridad ciudadana dentro de su accionar en políticas públicas. Dicho involucramiento obedece a razones íntimamente conectadas e interdependientes entre sí, y que se observan de manera clara en las realidades de nuestros países:

1. La decadencia del sistema penal (justicia, policía y sistema penitenciario) para satisfacer las demandas ciudadanas ante los niveles de criminalidad existentes. El énfasis en la represión como forma de aumentar y eficientar el control social no ha generado resultados frente al incremento de modalidades delictivas, lo que posibilita, entonces, el avance de estrategias de prevención enfocadas desde una dimensión multisectorial y con énfasis en la prevención.(1)

2. Un sostenido y significativo aumento y transformación de la violencia,(2) lo cual ha llevado a que la seguridad se convierta en un requerimiento social hacia los gobiernos locales por estar en contacto directo y cercano con los ciudadanos, de quienes reciben y canalizan sus demandas.

3. Se ha logrado “la introducción del concepto de seguridad ciudadana (convivencia y bienestar interpersonal) por encima del de seguridad pública (mantenimiento del orden público estatal)”. Los elementos de la seguridad pública versan sobre las instituciones clásicas y tradicionales del sistema penal (policía, justicia y sistema penitenciario) nacional o provincial, mientras que en la seguridad ciudadana aparecen una pluralidad de actores, como los municipios, los medios de comunicación y las defensorías propias de la sociedad civil.

 

Resulta menester mencionar que, en diversos gobiernos municipales de distintas latitudes, debido a su estructura jurídico-institucional, no se encuentra dentro de sus competencias llevar adelante medidas policiales, judiciales o penitenciarias. Los gobiernos locales se encuentran entonces, frente a una nueva y doble dinámica:

     Por un lado, perpetuar medidas que permitan el abordaje de la problemática de la seguridad ciudadana y violencia esencialmente desde una dimensión preventiva, como un proceso orientado a atender los factores de riesgo delictivos, generadores de modalidades ilícitas y/o violentas.

     Por otro lado, orientar, desde el punto de vista de la gobernanza, esta delegación repartida de competencias, la cual implica compartir, coordinar y articular las estrategias con los distintos niveles de gobierno, sin perjuicio de las propias responsabilidades.

 

En base a esto, la capacidad de la IA para generar material de abuso sexual infantil (MASI), mal llamado “pornografía infantil”, plantea un desafío creciente. ¿Cómo facilita la IA la producción y difusión de este material y qué estrategias de prevención pueden ser efectivas?

La comprensión de los siguientes conceptos son clave: según lo planteado en el artículo 9 del Convención sobre la Ciberdelincuencia, publicado en 2001(3) y al cual Argentina adhirió en Noviembre de 2017, “Se entenderá por pornografía infantil Todo material pornográfico que contenga la representación visual de: un menor adoptando un  comportamiento sexualmente explícito, una persona que parezca un menor adoptando un comportamiento sexualmente explícito, imágenes realistas que representen a un menor adoptando un comportamiento sexualmente explícito”.

Por su parte, el Ministerio de Justicia de la Nación, entiende a la difusión de imágenes y espectáculos pornográficos de las personas menores de edad como: “Producir, financiar, ofrecer, comerciar, publicar, facilitar, divulgar o distribuir, por cualquier medio, toda representación de un menor de 18 años dedicado a actividades sexuales o una representación de sus partes genitales con fines sexuales.”(4)

Según el Ministerio Público Tutelar de Buenos Aires, el término “pornografía infantil” es incorrecto y los expertos buscan eliminar su uso. La forma adecuada de referirse a este delito es “abuso sexual contra niñas, niños y adolescentes”. El uso del término incorrecto no refleja con precisión la gravedad del crimen y puede dar lugar a interpretaciones erróneas, provocando estigmatización, distorsión o invisibilización del problema. Los especialistas destacan que estas acciones son cometidas por adultos hacia las personas menores de edad y constituyen graves violaciones de los derechos humanos de niños y adolescentes. Por ello, se recomienda sustituir “pornografía infantil” por “materiales de representación sexual de niñas, niños y adolescentes”.(5)

¿Cómo la inteligencia artificial facilita la creación y distribución de material de abuso sexual infantil?

El Objetivo de este artículo es analizar cómo la inteligencia artificial facilita la creación y difusión de material de abuso sexual infantil.

 

MÉTODO

El presente trabajo es de alcance de tipo descriptivo, ya que se busca “especificar propiedades, características y rasgos importantes de cualquier fenómeno que se analice”. En este caso, el fenómeno en cuestión es la producción y distribución de material de abuso sexual infantil (MASI) facilitada por inteligencia artificial.

El enfoque de la investigación fue cualitativo, con una recolección de datos no numérica que ha interpretándose de manera dinámica.

El diseño de la investigación es no experimental-transversal, ya que no se manipularon deliberadamente variables; solo se observaron los fenómenos tal como se presentaban, y la recopilación de datos se realizó en un único momento.

Unidades de análisis: La muestra elegida fueron documentos, informes, estudios y acuerdos recolectados con relación a la creación y difusión de material de abuso sexual infantil (MASI) facilitada por inteligencia artificial.

El muestreo fue no probabilístico ya que la elección de los elementos no se fundamenta en la probabilidad, sino en factores vinculados a las características del estudio.

Instrumentos: Los métodos de análisis empleados en esta investigación son de tipo cualitativo. Para la recolección de datos, se recurrió a la consulta de fuentes escritas, como documentos y artículos científicos, así como a información disponible en sitios web oficiales de organizaciones dedicadas a la investigación y erradicación del delito. También se incluyó el análisis de casos reportados en medios de comunicación.

 

Análisis de datos

     La primera etapa consistió en un análisis bibliográfico para la elaboración y construcción del marco teórico.

     En la segunda, se planteó un relevamiento de datos de tipo documental, se realizó una recolección, selección y análisis de fuentes documentales, tales como leyes, informes y documentos.

     En tercer lugar, se llevó a cabo el análisis de los datos recopilados mediante la organización del contenido de diversos documentos. Se identificaron previamente variables que fueron codificadas y agrupadas en categorías.

 

Las siguientes categorías fueron establecidas:

     Material de abuso sexual infantil: El contenido de abuso sexual infantil, conocido como Material de Abuso Sexual Infantil (MASI), se refiere a cualquier representación visual que involucre a menores de 18 años en actividades sexuales explícitas o que muestre sus genitales con fines sexuales. Este material no sólo documenta el abuso, sino que también perpetúa la revictimización de las víctimas al ser compartido en línea, representando un grave delito contra personas menores de edad.(6,7,9)

     Inteligencia artificial: Es el campo científico y tecnológico enfocado en el desarrollo de software, que, mediante la recepción y análisis de datos, realiza tareas que imitan funciones cognitivas humanas como aprendizaje o razonamiento.(9,10,11)

 

RESULTADOS

Con base en el análisis realizado, se procede a presentar los resultados alineados con los objetivos específicos establecidos.

 

Definir la inteligencia artificial, su desarrollo y su influencia en la esfera criminal, con un enfoque específico en la facilitación de material de abuso sexual infantil

La inteligencia artificial (IA) se definió como la disciplina que busca construir máquinas capaces de realizar tareas que requieran inteligencia humana. Margaret A. Boden explica que la inteligencia artificial busca que las computadoras realicen tareas que puede llevar a cabo la mente humana.(10) La IA se clasifica en diversas categorías, como la IA asistida, que ayuda a realizar tareas de forma más eficiente, y la IA autónoma, que toma decisiones sin intervención humana. Además, la UNESCO ha señalado que los sistemas de inteligencia artificial pueden exhibir sesgos, dado que los motores de búsqueda que utilizan estas tecnologías no son neutrales y pueden reforzar estereotipos existentes en la sociedad.(12) Esto resalta cómo la inteligencia artificial ha evolucionado y se ha integrado en múltiples ámbitos, a la vez que plantea preocupaciones sobre su aplicación.

El desarrollo de la inteligencia artificial (IA) ha tenido un impacto significativo en la esfera criminal, especialmente en la facilitación de contenido de abuso sexual infantil. Un caso concreto que ilustra esta problemática es el de un estudiante en Córdoba, Argentina, quien utilizó herramientas de IA para crear imágenes manipuladas de sus compañeras, fusionando sus rostros con cuerpos desnudos y distribuyendo este contenido en plataformas pornográficas.(13,14,15) Este incidente pone de manifiesto la falta de protección legal adecuada y cómo la tecnología puede ser utilizada para vulnerar la privacidad de las personas, lo que ha llevado a un incremento en la violencia de género y otros delitos sexuales.(12) Además, el auge de nuevas tecnologías ha facilitado la creación de este contenido, permitiendo la explotación de las víctimas y planteando desafíos significativos para los sistemas de justicia.

Otro caso representativo es el arresto de Justin Culmo, quien utilizó un modelo de IA llamado Stable Diffusion para generar miles de imágenes ilegales de niños.(16) Este incidente resalta cómo los avances tecnológicos han hecho más accesibles las herramientas para la creación de MASI, lo que ha derivado en un aumento del uso de IA para actividades delictivas.(17) La combinación de tecnologías como los deepfakes y la falta de una regulación efectiva han permitido que estas prácticas delictivas se multipliquen y evolucionen, lo que a su vez aumenta la vulnerabilidad de las víctimas.(13,14)

 Finalmente, el arresto de Daniel Clark Warren en Florida, quien supuestamente utilizó IA para generar contenido de abuso sexual infantil de una vecina, añade otra preocupación a esta problemática.(18,19) Además, se han registrado incidentes en escuelas donde educadores y estudiantes manipularon imágenes de compañeros y alumnos para crear contenido de este tipo. Este contexto revela la creciente inquietud sobre el impacto de la IA en la privacidad y la seguridad de las personas, así como la necesidad de desarrollar políticas más efectivas para proteger a las víctimas de abusos. Las tecnologías emergentes, como los algoritmos de aprendizaje profundo, han mejorado su capacidad para generar contenido, incrementando así el riesgo de explotación.(25)

 

Definir qué se entiende por abusos sexuales relacionados con el material de abuso sexual infantil y cómo estas conductas delictivas pueden ser facilitadas por tecnologías de inteligencia artificial

El término “Material de Abuso Sexual Infantil” (MASI) se prefiere sobre “pornografía infantil” porque refleja más precisamente la naturaleza del contenido, que es evidencia de abuso sexual infantil.(20,21,22) La utilización del término “pornografía” puede dar la impresión errónea de que existe un consentimiento, como ocurre en la pornografía entre adultos, mientras que las imágenes de niños representan siempre una violación de sus derechos y son una manifestación del abuso del cual son víctimas.(20,22) Por lo tanto, muchas organizaciones han optado por usar el término MASI para enfatizar la necesidad de abordar este problema desde una perspectiva de protección infantil y justicia, en lugar de un término que minimice la gravedad de los abusos.(20,21)

 El avance de la inteligencia artificial (IA) ha traído consigo una serie de desafíos alarmantes en el contexto del MASI. El informe de Europol ha advertido que la IA se está utilizando cada vez más para generar contenido sexual infantil, complicando la identificación tanto de víctimas como de delincuentes.(23,24,25) Las herramientas de IA permiten la creación de imágenes y videos hiperrealistas de niños que no existen, lo que amplifica la producción de material de explotación infantil y dificulta su detección.(23,24) Esta tecnología también permite la manipulación de imágenes existentes, generando contenido sexualizado a partir de fotos inocentes, lo que contribuye a la normalización del abuso y al daño psicológico a las víctimas.(23)

Además, el aumento en el uso de la IA para crear material de abuso sexual infantil ha provocado una saturación de contenido en las redes, dificultando la labor de las fuerzas de seguridad para identificar y perseguir a los delincuentes. La dificultad para distinguir entre imágenes generadas por IA y aquellas que son reales crea un entorno en el que la investigación se vuelve más compleja y consume más tiempo.(23) Esto resalta la urgencia de establecer regulaciones más estrictas y de garantizar que las empresas tecnológicas adopten medidas efectivas para proteger a los niños de este delito.

 

Identificar la existencia de las leyes y regulaciones act uales que abordan el uso de la inteligencia artificial en la comisión de delitos, centrándose en la protección contra delitos sexuales infantiles

Luego de indagar en las distintas fuentes documentales, se observó que no existe una ley o normativa específica que regule los alcances del uso de la Inteligencia Artificial (IA) en Argentina, aunque se identificaron varios proyectos que propusieron su regulación en distintos ámbitos.

En relación con la comisión de delitos sexuales infantiles a través del uso de IA, se identificaron tres proyectos de ley en Argentina que proponían modificaciones al artículo 128 del Código Penal (Ley 11179). Estos proyectos buscaban regular el uso de la IA en la creación, difusión y comercialización de material sexual explícito relacionado con personas menores de edad. El primer proyecto, presentado ante el Senado de la Nación, proponía sancionar tanto la producción como la distribución de representaciones de personas menores de edad en actividades sexuales, generadas por IA o cualquier otro mecanismo tecnológico. Este proyecto enfatizaba la necesidad de adecuar la legislación para enfrentar los avances tecnológicos que permiten la creación y distribución de representaciones hiperrealistas o ficticias de personas menores de edad en situaciones sexualmente explícitas.(26)

De manera similar, dos proyectos presentados ante la Cámara de Diputados de la Nación proponían sancionar la creación y distribución de imágenes de contenido sexual explícito, específicamente mediante el uso de deepfakes. Estas tecnologías permiten manipular imágenes de personas menores de edad, utilizando sus rostros en cuerpos de otras personas o en representaciones completamente ficticias. Ambos proyectos también contemplaban sanciones para quienes comercialicen este tipo de contenido generado por IA.(27)

En el contexto internacional, en algunos estados de Estados Unidos, como Texas, Minnesota, Virginia, Nueva York, Hawái y Georgia, ya se han prohibido la creación y distribución de pornografía deepfake no consensuada. Sin embargo, se observó que esta legislación no ha logrado detener completamente el incremento de imágenes de MASI generado por IA, particularmente en entornos escolares. En California, se ha propuesto

 una serie de leyes que busca regular el uso de IA para combatir la creación de deepfakes de contenido sexual explícito, incluyendo sanciones penales y la posibilidad de que las víctimas demanden a quienes crean y distribuyen dicho material.(28,29)

 

Identificar los tipos de abusos sexuales relacionados con el material de abuso sexual infantil que son más comunes en el contexto del uso de la inteligencia artificial

Se identificaron varios tipos de abusos sexuales relacionados con el material de abuso sexual infantil en el contexto del uso de la inteligencia artificial. Entre las prácticas más comunes se destacó la generación de imágenes íntimas y pornográficas de personas menores de edad mediante tecnologías de IA, especialmente a través de aplicaciones de deepfake. Estas herramientas permiten a los usuarios manipular fotografías y crear representaciones visuales de personas menores de edad en situaciones sexualizadas, facilitando la creación y distribución de contenido ilegal.(30,31) Investigadores han señalado que el volumen de imágenes producidas por los creadores es significativo, con algunas afirmaciones de que su objetivo es producir como mínimo 1000 imágenes al mes.(1,30,31) Además, se observó que estas tecnologías son utilizadas por agresores sexuales para producir material que puede ser confundido con contenido legítimo, lo que complica su detección y eliminación en plataformas digitales.(1,30,32) Este tipo de abuso no solo se limita a la creación de imágenes, sino que también incluye la extorsión y manipulación de las víctimas, generando un ambiente de miedo y vulnerabilidad.(1,31,32)

Las imágenes de abuso son compartidas a través de un proceso de tres etapas: en primer lugar, los pedófilos generan las imágenes utilizando software de IA; en segundo lugar, promueven las fotos en plataformas como Pixiv, un sitio japonés de intercambio de imágenes; y, finalmente, estas cuentas incluyen vínculos que dirigen a los clientes a imágenes más explícitas en sitios como Patreon, donde pueden pagar para acceder a ese contenido. Aunque Pixiv es utilizado principalmente por artistas que comparten manga y anime, su contexto legal permite el intercambio de dibujos animados sexuales e ilustraciones de personas menores de edad, lo que complica la respuesta a este fenómeno. A pesar de los esfuerzos de Pixiv por abordar este tema y la prohibición de representaciones realistas de contenido sexual que involucren a personas menores de edad, se evidenció que algunos usuarios continúan promoviendo su trabajo en grupos y a través de etiquetas, facilitando la circulación de dicho material.(1,30,31)

 

Analizar los patrones y métodos comunes en el uso de la inteligencia artificial para facilitar material de abuso sexual infantil

El análisis de los patrones y métodos comunes en el uso de la inteligencia artificial para facilitar el acceso a material de abuso sexual infantil mostró diversas estrategias utilizadas por los delincuentes para evadir la detección. Se documentó que muchos de estos actores emplean redes sociales populares, como TikTok e Instagram, para difundir contenido generado por IA, lo que incrementa la exposición de los jóvenes a situaciones de riesgo. Asimismo, se identificó que la utilización de aplicaciones que generan imágenes realistas de personas, incluidas las imágenes de personas menores de edad, representa una herramienta clave en la difusión de material de abuso sexual.(1,30,31,32,33)

En este contexto, muchas cuentas en Pixiv incluyen vínculos en sus biografías que dirigen a los usuarios a sus “contenidos sin censura” en Patreon, donde ofrecen vender imágenes obscenas fotorrealistas de niños, niñas y adolescentes, con diferentes niveles de precio dependiendo del tipo de material solicitado. Por ejemplo, uno de los usuarios ofreció acceso a “arte exclusivo no censurado” por US$8,30 al mes, mientras que otro indicaba que “entrenaba a sus niñas en su PC” con contenido de “sumisión”. La plataforma Patreon ha afirmado tener una política de “tolerancia cero” hacia el contenido que involucra a menores, aunque se ha confirmado la existencia de cuentas que violan estas políticas al ofrecer material de explotación infantil.(1,31,32,33)

Los datos también revelaron que los delincuentes se ayudan de tecnologías automatizadas y bots para facilitar la distribución de este contenido, lo que complica aún más los esfuerzos de las autoridades y organizaciones de protección infantil para prevenir y responder a los abusos.(1,30,31) Este panorama sugiere la urgencia de desarrollar estrategias de prevención que aborden la relación entre la inteligencia artificial y el abuso sexual infantil, considerando los nuevos métodos y patrones que emergen en este contexto. Ian Critchley, director de protección infantil del consejo National Police Chiefs’ Council, destacó que la invasión de imágenes realistas de IA o “sintéticas” podría entorpecer el proceso de identificación de las víctimas reales de abuso, creando un requerimiento adicional para las autoridades encargadas del orden público.(1,30)

 

CONCLUSIONES

La investigación realizada permitió desarrollar uno de los aspectos más preocupantes de la inteligencia artificial (IA) aplicada en la criminalidad: la creación y difusión de Material de Abuso Sexual Infantil (MASI) a través de tecnologías avanzadas. Esta problemática, gracias a los avances de la IA, ha impulsado nuevas formas de delinquir que exigen con urgencia un análisis criminológico y una readaptación de las normativas. Entre los hallazgos realizados en el trabajo se destaca la creciente utilización de IA para la facilitación de este contenido online, por ende, hay una necesidad inminente de establecer estrategias de prevención y leyes actualizadas con énfasis en la protección de las víctimas más vulnerables: los niños, niñas y adolescentes.

El avance de la inteligencia artificial revolucionó la sociedad en todos los aspectos, desde cómo interactuamos con la tecnología hasta cómo los delincuentes utilizan estas herramientas para su beneficio. La IA permitió un claro acceso para los criminales posibilitando que este tipo de delitos se produzcan con más facilidad. El crecimiento de las tecnologías como el aprendizaje automático y los algoritmos de generación de imágenes han permitido que transgresores evadan medidas de seguridad. Según lo investigado, es evidente que estas tecnologías facilitan la creación de este tipo de contenido a un ritmo alarmante, permitiendo que la explotación infantil se simplifique, y los criminales no sean fácilmente detectados. El poco conocimiento sobre cómo estas tecnologías funcionan y sus usos delictivos, evidencian la necesidad de desarrollar marcos normativos y de prevención efectivos.(34,35,36)

Como se mencionó, la emergencia de regulaciones estrictas es uno de los principales factores de acción a tener en cuenta. Es fundamental que las empresas tecnológicas implementen estrategias robustas para proteger a los niños de estos delitos, aunque la falta de claridad sobre qué regulaciones son necesarias y cómo se deberían aplicar puede dificultar la implementación de las mismas. Cabe recalcar que cualquier marco normativo no solo tiene que ser estricto, sino que también adaptable a la rápida evolución que lleva la tecnología, y en consecuencia las tácticas delictivas vinculadas, garantizando que realmente sean medidas efectivas.(37,38,39)

Un obstáculo presente en la investigación fue la imposibilidad de encontrar normativas que regulen la inteligencia artificial, esto demuestra que la falta de ley o regulación sobre la misma en Argentina es una de las principales falencias, especialmente en este contexto donde no solo la tecnología avanza sino también la problemática. La presente situación no solo expone a cada vez más niños a ser posibles víctimas, sino que también deja un vacío para las autoridades, las cuales no cuentan con las herramientas necesarias para abordar el tema. Sin una legislación clara y específica, los delincuentes continúan en un entorno favorecedor, evidenciando así la necesidad de una acción inmediata.(40,41)

Aunque Estado Unidos tomó iniciativa en medidas que busquen prohibir la creación y distribución de pornografía deepfake, no lograron erradicar el problema, especialmente en entornos escolares.(28) Esto exhibe la insuficiencia de las pocas medidas actuales, que suelen no implementarse de manera efectiva o carece de recursos necesarios para alcanzar el objetivo. La falta de cumplimiento y lagunas legales actuales permiten que los delincuentes evadan la justicia, por esto se sugiere que la creación de nuevas medidas debe ir de la mano de estrategias para su aplicación y campañas de sensibilización en comunidades.

Entonces, la carencia de un marco legal y regulador en temática de inteligencia artificial y protección infantil constituye un desafío enorme en la lucha contra el MASI facilitado por inteligencia artificial. Además, la falta de cooperación entre jurisdicciones genera vacíos legales, permitiendo que los delincuentes encuentren vías de escape mediante plataformas donde la regulación es nula o poco estricta. Por ello son necesarias medidas y normativas tanto nacionales como internacionales, permitiendo unificar criterios y promoviendo la cooperación en materia de investigación y persecución de estos delitos. Sin colaboración internacional consolidada, los esfuerzos locales o nacionales serán insuficientes para esta compleja problemática que actúa en el ámbito digital superando fronteras.

 Asimismo, la falta de capacitación de las fuerzas de seguridad y el acceso a herramientas especializadas es otro obstáculo. La rápida evolución de la tecnología supera la capacidad de adaptación de los organismos encargados de seguridad, generando así una brecha entre las técnicas utilizadas para generar y distribuir MASI y la capacidad de respuesta de las autoridades. Esto subraya el impulso de equipar a organismos con recursos necesarios, en tecnología como en formación, para en consecuencia poder actuar antes estas nuevas modalidades delictivas y proteger a potenciales víctimas.

El caso de Pivix muestra las complicaciones respecto a la falta de restricción de contenido sexual en las plataformas. A pesar de implementar políticas para prohibir representaciones realistas de este contenido que involucren a personas menores de edad, se afirma que los usuarios encuentran la forma de esquivar estas normas mediante el uso de grupos privados y etiquetas específicas.(1) Esto revela que las medidas no son lo suficientemente sólidas, y la necesidad de que las plataformas establezcan reglas claras e inviertan en tecnologías para la detección de estos contenidos es fundamental. Sin la colaboración efectiva con las autoridades, estas plataformas son un acceso directo para la circulación de MASI.

Igualmente, se observó que estos delincuentes emplean redes sociales como Tiktok e Instagram para difundir el contenido generado por IA, lo que refleja una falta de medidas de protección para jóvenes.(30,33) Lo peligroso de estas plataformas es su viralidad que, en combinación con la falta de supervisión, crea un terreno propicio para la difusión de imágenes y vídeos de esta índole. La situación exige una revisión urgente de las políticas de contenido y una colaboración entre empresas tecnológicas y organismos de seguridad para desarrollar estrategias que disminuyan los riesgos a los que se enfrentan los jóvenes en el mundo digital.

 A pesar de la política de “tolerancia cero” hacia contenido que involucra personas menores de edad que afirma tener Patreon, se confirmó que las cuentas violan las medidas, lo que pone en discusión su efectividad.(1) Por ende, las plataformas deben asumir mayor responsabilidad en la regulación de contenido y prevención de abuso infantil. La falta de medidas rigurosas permite que los delincuentes operen a la sombra, exigiendo así mecanismos efectivos para detectar y eliminar el contenido. Para crear un entorno digital seguro se necesitan políticas claras, una aplicación efectiva y cultura de responsabilidad entre los proveedores de servicios de internet.

Debido a que estos delitos son de temática transnacional, es importante que los países colaboren en conjunto para abordar la problemática, ya que si hay grandes diferencias entre leyes y regulaciones se dificulta dar una respuesta efectiva y coordinada para la solución de este creciente problema. La creación de acuerdos internacionales que alineen las normas y faciliten intercambio de información mejorará la capacidad de combatir estos delitos. La cooperación entre estados, organizaciones y empresas es clave para la creación de un enfoque integral para la protección ante MASI facilitado por IA.

Desarrollar estrategias de prevención en la temática es una de las medidas necesarias, pero estas deben diseñarse de manera integral y efectiva, no solamente de forma reactiva. Para esto cabe destacar la necesidad de un análisis profundo en los métodos y patrones que emergen, garantizando respuestas eficientes y adaptativas. Esto implica una colaboración multidisciplinaria que incluya expertos en tecnología, psicología, criminología, y ciberseguridad, como también la participación de las comunidades.

Como mencionó Ian Critchley del NPCC la cantidad de imágenes realistas o sintéticas generadas por IA dificulta la identificación de las víctimas reales.(1) Esta afirmación destaca que las actuales estrategias de identificación y respuesta no son efectivas para este delito. Esta problemática crítica que se presenta, puede resultar en la complicación de rescatar y proteger a las víctimas, lo que exige una reevaluación de las metodologías de investigación y una integración de tecnologías y tácticas que permitan analizar y detectar estas falencias. Es imperativo que las autoridades se deben adaptar a esta realidad, y así, fortalecer sus capacidades para abordar este fenómeno con la rapidez necesaria.

De igual forma es trascendental abordar las consecuencias psicológicas que pueden sufrir las víctimas de explotación infantil gracias a estos delitos. La disponibilidad y distribución de MASI puede tener efectos negativos en las personas menores de edad, y reconocerlo es fundamental para desarrollar estrategias de intervención y prevención. Las víctimas requieren un apoyo completo, no únicamente desde el ámbito legal, sino también desde el acompañamiento psicológico y emocional.

Para estos delitos, la criminología desempeña un papel crucial para su análisis, brindando un marco teórico y práctico para comprender su dinámica. Mientras la tecnología evoluciona, los criminólogos deben adaptar sus enfoques para investigar las nuevas metodologías utilizadas y las implicaciones que tienen en la identificación y protección de víctimas. La vinculación de la inteligencia artificial y la criminología es fundamental para desarrollar estrategias de prevención y respuestas que aborden la explotación infantil. Así, no solo se identificarán patrones y tendencias delictivas, también se fomentará la creación de políticas públicas y regulaciones que protejan a las personas menores de edad y se promueva un entorno digital seguro.

Finalmente, cabe destacar que reconocer la lucha en contra de la creación y difusión de MASI generado por IA no es únicamente responsabilidad del estado o las plataformas. Toda la sociedad, incluyendo padres y educadores, debe estar comprometida con la prevención de este delito y la creación de un espacio digital protegido. Por ende, se requiere educación sobre los riesgos del uso de la tecnología y la promoción de una cultura de responsabilidad en el mundo virtual. La colaboración de todos los actores sociales es fundamental para construir un entorno confiable para los niños, niñas y adolescentes, y donde la inteligencia artificial pueda ser utilizada como una herramienta de beneficios y evolución, y no como un riesgo.

Esta investigación aporta al campo de la ciberseguridad y criminología en Argentina, abordando una problemática que aún no es regulada de manera efectiva en ninguna parte del mundo, y tampoco en el contexto local. Nos encontramos en un contexto en el que el mundo cibernético avanza a pasos agigantados y las regulaciones y agentes no se han adaptado a esto. Lo estudiado resalta la urgencia de marcos normativos que regulen, restrinjan y prevengan la generación y difusión de contenido de abuso sexual infantil facilitado por IA. Al fortalecer el entendimiento de la dinámica de estos delitos, se proporciona una base para futuros estudios y normativas en criminología y ciberseguridad. Se añade valor al explorar implicaciones éticas, tecnológicas y criminales de la inteligencia artificial en la facilitación de material de abuso sexual infantil. Ofreciendo así, un recurso académico para responsables de políticas públicas, fuerzas de seguridad y profesionales en criminología que buscan comprender y enfrentar los riesgos emergentes de esta problemática.

A partir de las conclusiones de este estudio, se sugiere profundizar en el estudio de los impactos psicológicos y emocionales en las víctimas de MASI facilitado por IA. Además, investigar la efectividad de herramientas para detectar y bloquear contenido ilícito en tiempo real en plataformas digitales porque puede ofrecer soluciones proactivas para atenuar este problema. Paralelamente, es crucial establecer estrategias de prevención de manera rápida para reducir este problema de forma más eficaz.

 

REFERENCIAS BIBLIOGRÁFICAS

1. BBC Mundo. Deepfake porn: el peligro de las imágenes sintéticas. 2023. Available from: https://www.bbc.com/mundo/articles/c1vzyevl0nro

 

2. Biblioteca del Congreso de la Nación. Dossier Legislativo Nacional: Inteligencia Artificial. Buenos Aires: Biblioteca del Congreso de la Nación; 2024. Available from: https://bcn.gob.ar/uploads/adjuntos/Dossier-279-legis-nacional-inteligencia-artificial-feb-2024.pdf

 

3. Consejo de Europa. Convenio sobre la ciberdelincuencia. 2001. Art. 9. Available from: https://www.oas.org/juridico/english/cyb_pry_convenio.pdf

 

4. Ministerio de Justicia de la Nación. Ley simple: Delitos contra la integridad sexual. s.f. Available from: https://www.argentina.gob.ar/justicia/derechofacil/leysimple/delitos-contra-la-integridad-sexual#titulo-7

 

5. Ministerio Público Tutelar de la Provincia de Buenos Aires. “Pornografía infantil”, no: se llama “abuso sexual contra niñas y niños y adolescentes”. 2021. Available from: https://mptutelar.gob.ar/pornograf-infantil-no-se-llama-abuso-sexual-contra-ni-y-ni-os-y-adolescentes

 

6. Naciones Unidas. Protocolo Facultativo de la Convención sobre los Derechos del Niño. 2002. Available from: https://www.ohchr.org/es/instruments-mechanisms/instruments/optional-protocol-convention-rights-child-sale-children-child

 

7. Inhope Organization. What is CSAM?. 2021. Available from: https://www.inhope.org/EN/articles/child-sexual-abuse-material

 

8. National Center for Missing & Exploited Children. Child Sexual Abuse Material (CSAM). s.f. Available from: https://missingkids.org

 

9. Real Academia Española. Diccionario de la lengua española. s.f. Available from: https://dle.rae.es/inteligencia#2DxmhCT

 

10. Boden M. Inteligencia artificial. Madrid: Turner Publicaciones S.L.; 2016. p. 3.

 

11. Comisión Europea. AI Watch: Defining Artificial Intelligence. 2020. p. 12.

 

12. UNESCO. Recomendación sobre la ética de la inteligencia artificial. 2021. Available from: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

 

13. Infobae. Detuvieron a un hombre del estado de Florida por usar inteligencia artificial para crear pornografía infantil. 2024. Available from: https://www.infobae.com/estados-unidos/2024/04/05/detuvieron-a-un-hombre-del-estado-de-florida-por-usar-inteligencia-artificial-para-crear-pornografia-infantil/

 

14. Infobae. Escándalo en una escuela de Córdoba: un alumno utilizó IA para crear imágenes pornográficas de sus compañeras. 2024. Available from: https://www.infobae.com/sociedad/2024/07/03/escandalo-en-una-escuela-de-cordoba-un-alumno-utilizo-ia-para-crear-imagenes-pornograficas-de-sus-companeras/

 

15. La Voz. Generó imágenes pornográficas de sus compañeras con IA: ¿Qué hizo la escuela?. 2024. Available from: https://www.lavoz.com.ar/ciudadanos/genero-imagenes-pornograficas-de-sus-companeras-con-ia-que-hizo-la-escuela/

 

16. Forbes. Pedófilo grabó a niños en Disney World para crear imágenes de abuso con IA. 2024. Available from: https://www.forbes.com.mx/pedofilo-grabo-a-ninos-en-disney-world-para-crear-imagenes-de-abuso-con-ia/

 

17. UNESCO. Ética de la inteligencia artificial. s.f. Available from: https://www.unesco.org/es/artificial-intelligence/recommendation-ethics?hub=32618

 

18. CBS News. Florida man accused of using AI to create child porn. 2024. Available from: https://www.cbsnews.com/miami/news/florida-man-accused-of-using-ai-to-create-child-porn/?intcid=CNM-00-10abd1h

 

19. WFLA News Channel. Pasco teacher arrested: Is AI-generated child porn illegal?. 2024. Available from: https://www.wfla.com/news/pasco-county/pasco-teacher-arrested-is-ai-generated-child-porn-illegal/

 

20. Cordeiro VC. Abuso infantil. Humanium; 2021. Available from: https://www.humanium.org/es/enfoques-tematicos/violencia/abuso-infantil/

 

21. RAINN. Abuso sexual infantil. s.f. Available from: https://rainn.org/articles/abuso-sexual-infantil

 

22. UNICEF. El abuso sexual infantil en Argentina. 2017. Available from: https://www.unicef.org/argentina/sites/unicef.org.argentina/files/2018-04/proteccion-AbusoSexual_contra_NNyA-2016.pdf

 

23. Sullivan E. El auge del material de abuso sexual infantil generado por inteligencia artificial. The New York Times; 2024. Available from: https://www.nytimes.com/es/2024/02/01/espanol/inteligencia-artificial-abuso-infantil.html

 

24. Moyano L. El uso de la IA para la creación de material de abuso sexual infantil. Ciberseguridad Latam; 2024. Available from: https://www.ciberseguridadlatam.com/2024/08/28/el-uso-de-de-la-ia-para-la-creacion-de-material-de-abuso-sexual-infantil/

 

25. Internet Watch Foundation. How AI is being abused to create child sexual abuse material (CSAM) online. s.f. Available from: https://www.iwf.org.uk/about-us/why-we-exist/our-research/how-ai-is-being-abused-to-create-child-sexual-abuse-imagery/

 

26. Romero A. Proyecto de Ley sobre el uso de IA en delitos sexuales infantiles. 2023. Available from: file:///C:/Users/pasca/Downloads/S2469_23PL%20(1).pdf

 

27. Milman G. Proyecto de Ley Modificación del Artículo 128 del Código Penal Argentino. HCDN; 2023. Available from: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4411-D-2023.pdf

 

28. Le Masurier J. Adolescentes en Estados Unidos afectadas por los ‘deepfakes’ pornográficos - En Foco. France 24; 2024. Available from: https://www.france24.com/es/programas/en-foco/20240509-adolescentes-en-estados-unidos-afectadas-por-los-deepfakes-pornográficos

 

29. Clarín. En EE.UU. piden más protección para adolescentes víctimas de deepfakes con desnudos. 2024. Available from: https://www.clarin.com/tecnologia/eeuu-piden-proteccion-adolescentes-victimas-deepfakes-desnudos_0_UmN2bNxU8r.html

 

30. The White Hatter. Alert for parents, caregivers, educators, and law enforcement concerning apps utilizing AI pose risks to youth and adults. 2023. Available from: https://thewhitehatter.ca/blog/alert-for-parents-caregivers-educators-and-law-enforcement-concerning-apps-utilizando-ai-pose-risks-to-youth-and-adults/

 

31. Levine AS. Fotos de niños generados por IA revelan depredadores en TikTok e Instagram. Forbes; 2023. Available from: https://www.forbes.com.mx/fotos-de-ninos-generados-por-ia-revelan-depredadores-en-tiktok-e-instagram/

 

32. Cloud Booklet. Imágenes realistas falsas: el generador de imágenes de IA. 2023. Available from: https://www.cloudbooklet.com/lifestyle/realistic-fake-nudes-with-ai-nude-generator

 

33. Tenbarge K. Deepfake porn and the Mr. Deep Fake economy. NBC News; 2023. Available from: https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake economy-google-visa-mastercard-download-rcna75071

 

34. Centro de Ciberseguridad de Buenos Aires. El lado oscuro de la IA (parte II). 2024. Available from: https://buenosaires.gob.ar/noticias/el-lado-oscuro-de-la-ia-parte-ii

 

35. Cordeiro VC. Combatir el aumento de material de abuso sexual infantil generado por la IA. Humanium; 2024. Available from: https://www.humanium.org/es/combatir-el-aumento-de-material-de-abuso-sexual-infantil-generado-por-la-ia/

 

36. Gaimari G. Inteligencia Artificial e Impacto en el cibercrimen. 2021. p. 39.

37. Lospennato S. Proyecto de Ley Modifica art. 128 CPN. HCDN; 2023. Available from: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4436-D-2023.pdf

 

38. Marín R. California está impulsando un paquete de leyes para regular la inteligencia artificial y combatir los deepfakes. Infobae; 2024. Available from: https://www.infobae.com/estados-unidos/2024/09/04/california-esta-impulsando-un-paquete-de-leyes-para-regular-la-inteligencia-artificial-y-combatir-los-deepfakes/

 

39. Serrahima de Bedoya A. Avances y desafíos de la inteligencia artificial. Madrid: Universidad Pontificia Comillas; 2022. Available from: https://repositorio.comillas.edu/xmlui/bitstream/handle/11531/57178/Avances%20y%20desafios%20de%20la%20inteligencia%20artificial%20-%20Serrahima%20de%20Bedoya%2c%20Alvaro.pdf?sequence=2&isAllowed=y

 

40. The White Hatter. Deepnudes: undressing AI-generated intimate image abuse material. 2023. Available from: https://thewhitehatter.ca/deepnudes-undressing-ai-generated-intimate-image-abuse-material/

 

41. Vozmediano SL, San Juan Guillén C. Criminología ambiental, Ecología del delito y de la Seguridad. España: UOC; 2010.

 

FINANCIACIÓN

Los autores no recibieron financiación para el desarrollo de la presente investigación.

 

CONFLICTO DE INTERESES

Los autores declaran que no existe conflicto de intereses.

 

CONTRIBUCIÓN DE AUTORÍA

Conceptualización: Antonella Petrini, María Belén Gauna.

Investigación: Antonella Petrini, María Belén Gauna.

Redacción – borrador original: Antonella Petrini, María Belén Gauna.

Redacción – revisión y edición: Antonella Petrini, María Belén Gauna.