doi: 10.56294/ai2024111

 

REVISIÓN

 

Artificial intelligence and digital sex crimes: an emerging threat to children

 

Inteligencia artificial y delitos sexuales digitales: una amenaza emergente para la infancia

 

Antonella Petrini1, María Belén Gauna1

 

1Universidad siglo 21. Córdoba, Argentina.

 

Citar como: Petrini A, Gauna MB. Artificial intelligence and digital sex crimes: an emerging threat to children. EthAIca. 2024; 3:111. https://doi.org/10.56294/ai2024111

 

Enviado: 30-06-2023          Revisado: 19-11-2023          Aceptado: 14-04-2024          Publicado: 15-04-2024

 

Editor: PhD. Rubén González Vallejo

 

ABSTRACT

 

The article analysed the impact of artificial intelligence (AI) on the creation of child sexual abuse content, an emerging problem within cybercrime. In the introduction, AI was presented as a technology capable of imitating human cognitive functions, highlighting its potential for both progress and illicit uses, especially in digital environments. During the development, it explained how generative AI was used by criminals to produce CSM (Child Sexual Abuse Material) without the need for physical contact with real victims. It showed how this technology made it possible to create hyper-realistic images and fake sexual videos of minors, generating a new form of victimisation. Various international reports, such as those by the Internet Watch Foundation and the National Centre for Missing and Exploited Children, revealed an alarming increase in this content on the web, as well as the difficulty in distinguishing it from real material. In addition, legal weaknesses in countries such as Argentina, where specific regulations to punish these technological crimes had not yet been established, were addressed. In conclusion, the need for an interdisciplinary response combining legislation, education, technology and social awareness was raised. It was argued that without adequate regulatory frameworks and preventive strategies, AI could become a dangerous tool for facilitating crime. Finally, it was emphasised that protecting children and adolescents from these new digital threats should be an urgent priority on the public agenda.

 

Keywords: Artificial Intelligence; Child Sexual Abuse; Digital Criminology; Deepfake; Legislation.

 

RESUMEN

 

El artículo analizó el impacto de la inteligencia artificial (IA) en la creación de contenido de abuso sexual infantil, una problemática emergente dentro de la cibercriminalidad. En la introducción, se presentó a la IA como una tecnología capaz de imitar funciones cognitivas humanas, destacando su potencial tanto para el progreso como para usos ilícitos, especialmente en entornos digitales. Durante el desarrollo, se explicó cómo la IA generativa fue utilizada por delincuentes para producir MASI (Material de Abuso Sexual Infantil) sin necesidad de contacto físico con víctimas reales. Se expuso cómo esta tecnología permitió crear imágenes hiperrealistas y videos sexuales falsos de menores, generando una nueva forma de victimización. Diversos informes internacionales, como los de la Internet Watch Foundation y el National Center for Missing and Exploited Children, revelaron un alarmante incremento de estos contenidos en la web, así como la dificultad para diferenciarlos de materiales reales. Además, se abordaron las debilidades legales en países como Argentina, donde aún no se habían establecido normativas específicas para sancionar estos delitos tecnológicos. En la conclusión, se planteó la necesidad de una respuesta interdisciplinaria que combinara legislación, educación, tecnología y concientización social. Se argumentó que, sin marcos normativos adecuados ni estrategias preventivas, la IA podría convertirse en una herramienta peligrosa para facilitar delitos. Finalmente, se enfatizó que proteger a niños y adolescentes frente a estas nuevas amenazas digitales debía ser una prioridad urgente en la agenda pública.

 

Palabras clave: Inteligencia Artificial; Abuso Sexual Infantil; Criminología Digital; Deepfake; Legislación.

 

 

 

INTRODUCCIÓN

La inteligencia artificial ha transformado desde la automatización industrial hasta la personalización de contenidos digitales. Para comenzar, la IA puede ser definida como: “La IA consiste en el diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento. Estos procesos se basan en secuencias de entradas que son percibidas y almacenadas por la mencionada arquitectura (en manos de un ALGORITMO)”.(1)

“Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones cognitivas que los humanos asocian con otras mentes humanas, como, por ejemplo: percibir; razonar; aprender y resolver problemas.” Esta capacidad de imitar procesos cognitivos y automatizar tareas complejas no solo ha revolucionado sectores como la industria y la comunicación, sino que también ha abierto nuevas oportunidades para el uso indebido de la tecnología en actividades delictivas, especialmente en el ámbito digital. A base de esto, estos avances en la IA plantean problemas éticos, como señala Gabriela Ramos, subdirectora de Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, “estos rápidos cambios también plantean profundos dilemas éticos, que surgen del potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima y amenazar los derechos humanos, entre otros”.(2)

Además, la inteligencia artificial ha creado una oportunidad única para que los delincuentes produzcan una cantidad infinita de contenido de abuso sexual infantil. Todas las variantes de este tipo de contenido creadas mediante IA son ilegales, representen o no un niño real.(3)

Como menciona la Internet Watch Foundation “la mayoría de las imágenes de abuso sexual infantil realizadas mediante IA identificadas por los analistas de la IWF son ahora lo suficientemente realistas como para ser tratadas como imágenes reales según la legislación del Reino Unido”. Esta organización indica que, incluso para analistas especializados y con experiencia, resulta extremadamente complicado diferenciar el MASI generado por IA ya que parecen demasiado realistas.(4) Por esto la importancia de analizar esta problemática, muy novedosa y difícil de detectar, por lo que se necesitará tanto como de la prevención y legislación de parte de los gobiernos, y la concientización de los ciudadanos.

Este fenómeno ha demostrado un crecimiento alarmante, lo que ha llevado a diversas organizaciones a elaborar informes detallados. Se ha identificado una creciente tendencia en la que se está explotando la inteligencia artificial para producir material de abuso sexual infantil. El informe inicial de octubre 2023 reveló la presencia de más de 20000 imágenes generadas por inteligencia artificial en el foro de la dark web en un mes, donde más de 3000 mostraban actividades delictivas de abuso sexual infantil.(4)

Desde entonces, el problema se ha intensificado con gravedad. Según el informe actualizado de julio 2024, no solo hubo un aumento en la cantidad de imágenes generadas, incluidas imágenes más graves, sino que también se ha registrado la generación de videos. Además, estos ya no solo se publican en la dark web sino también en la web superficial.(4)

En 2023, la línea CyberTipline del National center for Missing and Exploited Children recibió 4700 denuncias vinculados a material de abuso sexual infantil o contenido de explotación sexual que utilizaba tecnología de Inteligencia Artificial Generativa (GAI). Este tipo de material, conocido como GAI MASI, muestra imágenes de niños creados digitalmente en situaciones sexuales explícitas y puede ser producido bajo demanda por usuarios de ciertas plataformas de IA generativa. Además, esta tecnología permite crear imágenes y videos sexualmente explícitos estilo deepfake, partiendo de una foto inocente de un niño real para generar una versión computarizada con contenido sexual.(5) Este grave aumento en las denuncias y la evolución de las técnicas utilizadas para crear MASI resaltan la urgencia de abordar el problema de manera integral.

En el contexto local, cada vez hay más denuncias y visibilización sobre estas acciones ilegales. El Centro de Ciberseguridad de la Provincia de Buenos Aires, publicó en una nota en su sitio alertando que imágenes reales pueden ser modificadas creando pornografía, llamadas “deepnudes”, constituyendo una forma grave de ciberacoso y violación a la integridad sexual de las personas. La inteligencia artificial puede transformar nuestras vidas, pero también presenta desafíos que se deben abordar de manera proactiva. Contar con medidas y herramientas preventivas que disminuyan los riesgos es fundamental, garantizando el uso responsable de estas tecnologías.(6)

El CSAM (contenido de abuso sexual infantil) generado por IA puede ser tanto sintético como de la vida real.(7). Este contenido plantea una doble amenaza: por sí mismo permite la generación de CSAM nuevo y perjudicial y, simultáneamente, las herramientas de IA permiten a los delincuentes acceder a otros CSAM y difundirlos a un ritmo más rápido que nunca”. Los contenidos ilícitos pueden incluir imágenes manipuladas de personas menores de edad reales o creaciones artificiales. La habilidad de la IA de generar contenido que previamente no existía se conoce como capacidad “generativa” y aumenta el riesgo para posibles víctimas de MASI de permitir la creación de estas imágenes.

Proteger a los niños, niñas y adolescentes del impacto del material de abuso sexual infantil producido con inteligencia artificial generativa implica brindar educación y apoyo  por parte de los adultos. La oportunidad de guiar a los jóvenes para usar esta herramienta de manera segura y comprendan los riesgos de utilizarla indebidamente para crear este tipo de contenido.(5) Este enfoque educativo resalta la necesidad de estrategias de prevención para el uso responsable de la Inteligencia Artificial Generativa (GAI) y promover de manera clara los riesgos y consecuencias asociadas a la creación de Material de Abuso Sexual Infantil para prevenirlo y proteger a las personas menores de edad.

Estas actividades ilícitas pueden relacionarse directamente con la criminología, especialmente a través de la teoría de las actividades delictivas. Su planteamiento ofrece explicaciones a nivel macro y micro sobre la configuración de las tasas del delito. A nivel micro, se plantea que, habitualmente, el delito ocurre cuando un potencial infractor coincide en el mismo lugar con un objetivo adecuado, en ausencia de un guardián capaz que evite el delito.(8)

De modo complementario, a nivel macro, la organización social y las rutinas de la vida diaria harán que la convergencia entre infractores y objetivos sea mucho más probable en lugares y momentos concretos.(8) En este contexto, se pudo considerar que los infractores encuentran en la inteligencia artificial una herramienta que facilita oportunidades delictivas. El rápido acceso a la información y la falta de necesidad de contacto directo con las víctimas simplifican la comisión de estos delitos. Finalmente, la ausencia de un “guardián capaz” se manifiesta en la falta de regulaciones, implementación y conocimiento necesarios para prevenir eficazmente estos actos.

 La tecnología ha avanzado de manera exponencial, y la inteligencia artificial se ha integrado en muchos aspectos de nuestras vidas diarias, transformando y automatizando tareas de formas que antes parecían imposibles. Sin embargo, ¿qué sucede cuando esta poderosa herramienta es utilizada con fines delictivos y sin una supervisión adecuada? La cotidianeidad de la IA en la sociedad no ha sido plenamente analizada en términos de sus posibles riesgos, especialmente en contextos sensibles como la facilitación de delitos. La tecnología que impulsa el progreso también puede convertirse en un arma peligrosa si no se evalúan y gestionan sus implicancias éticas y criminales.

 

DESARROLLO

La producción y distribución de Material de Abuso Sexual Infantil (MASI) mediante herramientas de Inteligencia Artificial (IA) plantea un nuevo paradigma en la criminología digital. Esta problemática debe comprenderse desde una perspectiva multidisciplinaria que incluya el análisis legal, social, tecnológico y criminológico. El marco teórico que sustenta esta investigación está estructurado en torno a cuatro pilares fundamentales: la definición y aplicación de la IA, la conceptualización del MASI, el vacío legal en su regulación, y la teoría criminológica de las actividades rutinarias.

 

Inteligencia Artificial (IA)

La IA se define como el conjunto de sistemas o máquinas que imitan la inteligencia humana para realizar tareas y que pueden mejorar iterativamente a partir de la información que recopilan. Según Boden,(9) su objetivo es simular funciones cognitivas humanas como el razonamiento, el aprendizaje y la resolución de problemas. Estos sistemas se basan en entradas percibidas y almacenadas que permiten generar respuestas y acciones inteligentes. La IA se ha convertido en una herramienta fundamental en diversos campos, pero su aplicación indebida plantea riesgos éticos y criminales graves.(10)

 

Material de Abuso Sexual Infantil (MASI)

El MASI comprende toda representación visual de menores de edad participando en actividades sexuales o con fines sexuales. De acuerdo con la Convención sobre la Ciberdelincuencia,(11) esto incluye también las representaciones hiperrealistas generadas artificialmente. Diversas organizaciones, como el Ministerio Público Tutelar de Buenos Aires(12) y Humanium,(7) coinciden en que el término “pornografía infantil” resulta inadecuado por trivializar la naturaleza violenta del delito. El concepto de MASI subraya que estos materiales son evidencia de abuso y no contenido sexual voluntario.

 

Vacío Legal y Proyectos Legislativos

El marco normativo actual resulta insuficiente para abordar la creación de MASI mediante IA. En Argentina, no existe aún una ley específica que regule el uso de IA en contextos delictivos, aunque existen proyectos de reforma del artículo 128 del Código Penal.(13,14,15) Estos proyectos buscan sancionar la generación y distribución de contenido sexual infantil mediante deepfakes y otras tecnologías de IA. A nivel internacional, algunos estados de EE.UU. han legislado sobre la pornografía deepfake no consensuada, pero los resultados aún son limitados.(16)

Desde la criminología ambiental, la teoría de las actividades rutinarias(8) plantea que el delito ocurre cuando confluyen un infractor motivado, un objetivo adecuado y la ausencia de un guardián capaz.(17,18,19,20) En el contexto digital, la IA ha multiplicado los objetivos disponibles (niños representados digitalmente), ha reducido la necesidad de contacto físico con la víctima, y ha debilitado el papel del guardián debido a la falta de legislación y control en plataformas virtuales. Así, la IA funciona como un catalizador que facilita el delito y complica su detección.(21,22,23,24)

El MASI facilitado por IA representa un fenómeno emergente en la cibercriminalidad que desafía las categorías tradicionales del derecho penal y de la teoría criminológica.(25,26,27,28) Este marco teórico permite comprender cómo la tecnología, en ausencia de regulación y vigilancia, puede ser instrumentalizada para la comisión de delitos altamente perjudiciales y de difícil detección.(29,30,31,32,33) Así, se hace imprescindible abordar esta problemática desde un enfoque interdisciplinario que combine tecnología, derecho, criminología y educación.

 

CONCLUSIONES

La inteligencia artificial ha redefinido las capacidades humanas en numerosos ámbitos, desde la automatización de procesos hasta la generación de contenidos digitales. No obstante, su aplicación en contextos delictivos plantea desafíos inéditos y urgentes. En particular, la generación de Material de Abuso Sexual Infantil (MASI) mediante herramientas de IA representa una amenaza tangible para la integridad de niños, niñas y adolescentes, al tiempo que evidencia las limitaciones normativas, éticas y tecnológicas de nuestras sociedades.

A través del análisis desarrollado, se constata que el MASI generado por IA no solo reproduce los daños de las representaciones tradicionales de abuso sexual infantil, sino que amplifica su alcance y complejidad. Este contenido puede ser producido sin contacto físico con una víctima, lo que diluye el riesgo percibido por parte del agresor, pero no disminuye el daño social ni la necesidad de protección. De hecho, la capacidad “generativa” de la IA —es decir, su facultad de crear imágenes inéditas a partir de datos existentes— permite la creación masiva de contenido ilícito, incluso utilizando imágenes reales manipuladas de menores. Esto introduce un nuevo nivel de victimización, donde la imagen puede ser explotada sin que la víctima tenga conocimiento alguno.

La situación se ve agravada por un marco legal insuficiente. Tal como se expuso, la legislación argentina aún no contempla de forma específica la generación de MASI mediante IA. Si bien existen propuestas parlamentarias que buscan reformar el artículo 128 del Código Penal, su implementación es todavía incipiente. A nivel internacional, algunas iniciativas legislativas han comenzado a considerar estas problemáticas, pero no existe un consenso global ni un protocolo uniforme que garantice respuestas eficaces. Esta carencia convierte a la ausencia de un “guardián capaz”, concepto central en la teoría de las actividades rutinarias, en uno de los principales factores de riesgo para la proliferación de estos delitos.

Desde la perspectiva criminológica, el uso de IA como herramienta delictiva responde a la convergencia de factores propicios: facilidad tecnológica, anonimato, impunidad percibida y una oferta creciente de plataformas con funcionalidades cada vez más potentes. La teoría de las actividades rutinarias permite explicar cómo la disponibilidad de objetivos (menores representados digitalmente), la motivación del infractor y la debilidad de los mecanismos de control se articulan para facilitar la comisión del delito. Así, la IA no solo se presenta como un instrumento técnico, sino como un facilitador criminológico.

En este escenario, se hace indispensable una respuesta interdisciplinaria. El diseño de políticas públicas debe integrar la dimensión jurídica, con la promulgación de leyes actualizadas; la dimensión tecnológica, con el desarrollo de algoritmos capaces de detectar y bloquear contenido MASI; la dimensión educativa, con programas de concientización orientados a la ciudadanía y al uso responsable de la IA; y la dimensión social, con estrategias de acompañamiento a las víctimas y sus entornos. La protección de los derechos de los niños y adolescentes debe convertirse en un eje prioritario en la regulación del entorno digital.

En definitiva, el avance de la inteligencia artificial exige una ética de la responsabilidad compartida. Solo mediante la articulación entre Estado, sociedad civil, academia y sector privado será posible mitigar los efectos negativos de esta tecnología y promover su uso con fines beneficiosos, garantizando la dignidad, integridad y seguridad de los sectores más vulnerables.

 

REFERENCIAS BIBLIOGRÁFICAS

1. Real Academia Española. Diccionario de la lengua española. s.f. Available from: https://dle.rae.es/inteligencia#2DxmhCT

 

2. Ministerio de Justicia de la Nación. Ley simple: Delitos contra la integridad sexual. s.f. Available from: https://www.argentina.gob.ar/justicia/derechofacil/leysimple/delitos-contra-la-integridad-sexual#titulo-7

 

3. Cordeiro VC. Combatir el aumento de material de abuso sexual infantil generado por la IA. Humanium; 2024. Available from: https://www.humanium.org/es/combatir-el-aumento-de-material-de-abuso-sexual-infantil-generado-por-la-ia/

 

4. Comisión Europea. AI Watch: Defining Artificial Intelligence. 2020. p. 12.

 

5. National Center for Missing & Exploited Children. Child Sexual Abuse Material (CSAM). s.f. Available from: https://missingkids.org

 

6. Biblioteca del Congreso de la Nación. Dossier Legislativo Nacional: Inteligencia Artificial. Buenos Aires: Biblioteca del Congreso de la Nación; 2024. Available from: https://bcn.gob.ar/uploads/adjuntos/Dossier-279-legis-nacional-inteligencia-artificial-feb-2024.pdf

 

7. Cordeiro VC. Abuso infantil. Humanium; 2021. Available from: https://www.humanium.org/es/enfoques-tematicos/violencia/abuso-infantil/

 

8. Vozmediano SL, San Juan Guillén C. Criminología ambiental, Ecología del delito y de la Seguridad. España: UOC; 2010.

 

9. Boden M. Inteligencia artificial. Madrid: Turner Publicaciones S.L.; 2016. p. 3.

 

10. UNESCO. Recomendación sobre la ética de la inteligencia artificial. 2021. Available from: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

 

11. Consejo de Europa. Convenio sobre la ciberdelincuencia. 2001. Available from: https://www.oas.org/juridico/english/cyb_pry_convenio.pdf

 

12. Ministerio Público Tutelar de la Provincia de Buenos Aires. “Pornografía infantil”, no: se llama “abuso sexual contra niñas y niños y adolescentes”. 2021. Available from: https://mptutelar.gob.ar/pornograf-infantil-no-se-llama-abuso-sexual-contra-ni-y-ni-os-y-adolescentes

 

13. Romero A. Proyecto de Ley sobre el uso de IA en delitos sexuales infantiles. 2023. Available from: file:///C:/Users/pasca/Downloads/S2469_23PL%20(1).pdf

 

14. Lospennato S. Proyecto de Ley Modifica art. 128 CPN. HCDN; 2023. Available from: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4436-D-2023.pdf

 

15. Milman G. Proyecto de Ley Modificación del Artículo 128 del Código Penal Argentino. HCDN; 2023. Available from: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4411-D-2023.pdf

 

16. Le Masurier J. Adolescentes en Estados Unidos afectadas por los ‘deepfakes’ pornográficos - En Foco. France 24; 2024. Available from: https://www.france24.com/es/programas/en-foco/20240509-adolescentes-en-estados-unidos-afectadas-por-los-deepfakes-pornográficos

 

17. Levine AS. Fotos de niños generados por IA revelan depredadores en TikTok e Instagram. Forbes; 2023. Available from: https://www.forbes.com.mx/fotos-de-ninos-generados-por-ia-revelan-depredadores-en-tiktok-e-instagram/

 

18. Marín R. California está impulsando un paquete de leyes para regular la inteligencia artificial y combatir los deepfakes. Infobae; 2024. Available from: https://www.infobae.com/estados-unidos/2024/09/04/california-esta-impulsando-un-paquete-de-leyes-para-regular-la-inteligencia-artificial-y-combatir-los-deepfakes/

 

19. CBS News. Florida man accused of using AI to create child porn. 2024. Available from: https://www.cbsnews.com/miami/news/florida-man-accused-of-using-ai-to-create-child-porn/?intcid=CNM-00-10abd1h

 

20. Clarín. En EE.UU. piden más protección para adolescentes víctimas de deepfakes con desnudos. 2024. Available from: https://www.clarin.com/tecnologia/eeuu-piden-proteccion-adolescentes-victimas-deepfakes-desnudos_0_UmN2bNxU8r.html

 

21. Cloud Booklet. Imágenes realistas falsas: el generador de imágenes de IA. 2023. Available from: https://www.cloudbooklet.com/lifestyle/realistic-fake-nudes-with-ai-nude-generator

 

22. Moyano L. El uso de la IA para la creación de material de abuso sexual infantil. Ciberseguridad Latam; 2024. Available from: https://www.ciberseguridadlatam.com/2024/08/28/el-uso-de-de-la-ia-para-la-creacion-de-material-de-abuso-sexual-infantil/

 

23. Naciones Unidas. Protocolo Facultativo de la Convención sobre los Derechos del Niño, relativo a la venta de niños, la prostitución infantil y la utilización de niños en la pornografía (CRC-OPSC). 2002. Available from: https://www.ohchr.org/es/instruments-mechanisms/instruments/optional-protocol-convention-rights-child-sale-children-child

 

24. Forbes. Pedófilo grabó a niños en Disney World para crear imágenes de abuso con IA. 2024. Available from: https://www.forbes.com.mx/pedofilo-grabo-a-ninos-en-disney-world-para-crear-imagenes-de-abuso-con-ia/

 

25. Infobae. Escándalo en una escuela de Córdoba: un alumno utilizó IA para crear imágenes pornográficas de sus compañeras. 2024. Available from: https://www.infobae.com/sociedad/2024/07/03/escandalo-en-una-escuela-de-cordoba-un-alumno-utilizo-ia-para-crear-imagenes-pornograficas-de-sus-companeras/

 

26. Inhope Organization. What is CSAM? 2021. Available from: https://www.inhope.org/EN/articles/child-sexual-abuse-material

 

27. Sullivan E. El auge del material de abuso sexual infantil generado por inteligencia artificial. The New York Times; 2024. Available from: https://www.nytimes.com/es/2024/02/01/espanol/inteligencia-artificial-abuso-infantil.html

 

28. Tenbarge K. Deepfake porn and the Mr. Deep Fake economy. NBC News; 2023. Available from: https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake economy-google-visa-mastercard-download-rcna75071

 

29. The White Hatter. Alert for parents, caregivers, educators, and law enforcement concerning apps utilizing AI pose risks to youth and adults. 2023. Available from: https://thewhitehatter.ca/blog/alert-for-parents-caregivers-educators-and-law-enforcement-concerning-apps-utilizando-ai-pose-risks-to-youth-and-adults/

 

30. The White Hatter. Deepnudes: undressing AI-generated intimate image abuse material. 2023. Available from: https://thewhitehatter.ca/deepnudes-undressing-ai-generated-intimate-image-abuse-material/

 

31. La Voz. Generó imágenes pornográficas de sus compañeras con IA: ¿Qué hizo la escuela? 2024. Available from: https://www.lavoz.com.ar/ciudadanos/genero-imagenes-pornograficas-de-sus-companeras-con-ia-que-hizo-la-escuela/

 

32. Serrahima de Bedoya A. Avances y desafíos de la inteligencia artificial. Madrid: Universidad Pontificia Comillas; 2022. Available from: https://repositorio.comillas.edu/xmlui/bitstream/handle/11531/57178/Avances%20y%20desafios%20de%20la%20inteligencia%20artificial%20-%20Serrahima%20de%20Bedoya%2c%20Alvaro.pdf?sequence=2&isAllowed=y

 

33. UNICEF. El abuso sexual infantil en Argentina. 2017. Available from: https://www.unicef.org/argentina/sites/unicef.org.argentina/files/2018-04/proteccion-AbusoSexual_contra_NNyA-2016.pdf

 

FINANCIACIÓN

Los autores no recibieron financiación para el desarrollo de la presente investigación.

 

CONFLICTO DE INTERESES

Los autores declaran que no existe conflicto de intereses.

 

CONTRIBUCIÓN DE AUTORÍA

Conceptualización: Antonella Petrini, María Belén Gauna.

Investigación: Antonella Petrini, María Belén Gauna.

Redacción – borrador original: Antonella Petrini, María Belén Gauna.

Redacción – revisión y edición: Antonella Petrini, María Belén Gauna.