doi: 10.56294/ai2024148
Revisión
Artificial Intelligence and its Impact on the Production of Illicit Materials
La Inteligencia Artificial y su Impacto en la Producción de Material Ilícito
Antonella Petrini1, María Belén Gauna1
1Universidad siglo 21, Córdoba, Argentina.
Citar como: Petrini A, Belén Gauna M. Artificial Intelligence and its Impact on the Production of Illicit Materials. EthAIca. 2024; 3:148. https://doi.org/10.56294/ai2024148
Enviado: 03-09-2023 Revisado: 18-01-2024 Aceptado: 08-06-2024 Publicado: 09-06-2024
Editor: PhD.
Rubén
González Vallejo
ABSTRACT
Artificial intelligence has profoundly transformed different areas of human development, but it has also been used for criminal purposes, especially in the generation of child sexual abuse material (CSAM). This alarming phenomenon revealed AI’s potential to create hyperrealistic content that is indistinguishable from real images, making it difficult to detect even by specialised analysts. The use of generative AI has enabled the production of sexual images and videos of minors, both synthetic and modified from real photos, posing a serious and growing threat. Organisations such as the Internet Watch Foundation and the National Centre for Missing & Exploited Children have documented a significant increase in the number of reports, highlighting the need for more effective legal frameworks and public policies. At the local level, institutions such as the Buenos Aires Cybersecurity Centre warned about practices such as ‘deepnudes’, highlighting the urgent need to take action in national contexts as well. From a criminological perspective, AI was understood as a tool that facilitated criminal opportunities by reducing barriers for offenders and allowing crimes to be committed without direct contact with victims. In the absence of regulation and digital education, the need for a comprehensive response was raised, including legislation, prevention, international cooperation and citizen training. Protecting children and adolescents from these risks required a joint effort between governments, organisations and civil society to ensure the ethical and safe use of technology.
Keywords: Artificial Intelligence; Child Sexual Abuse; Deepfake; Criminology; Prevention.
RESUMEN
La inteligencia artificial transformó profundamente distintos ámbitos del desarrollo humano, pero también fue empleada con fines delictivos, especialmente en la generación de material de abuso sexual infantil (MASI). Este fenómeno alarmante reveló el potencial de la IA para crear contenido hiperrealista, indistinguible de imágenes reales, lo que dificultó su detección incluso por parte de analistas especializados. El uso de IA generativa permitió producir imágenes y videos sexuales de menores, tanto sintéticos como modificados a partir de fotos reales, constituyendo una amenaza grave y creciente. Organizaciones como la Internet Watch Foundation y el National Center for Missing & Exploited Children documentaron un aumento significativo en la cantidad de denuncias, destacando la necesidad de marcos legales y políticas públicas más eficaces. A nivel local, instituciones como el Centro de Ciberseguridad de Buenos Aires alertaron sobre prácticas como los “deepnudes”, evidenciando la urgencia de actuar también en contextos nacionales. Desde la criminología, la IA fue entendida como una herramienta que facilitó oportunidades delictivas al reducir barreras para los infractores y permitir la comisión de delitos sin contacto directo con las víctimas. Ante la ausencia de regulación y educación digital, se planteó la necesidad de una respuesta integral que incluyera legislación, prevención, cooperación internacional y formación ciudadana. Proteger a niños, niñas y adolescentes frente a estos riesgos implicó un esfuerzo conjunto entre gobiernos, organizaciones y sociedad civil para garantizar el uso ético y seguro de la tecnología.
Palabras clave: Inteligencia Artificial; Abuso Sexual Infantil; Deepfake; Criminología; Prevención.
INTRODUCCIÓN
Por otro lado, la inteligencia artificial ha transformado desde la automatización industrial hasta la personalización de contenidos digitales. Para comenzar, la IA puede ser definida como: “La IA consiste en el diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento. Estos procesos se basan en secuencias de entradas que son percibidas y almacenadas por la mencionada arquitectura (en manos de un ALGORITMO)”.(1)
“Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones cognitivas que los humanos asocian con otras mentes humanas, como, por ejemplo: percibir; razonar; aprender y resolver problemas”.(1) Esta capacidad de imitar procesos cognitivos y automatizar tareas complejas no solo ha revolucionado sectores como la industria y la comunicación, sino que también ha abierto nuevas oportunidades para el uso indebido de la tecnología en actividades delictivas, especialmente en el ámbito digital. A base de esto, estos avances en la IA plantean problemas éticos, como señala Gabriela Ramos, subdirectora de Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, “estos rápidos cambios también plantean profundos dilemas éticos, que surgen del potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima y amenazar los derechos humanos, entre otros.”
Además, la inteligencia artificial ha creado una oportunidad única para que los delincuentes produzcan una cantidad infinita de contenido de abuso sexual infantil. Todas las variantes de este tipo de contenido creadas mediante IA son ilegales, representen o no un niño real.(2)
Como menciona la Internet Watch Foundation “la mayoría de las imágenes de abuso sexual infantil realizadas mediante IA identificadas por los analistas de la IWF son ahora lo suficientemente realistas como para ser tratadas como imágenes reales según la legislación del Reino Unido”. (3) Esta organización indica que, incluso para analistas especializados y con experiencia, resulta extremadamente complicado diferenciar el MASI generado por IA ya que parecen demasiado realistas.(3) Por esto la importancia de analizar esta problemática, muy novedosa y difícil de detectar, por lo que se necesitará tanto como de la prevención y legislación de parte de los gobiernos, y la concientización de los ciudadanos. Este fenómeno ha demostrado un crecimiento alarmante, lo que ha llevado a diversas organizaciones a elaborar informes detallados. Se ha identificado una creciente tendencia en la que se está explotando la inteligencia artificial para producir material de abuso sexual infantil. El informe inicial de octubre 2023 reveló la presencia de más de 20000 imágenes generadas por inteligencia artificial en el foro de la dark web en un mes, donde más de 3000 mostraban actividades delictivas de abuso sexual infantil.(3) Desde entonces, el problema se ha intensificado con gravedad. Según el informe actualizado de julio 2024, no solo hubo un aumento en la cantidad de imágenes generadas, incluidas imágenes más graves, sino que también se ha registrado la generación de videos. Además, estos ya no solo se publican en la dark web sino también en la web superficial.(3)
En 2023, la línea CyberTipline del National center for Missing and Exploited Children recibió 4700 denuncias vinculados a material de abuso sexual infantil o contenido de explotación sexual que utilizaba tecnología de Inteligencia Artificial Generativa (GAI). Este tipo de material, conocido como GAI MASI, muestra imágenes de niños creados digitalmente en situaciones sexuales explícitas y puede ser producido bajo demanda por usuarios de ciertas plataformas de IA generativa. Además, esta tecnología permite crear imágenes y videos sexualmente explícitos estilo deepfake, partiendo de una foto inocente de un niño real para generar una versión computarizada con contenido sexual.(4) Este grave aumento en las denuncias y la evolución de las técnicas utilizadas para crear MASI resaltan la urgencia de abordar el problema de manera integral.
En el contexto local, cada vez hay más denuncias y visibilización sobre estas acciones ilegales. El Centro de Ciberseguridad de la Provincia de Buenos Aires, publicó en una nota en su sitio alertando que imágenes reales pueden ser modificadas creando pornografía, llamadas “deepnudes”, constituyendo una forma grave de ciberacoso y violación a la integridad sexual de las personas. La inteligencia artificial puede transformar nuestras vidas, pero también presenta desafíos que se deben abordar de manera proactiva. Contar con medidas y herramientas preventivas que disminuyan los riesgos es fundamental, garantizando el uso responsable de estas tecnologías.(5)
El CSAM (contenido de abuso sexual infantil) generado por IA puede ser tanto sintético como de la vida real.(2) Según la Cordeiro(2): “Este contenido plantea una doble amenaza: por sí mismo permite la generación de CSAM nuevo y perjudicial y, simultáneamente, las herramientas de IA permiten a los delincuentes acceder a otros CSAM y difundirlos a un ritmo más rápido que nunca”. Los contenidos ilícitos pueden incluir imágenes manipuladas de personas menores de edad reales o creaciones artificiales. La habilidad de la IA de generar contenido que previamente no existía se conoce como capacidad “generativa” y aumenta el riesgo para posibles víctimas de MASI de permitir la creación de estas imágenes.(2,6)
Proteger a los niños, niñas y adolescentes del impacto del material de abuso sexual infantil producido con inteligencia artificial generativa implica brindar educación y apoyo por parte de los adultos. La oportunidad de guiar a los jóvenes para usar esta herramienta de manera segura y comprendan los riesgos de utilizarla indebidamente para crear este tipo de contenido.(4,7,8) Este enfoque educativo resalta la necesidad de estrategias de prevención para el uso responsable de la Inteligencia Artificial Generativa (GAI) y promover de manera clara los riesgos y consecuencias asociadas a la creación de Material de Abuso Sexual Infantil para prevenirlo y proteger a las personas menores de edad.
Estas actividades ilícitas pueden relacionarse directamente con la criminología, especialmente a través de la teoría de las actividades delictivas. Tal como explica el propio Felson, su planteamiento ofrece explicaciones a nivel macro y micro sobre la configuración de las tasas del delito.(9) A nivel micro, se plantea que, habitualmente, el delito ocurre cuando un potencial infractor coincide en el mismo lugar con un objetivo adecuado, en ausencia de un guardián capaz que evite el delito.
De modo complementario, a nivel macro, la organización social y las rutinas de la vida diaria harán que la convergencia entre infractores y objetivos sea mucho más probable en lugares y momentos concretos. En este contexto, se pudo considerar que los infractores encuentran en la inteligencia artificial una herramienta que facilita oportunidades delictivas. El rápido acceso a la información y la falta de necesidad de contacto directo con las víctimas simplifican la comisión de estos delitos. Finalmente, la ausencia de un “guardián capaz” se manifiesta en la falta de regulaciones, implementación y conocimiento necesarios para prevenir eficazmente estos actos.
DESARROLLO
La inteligencia artificial (IA) ha revolucionado diversos campos del conocimiento humano y el desarrollo tecnológico, permitiendo avances significativos en sectores como la industria, la medicina, la educación y la comunicación.(10) No obstante, el creciente poder de esta tecnología también ha sido utilizado con fines ilícitos, entre ellos, la producción de material de abuso sexual infantil (MASI).(12,13,14,15,16,17,18,19) Esta problemática, cada vez más frecuente, plantea desafíos éticos, jurídicos y sociales, sobre todo cuando se considera la facilidad con la que la IA puede generar contenido hiperrealista que vulnera la integridad de niños, niñas y adolescentes.(20,21,22) En este contexto, es esencial comprender el funcionamiento, el alcance y los riesgos asociados con el uso de la inteligencia artificial, así como analizar el fenómeno desde una perspectiva criminológica que permita el diseño de estrategias eficaces de prevención, regulación y protección.
La Inteligencia Artificial: Concepto y Alcances
La IA puede definirse como el diseño de procesos que, ejecutados sobre una arquitectura física, generan resultados que optimizan una medida de rendimiento, utilizando entradas percibidas y almacenadas por algoritmos.(1,11) De manera más general, se refiere a la capacidad de las máquinas para imitar funciones cognitivas humanas como percibir, razonar, aprender y resolver problemas. Esta capacidad ha transformado la forma en que interactuamos con la tecnología, y ha abierto tanto oportunidades productivas como riesgos asociados con su mal uso, en especial en el entorno digital.(10)
Ética y Desafíos de la Inteligencia Artificial
El desarrollo acelerado de la IA también plantea cuestiones éticas fundamentales. Como advierte Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, los sistemas de IA pueden reproducir prejuicios, agravar problemas sociales y ecológicos, y poner en peligro los derechos humanos. Estos dilemas se vuelven especialmente urgentes cuando se observa el uso de la IA para cometer delitos como el abuso sexual infantil, lo cual representa una amenaza grave a la dignidad humana y a la seguridad de los más vulnerables.(7,23,24)
La IA y la Generación de Contenido de Abuso Sexual Infantil
El uso de inteligencia artificial generativa ha permitido a los delincuentes producir imágenes y videos sexualmente explícitos que representan menores de edad, ya sea a través de creaciones sintéticas o mediante la manipulación de imágenes reales. Según Cordeiro(2), este contenido es ilegal en todas sus formas y representa una nueva amenaza digital. La Internet Watch Foundation(3) ha identificado miles de imágenes generadas por IA en la dark web, y ha alertado sobre su realismo, al punto que incluso analistas especializados no pueden distinguirlas fácilmente de imágenes reales.(9,25)
En 2023, el National Center for Missing & Exploited Children recibió más de 4700 denuncias vinculadas a MASI creado con IA. Estas incluyen imágenes generadas bajo demanda y contenido deepfake basado en fotos reales de niños,(4) lo que demuestra la urgente necesidad de políticas públicas y acciones concretas para frenar esta tendencia creciente.
La Situación en el Contexto Local
En Argentina, la problemática también ha ganado visibilidad. El Centro de Ciberseguridad de Buenos Aires(5) ha advertido sobre los “deepnudes”, donde imágenes reales son alteradas mediante IA para generar pornografía, lo que constituye una forma grave de ciberacoso y abuso sexual. La respuesta local requiere tanto legislación específica como campañas de concientización que promuevan un uso seguro y ético de estas tecnologías.(26,27,28,29)
La Criminología y la Oportunidad Delictiva con IA
Desde la teoría de las actividades delictivas, propuesta por Felson, se entiende que el delito ocurre cuando un infractor potencial se encuentra con un objetivo adecuado en ausencia de un guardián capaz. En este caso, la inteligencia artificial actúa como un facilitador del delito, permitiendo la comisión de actos ilícitos sin contacto físico y con alta eficiencia. La carencia de regulaciones efectivas y el desconocimiento general sobre el funcionamiento de estas herramientas representan la ausencia de ese guardián necesario para prevenir los crímenes.(9,30,31)
Educación, Prevención y Regulación
La protección de niños, niñas y adolescentes ante el MASI generado por IA requiere un enfoque integral. La educación y la prevención deben ir de la mano de marcos legales actualizados. Tal como sostiene el National Center for Missing & Exploited Children(4), es fundamental que los adultos guíen a los jóvenes sobre los riesgos del uso indebido de la IA, promoviendo un enfoque responsable y ético que prevenga el daño antes de que ocurra.(32,33)
El avance de la inteligencia artificial ha traído consigo beneficios extraordinarios, pero también desafíos de gran magnitud. El uso de esta tecnología para la creación de material de abuso sexual infantil representa una amenaza urgente, compleja y en expansión. Desde una perspectiva ética, legal y criminológica, es imprescindible que los gobiernos, las organizaciones internacionales y la sociedad civil trabajen en conjunto para establecer marcos regulatorios, fortalecer los sistemas de prevención y promover la educación digital. Solo mediante una respuesta coordinada y proactiva será posible proteger de forma eficaz a las infancias frente a este nuevo tipo de violencia digital.
CONCLUSIONES
La inteligencia artificial, como herramienta tecnológica de gran alcance, ha transformado profundamente diversos aspectos de la vida cotidiana, impulsando el progreso en áreas clave del conocimiento y la producción. Sin embargo, su uso indebido en la generación de contenido de abuso sexual infantil evidencia una de sus expresiones más alarmantes y peligrosas. La capacidad de la IA para crear material hiperrealista, muchas veces indistinguible de imágenes reales, expone una grave vulnerabilidad en la protección de los derechos de niños, niñas y adolescentes.
La magnitud del problema, evidenciada por informes internacionales y denuncias crecientes, demuestra que estamos ante un fenómeno complejo que requiere una respuesta articulada. Es imperativo implementar marcos legales actualizados, promover la cooperación internacional, fortalecer los sistemas de vigilancia cibernética y, especialmente, fomentar la educación digital preventiva como una herramienta clave para reducir los riesgos.
Además, desde la criminología, se advierte que la IA actúa como un facilitador del delito, al reducir las barreras para su ejecución y aumentar las oportunidades delictivas en entornos sin regulación efectiva. En este sentido, la ausencia de un “guardián capaz” se traduce en la falta de leyes específicas, recursos tecnológicos de control y ciudadanía informada.
En conclusión, frente a este nuevo escenario, resulta indispensable adoptar un enfoque integral que combine ética, regulación, prevención y educación para garantizar el uso seguro y responsable de la inteligencia artificial, y así proteger la integridad de las infancias frente a estas nuevas formas de violencia digital.
REFERENCIAS BIBLIOGRÁFICAS
1. Gaimari G. Inteligencia Artificial e Impacto en el cibercrimen. 2021. p. 39.
2. Cordeiro VC. Combatir el aumento de material de abuso sexual infantil generado por la IA. Humanium; 2024. Disponible en: https://www.humanium.org/es/combatir-el-aumento-de-material-de-abuso-sexual-infantil-generado-por-la-ia/
3. Internet Watch Foundation. How AI is being abused to create child sexual abuse material (CSAM) online. s.f. Disponible en: https://www.iwf.org.uk/about-us/why-we-exist/our-research/how-ai-is-being-abused-to-create-child-sexual-abuse-imagery/
4. National Center for Missing & Exploited Children. Child Sexual Abuse Material (CSAM). s.f. Disponible en: https://www.missingkids.org/
5. Centro de Ciberseguridad de Buenos Aires. El lado oscuro de la IA (parte II). 2024. Disponible en: https://buenosaires.gob.ar/noticias/el-lado-oscuro-de-la-ia-parte-ii
6. Inhope Organization. What is CSAM? 2021. Disponible en: https://www.inhope.org/EN/articles/child-sexual-abuse-material
7. Naciones Unidas. Protocolo Facultativo de la Convención sobre los Derechos del Niño, por lo que se refiere a la Venta de Niños, la Prostitución Infantil y la utilización de niños en la Pornografía (CRC-OPSC). 2002. Disponible en: https://www.ohchr.org/es/instruments-mechanisms/instruments/optional-protocol-convention-rights-child-sale-children-child
8. The White Hatter. Alert for parents, caregivers, educators, and law enforcement concerning apps utilizing AI pose risks to youth and adults. 2023. Disponible en: https://thewhitehatter.ca/blog/alert-for-parents-caregivers-educators-and-law-enforcement-concerning-apps-utilizando-ai-pose-risks-to-youth-and-adults/
9. The White Hatter. Deepnudes: undressing AI-generated intimate image abuse material. 2023. Disponible en: https://thewhitehatter.ca/deepnudes-undressing-ai-generated-intimate-image-abuse-material/
10. Serrahima de Bedoya A. Avances y desafíos de la inteligencia artificial. Epositorio Comillas; 2022. Disponible en: https://repositorio.comillas.edu/xmlui/bitstream/handle/11531/57178/Avances%20y%20desafios%20de%20la%20inteligencia%20artificial%20-%20Serrahima%20de%20Bedoya%2c%20Alvaro.pdf?sequence=2&isAllowed=y
11. Real Academia Española, Asociación de Academias de la Lengua Española. Diccionario de la lengua española. s.f. Disponible en: https://dle.rae.es/inteligencia#2DxmhCT
12. CBS News. Florida man accused of using AI to create child porn. 2024. Disponible en: https://www.cbsnews.com/miami/news/florida-man-accused-of-using-ai-to-create-child-porn/?intcid=CNM-00-10abd1h
13. Clarín. En EE.UU. piden más protección para adolescentes víctimas de deepfakes con desnudos. 2024. Disponible en: https://www.clarin.com/tecnologia/eeuu-piden-proteccion-adolescentes-victimas-deepfakes-desnudos_0_UmN2bNxU8r.html
14. Forbes. Pedófilo grabó a niños en Disney World para crear imágenes de abuso con IA. 2024. Disponible en: https://www.forbes.com.mx/pedofilo-grabo-a-ninos-en-disney-world-para-crear-imagenes-de-abuso-con-ia/
15. Infobae. Detuvieron a un hombre del estado de Florida por usar inteligencia artificial para crear pornografía infantil. 2024. Disponible en: https://www.infobae.com/estados-unidos/2024/04/05/detuvieron-a-un-hombre-del-estado-de-florida-por-usar-inteligencia-artificial-para-crear-pornografia-infantil/
16. Infobae. Escándalo en una escuela de Córdoba: un alumno utilizó IA para crear imágenes pornográficas de sus compañeras. 2024. Disponible en: https://www.infobae.com/sociedad/2024/07/03/escandalo-en-una-escuela-de-cordoba-un-alumno-utilizo-ia-para-crear-imagenes-pornograficas-de-sus-companeras/
17. Le Masurier J. Adolescentes en Estados Unidos afectadas por los ‘deepfakes’ pornográficos - En Foco. France 24; 2024. Disponible en: https://www.france24.com/es/programas/en-foco/20240509-adolescentes-en-estados-unidos-afectadas-por-los-deepfakes-pornogr%C3%A1ficos
18. Levine AS. Fotos de niños generados por IA revelan depredadores en TikTok e Instagram. Forbes; 2023. Disponible en: https://www.forbes.com.mx/fotos-de-ninos-generados-por-ia-revelan-depredadores-en-tiktok-e-instagram/
19. La Voz. Generó imágenes pornográficas de sus compañeras con IA: ¿Qué hizo la escuela?. 2024. Disponible en: https://www.lavoz.com.ar/ciudadanos/genero-imagenes-pornograficas-de-sus-companeras-con-ia-que-hizo-la-escuela/
20. Sullivan E. El auge del material de abuso sexual infantil generado por inteligencia artificial. The New York Times; 2024. Disponible en: https://www.nytimes.com/es/2024/02/01/espanol/inteligencia-artificial-abuso-infantil.html
21. Cloud Booklet. Imágenes realistas falsas: el generador de imágenes de IA. 2023. Disponible en: https://www.cloudbooklet.com/lifestyle/realistic-fake-nudes-with-ai-nude-generator
22. Moyano L. El uso de la IA para la creación de material de abuso sexual infantil. Ciberseguridad Latam; 2024. Disponible en: https://www.ciberseguridadlatam.com/2024/08/28/el-uso-de-de-la-ia-para-la-creacion-de-material-de-abuso-sexual-infantil/
23. Comisión Europea. AI Watch Defining Artificial Intelligence. 2020. p. 12.
24. Convenio sobre la ciberdelincuencia. Budapest: Consejo de Europa; 2001. Art. 9. Disponible en: https://www.oas.org/juridico/english/cyb_pry_convenio.pdf
25. Tenbarge K. Deepfake porn and the Mr. Deep Fake economy. NBC News; 2023. Disponible en: https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard-download-rcna75071
26. Lospennato S. Proyecto de Ley Modifica art. 128 CPN. HCDN; 2023. Disponible en: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4436-D-2023.pdf
27. Milman G. Proyecto de Ley Modificación del Artículo 128 del Código Penal Argentino. HCDN; 2023. Disponible en: https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2023/PDF2023/TP2023/4411-D-2023.pdf
28. Ministerio Público Tutelar de la Provincia de Buenos Aires. “Pornografía infantil”, no: se llama “abuso sexual contra niñas y niños y adolescentes”. 2021. Disponible en: https://mptutelar.gob.ar/pornograf-infantil-no-se-llama-abuso-sexual-contra-ni-y-ni-os-y-adolescentes
29. Ministerio de Justicia de la Nación. Ley simple: Delitos contra la integridad sexual. s.f. Disponible en: https://www.argentina.gob.ar/justicia/derechofacil/leysimple/delitos-contra-la-integridad-sexual#titulo-7
30. RAINN. Abuso sexual infantil. s.f. Disponible en: https://rainn.org/articles/abuso-sexual-infantil
31. Cordeiro VC. Abuso infantil. Humanium; 2021. Disponible en: https://www.humanium.org/es/enfoques-tematicos/violencia/abuso-infantil/
32. Marín R. California está impulsando un paquete de leyes para regular la inteligencia artificial y combatir los deepfakes. Infobae; 2024. Disponible en: https://www.infobae.com/estados-unidos/2024/09/04/california-esta-impulsando-un-paquete-de-leyes-para-regular-la-inteligencia-artificial-y-combatir-los-deepfakes/
33. Romero A. Proyecto de Ley sobre el uso de IA en delitos sexuales infantiles. 2023. Disponible en: file:///C:/Users/pasca/Downloads/S2469_23PL%20(1).pdf
FINANCIACIÓN
Los autores no recibieron financiación para el desarrollo de la presente investigación.
CONFLICTO DE INTERESES
Los autores declaran que no existe conflicto de intereses.
CONTRIBUCIÓN DE AUTORÍA
Conceptualización: Antonella Petrini, María Belén Gauna.
Curación de datos: Antonella Petrini, María Belén Gauna.
Análisis formal: Antonella Petrini, María Belén Gauna.
Investigación: Antonella Petrini, María Belén Gauna.
Metodología: Antonella Petrini, María Belén Gauna.
Administración del proyecto: Antonella Petrini, María Belén Gauna.
Recursos: Antonella Petrini, María Belén Gauna.
Software: Antonella Petrini, María Belén Gauna.
Supervisión: Antonella Petrini, María Belén Gauna.
Validación: Antonella Petrini, María Belén Gauna.
Visualización: Antonella Petrini, María Belén Gauna.
Redacción – borrador original: Antonella Petrini, María Belén Gauna.
Redacción – revisión y edición: Antonella Petrini, María Belén Gauna.