Introduzione: La creazione non consensuale di immagini intime attraverso il deepfake è in aumento. I nudifier, nuovi strumenti di IA che realizzano nudificazioni delle immagini caricate, sono un nuovo metodo di produzione di contenuti che possono essere utilizzati a scopo di abuso. Metodologia: Attraverso un’analisi empirica e qualitativa, abbiamo esaminato l'uso e il risultato di queste applicazioni. Risultati: Gli intervistati hanno mostrato difficoltà nel riconoscere le immagini reali da quelle nudificate e rare forme di deterrenza nell’uso improprio di questi strumenti. Discussione: L'uso di nudifier pone seri problemi etici e legali, evidenziando la necessità di misure deterrenti più efficaci. Conclusioni: È fondamentale sviluppare strumenti e leggi per contrastare l'abuso dei nudifier e proteggere la privacy delle persone coinvolte.
Introduction: The non-consensual creation of intimate images through deepfake is on the rise. Nudifiers, new AI tools that realise nudification of uploaded images, are a new method of content production that can be used for abuse. Methodology: Through empirical and qualitative analysis, we examined the use and outcome of these applications. Results: Respondents showed difficulties in recognising real images from nudified ones and rare forms of deterrence in the misuse of these tools. Discussion: The use of nudifiers poses serious ethical and legal problems, highlighting the need for more effective deterrence measures. Conclusion: It is crucial to develop tools and laws to counter the misuse of nudifiers and protect the privacy of those involved.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados