Μία νέα έρευνα δείχνει ότι ένα σημαντικό ποσοστό του κοινού δεν αντιμετωπίζει ως πρόβλημα τη δημιουργία ή την κοινοποίηση σεξουαλικού περιεχομένου μέσω τεχνητής νοημοσύνης χωρίς συναίνεση.
Σύμφωνα με τη μελέτη που πραγματοποιήθηκε για λογαριασμό της αστυνομίας στο Ηνωμένο Βασίλειο, 1 στους 4 ερωτηθέντες θεωρεί ότι δεν υπάρχει κάτι το μεμπτό απέναντι στη δημιουργία και διαμοίραση sexual deepfakes, δηλαδή ψηφιακά αλλοιωμένων εικόνων ή βίντεο με χρήση ΑΙ, χωρίς συναίνεση του ατόμου που απεικονίζεται.
Από τους 1.700 συμμετέχοντες, 13% δήλωσε ότι δεν βλέπει κανένα λάθος στη δημιουργία ή κοινοποίηση deepfakes σεξουαλικού περιεχομένου, ενώ 12% ανέφερε ότι δεν έχει ξεκάθαρη θέση για τη νομιμότητα ή την ηθική διάσταση της πράξης.
Η Επικεφαλής του Τμήματος Ερευνών, Claire Hammond, από το εθνικό κέντρο για τη βία κατά γυναικών και κοριτσιών (VAWG) στη Βρετανία, όπου έγινε η έρευνα, υπογράμμισε ότι «η κοινοποίηση προσωπικών εικόνων χωρίς συναίνεση, είτε πρόκειται για πραγματικό υλικό είτε όχι, αποτελεί βαθιά παραβίαση». Προειδοποίησε επίσης ότι η τεχνητή νοημοσύνη επιταχύνει την αύξηση περιστατικών έμφυλης βίας, ενώ επεσήμανε ότι οι τεχνολογικές εταιρείες «έχουν διευκολύνει τη δημιουργία και διάδοση τέτοιου υλικού και οφείλουν να αναλάβουν δράση».
Η δημιουργία deepfakes σεξουαλικού περιεχομένου χωρίς συναίνεση αποτελεί πλέον ποινικό αδίκημα βάσει του νέου Data Act, Η νομοθεσία που ρυθμίζει τη συλλογή, επεξεργασία και διαμοιρασμό προσωπικών δεδομένων.
Το report της συμβουλευτικής εταιρείας Crest Advisory διαπίστωσε ότι 7% των ερωτηθέντων έχουν υπάρξει στόχοι sexual deepfakes. Από αυτούς, μόνο οι μισοί (51%) το ανέφεραν στην αστυνομία. Όσοι δεν πήγαν στις αρχές, ανέφεραν κυρίως ντροπή και αμφιβολία για το αν το περιστατικό θα αντιμετωπιζόταν σοβαρά.
Δείτε αυτή τη δημοσίευση στο Instagram.
Γιατί πρέπει να μας ανησυχούν οι deepfake εικόνες σεξουαλικού περιεχομένου
Τα deepfake είναι εικόνες, βίντεο ή αρχεία ήχου που επεξεργάζονται ή δημιουργούνται με η βοήθεια της τεχνητής νοημοσύνης, ώστε να μοιάζουν αληθινά. Αφορούν συνήθως υπαρκτά πρόσωπα και είναι σεξουαλικού περιεχομένου. Δυνητικά μπορούν να βλάψουν το πρόσωπο που απεικονίζεται, καθώς μπορούν να χρησιμοποιηθούν για δυσφύμιση, εκβιασμό, παραπλάνηση ή παρενόχληση.
Ποιοι είναι πιθανότερο να φτιάξουν deepfakes σεξουαλικού περιεχομένου
Τα στοιχεία έδειξαν ότι οι άνδρες κάτω των 45 είναι πιο πιθανό να θεωρούν αποδεκτή τη δημιουργία και κοινοποίηση deepfakes. Η ομάδα αυτή είχε επίσης μεγαλύτερη πιθανότητα να καταναλώνει πορνογραφικό περιεχόμενο, να υιοθετεί μισογυνικές απόψεις και να έχει θετική στάση προς την ΑΙ. Ωστόσο, οι ερευνητές τονίζουν ότι η συσχέτιση ηλικίας και φύλου με αυτές τις στάσεις χρειάζεται περαιτέρω μελέτη.
Ένας στους 20 δήλωσε ότι έχει δημιουργήσει deepfake στο παρελθόν, ενώ πάνω από 1 στους 10 ότι θα το έκανε στο μέλλον. Τα δύο τρίτα των συμμετεχόντων έχουν δει ή πιστεύουν ότι έχουν δει deepfake.
Η Callyane Desroches, επικεφαλής πολιτικής και στρατηγικής της Crest Advisory, εταιρεία συμβούλων από το Ηνωμένο Βασίλειο που ειδικεύεται στον τομέα της δικαιοσύνης, της αστυνόμευσης και της δημόσιας ασφάλειας, σημείωσε ότι η παραγωγή deepfakes «κανονικοποιείται γρήγορα καθώς η τεχνολογία γίνεται φθηνότερη και πιο προσβάσιμη». Τόνισε επίσης ότι η πλειονότητα των deepfakes αφορά σεξουαλικό περιεχόμενο, με τις γυναίκες να αποτελούν κατά κύριο λόγο στόχους.
Η ακτιβίστρια Cally Jane Beech, που αγωνίζεται για καλύτερη προστασία των θυμάτων στη Βρετανία, προειδοποίησε ότι «οι επόμενες γενιές κινδυνεύουν αν δεν υπάρξουν σύντομα σαφείς κανόνες στον ψηφιακό χώρο». Πρόσθεσε ότι απαιτείται διαρκής ενημέρωση και συζήτηση ήδη από το σπίτι, ώστε να περιοριστεί η διάδοση αυτών των πρακτικών, αναφέρει το ρεπορτάζ του Guardian.
Δείτε αυτή τη δημοσίευση στο Instagram.
Πάντως στη Βρετανία ήδη από τον περασμένο Ιανουάριο έχει ψηφιστεί νόμος που ορίζει ότι εκείνος που δημιουργεί ψεύτικες σεξουαλικά εικόνες ή βίντεο με χρήση τεχνητής νοημοσύνης (AI) μπορεί να αντιμετωπίσει ποινή φυλάκισης έως δύο ετών.
Γυναίκες και παιδιά τα θύματα
To μεγαλύτερο ποσοστό, που αγγίζει το 99% των γυμνών deepfakes που δημιουργούνται αφορούν γυναίκες και κορίτσια. Όπως αναφέρει η έρευνα Interner Matters, του 2024, περισσότερα από μισό εκατομμύριο παιδιά (13%) έχουν εμπειρία με nude deepfakes. Το 55% των εφήβων θεωρεί την κατάχρηση μέσω nude deepfakes χειρότερη από τη σεξουαλική κακοποίηση με πραγματικές εικόνες, ενώ μόνο το 12% διαφώνησε. Τα αγόρια και τα πιο ευάλωτα παιδιά είναι σημαντικά πιο πιθανό να έχουν έρθει σε επαφή με nude deepfakes.



