Tα deep fakes τα οποία ξεκίνησαν ως χιουμοριστικά βιντεάκια, στην αρχή απαιτούσαν μεγάλη υπολογιστική υποδομή και χρόνο για να παραχθούν. Σήμερα χάρη στην τεχνολογία της τεχνητής νοημοσύνης το αποτέλεσμα είναι αληθοφανές, δεν απαιτείται πολύς χρόνος για την παραγωγή του βίντεο και είναι δύσκολο να διερευνηθεί η αυθεντικότητα του χωρίς τα κατάλληλα εργαλεία.
Το deepfake δίνει τη δυνατότητα σε κάποιον να παραποιήσει ένα βίντεο, βάζοντας το πρόσωπο ενός ατόμου στο σώμα ενός άλλου (ή και αντίστροφα) και να προσαρμόσει τη φωνή, τις εκφράσεις και την κίνηση. Με αυτό τον τρόπο, δημιουργεί ένα ψευδές εικονιζόμενο πρόσωπο, το οποίο όμως μοιάζει με αληθινό. Υπάρχουν πλέον δεκάδες εφαρμογές, επί πληρωμή και μη, που οποιοσδήποτε, μπορεί να δημιουργήσει ένα deepfake βίντεο. Άλλο όμως ένα χιουμοριστικό βίντεο και άλλο ένα βίντεο που μπορεί να χρησιμοποιηθεί ως προπαγάνδα ή ως μέσο για να βλάψει την υπόληψη κάποιου άλλου.
Σήμερα, η πλειοψηφία του deepfake υλικού που κυκλοφορεί στο διαδίκτυο αφορά τη μη συναινετική πορνογραφία. Δηλαδή εμφανίζονται βίντεο πορνογραφικού υλικού όπου έχει αντικατασταθεί το πρόσωπο της γυναίκας ή των γυναικών που πρωταγωνιστούν με το πρόσωπο κάποιας άλλης ή άλλων. Συνήθως τα θύματα είναι διάσημα πρόσωπα όμως δεν αποκλείεται να πέσει θύμα η οποιαδήποτε γυναίκα ή το οποιοδήποτε ανήλικο κορίτσι.
Το όλο ζήτημα γεννά μεγάλο προβληματισμό όσον αφορά στην προστασία της ιδιωτικότητας στο διαδίκτυο και δυστυχώς μπορεί να καταστήσει κάθε φυσικό πρόσωπο ανεξαρτήτου φύλου δυνητικό θύμα. Χαρακτηριστικό παράδειγμα η πρόσφατη αποκάλυψη κυκλώματος διακίνησης γυμνών φωτογραφιών χιλιάδων γυναικών μέσω Telegram και μέσω Discord.
Προς το παρόν, οποιοσδήποτε αποτελεί στόχο του deepfake revenge porn έχει περιορισμένες δυνατότητες νομικής προσφυγής. Δεν υπάρχει ευρωπαϊκή ή εθνική νομοθεσία που να ρυθμίζει και να αντιμετωπίζει την επικίνδυνη χρήση αυτής της τεχνικής.
Μόνο ο Κώδικας Πρακτικής της Παραπληροφόρησης που παρουσιάστηκε αρχικά τον Απρίλιο του 2018, και ανανεώθηκε τον Ιούνιο του 2022 θέτει ένα ευρύ φάσμα δεσμεύσεων για το κλείσιμο ψεύτικων λογαριασμών και την απονομιμοποίηση των προμηθευτών παραπληροφόρησης. Ωστόσο, βάσει αρ. 346 του Ελληνικού Ποινικού Κώδικα, η εκδικητική πορνογραφία θεωρείται αξιόποινη πράξη, όπου ουσιαστικά αποσκοπεί στην αντιμετώπιση του μη συναινετικού διαμοιρασμού υλικού που αφορά τη γενετήσια ζωή του εικονιζομένου. Επιπροσθέτως, η παραποίηση/αλλοίωση της εικόνας κάποιου φυσικού προσώπου, ενδέχεται να θεωρεί ως παραβίαση των προσωπικών δεδομένων του συγκεκριμένου φυσικού προσώπου με βάση το Ν. 4624/2019.
Deep fake videos και εταιρείες τεχνολογίας
Ορισμένα προγράμματα AI ανακοίνωσαν ότι ήδη έχουν περιορίσει την πρόσβαση σε εικόνες deepfake. Παραδείγματος χάρη η OpenAI δημιουργός του ChatGPT έχει ήδη αφαιρέσει το εργαλείο δημιουργίας εικόνων DALL-E, το οποίο βοηθά στη σύνθεση deepfakes. Το ίδιο έχει πράξει και η εταιρεία Stability AI, μετά από αναφορές ότι χρήστες της χρησιμοποιώντας την τεχνολογία της κατασκεύαζαν deep fake videos.
Ορισμένες εταιρείες όπως είναι το TIK TOK και το Twitch μέσων κοινωνικής δικτύωσης έχουν επίσης αυστηροποιήσει τους κανόνες τους για την καλύτερη προστασία των πλατφορμών τους από επιβλαβές υλικό.
Η Apple και η Google δήλωσαν πρόσφατα ότι αφαίρεσαν μια εφαρμογή από app stores, η οποία χρησιμοποιούσε σεξουαλικά υπονοούμενα deepfake βίντεο ηθοποιών για να προωθήσει το προϊόν της.
Τον περασμένο Φεβρουάριο, η Meta, καθώς και ιστοσελίδες ενηλίκων, όπως το OnlyFans και το Pornhub, άρχισαν να συμμετέχουν σε ένα διαδικτυακό εργαλείο, που ονομάζεται Take It Down, το οποίο επιτρέπει στους εφήβους να αναφέρουν deepfake εικόνες και βίντεο του εαυτού τους από το διαδίκτυο.
Πιο συγκεκριμμένα μπορούν να αφαιρεθούν φωτογραφίες από το Facebook, Instagram, Only Fans, Porn Hub, Tik Tok και Yubo. Aντίστοιχα, οι ενήλικες μπορούν να χρησιμοποιούν και το εργαλείο stopNCii.org που μπορεί να αποτρέψει εκδικητική πορνογραφία ή άλλης μορφής μη συναινετικού διαμοιρασμού προσωπικού περιεχομένου από το Facebook, Instagram, TikTok, Bubble, OnlyFans και Reddit.
Πηγή: saferinternet4kids