© Photo: Mike Sington/twitter/screenshot

Λιγότερο από μια ημέρα έμεινε στην κυκλοφορία η εφαρμογή που δημιουργούσε ψεύτικες γυμνές φωτογραφίες γυναικών. Η εφαρμογή χρησιμοποιούσε AI (Artificial Intelligence) και σταμάτησε από τους ίδιους τους δημιουργούς της. Η ομάδα της DeepNude ανέφερε χαρακτηριστικά, ότι υποτίμησαν την επικινδυνότητα που έφερε η εφαρμογή και ότι θα μπορούσε να πάρει άσχημες διαστάσεις.

Επιπλέον η ομάδα πίσω από την εφαρμογή δήλωσε, πως είναι δεδομένο ότι κάποια αντίγραφα θα διαρρεύσουν παρά την διακοπή της. Η οδηγία παρόλα αυτά, ήταν να μην κοινοποιηθεί στο Internet καμμία εκδοχή της, γιατί θα αντιβαίνει τους όρους χρήσης της DeepNude.

Η DeepNude, προορίζονταν για Windows και Linux. Οι πρώτες αντιδράσεις εμφανίσθηκαν ήδη από χθες το απόγευμα. Η εφαρμογή έπαιρνε κανονικές φωτογραφίες γυναικών και της άλλαζε, κάνοντάς τες να δείχνουν γυμνές. Υπήρχε σε δωρεάν έκδοση, με περιορισμένες δυνατότητες και ποιότητα αλλά και σε έκδοση επί πληρωμή. Αυτή η εκδοχή, παρουσίαζε στη γωνία ένα σημάδι το οποίο και μπορούσε να περικοπεί πανεύκολα, κάνοντας τη φωτογραφία να δείχνει εντελώς πραγματική.

Αν και οι δημιουργοί όταν ερωτήθηκαν, δήλωσαν ότι η DeepNude δεν ήταν κάτι ιδιαίτερο, η ανησυχία που δημιουργήθηκε γύρω από το όνομά της διαδίδονταν ταχύτατα. Ο λόγος είναι, ότι παρείχε τη δυνατότητα στιγμιαίας ψηφιακής επεξεργασίας φωτογραφιών, που ήταν πιθανό να ανήκουν σε ανυποψίαστες γυναίκες. Ο μεγαλύτερος κίνδυνος ήταν, να χρησιμοποιηθεί αυτό το υλικό για παρενόχληση. Δε θα ήταν η πρώτη φορά άλλωστε. Στο παρελθόν, έχουν πολλές φορές επεξεργαστεί εικόνες γυναικών με λογισμικό deepfake, για να δημιουργήσουν βίντεο πορνογραφίας, χωρίς φυσικά τη συγκατάθεση του ατόμου που απεικόνιζε.

Ο ίδιος δημιουργός της DeepNude, δήλωσε ότι αργά ή γρήγορα κάποιος θα έφτιαχνε μια αντίστοιχη εφαρμογή, απλά εκείνοι έτυχε να το κάνουν πρώτοι. Η ομάδα από την άλλη ανέφερε, ότι η τεχνολογία για κάτι τέτοιο είναι πανέτοιμη αλλά ο κόσμος δεν είναι ακόμα έτοιμος να τη δεχτεί.

Όλοι μπορούμε να αντιληφθούμε την επικινδυνότητα τέτοιων εφαρμογών. Επιτρέπουν τη γρήγορη και εύκολη κατάχρηση εικόνων ανθρώπων και προς το παρόν υπάρχουν ελάχιστες, αν υπάρχουν, προστατευτικές διατάξεις για να αποφευχθεί αυτό. Το ερώτημα που μένει στο τέλος είναι το εξής: Αν κάποιος σκοπεύει να σε βλάψει με τέτοιον τρόπο, έχει σημασία να γνωρίζεις ότι το υλικό είναι ψεύτικο και όχι αληθινό;

Ακολουθήστε μας στο Facebook