Ανησυχητικές διαστάσεις με το πλαστό υλικό που δημιουργείται από προγράμματα ΑΙ
Διαρκώς καταγράφονται ανησυχητικά περιστατικά χρήσης παραπλανητιού υλικού που έχει δημιουργηθεί από προγράμματα τεχνητής νοημοσύνης και τα πρόχειρα μέτρα που λαμβάνονται για την αντιμετώπιση του προβλήματος θεωρείται εξαιρετικά αμφίβολο αν θα προσφέρουν την όποια ουσιαστική βοήθεια.
Την Πέμπτη, οι ομοσπονδιακές αρχές των ΗΠΑ έθεσαν στο στόχαστρό τους ρομποτικές κλήσεις που μιμούνται τις φωνές επωνύμων, όπως για παράδειγμα εκείνες που μιμούνταν τη φωνή του Αμερικανού προέδρου Τζο Μπάιντεν στο πλαίσιο των προκριματικών εκλογών στο Νιού Χάμσαϊρ, με τις οποίες υποτίθεται πως καλούσε τους ψηφοφόρους να μην προσέλθουν στις κάλπες. Την ίδια ώρα, η OpenAI και η Google προχώρησαν στη χρήση υδατογραφημάτων, προκειμένου να επισημαίνεται ότι χρησιμοποιήθηκε πρόγραμμα τεχνητής νοημοσύνης στη δημιουργία μιας εικόνας. Το ζήτημα είναι πως τέτοιου είδους μέτρα δεν διαθέτουν την απαραίτητη ισχύ ώστε να σταματήσουν τα λεγόμενα deepfake.
"Ήρθαν για να μείνουν", δηλώνει ο Βίτζεϊ Μπαλασουμπραμανιγιάν, διευθύνων σύμβουλος της Pindrop, εταιρία ασφαλείας που εξακρίβωσε ότι το ElevenLabs ήταν η υπηρεσία που χρησιμοποιήθηκε για τη δημιουργία της πλαστής κλήσης με τη φωνή του προέδρου Μπάιντεν. "Οι τεχνολογίες εντοπισμού πλαστού υλικού πρέπει να υιοθετηθούν στην πηγή, στο σημείο εκπομπής, καθώς και στον προορισμό. Πολύ απλά, πρέπει να εφαρμόζονται σε όλη τη διαδρομή".
Η απόφαση της Ομοσπονδιακής Επιτροπής Επικοινωνιών (FCC) να καταστήσει παράνομες αυτούς του είδους τις παραπλανητικές κλήσεις συνιστά βήμα προς τη σωστή κατεύθυνση, σύμφωνα με το Μπαλασουμπραμανιγιάν, όμως ελάχιστες είναι οι διευκρινίσεις που έχουν δοθεί σχετικά με το πώς θα επιβληθεί η εφαρμογή της απόφασης. Για την ώρα, το πλαστό υλικό εντοπίζεται αφού έχει γίνει ήδη η ζημιά, ενώ σπάνια επιβάλλονται κυρώσεις στους υπεύθυνους. Η όλη διαδικασία είναι αργή και δεν αντιμετωπίζει ουσιαστικά το υφιστάμενο πρόβλημα.
Η OpenAI εισήγαγε τη χρήση υδατογραφημάτων στις εικόνες που δημιουργούνται με το Dall-E την εβδομάδα που μας πέρασε, τα οποία, εκτός από οπτικά, ενσωματώνονται και ψηφιακά στα δεδομένα της εικόνας. Ταυτόχρονα, όμως, η εταιρία αναγνώρισε πως αυτό το μέτρο παρακάμπτεται εύκολα με τη λήψη ενός screenshot. Ουσιαστικά, δεν πρόκειται για λύση, αλλά για μια ευκαιρία να ισχυριστεί η εταιρία πως έκανε ό,τι μπορούσε. Αντίστοιχα αναιμική ήταν και η αντίδραση της Χ όταν προ ημερών η πλατόφρμα κατακλύστηκε από πλαστά ερωτικά βίντεο της Τέιλορ Σουίφτ.
Εντωμεταξύ, ένα πλαστό βίντεο που έλαβε υπάλληλος πολυεθνικής στο Χονγκ-Κονγκ, στο οποίο υποτίθεται ότι εμφανιζόταν ο προϊστάμενός του καθώς και αρκετοί συνάδελφοί του, οδήγησε στην απώλεια 25 εκατομμυρίων δολαρίων, σύμφωνα με ρεπορτάζ του CNN. Όλοι οι συνάδελφοι έμοιαζαν και ακούγονταν όπως τους ήξερε, όμως στην πορεία αποδείχτηκε ότι όλα τα πρόσωπα ήταν αλλοιωμένα με τη χρήση προγράμματος τεχνητής νοημοσύνης. Ο υπάλληλος εξαπατήθηκε και μετέφερε τα χρήματα σε άγνωστους απατεώνες.
Οι λύσεις που έχουν προταθεί μέχρι στιγμής πολύ απλά δεν αρκούν. Το πρόβλημα είναι πως η τεχνολογία εντοπισμού του πλαστού υλικού είναι καινούργια και δεν καταφέρνει να ακολουθήσει τους ρυθμούς εξέλιξης των προγραμμάτων τεχνητής νοημοσύνης. Πλατφόρμες όπως η Meta, η X, αλλά ακόμη και οι πάροχοι τηλεφωνικών υπηρεσιών πρέπει να υιοθετήσουν μέτρα εντοπισμού του πλαστού υλικού, οπτικού και ηχητικού. Οι εταιρίες αυτές διαρκώς διαφημίζουν τις νέες δυνατότητες των προγραμμάτων δημιουργίας υλικού με τη χρήση τεχνητής νοημοσύνης που αναπτύσσουν, τι γίνεται όμως με τη δυνατότητα αναγνώρισης του πλαστού υλικού;
Επί του παρόντος, οι εταιρίες που δραστηριοποιούνται εντατικά στο χώρο αυτό υποτίθεται πως κάτι προσπαθούν να κάνουν για να αντιμετωπίσουν το πρόβλημα, όμως πληθαίνουν οι φωνές που κάνουν λόγο για καθυστερημένες, ανεπαρκείς ή και προσχηματικές αντιδράσεις.
Η τεχνολογία εντοπισμού του πλαστού υλικού χρειάζεται επίσης σημαντικές βελτιώσεις και πρέπει να καταστεί ευρέως διαθέσιμη. Επί του παρόντος, ο εντοπισμός του πλαστού υλικού δεν είναι 100% ακριβής για οποιαδήποτε κατηγορία, σύμφωνα με το διευθύνοντα σύμβουλο της Copyleaks, Αλόν Γιαμίν. Η εταιρία του διαθέτει ένα από τα καλύτερα εργαλεία εντοπισμού κειμένων που έχουν παραχθεί από προγράμματα τεχνητής νοημοσύνης, όμως ο εντοπισμός αντίστοιχου ηχητικού και οπτικού υλικού αποτελεί πολύ συνθετότερη πρόκληση. Ο εντοπισμός του πλαστού περιεχομένου σε οποιαδήποτε μορφή υστερεί αισθητά έναντι των αλμάτων που καταγράφει η τεχνητή νοημοσύνη και πρέπει να ενισχυθεί, άμεσα.
Δεν υπάρχουν σχόλια