ΤΕΛΕΥΤΑΙΑ ΝΕΑ

Πώς να αναγνωρίσετε και να προστατευτείτε από τα deepfakes

 Πώς να αναγνωρίσετε και να προστατευτείτε από τα deepfakes

Πρόσφατα η Google απαγόρευσε τους deepfake αλγόριθμους από το Google Colaboratory, τη δωρεάν υπηρεσία υπολογιστών της με πρόσβαση σε GPU. Ο τεχνολογικός κολοσσός δεν είναι ο μόνος που ρυθμίζει τα deepfakes — αρκετές πολιτείες των ΗΠΑ έχουν θεσπίσει νόμους που τα ρυθμίζουν, το σχέδιο νόμου της Κίνας απαιτεί αναγνώριση Μέσων που δημιουργούνται από υπολογιστή και ο αναμενόμενος κανονισμός της ΕΕ για την τεχνητή νοημοσύνη μπορεί να περιλαμβάνει μια ρήτρα για τη συγκεκριμένη τεχνολογία.

Οι ειδικοί της Kaspersky εξήγησαν τι είναι τα deepfakes και γιατί είναι τόσο έντονη η διαμάχη γύρω από αυτά – αλλά και το πώς οι χρήστες μπορούν να προστατευτούν:

  • Τα «Deepfakes» αναφέρονται συνήθως σε διάφορα είδη συνθετικών Μέσων που δημιουργούνται από υπολογιστή και περιλαμβάνουν άτομα, ενώ είναι κατασκευασμένα με βαθιά νευρωνικά δίκτυα. Αυτά μπορεί να είναι βίντεο, φωτογραφίες ή ηχογραφήσεις. Η χρήση της βαθιάς μάθησης, αντί των παραδοσιακών τεχνικών επεξεργασίας εικόνων, μειώνει δραστικά την προσπάθεια και την ικανότητα που απαιτείται για τη δημιουργία ενός πειστικού ψεύτικου.
  • Αρχικά, ο όρος αναφερόταν σε ένα συγκεκριμένο κομμάτι λογισμικού που είχε αποκτήσει δημοτικότητα στο Reddit. Το λογισμικό, το οποίο μπορούσε να “εισάγει” το πρόσωπο ενός ατόμου σε ένα βίντεο με ένα άλλο άτομο, χρησιμοποιήθηκε σχεδόν εξ ολοκλήρου για τη δημιουργία μη συναινετικού πορνό με διασημότητες. Σύμφωνα με ορισμένες εκτιμήσεις, έως και το 96% του συνόλου των deepfakes είναι πορνογραφικά, υπογραμμίζοντας τις ανησυχίες σχετικά με τα deepfakes που χρησιμοποιούνται για κατάχρηση, εκβιασμό και δημόσιο ντροπιασμό.
  • Αυτή η τεχνολογία θα μπορούσε επίσης να βοηθήσει τους εγκληματίες του κυβερνοχώρου. Σε τουλάχιστον δύο περιπτώσεις, στην Αγγλία και το Χονγκ Κονγκ, έχει χρησιμοποιηθεί ένα deepfake φωνής για να εξαπατήσει εταιρείες να μεταφέρουν κεφάλαια σε απατεώνες, παριστάνοντας υπαλλήλους των αντίστοιχων εταιρειών. Πρόσφατη έρευνα έδειξε ότι οι εμπορικοί αλγόριθμοι ανίχνευσης «ζωντάνιας», που χρησιμοποιούνται από χρηματοπιστωτικά ιδρύματα στις διαδικασίες KYC (ταυτοποίηση στοιχείων), θα μπορούσαν να εξαπατηθούν από deepfakes που δημιουργήθηκαν από φωτογραφίες ταυτότητας, δημιουργώντας νέα διανύσματα επίθεσης και καθιστώντας τις ταυτότητες που διέρρευσαν ένα ακόμη πιο σοβαρό ζήτημα.
  • Ένα άλλο ζήτημα είναι ότι τα deepfakes υπονομεύουν την εμπιστοσύνη στο περιεχόμενο ήχου και βίντεο, καθώς μπορούν να χρησιμοποιηθούν για κακόβουλους σκοπούς. Για παράδειγμα, σε μια πρόσφατη περίπτωση, μια ψεύτικη συνέντευξη του Έλον Μασκ χρησιμοποιήθηκε για την προώθηση μιας απάτης με κρυπτονομίσματα. Διάφοροι ειδικοί και ιδρύματα όπως η Europol προειδοποιούν ότι η αυξανόμενη διαθεσιμότητα των deepfakes μπορεί να οδηγήσει σε περαιτέρω εξάπλωση της παραπληροφόρησης στο Διαδίκτυο.
  • Δεν είναι όλα τα νέα άσχημα. Ο χειρισμός της εικόνας είναι τόσο παλιός όσο και οι ίδιες οι εικόνες, και το CGI υπάρχει εδώ και δεκαετίες, και τα δύο χρησιμοποιούνται ευρέως, όπως και τα deepfakes. Για παράδειγμα, σε ένα πρόσφατο βίντεο του Kendrick Lamar, Heart Part 5, η τεχνολογία deepfake χρησιμοποιήθηκε για να μεταμορφώσει το πρόσωπο του ράπερ σε άλλες διάσημες προσωπικότητες, όπως ο Kanye West. Στην ταινία Top Gun: Maverick, χρησιμοποιήθηκε ένας αλγόριθμος για τη φωνή του χαρακτήρα του Val Kilmer αφότου ο ηθοποιός έχασε τη φωνή του. Ένας αλγόριθμος deepfake χρησιμοποιήθηκε επίσης για τη δημιουργία μιας viral σειράς TikTok με πρωταγωνιστή τον ψεύτικο Tom Cruise. Και μερικές νεοσύστατες επιχειρήσεις αναζητούν νέους τρόπους για να χρησιμοποιήσουν την τεχνολογία, για παράδειγμα, για να δημιουργήσουν ρεαλιστικά avatars.

Με όλα τα ζητήματα εμπιστοσύνης που αφορούν τα deepfakes, οι χρήστες μπορούν να αναρωτηθούν πώς να εντοπίσουν ένα deepfake. Ακολουθούν μερικές βασικές συμβουλές:

  • Ένα πειστικό deepfake, όπως αυτό με τον Tom Cruise, απαιτεί ακόμα πολλή εξειδίκευση και προσπάθεια — και μερικές φορές ακόμη και έναν επαγγελματία που θα αναλάβει τη μίμηση. Τα deepfakes που χρησιμοποιούνται για απάτες εξακολουθούν να τείνουν να είναι χαμηλής ποιότητας και μπορούν να εντοπιστούν παρατηρώντας αφύσικες κινήσεις των χειλιών, αφύσικα μαλλιά, αταίριαστα σχήματα προσώπου, ελάχιστα έως καθόλου βλεφαρίσματα, αναντιστοιχίες στο χρώμα του δέρματος και ούτω καθεξής. Λάθη στην απόδοση των ρούχων ή ένα χέρι που περνάει πάνω από το πρόσωπο μπορούν επίσης να προδώσουν ένα ερασιτεχνικό deepfake.
  • Αν δείτε ένα διάσημο ή δημόσιο πρόσωπο να προβαίνει σε υπερβολικά αμφιλεγόμενες δηλώσεις ή προσφορές που είναι πολύ καλές για να είναι αληθινές, ακόμα κι αν το βίντεο είναι πειστικό, προχωρήστε με τη δέουσα επιμέλεια και διασταυρώστε τις πληροφορίες με αξιόπιστες πηγές. Λάβετε υπόψη ότι οι απατεώνες μπορούν σκόπιμα να κωδικοποιούν τα βίντεο για να κρύψουν τις ανεπάρκειες των deepfakes, επομένως η καλύτερη στρατηγική δεν είναι να κοιτάζετε το βίντεο αναζητώντας ενδείξεις, αλλά να χρησιμοποιείτε την κοινή λογική και τις δεξιότητές σας στον έλεγχο γεγονότων.
  • Μια αξιόπιστη λύση ασφαλείας μπορεί να παρέχει την κατάλληλη υποστήριξη, εάν ένα deepfake υψηλής ποιότητας πείσει τους χρήστες να πραγματοποιήσουν λήψη τυχόν κακόβουλων αρχείων ή προγραμμάτων ή να επισκεφτούν τυχόν ύποπτους συνδέσμους ή ιστότοπους phishing.
  • Σε περίπτωση που πέσετε θύμα deepfake πορνό, μπορείτε να απευθυνθείτε τόσο στον ιστότοπο για να ζητήσετε την κατάργηση του βίντεο (πολλοί ιστότοποι απαγορεύουν τη δημοσίευση deepfakes) όσο και σε μια υπηρεσία επιβολής του νόμου, καθώς η δημιουργία deepfakes αποτελεί ποινικό αδίκημα σε ορισμένες νομοθεσίες.

Όπως αναφέρει ο Vladislav Tushkanov, lead data scientist στην Kaspersky,

Τα deepfakes είναι ένα χαρακτηριστικό παράδειγμα μιας τεχνολογίας που αναπτύσσεται ταχύτερα από ό,τι μπορούμε πραγματικά να κατανοήσουμε και να διαχειριστούμε τις επιπλοκές της. Αυτός είναι ο λόγος για τον οποίο γίνεται αντιληπτό τόσο ως προσθήκη στην «εργαλειοθήκη» ενός καλλιτέχνη όσο και ως νέο όργανο παραπληροφόρησης που αμφισβητεί αυτό που μπορούμε να εμπιστευτούμε ως κοινωνία

Δεν υπάρχουν σχόλια