Ποιος εντοπίζει καλύτερα τα Deepfakes: Άνθρωπος ή Μηχανή;

Βασικά Takeaways

  • Τα Deepfakes αποτελούν σημαντικές απειλές για την κοινωνία, όπως η διάδοση παραπληροφόρησης, η καταστροφή της φήμης μέσω της πλαστοπροσωπίας και η υποκίνηση σύγκρουσης για την εθνική ασφάλεια.
  • Ενώ η τεχνολογία τεχνητής νοημοσύνης προσφέρει εργαλεία για την ανίχνευση deepfake, δεν είναι τέλεια και η ανθρώπινη διακριτικότητα παραμένει ζωτικής σημασίας για τον εντοπισμό των deepfake.
  • Οι άνθρωποι και τα εργαλεία ανίχνευσης τεχνητής νοημοσύνης έχουν διαφορετικά πλεονεκτήματα και αδυναμίες στον εντοπισμό των deepfake και ο συνδυασμός των ικανοτήτων τους μπορεί να βελτιώσει τα ποσοστά επιτυχίας στον εντοπισμό και τον μετριασμό των κινδύνων της τεχνολογίας deepfake.

Τα Deepfakes απειλούν κάθε πτυχή της κοινωνίας. Η ικανότητά μας να εντοπίζουμε ψεύτικο περιεχόμενο είναι ζωτικής σημασίας για την εξάλειψη της παραπληροφόρησης, αλλά καθώς βελτιώνεται η τεχνολογία AI, ποιον μπορούμε να εμπιστευτούμε για τον εντοπισμό ψεύτικο περιεχόμενο: άνθρωπο ή μηχανή;

Οι κίνδυνοι των Deepfakes

Καθώς η τεχνολογία AI προχωρά, οι κίνδυνοι των deepfakes αποτελούν αυξανόμενη απειλή για όλους μας. Ακολουθεί μια σύντομη περίληψη ορισμένων από τα πιο πιεστικά ζητήματα που θέτουν τα deepfakes:

  • Παραπληροφόρηση: Τα Deepfaked βίντεο και οι ηχογραφήσεις φωνής μπορούν να διαδώσουν παραπληροφόρηση, όπως ψευδείς ειδήσεις.
  • Απομίμηση: Με την πλαστοπροσωπία ατόμων, τα deepfakes μπορούν να βλάψουν τη φήμη των ανθρώπων ή να εξαπατήσουν οποιονδήποτε γνωρίζουν.
  • Εθνική ασφάλεια: Το προφανές σενάριο του Doomsday με τα deepfakes είναι κατασκευασμένα πλάνα ή ήχος ενός παγκόσμιου ηγέτη που υποκινεί σύγκρουση.
  • Πολιτικές αναταραχές: Παραπλανητικά πλάνα και ήχος μπορεί επίσης να χρησιμοποιηθούν από μέρη για να πυροδοτήσουν οργή και εμφύλιες αναταραχές μεταξύ συγκεκριμένων ομάδων.
  • Κυβερνοασφάλεια: Οι κυβερνοεγκληματίες χρησιμοποιούν ήδη εργαλεία κλωνοποίησης φωνής AI για να στοχεύουν άτομα με πειστικά μηνύματα από άτομα που γνωρίζουν.
  • Απόρρητο και συναίνεση: Η κακόβουλη χρήση των deepfakes παίρνει την ομοιότητα ατόμων χωρίς τη συγκατάθεσή τους.
  • Εμπιστοσύνη και εμπιστοσύνη: Εάν δεν μπορείτε να διακρίνετε την αλήθεια από την εξαπάτηση, οι ακριβείς πληροφορίες γίνονται εξίσου αναξιόπιστες.

Τα Deepfakes θα γίνουν μόνο πιο πειστικά, επομένως χρειαζόμαστε ισχυρά εργαλεία και διαδικασίες για τον εντοπισμό τους. Η τεχνητή νοημοσύνη παρέχει ένα τέτοιο εργαλείο με τη μορφή μοντέλων ανίχνευσης deepfake. Ωστόσο, όπως και οι αλγόριθμοι που έχουν σχεδιαστεί για τον εντοπισμό γραφής που δημιουργείται από AI, τα εργαλεία ανίχνευσης βαθιάς ψευδούς δεν είναι τέλεια.

Αυτή τη στιγμή, η ανθρώπινη διακριτικότητα είναι το μόνο άλλο εργαλείο στο οποίο μπορούμε να βασιστούμε. Λοιπόν, είμαστε καλύτεροι από τους αλγόριθμους στον εντοπισμό των deepfakes;

  Πώς να εγκαταστήσετε το Ghost στον διακομιστή Ubuntu

Μπορούν οι αλγόριθμοι να ανιχνεύσουν τα Deepfakes καλύτερα από τους ανθρώπους;

Τα Deepfakes είναι μια αρκετά σοβαρή απειλή που οι τεχνολογικοί γίγαντες και οι ερευνητικές ομάδες αφιερώνουν τεράστιους πόρους στην έρευνα και την ανάπτυξη. Το 2019, εταιρείες όπως η Meta, η Microsoft και η Amazon πρόσφεραν 1.000.000 δολάρια σε βραβεία κατά τη διάρκεια ενός Πρόκληση Deepfake Detection για το πιο ακριβές μοντέλο ανίχνευσης.

Το μοντέλο με τις κορυφαίες επιδόσεις ήταν 82,56% ακριβές σε σχέση με ένα σύνολο δεδομένων δημοσίως διαθέσιμων βίντεο. Ωστόσο, όταν τα ίδια μοντέλα δοκιμάστηκαν σε ένα «σύνολο δεδομένων μαύρου κουτιού» με 10.000 αόρατα βίντεο, το μοντέλο με τις κορυφαίες επιδόσεις ήταν μόνο 65,18% ακριβές.

Έχουμε επίσης πολλές μελέτες που αναλύουν την απόδοση των εργαλείων ανίχνευσης πλαστών τεχνητής νοημοσύνης σε ανθρώπινα όντα. Φυσικά, τα αποτελέσματα διαφέρουν από τη μια μελέτη στην άλλη, αλλά γενικά, οι άνθρωποι είτε ισοδυναμούν είτε ξεπερνούν το ποσοστό επιτυχίας των εργαλείων ανίχνευσης deepfake.

Μια μελέτη του 2021 που δημοσιεύτηκε στις PNAS διαπίστωσε ότι οι «συνηθισμένοι άνθρωποι παρατηρητές» πέτυχαν ελαφρώς υψηλότερο ποσοστό ακρίβειας από τα κορυφαία εργαλεία ανίχνευσης deepfake. Ωστόσο, η μελέτη διαπίστωσε επίσης ότι οι ανθρώπινοι συμμετέχοντες και τα μοντέλα τεχνητής νοημοσύνης ήταν επιρρεπή σε διαφορετικούς τύπους λαθών.

Είναι ενδιαφέρον ότι η έρευνα που πραγματοποιήθηκε από Το Πανεπιστήμιο του Σίδνεϊ έχει διαπιστώσει ότι ο ανθρώπινος εγκέφαλος είναι, ασυνείδητα, πιο αποτελεσματικός στον εντοπισμό των deepfakes από τις συνειδητές προσπάθειές μας.

Ανίχνευση οπτικών ενδείξεων σε Deepfakes

Η επιστήμη της ανίχνευσης deepfake είναι πολύπλοκη και η απαιτούμενη ανάλυση ποικίλλει, ανάλογα με τη φύση του πλάνα. Για παράδειγμα, το περιβόητο deepfake βίντεο του Βορειοκορεάτη ηγέτη Kim Jong-un από το 2020 είναι βασικά ένα βίντεο που μιλάει. Σε αυτή την περίπτωση, η πιο αποτελεσματική μέθοδος ανίχνευσης βαθύ ψεύτικο μπορεί να είναι η ανάλυση των μειγμάτων (κινήσεις του στόματος) και των φωνημάτων (φωνητικοί ήχοι) για ασυνέπειες.

Οι ειδικοί στον άνθρωπο, οι περιστασιακοί θεατές και οι αλγόριθμοι μπορούν όλοι να εκτελέσουν αυτού του είδους την ανάλυση, ακόμα κι αν τα αποτελέσματα ποικίλλουν. ο MIT ορίζει οκτώ ερωτήσεις που θα σας βοηθήσουν να αναγνωρίσετε τα βαθιά ψεύτικα βίντεο:

  • Δώστε προσοχή στο πρόσωπο. Οι χειρισμοί DeepFake υψηλής τεχνολογίας είναι σχεδόν πάντα μεταμορφώσεις προσώπου.
  • Δώστε προσοχή στα μάγουλα και το μέτωπο. Το δέρμα φαίνεται πολύ λείο ή πολύ ζαρωμένο; Είναι η γήρανση του δέρματος παρόμοια με τη γήρανση των μαλλιών και των ματιών; Τα DeepFakes ενδέχεται να είναι ασύμβατα σε ορισμένες διαστάσεις.
  • Δώστε προσοχή στα μάτια και τα φρύδια. Εμφανίζονται σκιές σε μέρη που θα περίμενες; Τα DeepFakes ενδέχεται να αποτύχουν να αναπαραστήσουν πλήρως τη φυσική φυσική μιας σκηνής.
  • Προσοχή στα γυαλιά. Υπάρχει κάποια λάμψη; Υπάρχει υπερβολική λάμψη; Αλλάζει η γωνία της λάμψης όταν το άτομο κινείται; Για άλλη μια φορά, τα DeepFakes ενδέχεται να αποτύχουν να αναπαραστήσουν πλήρως τη φυσική φυσική του φωτισμού.
  • Δώστε προσοχή στις τρίχες του προσώπου ή στην έλλειψή τους. Αυτές οι τρίχες προσώπου φαίνονται αληθινές; Το DeepFakes μπορεί να προσθέσει ή να αφαιρέσει μουστάκι, φαβορίτες ή γένια. Ωστόσο, το DeepFakes μπορεί να αποτύχει να κάνει τις μεταμορφώσεις των μαλλιών στο πρόσωπο εντελώς φυσικές.
  • Δώστε προσοχή στους κρεατοελιές του προσώπου. Η κρεατοελιά φαίνεται αληθινή;
  • Δώστε προσοχή στο να αναβοσβήνει. Το άτομο αναβοσβήνει αρκετά ή πολύ;
  • Δώστε προσοχή στις κινήσεις των χειλιών. Ορισμένα deepfakes βασίζονται στον συγχρονισμό των χειλιών. Οι κινήσεις των χειλιών φαίνονται φυσικές;
  Κλιμάκωση και βελτιστοποίηση CI/CD

Τα πιο πρόσφατα εργαλεία ανίχνευσης ψεύτικης τεχνητής νοημοσύνης μπορούν να αναλύσουν τους ίδιους παράγοντες, ξανά, με διάφορους βαθμούς επιτυχίας. Οι επιστήμονες δεδομένων αναπτύσσουν συνεχώς νέες μεθόδους, επίσης, όπως η ανίχνευση φυσικής ροής αίματος στα πρόσωπα των ηχείων στην οθόνη. Νέες προσεγγίσεις και βελτιώσεις στις υπάρχουσες θα μπορούσαν να έχουν ως αποτέλεσμα τα εργαλεία ανίχνευσης ψεύτικα τεχνητής νοημοσύνης να ξεπερνούν σταθερά τους ανθρώπους στο μέλλον.

Ανίχνευση ηχητικών ενδείξεων σε Deepfakes

Η ανίχνευση του deepfake ήχου είναι μια εντελώς διαφορετική πρόκληση. Χωρίς τις οπτικές ενδείξεις του βίντεο και την ευκαιρία εντοπισμού οπτικοακουστικών ασυνεπειών, η ανίχνευση του deepfake βασίζεται σε μεγάλο βαθμό στην ανάλυση ήχου (άλλες μέθοδοι όπως η επαλήθευση μεταδεδομένων μπορούν επίσης να βοηθήσουν, σε ορισμένες περιπτώσεις).

Μια μελέτη που δημοσιεύτηκε από University College του Λονδίνου το 2023 διαπιστώθηκε ότι οι άνθρωποι μπορούν να ανιχνεύσουν βαθιά ψευδή ομιλία το 73% των περιπτώσεων (Αγγλικά και Μανδαρινικά). Όπως και με τα βαθιά ψεύτικα βίντεο, οι άνθρωποι ακροατές συχνά εντοπίζουν διαισθητικά αφύσικα μοτίβα ομιλίας στην ομιλία που δημιουργείται από τεχνητή νοημοσύνη, ακόμα κι αν δεν μπορούν να προσδιορίσουν τι φαίνεται να είναι ασυνήθιστο.

Τα κοινά σημάδια περιλαμβάνουν:

  • Δυσφημητικός
  • Έλλειψη έκφρασης
  • Θόρυβος φόντου ή παρεμβολής
  • Φωνητικές ή φωνητικές ασυνέπειες
  • Έλλειψη «πληρότητας» στις φωνές
  • Υπερβολικά γραμμένη παράδοση
  • Έλλειψη ατελειών (λανθασμένες εκκινήσεις, διορθώσεις, καθαρισμός του λαιμού κ.λπ.)

Για άλλη μια φορά, οι αλγόριθμοι μπορούν επίσης να αναλύσουν την ομιλία για τα ίδια βαθιά ψεύτικα σήματα, αλλά οι νέες μέθοδοι κάνουν τα εργαλεία πιο αποτελεσματικά. Έρευνα από USENIX εντόπισε μοτίβα στην ανακατασκευή φωνητικών οδών AI που αποτυγχάνουν να μιμηθούν τη φυσική ομιλία. Συνοψίζει ότι οι γεννήτριες φωνής τεχνητής νοημοσύνης παράγουν στενά φωνητικά κομμάτια που ταιριάζουν με ήχο (περίπου στο μέγεθος ενός καλαμακιού) χωρίς τις φυσικές κινήσεις της ανθρώπινης ομιλίας.

  12 πλατφόρμες για να δημιουργήσετε τον ιστότοπο του χαρτοφυλακίου σας σε λίγα λεπτά

Προηγούμενη έρευνα από το Ινστιτούτο Horst Görtz ανέλυσε γνήσιο και βαθύ ψεύτικο ήχο στα Αγγλικά και τα Ιαπωνικά, αποκαλύπτοντας ανεπαίσθητες διαφορές στις υψηλότερες συχνότητες γνήσιου λόγου και στα βαθιά ψεύτικα.

Τόσο η φωνητική οδός όσο και οι ασυνέπειες στις υψηλές συχνότητες είναι αντιληπτές από ανθρώπους ακροατές και μοντέλα ανίχνευσης τεχνητής νοημοσύνης. Στην περίπτωση των διαφορών υψηλής συχνότητας, τα μοντέλα τεχνητής νοημοσύνης θα μπορούσαν, θεωρητικά, να γίνουν ολοένα και πιο ακριβή — αν και το ίδιο θα μπορούσε να ειπωθεί και για τα βαθιά ψεύτικα τεχνητή νοημοσύνη.

Οι άνθρωποι και οι αλγόριθμοι ξεγελιούνται από Deepfakes, αλλά με διαφορετικούς τρόπους

Μελέτες υποδεικνύουν ότι οι άνθρωποι και τα πιο πρόσφατα εργαλεία ανίχνευσης τεχνητής νοημοσύνης είναι εξίσου ικανά να εντοπίζουν τα βαθιά ψεύτικα. Τα ποσοστά επιτυχίας μπορεί να ποικίλλουν μεταξύ 50% και 90+%, ανάλογα με τις παραμέτρους της δοκιμής.

Κατ’ επέκταση, οι άνθρωποι και οι μηχανές ξεγελιούνται επίσης από deepfakes σε παρόμοιο βαθμό. Κυρίως, όμως, είμαστε ευαίσθητοι με διαφορετικούς τρόπους και αυτό θα μπορούσε να είναι το μεγαλύτερο πλεονέκτημά μας για την αντιμετώπιση των κινδύνων της τεχνολογίας deepfake. Ο συνδυασμός των δυνατών σημείων των ανθρώπων και των εργαλείων ανίχνευσης ψεύτικα θα μετριάσει τις αδυναμίες του καθενός και θα βελτιώσει τα ποσοστά επιτυχίας.

Για παράδειγμα, MIT έρευνα διαπίστωσε ότι οι άνθρωποι ήταν καλύτεροι στο να αναγνωρίζουν τα βαθιά ψεύτικα ηγετών και διάσημων ανθρώπων από τα μοντέλα τεχνητής νοημοσύνης. Αποκάλυψε επίσης ότι τα μοντέλα τεχνητής νοημοσύνης ταλαιπωρήθηκαν με πλάνα με πολλά άτομα, αν και πρότεινε ότι αυτό θα μπορούσε να προκύψει από την εκπαίδευση αλγορίθμων σε πλάνα με μεμονωμένα ηχεία.

Αντίθετα, η ίδια μελέτη διαπίστωσε ότι τα μοντέλα τεχνητής νοημοσύνης ξεπέρασαν τους ανθρώπους με πλάνα χαμηλής ποιότητας (θολό, κοκκώδες, σκούρο κ.λπ.) που θα μπορούσαν να χρησιμοποιηθούν σκόπιμα για να εξαπατήσουν τους θεατές. Ομοίως, πρόσφατες μέθοδοι ανίχνευσης τεχνητής νοημοσύνης, όπως η παρακολούθηση της ροής του αίματος σε συγκεκριμένες περιοχές του προσώπου, ενσωματώνουν αναλύσεις που δεν είναι σε θέση να κάνουν οι άνθρωποι.

Καθώς αναπτύσσονται περισσότερες μέθοδοι, η ικανότητα του AI να ανιχνεύει σημάδια που δεν μπορούμε μόνο θα βελτιώνεται, αλλά και η ικανότητά του να εξαπατά. Το μεγάλο ερώτημα είναι εάν η τεχνολογία ανίχνευσης deepfake θα συνεχίσει να ξεπερνά τα ίδια τα deepfake.

Βλέποντας τα πράγματα διαφορετικά στην εποχή των Deepfakes

Τα εργαλεία ανίχνευσης deepfake τεχνητής νοημοσύνης θα συνεχίσουν να βελτιώνονται, όπως και η ίδια η ποιότητα του περιεχομένου deepfake. Εάν η ικανότητα της τεχνητής νοημοσύνης να εξαπατά ξεπερνά την ικανότητά της να ανιχνεύει (όπως συμβαίνει με το κείμενο που δημιουργείται από την τεχνητή νοημοσύνη), η ανθρώπινη διακριτικότητα μπορεί να είναι το μόνο εργαλείο που μας έχει απομείνει για την καταπολέμηση των deepfakes.

Όλοι έχουν την ευθύνη να μάθουν τα σημάδια των deepfakes και πώς να τα εντοπίζουν. Εκτός από την προστασία μας από απάτες και απειλές για την ασφάλεια, οτιδήποτε συζητάμε και μοιραζόμαστε στο διαδίκτυο είναι ευάλωτο στην παραπληροφόρηση εάν χάσουμε την κατανόηση της πραγματικότητας.