Η είσοδος της Τεχνητής Νοημοσύνης στην καθημερινότητα έχει φέρει τεράστιες αλλαγές ήδη, αλλά αυτές δεν είναι τίποτα σε σχέση με τις αλλαγές που επέρχονται σε λίγα χρόνια, όταν η τεχνολογία αυτή ωριμάσει. Ήδη όμως έχουμε τα πρώτα προβλήματα από την κατάχρηση των δυνατοτήτων του AI. Οι περισσότεροι, όταν ακούν για “τεχνητή νοημοσύνη” μάλλον σκέφτονται σε εντελώς λανθασμένο πλαίσιο· ρομπότ-δολοφόνοι, ρομπότ-εργάτες που θα πάρουν τη θέση των ανθρώπων δημιουργώντας εκατομμύρια άνεργους, και διάφορα τέτοια ζοφερά. Τα πραγματικά προβλήματα, όμως, είναι άλλα.
Ένα από τα σημερινά προβλήματα του AI είναι τα deepfakes. Πρόκειται για ένα βίντεο ή μια εικόνα που δείχνει κάτι που δεν συνέβη ποτέ στην πραγματικότητα. Όλοι έχουμε δει κάποιες πρωτόγονες μορφές του deepfake, σε χιουμοριστικά βίντεο που μπορεί να δείχνουν, για παράδειγμα, τον πρωθυπουργό σε rave party, ή τον Donald Trump να συλλαμβάνεται από αστυνομικούς. Το πρόβλημα είναι πως, καθώς η τεχνολογία βελτιώνεται, αυτά τα deepfakes γίνονται όλο και πιο δύσκολο να γίνουν αντιληπτά, ενώ η χρήση τους έχει προ πολλού περάσει από το χιουμοριστικό στο πεδίο της παραπληροφόρησης και της χειραγώγησης του κοινού, ακόμη και σε εγκληματικό επίπεδο, με απειλές και εκβιασμούς.
Επιπλέον, αν η πραγματική πληροφορία δεν έχει διαφορά από την ψεύτικη, η πίστη του κοινού κλονίζεται, καθώς δεν ξέρει τι να πιστέψει. Σκεφτείτε, για παράδειγμα, ένα βίντεο με τον πρόεδρο ή πρωθυπουργό μιας χώρας να ανακοινώνει δυσβάσταχτους νέους φόρους. Αυτό από μόνο του μπορεί να οδηγήσει τους πολίτες στους δρόμους, πολύ προτού προλάβουν οι αρχές να αντιδράσουν ή να γίνει επίσημη διάψευση. Κι αυτό είναι η πολύ απλή περίπτωση.
Ήδη υπάρχουν πολλά παραδείγματα χρήσης deepfakes για τον εκβιασμό δημοσίων προσώπων, με ιδιαίτερη έμφαση σε celebrities – κυρίως του γυναικείου φύλου – και πολιτικούς. Δυστυχώς, ακόμη και σήμερα, ένα βίντεο με σεξουαλικό περιεχόμενο μπορεί να καταστρέψει καριέρες και υπολήψεις, ακόμη κι αν αργότερα αποδειχθεί πως είναι ψεύτικο. Όσο βελτιώνεται η τεχνολογία, όμως, οι εικόνες και τα βίντεο που παράγονται είναι όλο και περισσότερο αληθοφανή και πειστικά. Κι εδώ είναι που η ανάγκη για συστήματα ανίχνευσης των deepfakes είναι τεράστια. Το θέμα είναι: ποιος είναι καλύτερος στο να ανιχνεύει deepfakes, ο άνθρωπος ή η μηχανή;
Τα deepfakes έχουν προκαλέσει το ενδιαφέρον (όχι για καλό λόγο) ακόμη και των κολοσσών της τεχνολογίας, όπως η Microsoft, η Amazon, ή η Meta (Facebook, Instagram). Μάλιστα, οι τρεις τους πρόσφεραν ένα εκατομμύριο δολάρια σε όποιον κατασκεύαζε το καλύτερο σύστημα ανίχνευσης deepfakes στο Deepfake Detection Challenge. Τα αποτελέσματα ήταν ενθαρρυντικά, με τον νικητή να έχει ένα καλό 82,56% πάνω σε ένα σετ από βίντεο, το οποίο ήταν γνωστό εκ των προτέρων. Όμως, όταν τα ίδια συστήματα κλήθηκαν να αναγνωρίσουν deepfakes από άγνωστα βίντεο, το καλύτερο έπεσε στο 65,18%. Εκτός των αυτόματων συστημάτων, όμως, έχουμε και μελέτες για ανθρώπους που καλούνται να αναγνωρίσουν deepfakes. Τα αποτελέσματα ποικίλλουν, όμως σε γενικές γραμμές ένας απλός άνθρωπος ξεπερνά τα συστήματα αυτόματης ανίχνευσης. Επίσης ενδιαφέρον είναι το ότι οι άνθρωποι καταλαβαίνουν ασυνείδητα ότι κάτι δεν πάει καλά, όταν δεν γνωρίζουν ότι κάτι δεν πάει καλά!
Πώς μπορείς να καταλάβεις ένα deepfake;
Για αρχή, υπάρχει ανακολουθία μεταξύ των κινήσεων του προσώπου και της ομιλίας. Τα χείλη κινούνται με αφύσικο τρόπο, ενώ συχνά οι κινήσεις του σώματος ή του προσώπου (εκτός των χειλιών) δεν ταιριάζει με την ομιλία. Για παράδειγμα, ένας άνθρωπος μπορεί να σφίξει τα μάτια του για μισό δευτερόλεπτο, όταν λέει κάτι σημαντικό, ή να πάρει βαθιά ανάσα πριν το πει. Τα deepfakes δεν έχουν εξελιχθεί (ακόμη) τόσο ώστε να κάνουν το ίδιο. Ομοίως, μπορεί τα μαλλιά να μην κινούνται καθόλου ή με φυσικό τρόπο, αν υπάρχουν γυαλιά μπορεί να μην υπάρχει αντανάκλαση ή αυτή να μην ταιριάζει, τα μάτια συνήθως δεν κινούνται καθόλου ή δεν ταιριάζει η κίνησή τους στο υπόλοιπο σώμα, ενώ το δέρμα και η τριχοφυΐα του προσώπου πολλές φορές φαίνονται “πλαστικά”. Παράλληλα, και η φωνή μπορεί να φαίνεται τεχνητή, να μην υπάρχουν σωστές παύσεις ή κενά για αναπνοή ή ακόμη για να καταπιεί ο ομιλητής – κάτι πολύ συχνό σε όσους μιλάνε για ώρα.
Τελικά, οι ειδικοί πιστεύουν πως απαιτείται συνδυασμός ανθρώπου και μηχανής, καθώς ανιχνεύουν διαφορετικά προβλήματα στα deepfakes. Αυτό που έχει σημασία, όμως, είναι το ότι όλοι μας πρέπει να αρχίσουμε να εξασκούμαστε στην ανίχνευση deepfakes, καθώς στο μέλλον θα γεμίσουμε από αυτά. Και βέβαια, το πιο σημαντικό: να σταματήσουμε να πιστεύουμε ό,τι βλέπουμε. Επειδή είδες κάτι σε βίντεο, δεν σημαίνει και ότι συνέβη.