Ένας ερευνητής τεχνητής νοημοσύνης αντιμετωπίζει εκλογικά βαθιά ψεύτικα

Για σχεδόν 30 χρόνια, ο Oren Etzioni ήταν από τους πιο αισιόδοξους ερευνητές τεχνητής νοημοσύνης.

Όμως, το 2019, ο Δρ Ετζιόνι, καθηγητής στο Πανεπιστήμιο της Ουάσιγκτον και ιδρυτικός εκτελεστικός διευθυντής του Allen AI Institute, έγινε ένας από τους πρώτους ερευνητές που προειδοποίησαν ότι μια νέα γενιά τεχνητής νοημοσύνης θα επιτάχυνε τη διάδοση της παραπληροφόρησης στο διαδίκτυο. Και στα μέσα του περασμένου έτους, είπε, ανησυχούσε ότι τα deepfakes που δημιουργήθηκαν από την τεχνητή νοημοσύνη θα μπορούσαν να επηρεάσουν σημαντικές εκλογές. Τον Ιανουάριο ίδρυσε μια μη κερδοσκοπική εταιρεία, την TrueMedia.org, ελπίζοντας να καταπολεμήσει αυτήν την απειλή.

Την Τρίτη, ο οργανισμός κυκλοφόρησε δωρεάν εργαλεία για τον εντοπισμό της ψηφιακής παραπληροφόρησης, με ένα σχέδιο να τα βάλει στα χέρια δημοσιογράφων, ελεγκτών γεγονότων και οποιουδήποτε άλλου προσπαθεί να καταλάβει τι είναι πραγματικό στο διαδίκτυο.

Τα εργαλεία, διαθέσιμα στον ιστότοπο TrueMedia.org σε οποιονδήποτε εγκεκριμένο από τον μη κερδοσκοπικό οργανισμό, έχουν σχεδιαστεί για να ανιχνεύουν ψεύτικες και παραποιημένες εικόνες, ήχο και βίντεο. Εξετάζουν συνδέσμους προς αρχεία πολυμέσων και προσδιορίζουν γρήγορα αν πρέπει να είναι αξιόπιστα.

Ο Δρ Etzioni βλέπει αυτά τα εργαλεία ως μια βελτίωση σε σχέση με την άμυνα μωσαϊκού που χρησιμοποιείται επί του παρόντος για τον εντοπισμό παραπλανητικού ή παραπλανητικού περιεχομένου AI. Αλλά σε μια χρονιά που δισεκατομμύρια άνθρωποι σε όλο τον κόσμο θα ψηφίσουν στις εκλογές, εξακολουθεί να παρουσιάζει μια ζοφερή εικόνα για το τι περιμένει.

«Είμαι τρομοκρατημένος», είπε. «Υπάρχει μια καλή πιθανότητα να δούμε ένα τσουνάμι παραπληροφόρησης».

Μόνο τους πρώτους μήνες του έτους, οι τεχνολογίες τεχνητής νοημοσύνης βοήθησαν να δημιουργηθούν ψεύτικες φωνητικές κλήσεις από τον Πρόεδρο Μπάιντεν, ψεύτικες εικόνες και ηχητικές διαφημίσεις από την Taylor Swift και μια ολόκληρη ψεύτικη συνέντευξη που φαινόταν να δείχνει έναν Ουκρανό αξιωματούχο να αναλαμβάνει τα εύσημα για μια τρομοκρατική επίθεση στη Μόσχα. . Ο εντοπισμός αυτού του τύπου παραπληροφόρησης είναι ήδη δύσκολος και η βιομηχανία τεχνολογίας συνεχίζει να κυκλοφορεί όλο και πιο ισχυρά συστήματα τεχνητής νοημοσύνης που θα δημιουργούν όλο και πιο πειστικά deepfakes και θα κάνουν τον εντοπισμό ακόμη πιο δύσκολο.

Πολλοί ερευνητές τεχνητής νοημοσύνης προειδοποιούν ότι η απειλή δυναμώνει. Τον περασμένο μήνα, περισσότεροι από χίλιοι άνθρωποι, συμπεριλαμβανομένου του Δρ. Ετζιόνι και αρκετών άλλων επιφανών ερευνητών τεχνητής νοημοσύνης, υπέγραψαν μια ανοιχτή επιστολή ζητώντας νόμους που θα καθιστούν υπεύθυνους τους προγραμματιστές και τους διανομείς οπτικών και ακουστικών υπηρεσιών τεχνητής νοημοσύνης εάν η τεχνολογία τους χρησιμοποιείται εύκολα για τη δημιουργία επιβλαβούς περιεχομένου. deepfakes.

Σε εκδήλωση που διοργάνωσε το Πανεπιστήμιο Κολούμπια την Πέμπτη, η Χίλαρι Κλίντον, πρώην υπουργός Εξωτερικών, πήρε συνέντευξη από τον Έρικ Σμιντ, πρώην Διευθύνοντα Σύμβουλο της Google, ο οποίος προειδοποίησε ότι τα βίντεο, ακόμη και τα ψεύτικα, θα μπορούσαν να «οδηγήσουν τη συμπεριφορά ψήφου, την ανθρώπινη συμπεριφορά». , τις διαθέσεις, τα πάντα. .”

«Δεν νομίζω ότι είμαστε προετοιμασμένοι», είπε ο Schmidt. «Αυτό το πρόβλημα θα επιδεινωθεί πολύ τα επόμενα χρόνια. Ίσως ή όχι για τον Νοέμβριο, αλλά σίγουρα στον επόμενο κύκλο».

Η βιομηχανία τεχνολογίας γνωρίζει καλά την απειλή. Παρόλο που οι εταιρείες σπεύδουν να προωθήσουν τα παραγωγικά συστήματα AI, αγωνίζονται να περιορίσουν τη ζημιά που μπορούν να προκαλέσουν αυτές οι τεχνολογίες. Η Anthropic, η Google, η Meta και η OpenAI ανακοίνωσαν σχέδια για τον περιορισμό ή την επισήμανση των χρήσεων των υπηρεσιών τεχνητής νοημοσύνης που σχετίζονται με τις εκλογές. Τον Φεβρουάριο, 20 εταιρείες τεχνολογίας, συμπεριλαμβανομένων των Amazon, Microsoft, TikTok και X, υπέγραψαν εθελοντική δέσμευση να αποτρέψουν το παραπλανητικό περιεχόμενο τεχνητής νοημοσύνης να διαταράξει την ψηφοφορία.

Αυτό θα μπορούσε να είναι μια πρόκληση. Οι εταιρείες συχνά κυκλοφορούν τις τεχνολογίες τους ως λογισμικό «ανοικτού κώδικα», που σημαίνει ότι ο καθένας είναι ελεύθερος να τις χρησιμοποιεί και να τις τροποποιεί χωρίς περιορισμούς. Οι ειδικοί λένε ότι η τεχνολογία που χρησιμοποιείται για τη δημιουργία deepfakes – αποτέλεσμα τεράστιων επενδύσεων από πολλές από τις μεγαλύτερες εταιρείες του κόσμου – θα ξεπερνά πάντα την τεχνολογία που έχει σχεδιαστεί για την ανίχνευση παραπληροφόρησης.

Την περασμένη εβδομάδα, κατά τη διάρκεια μιας συνέντευξης στους New York Times, ο Δρ. Etzioni έδειξε πόσο εύκολο είναι να δημιουργήσεις ένα deepfake. Χρησιμοποιώντας μια υπηρεσία από μια αδελφή μη κερδοσκοπική οργάνωση, τη CivAI, η οποία χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης που είναι διαθέσιμα στο Διαδίκτυο για να καταδείξει τους κινδύνους αυτών των τεχνολογιών, δημιούργησε αμέσως φωτογραφίες του στη φυλακή, σε ένα μέρος που δεν είχε πάει ποτέ.

«Όταν βλέπεις τον εαυτό σου να κοροϊδεύεται, είναι πολύ πιο τρομακτικό», είπε.

Αργότερα δημιούργησε ένα βαθύ ψεύτικο του εαυτού του σε ένα κρεβάτι νοσοκομείου, το είδος της εικόνας που πιστεύει ότι θα μπορούσε να επηρεάσει τις εκλογές εάν εφαρμοστεί στον Μπάιντεν ή στον πρώην πρόεδρο Ντόναλντ Τζ. Τραμπ λίγο πριν τις εκλογές.

Μια βαθιά ψεύτικη εικόνα που δημιούργησε ο Δρ Ετζιόνι με τον εαυτό του σε κρεβάτι νοσοκομείου.Πίστωση…μέσω Όρεν Ετζιώνη

Τα εργαλεία TrueMedia έχουν σχεδιαστεί για να εντοπίζουν απομιμήσεις όπως αυτά. Περισσότερες από δώδεκα startups προσφέρουν παρόμοια τεχνολογία.

Αλλά ο Δρ Ετζοΐνι, ενώ τόνισε την αποτελεσματικότητα του εργαλείου της ομάδας του, είπε ότι κανένας ανιχνευτής δεν ήταν τέλειος επειδή καθοδηγούνταν από πιθανότητες. Οι υπηρεσίες ανίχνευσης Deepfake έχουν εξαπατηθεί ώστε να δηλώνουν εικόνες ρομπότ που φιλιούνται και γιγάντια Νεάντερταλ ως πραγματικές φωτογραφίες, εγείροντας ανησυχίες ότι τέτοια εργαλεία θα μπορούσαν να βλάψουν περαιτέρω την εμπιστοσύνη της κοινωνίας στα γεγονότα και τα στοιχεία.

Όταν ο Δρ Ετιζόνι έδωσε στα εργαλεία του TrueMedia ένα γνωστό deepfake του κ. Τραμπ να κάθεται σε μια βεράντα με μια ομάδα νεαρών μαύρων ανδρών, το χαρακτήρισαν «πολύ ύποπτο», το υψηλότερο επίπεδο εμπιστοσύνης του. Όταν ανέβηκε ένα άλλο γνωστό deepfake του Τραμπ με αίμα στα δάχτυλά του, δεν ήταν «σίγουροι» αν ήταν αληθινό ή ψεύτικο.

Το εργαλείο της TrueMedia χαρακτήρισε «πολύ ύποπτο» ένα βαθύ ψεύτικο AI του πρώην προέδρου Donald J. Trump που κάθεται σε μια βεράντα με μια ομάδα νεαρών μαύρων ανδρών.
Αλλά ένα βαθύ ψεύτικο του Τραμπ με αίμα στα δάχτυλά του χαρακτηρίστηκε «αβέβαιο».

«Ακόμη και χρησιμοποιώντας τα καλύτερα εργαλεία, δεν μπορείς να είσαι σίγουρος», είπε.

Η Ομοσπονδιακή Επιτροπή Επικοινωνιών απαγόρευσε πρόσφατα τις ρομποκλήσεις που δημιουργούνται από AI. Ορισμένες εταιρείες, συμπεριλαμβανομένων των OpenAI και Meta, υδατογραφούν τώρα εικόνες που δημιουργούνται από AI. Και οι ερευνητές διερευνούν πρόσθετους τρόπους για να διαχωρίσουν το αληθινό από το ψεύτικο.

Το Πανεπιστήμιο του Μέριλαντ αναπτύσσει ένα κρυπτογραφικό σύστημα που βασίζεται σε κώδικα QR για τον έλεγχο ταυτότητας αναλλοίωτων ζωντανών ηχογραφήσεων. Μια μελέτη που δημοσιεύθηκε τον περασμένο μήνα ζήτησε από δεκάδες ενήλικες να αναπνεύσουν, να καταπιούν και να σκεφτούν ενώ μιλούσαν, ώστε να μπορούν να συγκρίνουν τα μοτίβα παύσης της ομιλίας τους με τους ρυθμούς του κλωνοποιημένου ήχου.

Όμως, όπως πολλοί άλλοι ειδικοί, ο Δρ Ετζιόνι προειδοποιεί ότι τα υδατογραφήματα της εικόνας αφαιρούνται εύκολα. Και παρόλο που έχει αφιερώσει την καριέρα του στην καταπολέμηση των deepfakes, αναγνωρίζει ότι τα εργαλεία ανίχνευσης θα δυσκολευτούν να ξεπεράσουν τις νέες τεχνολογίες τεχνητής νοημοσύνης.

Από τη δημιουργία του TrueMedia.org, το OpenAI εισήγαγε δύο νέες τεχνολογίες που υπόσχονται να κάνουν τη δουλειά σας ακόμα πιο δύσκολη. Η φωνή ενός ατόμου μπορεί να αναπαραχθεί από μια ηχογράφηση 15 δευτερολέπτων. Ένας άλλος μπορεί να δημιουργήσει βίντεο πλήρους κίνησης που μοιάζουν με κάτι βγαλμένο από ταινία του Χόλιγουντ. Το OpenAI δεν μοιράζεται ακόμη αυτά τα εργαλεία με το κοινό, καθώς εργάζεται για να κατανοήσει τους πιθανούς κινδύνους.

(Οι Times μήνυσαν το OpenAI και τον συνεργάτη του, τη Microsoft, για καταγγελίες για παραβίαση πνευματικών δικαιωμάτων που αφορούν συστήματα τεχνητής νοημοσύνης που δημιουργούν κείμενο.)

Τελικά, είπε ο Δρ Ετζιόνι, η καταπολέμηση του προβλήματος θα απαιτήσει ευρεία συνεργασία μεταξύ των κυβερνητικών ρυθμιστικών αρχών, των εταιρειών που δημιουργούν τεχνολογίες τεχνητής νοημοσύνης και των τεχνολογικών κολοσσών που ελέγχουν τα προγράμματα περιήγησης ιστού και τα κοινωνικά δίκτυα όπου διαδίδεται παραπληροφόρηση. Ωστόσο, είπε ότι η πιθανότητα να συμβεί αυτό πριν από τις φθινοπωρινές εκλογές ήταν μικρή.

«Προσπαθούμε να δώσουμε στους ανθρώπους την καλύτερη τεχνική αξιολόγηση για το τι είναι μπροστά τους», είπε. «Πρέπει ακόμα να αποφασίσουν αν είναι αληθινό».

Leave a Reply

Your email address will not be published. Required fields are marked *