Meta: Οι ευρωεκλογές το πρώτο crash test για το νέο σχέδιο αντιμετώπισης της παραπλάνησης των ψηφοφόρων

NEWSROOM
Ο Μαρκ Ζούκερμπεργκ
Ο Μαρκ Ζούκερμπεργκ στις Βρυξέλλες / Φωτογραφία shutterstock

Η Meta υποστηρίζει ότι εργάζεται σκληρά για να αποτρέψει φαινόμενα όπως στις αμερικανικές εκλογές το 2016, όταν το Facebook κατακλίστηκε από fake news. Τώρα, με τις ευρωεκλογές στον ορίζοντα τη εταιρεία κοινωνικής δικτύωσης έρχεται αντιμέτωπη με την πρώτη σκληρή δοκιμασία.

Η Meta εξέδωσε ανακοίνωση στην οποία περιγράφει ένα σχέδιο για τη διασφάλιση της ακεραιότητας των εκλογών, αρχής γενομένης από τις ευρωεκλογές που θα διεξαχθούν από τις 6 έως τις 9 Ιουνίου.

«Παρόλο που κάθε εκλογική αναμέτρηση είναι μοναδική, το συγκεκριμένο πρόγραμμα βασίστηκε σε διδάγματα που πήραμε από περισσότερες από 200 εκλογές σε όλο τον κόσμο, από το 2016 μέχρι σήμερα», ανέφερε ο Μάρκο Παντσίνι, επικεφαλής της Meta για τις υποθέσεις εντός της Ευρωπαϊκής Ένωσης.

Οι τρεις άξονες που εστιάζει η Meta

Ο Παντσίνι δήλωσε ότι η Meta εστιάζει σε τρεις βασικούς άξονες. Την παραπληροφόρηση, την απόπειρα επηρεασμού των ψηφοφόρων και την κατάχρηση της γενετικής τεχνητής νοημοσύνης.

Σύμφωνα με την ανακοίνωση, η εταιρεία έχει μέχρι στιγμής συνεργαστεί με 26 οργανισμούς ελέγχου γεγονότων και δημοσιεύει μια έκθεση με τα ευρήματα κάθε τρεις μήνες.

Τον τελευταίο καιρό η Meta έχει ρίξει το βάρος προς την γενετική τεχνητή νοημοσύνη και πως το υλικό που έχει δημιουργηθεί με αυτή, θα γίνει αντιληπτό στις πλατφόρμες της.

Κινούμενη προς αυτή την κατεύθυνση, η εταιρεία προσχώρησε στο Partnership on AI, μια πλατφόρμα που έχει σχεδιαστεί για την προώθηση κατευθυντήριων γραμμών και βέλτιστων πρακτικών. Υπέγραψε επίσης τη συμφωνία Tech Accord, η οποία αποσκοπεί στην αποτροπή παραπλανητικού περιεχομένου AI σε μεγάλες πλατφόρμες στις αμερικανικές εκλογές του 2024,

Ενώ όλες οι αναρτήσεις υπόκεινται στις ίδιες κατευθυντήριες γραμμές πολιτικής, η Meta λαμβάνει επιπλέον μέτρα για την παρακολούθηση του περιεχομένου που έχει δημιουργηθεί με τη βοήθεια της τεχνητής νοημοσύνης, σύμφωνα με την ανακοίνωση.

Η Meta συνεργάστηκε με ανεξάρτητους εταίρους που ειδικεύονται στο «fact-checking» και στην εξέταση περιεχομένου τεχνητής νοημοσύνης. Εάν εντοπιστεί περιεχόμενο που κριθεί ότι είναι ψεύτικο και έχει στόχο να παραπλανήσει τους χρήστες τότε θα προβάλλεται λιγότερο.

Οι τρομερές δυνατότητες φέρνουν και μεγάλες ανησυχίες

Η γενετική τεχνητή νοημοσύνη εξελίσσεται με ραγδαίους ρυθμούς, προσφέροντας έναν γρήγορο και αποτελεσματικό τρόπο παραγωγής υλικού, που μπορεί να είναι χρήσιμο σε περίοδο προεκλογικής εκστρατείας. Ωστόσο μπορεί να οδηγήσει και σε αύξηση της παραπληροφόρησης.

Με την τεχνολογία deepfake κάποιος που έχει πρόσβαση και γνώσεις πάνω στα εργαλεία της τεχνητής νοημοσύνης, μπορεί να δημιουργήσει παραπλανητικά βίντεο που θα απεικονίζουν τον Τζο Μπάιντεν ή οποιονδήποτε αρχηγό κράτους.

Πάνω σε αυτό το κομμάτι, η Meta θα προσθέσει μια λειτουργία στον αλγόριθμο της, η οποία θα επιτρέπει στους χρήστες να δηλώνουν ότι το περιεχόμενο που ανεβάζουν έχει δημιουργηθεί με τη βοήθεια της τεχνητής νοημοσύνης. Μάλιστα, η Meta θα προσθέτει και μια ξεχωριστή ετικέτα εάν κρίνει ότι το υλικό είναι ιδιαίτερα υψηλού κινδύνου.

Αξίζει να σημειωθεί ότι όσοι χρήστες δεν τοποθετήσουν στο περιεχόμενό τους τη σχετική ετικέτα, ότι έχει δημιουργηθεί δηλαδή με τεχνητή νοημοσύνη, θα αντιμετωπίζουν συνέπειες. Χωρίς ωστόσο να έχει γίνει γνωστό με ποιον τρόπο θα τιμωρούνται από την Meta.

ΣΧΕΤΙΚΑ