Ο Μαρκ Ζάκερμπεργκ, συνιδρυτής του Facebook και διευθύνων σύμβουλος της μητρικής εταιρείας του, Meta, φοβόταν για το μέλλον του κυρίαρχου μέσου κοινωνικής δικτύωσης όταν η κινεζική πλατφόρμα διαδικτυακών βίντεο TikTok άρχισε να κερδίζει έδαφος, πριν από λίγα χρόνια, σύμφωνα με έναν πληροφοριοδότη από το δίκτυο της Meta.
Σύμφωνα με δημοσίευμα των Times του Λονδίνου, ο Ματ Μότιλ, πρώην ανώτερος ερευνητής στο Facebook, αναφέρει σε ντοκιμαντέρ του BBC ότι το αφεντικό του ανησυχούσε τόσο πολύ, που άρχισε να επενδύει πόρους στο Reels, την εφαρμογή βίντεο των χρηστών του Facebook και του Instagram. Ο Ζάκερμπεργκ ήταν εκνευρισμένος από την «κοινή αντιστάθμιση ανάμεσα στην προστασία των χρηστών από το επιβλαβές περιεχόμενο και την εμπλοκή τους».
Ο Μότιλ έδειξε στο BBC εσωτερικά έγγραφα της Meta, κάποια εκ των οποίων καταγράφουν πώς οι αναρτήσεις στο Reels έχουν υψηλότερη «επικράτηση του παράτυπου εχθρικού λόγου» σε μια σειρά ειδικών κατηγοριών, σε σχέση με τις φυσιολογικές αναρτήσεις που εμφανίζονται στις ροές των χρηστών – 75% ήταν η αύξηση των αναρτήσεων με εκφοβισμούς και παρενοχλήσεις, 19% εκείνων με ρητορική μίσους και 7% όσων περιείχαν υποκίνηση βίας.
Ο Μότιλ, ο οποίος εργάστηκε για το Facebook από το 2019 έως το 2023, ισχυρίζεται ότι οι ομάδες ακεραιότητας της Meta βρέθηκαν σε μειονεκτική θέση όταν, για να προστατεύσουν τους χρήστες από βλάβες στον ιστότοπο, έπρεπε να πείσουν τους επικεφαλής υπεύθυνους για τις ροές και για το Reels να εγκρίνουν μια αλλαγή κατεύθυνσης που δεν επιθυμούσαν να κάνουν, καθώς «η τοξικότητα προσελκύει μεγαλύτερη αλληλεπίδραση» στις τάξεις των χρηστών.
Η Λίζα Τζένινγκς Γιανγκ, επικεφαλής σχεδιασμού, εμπιστοσύνης και ασφάλειας στο Twitter από το 2019 έως το 2022, λέει στο ντοκιμαντέρ ότι το μέσο κοινωνικής δικτύωσης είχε «ένα επιχειρηματικό μοντέλο βασισμένο στην οργή». Θυμάται τον Ελον Μασκ να λέει στους υπαλλήλους του όταν το αγόρασε και το μετονόμασε σε X, το 2023, ότι θέλει να το κάνει «περισσότερο σαν το TikTok», χρησιμοποιώντας την έκφραση «πιο σκληροπυρηνικό».
Ο Μαρκ Μπάροους, από την ομάδα επιμέλειας του Twitter μεταξύ 2015 και 2022, αναφέρει στο BBC πως όταν συνέβαινε ένα σοβαρό περιστατικό, η δουλειά τους ήταν να διασφαλίζουν ότι τα tweets που προωθούσαν μη επαληθευμένες πληροφορίες θα απωθούνταν από τον αλγόριθμο. Αλλά το πρώτο πράγμα που έκανε ο Μασκ ήταν να αφαιρέσει αυτές τις δικλείδες ασφαλείας, προωθώντας την παραπληροφόρηση.
Ως αποτέλεσμα αυτής της τακτικής, σύμφωνα με τον Μπάροους, μετά από μαζικές δολοφονίες στις ΗΠΑ, οργισμένα κατευθυνόμενα tweets οδηγούσαν σε ταραχές, καθώς οι οργανωμένες εκστρατείες παραπληροφόρησης ανέφεραν ότι ο δράστης τους ήταν παράνομος μετανάστης. «Γνωρίζαμε ότι άτομα με συγκεκριμένη ατζέντα μπορούσαν να χειραγωγήσουν τον αλγόριθμο, αλλά ο Μασκ επέλεξε να προωθήσει τις αναρτήσεις τους», εξηγεί στο ντοκιμαντέρ.
Μηχανικός της Meta αναφέρει στο BBC ότι, ενώ αρχικά το Facebook δημιουργούσε αλγόριθμους που μείωναν την ποσότητα τού «οριακά επιβλαβούς» περιεχομένου, με την πάροδο του χρόνου η τάση της πλατφόρμας αντιστράφηκε και οι «επικίνδυνες» αναρτήσεις άρχισαν να προωθούνται περισσότερο. Ο λόγος, σύμφωνα με τον μηχανικό, ήταν η πτώση τιμής της μετοχής της εταιρείας, ελέω TikTok – «έπρεπε να καλύψουμε τις απώλειες», λέει χαρακτηριστικά.
Ο Μότιλ αναφέρει στο ντοκιμαντέρ ότι ο αλγόριθμος στο Facebook έχει σχεδιαστεί για να δίνει προτεραιότητα στο περιεχόμενο που προσελκύει τη μεγαλύτερη αλληλεπίδραση – και οι πολιτικές αναρτήσεις που το επιτυγχάνουν πιο αποτελεσματικά είναι συνήθως βασισμένες στην παραπληροφόρηση. «Οσο πιο τοξική είναι η ανάρτηση, τόσο πιο πολλές οργισμένες απαντήσεις προκαλεί», εξηγεί.
Η πολιτική του Facebook είναι απλή και στυγνά επιχειρηματική – με τρία δισεκατομμύρια χρήστες παγκοσμίως, όσο περισσότερο χρόνο μπορεί η πλατφόρμα να σε κρατήσει εκεί, τόσο περισσότερες διαφημίσεις θα πουληθούν, και τόσο περισσότερα χρήματα θα μπουν στα ταμεία του. Εσωτερικό έγγραφο του Facebook αναφέρει χωρίς περιστροφές: «Οσο περισσότερα αρνητικά σχόλια υποκινεί μια ανάρτηση, τόσο μεγαλώνει και η επισκεψιμότητα του συνδέσμου».
Το έγγραφο αναφέρει ότι το σύνολο των οικονομικών κινήτρων που δημιουργούν οι αλγόριθμοι δεν φαίνεται να ευθυγραμμίζεται με την αποστολή της εταιρείας να φέρει τον κόσμο πιο κοντά. Χιλιάδες παρόμοια έγγραφα στα οποία φαινόταν ότι η εταιρεία έδινε προτεραιότητα στην ανάπτυξη εις βάρος της ασφάλειας των χρηστών διέρρευσε και η πρώην υπάλληλος του Facebook Φράνσις Χόγκεν το 2021, προκαλώντας θύελλα αντιδράσεων.
Η Meta και το YouTube είναι συγκατηγορούμενοι σε μια δικαστική υπόθεση στο Λος Αντζελες. Κατηγορούνται για την κατασκευή εθιστικών προϊόντων που έβλαψαν την ψυχική και συναισθηματική υγεία μιας 20χρονης γυναίκας. Το TikTok και το Snapchat συμφώνησαν σε εξωδικαστικό συμβιβασμό πριν από την έναρξη της δίκης.
Ανώνυμος υπάλληλος των υπηρεσιών ασφαλείας του TikTok μιλάει στο ντοκιμαντέρ του BBC για την όλο και πιο σημαντική προώθηση «οριακά» επιβλαβούς περιεχομένου της πλατφόρμας από το 2020 ως το 2024, με θεωρίες συνωμοσίας να εμφανίζονται αναλογικά με τον χρόνο που περνούσαν οι χρήστες στο μέσο. Αναφέρει ότι υπήρχαν ξεκάθαρες οδηγίες προς αυτή την κατεύθυνση, που προβλημάτισαν πολλούς μηχανικούς εκμάθησης της πλατφόρμας.
Το TikTok αναφέρει επίσημα ότι η διασφάλιση της ασφάλειας εξακολουθεί να αποτελεί «την πιο σημαντική προτεραιότητα» της μητρικής εταιρείας του, ByteDance, και ότι τον τελευταίο χρόνο έχει αφαιρέσει περίπου 90 εκατομμύρια λογαριασμούς ανηλίκων – οι οποίοι «έτσι κι αλλιώς διαθέτουν συνολικά πάνω από 50 προκαθορισμένες λειτουργίες και ρυθμίσεις ασφαλείας που ενεργοποιούνται αυτόματα».
Το X αναφέρει στο BBC ότι πρόσφατα μετέτρεψε τον αλγόριθμό του σε ανοιχτό κώδικα για δημόσια πρόσβαση και ότι προωθεί «υγιείς συζητήσεις», επιδιώκοντας να «αποτρέψει την ενίσχυση του επιβλαβούς περιεχομένου». Η Meta καταρρίπτει τους ισχυρισμούς ότι ενισχύει το επιβλαβές περιεχόμενο του Facebook για οικονομικό όφελος, κάνοντας λόγο για «αυστηρές πολιτικές προστασίας» των χρηστών και συζητήσεις με ειδικούς για την προστασία των εφήβων.
Οι Times επισημαίνουν ότι η προώθηση συγκεκριμένου, συχνά πολωτικού περιεχομένου στις ροές, μπορεί να προκαλέσει ενόχληση σε κάποιους ενήλικους χρήστες, αλλά στους πιο ευαίσθητους, όπως οι ανήλικοι, ενδέχεται να επιφέρει τραυματικές εμπειρίες, ειδικά αν περιέχει βία – λεκτική, σωματική, ή συναισθηματική. Παράλληλα τονίζουν και τον κίνδυνο εθισμού που προκαλεί η συνεχής χρήση των μέσων κοινωνικής δικτύωσης στους εφήβους.
Ο ανώνυμος πληροφοριοδότης του TikTok στο ντοκιμαντέρ του BBC εκφέρει μια πιο ακραία προειδοποίηση στους γονείς των παιδιών που χρησιμοποιούν την εφαρμογή: «Διαγράψτε το άμεσα. Κρατήστε τα παιδιά σας όσο το δυνατόν πιο μακριά γίνεται από την πλατφόρμα, για όσο το δυνατόν μεγαλύτερο διάστημα. Θα σας ευγνωμονούν όταν μεγαλώσουν».
Ακολουθήστε το Protagon στο Google News


