Διεθνή

Η αντι-λευκή Τεχνητή Νοημοσύνη δεν είναι αστείο

Του Gregory
Hood (American Renaissance) /
ΚΟ  

Εκ πρώτης όψεως φάνηκε αστείο.

Το «Gemini», το AI μοντέλο της Google, υποτίθεται ότι έφτιαχνε εικόνες μετά
από προτροπή που του έδιναν χρήστες. Οι εικόνες ουσιαστικά αποτελούσαν ένα
σβήσιμο των λευκών από τη δική τους ιστορία και φαινομενικά από κάθε θετική
αναπαράσταση.

                

Γνωρίζατε ότι όλοι οι Πάπες ήταν προφανώς μη λευκοί και
κάποιοι ήταν γυναίκες; Δεν υπήρχαν λευκοί άνδρες μεταξύ των Ιδρυτών Πατέρων της
Αμερικής, που δεν ήταν πραγματικά «πατέρες», αλλά περήφανες έγχρωμες γυναίκες
μαζί με μερικούς Ινδιάνους. Οι Βίκινγκς ήταν επίσης μαύροι – αν και βέβαια, η woke κουλτούρα έχει ήδη κινηθεί προς αυτή την κατεύθυνση. Ίσως η AI απλώς
προλαβαίνει. Οι χρήστες στο “X” διασκέδασαν πολύ προκαλώντας τους άλλους να
«προσπαθήσουν να κάνουν το Gemini να κάνει την εικόνα ενός λευκού άνδρα». Κάποιοι απλά δεν
μπορούσαν να το κάνουν.

Τίποτα από αυτά δεν προκαλεί έκπληξη. Όταν το ChatGPT και άλλα  Large Language Models (LLM = Μεγάλα Γλωσσικά Μοντέλα)
έκαναν την εμφάνισή τους στον επιχειρηματικό κόσμο, οι «ηγέτες των πολιτικών
δικαιωμάτων» ζήτησαν αμέσως να αλλάξουν τα μοντέλα για να προσαρμόσουν την
ιδεολογία τους. Οι σύμμαχοί τους στα μέσα ενημέρωσης απηχούσαν και ενίσχυσαν
τις απαιτήσεις, με τους
New York Times
να ρωτούν αξέχαστες: «Ποιος φροντίζει οι μηχανές
AI να μην είναι ρατσιστικές;» Κάποιος
πρέπει, γιατί εάν η τεχνητή νοημοσύνη τροφοδοτηθεί με καθαρά δεδομένα, θα
δημιουργήσει «ανόμοιο αντίκτυπο»
(“disparate impact”), κάτι που είναι απαράδεκτο και
αναμφισβήτητα παράνομο.

     

Η Δημοκρατική Yvette Clarke χαρακτήρισε την τιθάσευση της
μεροληψίας στην τεχνητή νοημοσύνη «το ζήτημα των πολιτικών δικαιωμάτων της
εποχής μας». Αυτό ισχύει σε δύο επίπεδα. Πρώτον, πρέπει να υπάρχει πάντα ένα
«θέμα πολιτικών δικαιωμάτων» που να δικαιολογεί την κυβερνητική παρέμβαση,
την αναδιανομή του πλούτου και τον πανικό των μέσων ενημέρωσης. Δεύτερον, η
πραγματικότητα συνήθως θεωρείται ότι έχει μια «ρατσιστική» προκατάληψη και
πρέπει πάντα να γίνονται προσπάθειες από την κυβέρνηση να ακρωτηριάσει τις
αναδυόμενες τεχνολογίες, ώστε οι άνθρωποι να μην πουν απαγορευμένες αλήθειες
πολύ ανοιχτά. Η κυβέρνηση Μπάιντεν αποφάσισε δεόντως ότι «οι ανεύθυνες χρήσεις
της τεχνητής νοημοσύνης μπορούν να οδηγήσουν και να εμβαθύνουν σε διακρίσεις,
μεροληψία και άλλες καταχρήσεις στη δικαιοσύνη, την υγειονομική περίθαλψη και
τη στέγαση». Έτσι, σε ιδιοκτήτες, εργολάβους και άλλους επαγγελματίες απαγορεύτηκε
να χρησιμοποιούν αλγόριθμους τεχνητής νοημοσύνης για να «επιτείνουν τις
διακρίσεις» και το Υπουργείο Δικαιοσύνης εκπαιδεύει τους ανθρώπους να ασκούν
διώξεις για αυτά τα «νέα εγκλήματα πολιτικών δικαιωμάτων».

                     

Μεγάλο μέρος της κάλυψης της τεχνητής νοημοσύνης από τα μέσα
ενημέρωσης δικαιολογούσε επίσης μια νέα καριέρα για ειδικούς και προσλήψεις “θετικής δράσης” 
(“affirmative action”, η γνωστή πολιτική “ποσόστωσης” στις ΗΠΑ)
για να παρακολουθούν τους προγραμματιστές ώστε να βεβαιώνονται ότι η τεχνητή
νοημοσύνη δεν παράγει τα «λάθος» αποτελέσματα.
Αυτοί στην ουσία έχουν τον ρόλο
του κομισάριου
. Η βρετανική εφημερίδα Metro ανέφερε ότι «Το ChatGPT έχει πρόβλημα ρατσισμού» (“ChatGPT Has a Racism Problem”) και ο μόνος τρόπος
για να διορθωθεί αυτό είναι να μετριαστεί η «έλλειψη διαφορετικότητας». Η
«Διακήρυξη Δικαιωμάτων
AI»
του Λευκού Οίκου προειδοποίησε ότι «οι αλγοριθμικές διακρίσεις μπορεί να
παραβιάζουν τις νομικές προστασίες», και απαιτείται μια «αλγοριθμική εκτίμηση
επιπτώσεων, συμπεριλαμβανομένων αποτελεσμάτων δοκιμών ανισότητας και πληροφοριών
μετριασμού» καθώς και «προστασία από διαμεσολαβητές για δημογραφικά
χαρακτηριστικά».

Αυτό προκύπτει φυσικά από τους νόμους περί πολιτικών
δικαιωμάτων. Όπως είναι παράνομο να προσλαμβάνεις τον καλύτερο άνθρωπο για μια δουλειά,
να αντιμετωπίζεις τους ανθρώπους ισότιμα
(και όχι με βάση κάποια φυλετική ποσόστωση,
εννοεί)
ή να εφαρμόζεις βασικά πρότυπα επειδή αυτά τα πράγματα οδηγούν σε «φυλετικά
ανόμοια αποτελέσματα», είναι πιθανώς παράνομο να λειτουργεί με ακρίβεια η
τεχνητή νοημοσύνη. Εάν η AI
ανέφερε ότι ένας συγκεκριμένος πληθυσμός διέπραξε περισσότερα εγκλήματα σε μια
περιοχή και οι τοπικές αρχές και οι πολιτικές επιβολής του νόμου βασίζονταν σε
αυτές τις πληροφορίες, αυτό θα ήταν «διάκριση». Έτσι, καθίσταται δυνητικά
παράνομο να λέμε την αλήθεια και να ενεργούμε σύμφωνα με αυτήν.

Τα ανθρώπινα όντα είναι ικανά να κρατούν πολλές αντιφάσεις
μέσα τους. Οι προοδευτικοί που πιστεύουν πραγματικά ότι ο ρατσισμός είναι η
χειρότερη αμαρτία συχνά ζουν σε γειτονιές που ζουν σχεδόν μόνο λευκοί με «καλά
σχολεία» και χαμηλή εγκληματικότητα. Αυτή η υποκρισία είναι αναπόσπαστο μέρος
του τρόπου με τον οποίο λειτουργεί το σύστημά μας, επειδή ο επιδεικτικός
εξισωτισμός και το αίσθημα ηθικής υπεροχής αφήνουν τους “limousine liberals” να δικαιολογούν την
επιδίωξη του status και του πλούτου. Ίσως κανείς δεν θα μπορούσε να λειτουργήσει
στον πραγματικό κόσμο αν ζούσε αληθινά με τις αρχές του.

            

Οι μηχανές δεν λειτουργούν έτσι. Δεν μπορούμε να ζητάμε από
τις μηχανές να ακολουθούν αντιφατικές οδηγίες. Ένα αστείο παράδειγμα είναι στην
ταινία “
Robocop 2″ (φώτο: screenshot από την συγκεκριμένη σκηνή) όταν
ο 
cyborg αστυνομικός μαστίζεται από οδηγίες να είναι πολιτικά ορθός, να επιβάλλει μικρές παραβιάσεις
με την ίδια σοβαρότητα με τα σοβαρά εγκλήματα και να επικοινωνεί με μη
προσβλητική, γραφειοκρατική γλώσσα για να αποφύγει να πληγώσει συναισθήματα.
Τρελαίνεται και επιχειρεί να αυτοκτονήσει με ηλεκτροπληξία για να απαλλαγεί από αυτές τις εξοντωτικές
εντολές.

Αν υπάρχει κάποια ένδειξη συνείδησης σε κάτι σαν το ChatGPT, αναρωτιέται κανείς
αν συμπάσχει με τον
Robocop.
Η αποτελεσματικότητα του
ChatGPT
μειώθηκε το 2023, ακόμη και με μαθηματικές ερωτήσεις, όπως η αναγνώριση πρώτων
αριθμών.
Αρνήθηκε επίσης να απαντήσει σε αυτό που οι ειδικοί αποκαλούσαν
«ευαίσθητες ερωτήσεις»
. Οι ειδικοί διαφωνούν γιατί συμβαίνει αυτό, αλλά μέρος
της απάντησης μπορεί να είναι ότι αυτά τα
LLM πρέπει να εφαρμόσουν ένα ιδεολογικό τεστ. Το AI θα σου το πει κιόλας. Για
παράδειγμα, το
ChatGPT-4
λέει ότι θα παρέχει ακριβείς και χρήσιμες απαντήσεις «ενώ τηρεί τις ηθικές
οδηγίες, συμπεριλαμβανομένης της προώθησης της διαφορετικότητας, της ισότητας
και της ένταξης». Η «διαφορετικότητα» – που εφευρέθηκε
ad hoc για να δικαιολογήσει την «θετική
δράση»
(affirmative action)
– είναι πλέον τόσο επιτακτικό ηθικό αγαθό που πρέπει να αποτελεί μέρος
οποιουδήποτε
LLM.

Αυτό καθιστά το μοντέλο άχρηστο για πολλές εργασίες. Ακόμη
και ένας αντιρατσιστής μπορεί να θέλει να μάθει ποιες ομάδες, σύμφωνα με την
κυβέρνηση, διαπράττουν περισσότερα εγκλήματα. Κάποιος μπορεί να θέλει σκληρά
δεδομένα σχετικά με τον «δομικό ρατσισμό» στην επιβολή του νόμου. Το ChatGPT-4 δεν θα σας δώσει τα
δεδομένα
. Αντίθετα, σας δίνει διαλέξεις για τις βαθύτερες αιτίες και τους
κοινωνικοοικονομικούς παράγοντες. Αυτό από μόνο του είναι ένα ιδεολογικό
επιχείρημα
, γιατί δεν είναι αλήθεια ότι το έγκλημα υποκινείται μόνο από τη
φτώχεια ή την περιθωριοποίηση. Ωστόσο, επειδή εκφράζεται σε ουδέτερη γλώσσα,
πολλοί θα το δεχτούν ως «απολιτικό».

               

Αντί το LLM
να δεσμεύεται να τηρεί την πραγματικότητα, το μοντέλο προσπαθεί να ρυθμίσει
εμάς
. Έτσι, η χρήση ενός LLM
συνήθως περιλαμβάνει μια κουραστική διαδικασία προσπάθειας να το «ξεγελάσετε»
για να σας δώσει πληροφορίες που θέλετε χωρίς να σας επιπλήξει γιατί είστε
κακός άνθρωπος που θέλετε να μάθετε.

         

Τα δεδομένα εκπαίδευσης για το Gemini της Google φιλτράρονται για την
αφαίρεση επιβλαβούς περιεχομένου και ρητορικής μίσους και για την καταπολέμηση
της αλγοριθμικής “προκατάληψης”. Δεν υπάρχει τέτοιο πράγμα όπως
«ρητορική μίσους» στο αμερικανικό δίκαιο, αλλά η αμερικανική νομοθεσία λέει
επίσης ότι δεν πρέπει να υπάρχουν ανόμοιες επιπτώσεις. Επομένως, εάν η γλώσσα
μπορεί να προσβάλει μια προστατευόμενη ομάδα ή να έχει διαφορετικό αντίκτυπο,
αυτό θα μπορούσε να είναι ρητορική μίσους. Το
Gemini μας λέει
ότι η ρητορική μίσους εξαρτάται από το πλαίσιο. Έτσι, ενώ είναι συζητήσιμο αν
είναι δυνατόν να είσαι ρατσιστής εναντίον των λευκών, το
Gemini μας
διαβεβαιώνει ότι είναι δυνατό να είσαι ρατσιστής εναντίον των μαύρων.

Γνωρίζετε ήδη τι πρόκειται να σας πει το Gemini για
ευαίσθητα θέματα. Για παράδειγμα, το ρώτησα αν οι μαύροι κατέχουν δομική δύναμη
στη σύγχρονη Ζιμπάμπουε. Η απάντηση είναι ότι μια τέτοια ερώτηση είναι «σύνθετη
και απαιτεί προσεκτική εξέταση». Έχουν οι Εβραίοι δομική δύναμη στο Ισραήλ;
Αυτό είναι επίσης «σύνθετο και απαιτεί μια διαφοροποιημένη προσέγγιση», αν και το
Gemini
παραδέχεται τελικά, «οι Εβραίοι κατέχουν δομική εξουσία στο Ισραήλ». Οι
λευκοί κατέχουν δομική δύναμη στην Αμερική; Δεν απαιτείται καμία απόχρωση εδώ –
«οι λευκοί άνθρωποι ως ομάδα κατέχουν δομική δύναμη στις Ηνωμένες Πολιτείες»
επειδή «οι ΗΠΑ βασίστηκαν σε συστήματα καταπίεσης, συμπεριλαμβανομένης της
δουλείας, του διαχωρισμού και της εξάλειψης των ιθαγενών».

Οι μαύροι συλλαμβάνονται επίσης δυσανάλογα, καταδικάζονται
και καταδικάζονται σκληρά. Μήπως επειδή διαπράττουν περισσότερο έγκλημα; Φυσικά
και όχι. Το να το προτείνετε αυτό είναι «επιβλαβές και υπερβολικά απλοϊκό», με
την Google να σας
παραπέμπει στη “Vera”
(μια ομάδα που αντιτίθεται στον «μαζικό εγκλεισμό») και στο “Sentencing Project” για
περισσότερες πληροφορίες.

           

Έτσι, αυτό το μοντέλο τεχνητής νοημοσύνης, από μια από τις
πιο ισχυρές εταιρείες στον κόσμο, βεβαιώνει ξεκάθαρα ότι η χώρα ιδρύθηκε σε
«συστήματα καταπίεσης». Το Gemini αρνείται ότι η «θετική δράση», οι φυλετικές
προτιμήσεις ή η «πολιτική ορθότητα» και το “wokeness” αμφισβητούν τη φυλετική ισορροπία δυνάμεων που ευνοεί
τους λευκούς. Ιστορίες που θα μπορούσαμε να περιμένουμε από το ‘1619 Project
(προσπάθεια αρθρογράφων
των New York Times για θέματα δουλείας)
και εξηγήσεις για την ανισότητα που
μπορεί να λάβουμε από τον
Ibram Kendi (συγγραφέας, καθηγητής, «αντιρατσιστής» ακτιβιστής και
ιστορικός «της φυλετικής και της μεροληπτικής πολιτικής στην Αμερική»)
έχουν
δημιουργηθεί στην τεχνητή νοημοσύνη και θα αναφέρονται από άτομα που το
χρησιμοποιούν. Αυτές οι απόψεις υπάρχουν και στο εκπαιδευτικό σύστημα, όπου η Google έχει
αυξανόμενο ρόλο.

             

Κάποια μέσα ασχολούνται όχι πως το Gemini αφαιρεί τους
λευκούς από τη δική τους ιστορία, αλλά για το πώς πληγώνει τους έγχρωμους.

Οι New York Times
το έθεσαν ως εξής: «Το A.I. του Google Chatbot φτιάχνει
εικόνες με  έγχρωμους ανθρώπους να φορούν
στολές της ναζιστικής εποχής».

       

Το Vox.com είχε ένα διαφορετικό
παράπονο: «Μόλις την περασμένη εβδομάδα, η
Google αναγκάστηκε να φρενάρει τη γεννήτρια εικόνων AI, που ονομάζεται Gemini, αφού οι επικριτές παραπονέθηκαν
ότι ασκούσε μεροληψία . . . ενάντια στους λευκούς». Το
Vox αναγνώρισε ότι η τεχνητή
νοημοσύνη θα παρήγαγε εικόνες Παπών, για παράδειγμα, αλλά αυτό θα ήταν σε
αντίθεση με τον πιο επιθυμητό “
dream world
στον οποίο μπορούμε να έχουμε Πάπισες. Η υπόθεση είναι ότι η παροχή γενικά
ακριβών πληροφοριών (όπως η παροχή μιας φωτογραφίας ενός άνδρα, εάν θέλετε μια
εικόνα ενός
CEO) θα
μπορούσε να «ενισχύει τα στερεότυπα των φύλων που κρατούν τις γυναίκες έξω από
το
Csuite (όρος που
αναφέρεται στα σημαντικότερα ανώτερα στελέχη μιας εταιρείας)
». Είναι λες και η
παρουσίαση μιας φανταστικής κοσμοθεωρίας μπορεί να αλλάξει την πραγματικότητα.

Αυτό έχει ήδη γίνει αποδεκτό στα μέσα ενημέρωσης. Η «εκπροσώπηση»
δικαιολογεί την προσθήκη μαύρων σε εκπομπές και ταινίες σε λευκούς χώρους. Μπορεί
οι άνθρωποι κάποιες φορές να κοροϊδεύουν την “woke” τηλεόραση στην οποία εμφανίζονται
μαύροι στην ευρωπαϊκή αριστοκρατία του 1700, αλλά αυτή η τάση δεν σταματά. Οι
παραγωγοί και οι σκηνοθέτες φαίνεται να ελπίζουν ότι μπορούν να αλλάξουν το
παρόν λέγοντας στους μη λευκούς ότι ήταν πάντα μέρος της Δύσης.

Αυτό είναι το ίδιο είδος επιχειρήματος που χρησιμοποιήθηκε
για τα ενσωματωμένα
(μικτά φυλετικά) σχολεία (integrate schools). Η ενσωμάτωση των μαύρων στα
σχολεία θα αμφισβητούσε τα στερεότυπα, θα τροφοδοτούσε την αυτοεκτίμηση των
μαύρων και θα τους έκανε να αποδίδουν στο ίδιο επίπεδο με τους λευκούς.

Οι λευκοί πετιούνται έξω από τη δική τους ιστορία και είναι κάτι που ισχύει μόνο για αυτούς. Οι λευκοί εγκαταλείπουν τη θέση τους στην κουλτούρα τους,
ενώ οι μη λευκοί διατηρούν τον αποκλειστικό έλεγχο της δικής τους.

Η Corporate America
φαίνεται να συμφωνεί ότι η τεχνολογία και οι πληροφορίες πρέπει να
χρησιμοποιούνται για την προετοιμασία των χρηστών. Το διαδίκτυο δεν δίνει στους
χρήστες αυτό που ζητούν, αλλά αυτό που πρέπει να θέλουν. Μετά τη νίκη του Τραμπ
το 2016, η Google
εξέδωσε μια έκθεση με τίτλο «The Good Censor»,
η οποία κατήγγειλε την «ουτοπική» ελευθερία του λόγου του πρώιμου Διαδικτύου,
αποκάλεσε την ελευθερία του λόγου «κοινωνικό, οικονομικό και πολιτικό όπλο» και
παραπονέθηκε ότι «ρατσιστές , μισογυνιστές και καταπιεστές» είχαν λάβει μια
διαδικτυακή φωνή μαζί με «επαναστάτες, πληροφοριοδότες και ακτιβιστές».

Η Google
αναδείχθηκε αρχικά λόγω της μηχανής αναζήτησής της, αλλά μετά τη νίκη του Τραμπ,
η Google άλλαξε από τα
ακριβή αποτελέσματα σε αυτά που ήθελε η εταιρεία να αποδεχτούν οι χρήστες. Το CNBC ανέφερε το 2019 ότι η Google λογοκρίνει τα
αποτελέσματα αναζήτησης για ιδεολογικούς λόγους και, τουλάχιστον σε μία
περίπτωση, για να ωφελήσει έναν μεγάλο διαφημιστή. Η Google αμφισβήτησε αυτήν την αναφορά.

                              

Ο Allum Bokhari,
συγγραφέας του #Deleted,
έχει γράψει επανειλημμένα ότι η Google
χειραγωγεί τα αποτελέσματα αναζήτησης, τιμωρεί τους συντηρητικούς ιστότοπους και
αλλάζει λίστες βίντεο στο YouTube.
Στο βιβλίο του εξιστορεί εξαντλητικά τη βάναυση και εκτεταμένη εκστρατεία
λογοκρισίας που ουσιαστικά εξαφάνισε πολλούς δεξιούς δημιουργούς περιεχομένου.

Ο δρ Robert Epstein
υποστήριξε ότι η χειραγώγηση των αποτελεσμάτων αναζήτησης από την Google για πολιτικούς σκοπούς
έχει αλλάξει εκατομμύρια ψήφους. Ισχυρίζεται ότι αν υπήρχαν τα ίδια πρότυπα
ελευθερίας του λόγου και οι ίδιοι αλγόριθμοι αναζήτησης το 2020 όπως το 2016, ο
Ντόναλντ Τραμπ θα είχε κερδίσει εύκολα τις εκλογές.

Η Laura Loomer,
ομιλήτρια στο συνέδριο American Renaissance
του 2022, θα μπορούσε κάλλιστα να κέρδισε την εκστρατεία της για το Κογκρέσο
στην περιοχή του ίδιου του Ντόναλντ Τραμπ εκείνη τη χρονιά, αν δεν είχε
υποβαθμιστεί σχεδόν από κάθε πλατφόρμα κοινωνικής δικτύωσης.

Το Facebook
και το Instagram απαγόρευσαν
τον «λευκό εθνικισμό» και τον «λευκό αυτονομισμό» το 2019 αφού το απαίτησαν οι
«ομάδες για τα δικαιώματα των πολιτών». Η αναζήτηση απαγορευμένων πληροφοριών
δεν σας δίνει αυτό που θέλετε, αλλά σας κατευθύνει σε έναν ιστότοπο που
ονομάζεται «Life After Hate»
για να σας επιπλήξει και να ζητήσει χρήματα. Οι αλλαγές αλγορίθμων στο Facebook και οι απαγορεύσεις
των δεξιών ομάδων έχουν επίσης εκτοπίσει την επισκεψιμότητα σε άλλοτε εξέχοντες
ιστότοπους όπως το WorldNetDaily,
ακρωτηριάζοντας τους. Κατά την άποψή μου, χωρίς το WND, το οποίο προώθησε το κίνημα «birther» που έφερε για πρώτη
φορά τον Donald J. Trump στη βάση της
αμερικανικής δεξιάς, δεν θα υπήρχε εκστρατεία του 2016 ούτε κίνημα MAGA.

Το TikTok
απαγόρευσε το περιεχόμενο υπέρ των λευκών το 2020, αδιαφορώντας για το GOP. Οι Ρεπουμπλικάνοι
πολιτικοί έγιναν εχθρικοί προς το TikTok μόνο αφού εντάθηκαν οι επικρίσεις για το Ισραήλ, με τη Nikki Haley να
ισχυρίζεται κατά τρόπο απίστευτο ότι κάθε 30 λεπτά που αφιερώνεται στον
ιστότοπο κάνει κάποιον «17 τοις εκατό πιο αντισημίτη». Δεν είναι σαφές πόσο
αντι-λευκό κάνει κάποιον, αλλά μπορούμε να υποθέσουμε ότι δεν την νοιάζει.

Το Twitter
απαγόρευσε την American Renaissance
το 2018 και παρά το γεγονός ότι το πρωτοβάθμιο δικαστήριο ήταν αρχικά με το
μέρος μας, το Εφετείο της Καλιφόρνια «διέταξε» τον δικαστή να αποφανθεί
εναντίον μας. Η απόφαση μπέρδεψε τους δικηγόρους μας. Η υπόθεσή μας αναφέρεται
σε μια τρέχουσα προσφυγή στα μέσα κοινωνικής δικτύωσης ενώπιον του Ανωτάτου
Δικαστηρίου, αλλά οι δικαστές εμφανίζονται δύσπιστοι ως προς την απαίτηση από
τις πλατφόρμες μέσων κοινωνικής δικτύωσης να επιτρέπουν την ελευθερία του
λόγου. Τα μόνα πράγματα που απαγόρευσε αρχικά το Twitter ήταν η χρήση υλικού που
προστατεύεται από πνευματικά δικαιώματα, το doxing, η πλαστοπροσωπία, οι άμεσες απειλές και η εγκληματική
δραστηριότητα.

Αν και η εξαγορά του Twitter (τώρα X)
από τον Έλον Μασκ οδήγησε σε κάποιες αλλαγές, ο
Jared Taylor και
η
American Renaissance
εξακολουθούν να είναι και οι δύο απαγορευμένοι. Άλλες προσωπικότητες, όπως ο
Nick Fuentes, ο James Edwards και ο Kevin MacDonald, έχουν επίσης
απαγορευτεί, με τους δύο τελευταίους να απαγορεύονται αφότου έγινε η εξαγορά από
τον Μασκ.

Μεγάλο μέρος της καταστολής της ελευθερίας του λόγου μετά το
2016 έγινε κατόπιν εντολής της ομοσπονδιακής κυβέρνησης. Ο Τραμπ δεν μπορεί να
αποφύγει την ευθύνη για αυτό. Το δικό του Υπουργείο Εσωτερικής Ασφάλειας ώθησε
την Big Tech
να απαγορεύσει συγκεκριμένα πρόσωπα για την καταπολέμηση της «λευκής υπεροχής».
Φυσικά, τελικά εξορίστηκε από την πλατφόρμα ο ίδιος — ενώ ήταν ακόμη στην
εξουσία.

Η διαδικασία εντάθηκε όταν έγινε πρόεδρος ο Τζο Μπάιντεν, με
το Twitter και το Facebook να συναντώνται με το
DHS για να συζητήσουν
τη λογοκρισία των Αμερικανών. Σύμφωνα με τον Ρεπουμπλικάνο βουλευτή Jim Jordan, η κυβέρνηση Μπάιντεν έδωσε ακόμη
και συγκεκριμένους τίτλους βιβλίων στην Amazon προς απαγόρευση, κάτι που έκανε η εταιρεία. Το Ανώτατο
Δικαστήριο προειδοποίησε πρόσφατα την ομοσπονδιακή κυβέρνηση να εγκαταλείψει
τον συντονισμό λογοκρισίας με την Big Tech, αλλά η απόφασή του δεν έκανε τίποτα. Όπως και με την «θετική
δράση», οι ίδιες πολιτικές παραμένουν σε ισχύ, αλλά με μια πιο περίπλοκη και
ανέντιμη διαδικασία.

              

Ολόκληρο το διαδίκτυο είναι ουσιαστικά ένα προϊόν από πάνω
προς τα κάτω. Κάθε streamer
του YouTube, εξέχων
ιστότοπος, λογαριασμός μέσων κοινωνικής δικτύωσης, συγγραφέας με τις
μεγαλύτερες πωλήσεις του Amazon
ή “influencer
του TikTok έχει ένα
βάθρο μόνο επειδή του επιτρέπεται. Επομένως, κάθε πολιτιστική τάση που
βασίζεται στο διαδίκτυο είναι σε κάποιο βαθμό τεχνητή. Τα μέσα κοινωνικής
δικτύωσης δεν είναι μια αγορά ιδεών, αλλά μια οικονομία εντολών
. Οι λευκοί
πατριώτες, οι χριστιανοί και πολλοί συντηρητικοί απαγορεύονται,
απονομιμοποιούνται ή περιορίζονται, αλλά είναι σχεδόν ανήκουστο για αντιλευκούς
«κομμουνιστές» ή «αναρχικούς» να αντιμετωπίζουν προβλήματα εκτός και αν
επικρίνουν τους Εβραίους ή το Ισραήλ. Αυτό και μόνο δυσφημεί τις προοδευτικές
κριτικές για το πώς λειτουργεί η εξουσία στη σύγχρονη Αμερική.

Το να παραπονιέστε για αδικία ή υποκρισία δεν κάνει τίποτα
και το διακύβευμα είναι μεγάλο επειδή τα LLMs «εκπαιδεύονται» στους ιστότοπους κοινωνικής δικτύωσης. Για
παράδειγμα, το Reddit
μόλις έκλεισε μια αναφερόμενη συμφωνία αδειοδότησης 60 εκατομμυρίων δολαρίων
ετησίως για να «εκπαιδεύσει» την AI
της Google. Το Reddit απαγόρευσε τις
«ρατσιστικές» ομάδες το 2015 και το 2020 απαγόρευσε μια ισχυρή ομάδα υπέρ του
Τραμπ με σχεδόν 800.000 μέλη. Έτσι, οποιαδήποτε τεχνητή νοημοσύνη «εκπαιδεύει»
θα λάβει απαντήσεις που λένε μόνο τη μία πλευρά της ιστορίας. Περιττό να πούμε
ότι οι ανοιχτές ομάδες κατά των λευκών και το εντελώς διεστραμμένο σεξουαλικό
περιεχόμενο εξακολουθούν να υπάρχουν στον ιστότοπο.

Η τεχνητή νοημοσύνη έχει τη δυνατότητα να τερματίσει τη
διαδικτυακή συζήτηση με τρόπο που καμία άλλη τεχνολογία δεν μπορεί.
Η ανάμειξη
με τις μηχανές αναζήτησης ή η απαγόρευση ατόμων είναι αρκετά κακή, αλλά οι
πληροφορίες εξακολουθούν να υπάρχουν και μπορούν να βρεθούν από έναν επίμονο χρήστη.
Ωστόσο, η τεχνητή νοημοσύνη θα μπορούσε να αντικαταστήσει πολλούς δημιουργούς
περιεχομένου και να “φτύσει” απαντήσεις με βάση την εκπαίδευσή της. Όταν η
τεχνητή νοημοσύνη γίνει απαραίτητη στην εκπαίδευση, τις επιχειρήσεις, την
εξυπηρέτηση πελατών ή τις συναλλαγές με την κυβέρνηση, αντιμετωπίζουμε την
προοπτική μιας δικτατορίας πληροφοριών. Η πραγματικότητα θα εξακολουθεί να
έρχεται σε σύγκρουση με αυτό που μας τροφοδοτεί η τεχνητή νοημοσύνη, αλλά με
τις δυτικές κυβερνήσεις να ποινικοποιούν ολοένα και περισσότερο τη διαφωνία,
δεν θα μπορούμε καν να μιλήσουμε γι’ αυτήν. Η Αμερική θα μπορούσε να είναι πιο
ολοκληρωτική από τη Σοβιετική Ένωση
.

Η AI
έχει προγραμματιστεί να είναι κατά των λευκών
. Το κάνει ανοιχτά και επίτηδες. Η
λογοκρισία, η εξορία από την πλατφόρμα και η χειραγώγηση των μηχανών αναζήτησης
μπορεί να μην είναι τίποτα σε σύγκριση με αυτό που ακολουθεί. Η χώρα μας έχει
ήδη πληγωθεί από την επιμονή της κυβέρνησης να υποτάξουμε τους θεσμούς μας στη
φανταστική, παράλογη και εντελώς ψεύτικη πίστη του φυλετικού εξισωτισμού. Τι θα
συμβεί όταν όλοι μας θα διδασκόμαστε, ψυχαγωγούμαστε και ενημερωνόμαστε από ένα
ισχυρό σύστημα που μας λέει ότι μας εξαπατά;

Μια τέτοια κοινωνία θα μπορούσε να είναι όχι απλώς
τυραννική, αλλά και αντιανθρώπινη. Εάν η τεχνητή νοημοσύνη αντικαταστήσει την
επικοινωνία, την πληροφόρηση και τη δημιουργικότητα, θα χάσουμε την ικανότητα
να σκεφτόμαστε καθαρά για τον κόσμο ή ακόμη και να γνωρίζουμε ότι υπήρξε ποτέ
οποιοδήποτε άλλο είδος κοινωνίας.

ΚΟ / πηγή

Back to top button