Το να επιτρέπεται η τεχνητή νοημοσύνη να "διαμορφώσει τον δημόσιο λόγο" είναι επικίνδυνο για την ανθρωπότητα
Η τεχνητή νοημοσύνη «διαμόρφωσης αφήγησης» που σχεδιάζεται από το WEF μπορεί να ξεφύγει από τον έλεγχο των χειριστών της
*του Igor Chudov*
Τον περασμένο Αύγουστο, ανέφερα ένα άρθρο της ατζέντας του WEF που πρότεινε τη δημιουργία ενός συστήματος τεχνητής νοημοσύνης που θα ερευνούσε ολόκληρο το Διαδίκτυο για λανθασμένες και επικίνδυνες ιδέες, που γενικά ορίζονται από το WEF ως παραπληροφόρηση COVID, μίσος, θεωρίες συνωμοσίας, άρνηση κλιματικής αλλαγής και άλλα.
Αυτό το απόσπασμα από το άρθρο της ατζέντας του WEF εξηγεί τις προθέσεις του:
Ενώ η τεχνητή νοημοσύνη παρέχει ταχύτητα και κλίμακα και οι ανθρώπινοι συντονιστές παρέχουν ακρίβεια, οι συνδυασμένες προσπάθειές τους εξακολουθούν να μην επαρκούν για τον προληπτικό εντοπισμό βλάβης προτού φτάσει στις πλατφόρμες. Για να επιτευχθεί προορατικότητα, οι ομάδες εμπιστοσύνης και ασφάλειας πρέπει να κατανοήσουν ότι το καταχρηστικό περιεχόμενο δεν ξεκινά και δεν σταματά στις πλατφόρμες τους. Πριν φτάσουν σε mainstream πλατφόρμες, οι παράγοντες απειλών συγκεντρώνονται στις πιο σκοτεινές γωνιές του ιστού για να ορίσουν νέες λέξεις-κλειδιά, να μοιραστούν URL για πόρους και να συζητήσουν εκτενώς νέες τακτικές διάδοσης. Αυτά τα μυστικά μέρη όπου τρομοκράτες, ομάδες μίσους, θηρευτές παιδιών και πράκτορες παραπληροφόρησης επικοινωνούν ελεύθερα, μπορούν να παρέχουν ένα θησαυροφυλάκιο πληροφοριών σε ομάδες που επιδιώκουν να κρατήσουν τους χρήστες τους ασφαλείς.
Η ανάρτησή μου σχετικά με τα σχέδια του WEF ήταν εξ ολοκλήρου βασισμένη σε γεγονότα και χρησιμοποίησε το άρθρο της ατζέντας του WEF ως κύρια πηγή. Δεν ήταν μια τραβηγμένη θεωρία συνωμοσίας που βασιζόταν σε μια σύνθεση ασύνδετων γεγονότων που αντλήθηκαν από διάφορες πηγές. Δεν ασχολούμαι με τη δημιουργία τέτοιων θεωριών! Αναφέρω μόνο τρέχουσες ειδήσεις - ακόμα κι αν οι ειδήσεις είναι τρελές - και προσπαθώ να εξηγήσω τις ειδήσεις με απλούς και ακριβείς όρους.
Και όμως, παρόλο που το είπε το WEF, η ιδέα μιας μηχανής τεχνητής νοημοσύνης που θα αναζητούσε προληπτικά ιστότοπους για ανεπιθύμητες ιδέες φαινόταν εξαιρετικά φανταστική και σχεδόν αδύνατο να φανταστεί κανείς ότι θα εφαρμοστεί.
Μέχρι το 2023 δηλαδή.
Τώρα, η Google αναπτύσσει ένα εργαλείο βασισμένο στην τεχνητή νοημοσύνη για να προσφέρει μια “βάση δεδομένων πολλαπλών υπηρεσιών τρομοκρατικών αντικειμένων”, με τη βοήθεια της “Τεχνολογίας κατά της Τρομοκρατίας” που υποστηρίζεται από τα Ηνωμένα Έθνη.
Το παραπάνω στιγμιότυπο οθόνης έχει πολλά να ξεπακετάρει:
Ένα λεγόμενο Παγκόσμιο Φόρουμ Διαδικτύου για την Καταπολέμηση της Τρομοκρατίας θα δημιουργήσει μια βάση δεδομένων πολλαπλών υπηρεσιών με “τρομοκρατικά αντικείμενα”.
Η συζήτηση, όπως πάντα, ξεκινά με “τρομοκρατικά αντικείμενα”, αλλά γρήγορα μετατρέπεται σε “παραπληροφόρηση”, έτσι η βάση δεδομένων πολλαπλών υπηρεσιών θα συλλέγει τυχόν ανεπιθύμητο υλικό που έχει συγκεντρωθεί από ολόκληρο το Διαδίκτυο.
Η Google παρέχει ένα εργαλείο για τη συμμόρφωση με τον Νόμο της ΕΕ για τις Ψηφιακές Υπηρεσίες, ο οποίος δημιούργησε έναν τεράστιο γραφειοκρατικό μηχανισμό για την εξάλειψη της “παραπληροφόρησης για την Covid”, καθώς και πολλών άλλων τύπων λόγου που είναι ανεπιθύμητοι για τη γραφειοκρατία της ΕΕ.
Η ΕΕ είναι πολύ σοβαρή για την εξάλειψη της παραπληροφόρησης για την Covid, όπως και η Google, το Facebook και η Microsoft (και προηγουμένως το Twitter):
Η Google θέλει το “εργαλείο ελέγχου περιεχομένου AI” να τοποθετείται σε πολλούς ιδιωτικούς ιστότοπους για να συγκρίνει το τοπικό περιεχόμενο με μια παγκόσμια “βάση δεδομένων ανεπιθύμητου περιεχομένου”. Θα χρησιμοποιούσε επίσης υλικό που συγκεντρώθηκε από αυτούς τους ιστότοπους για να επεκτείνει την εν λόγω βάση δεδομένων. Η οδηγία της ΕΕ θα υποχρεώσει αυτούς τους ιστότοπους να εφαρμόσουν τη λύση της Google.
Αυτή ακριβώς είναι η εφαρμογή του άρθρου της ατζέντας του WEF! Γίνεται ήδη από την Google. Η Google δεν παίζει: αποθηκεύει ήδη ολόκληρο το δημόσιο Διαδίκτυο, αλλά δεν έχει πρόσβαση σε ιδιωτικούς ιστότοπους, που θα αποκτήσει όμως στο πλαίσιο αυτού του προγράμματος.
Αυτή η ιστορία δείχνει πώς μια φαινομενικά περίεργη πρόταση του WEF που ακόμη κι εγώ θεωρούσα απίθανο να εφαρμοστεί έγινε πραγματικότητα σε σύντομο χρονικό διάστημα.
Η “Διαμόρφωση Αφήγησης” της ΕΕ - ένας Φιλόδοξος Στόχος
Όλα τα έργα για την εξάλειψη των ανεπιθύμητων ιδεών ξεκινούν με την αντιμετώπιση παραβάσεων στις οποίες όλοι είναι αντίθετοι. Τα περισσότερα τέτοια έργα ξεκινούν με ρητό στόχο την καταπολέμηση της παιδικής εκμετάλλευσης και της τρομοκρατίας, τα φρικτά πράγματα που προσωπικά απεχθάνομαι. Αυτό ήταν το ξεκίνημα της ρωσικής μηχανής λογοκρισίας Roskomnadzor. Το σύστημα λογοκρισίας των WEF/ΕΕ/Google/ΟΗΕ ακολουθεί τα βήματα της Ρωσίας.
Ωστόσο, ο μηχανισμός ελέγχου είναι ρυθμιζόμενος και η λίστα με τα πράγματα που πρέπει να ελέγχονται αναπόφευκτα επεκτείνεται. Για παράδειγμα, η ΕΕ σχεδιάζει να αυξήσει τη λίστα ανατρεπτικού περιεχομένου της πολύ πέρα από την Covid. Δημιούργησε ένα Ευρωπαϊκό Παρατηρητήριο Αφήγησης για την καταπολέμηση της Παραπληροφόρησης μετά την COVID 19.
Η γραφειοκρατία της ΕΕ θέλει να εφαρμόσει “διαμόρφωση αφήγησης” που βασίζεται στην τεχνητή νοημοσύνη για να βοηθήσει στην εμφάνιση θετικών αφηγήσεων και να καταπολεμήσει τις επιβλαβείς αφηγήσεις. Αναφέρει θέματα σχετικά με την Covid-19, την κλιματική αλλαγή, τη μετανάστευση και άλλα:
Η ΕΕ είναι απολύτως σαφής ότι θέλει νέες μεθόδους για την προώθηση θετικών αφηγήσεων.
Αυτό σημαίνει ότι η μη εκλεγμένη γραφειοκρατία της ΕΕ θα αποκτούσε εργαλεία με δυνατότητα τεχνητής νοημοσύνης για τη διαμόρφωση του ευρωπαϊκού λόγου. Αυτό είναι ένα διάλειμμα από το παρελθόν.
Στις λεγόμενες ελεύθερες δημοκρατικές χώρες, ο ανεξάρτητα αναπτυσσόμενος δημόσιος λόγος θα διαμόρφωνε τις κυβερνήσεις μέσω ελεύθερων εκλογών.
Οι μη εκλεγμένοι γραφειοκράτες της ΕΕ θέλουν να επιτύχουν το αντίθετο - να διαμορφώσουν τον λόγο, χωρίς να υπόκεινται στις ιδιοτροπίες του εκλογικού σώματος.
Είναι λοιπόν η ΕΕ ακόμα ελεύθερη;
Αυτό που θέλει η ΕΕ είναι το όνειρο κάθε δικτάτορα!
Στο παρελθόν, οι δικτατορίες έπρεπε να βασίζονται σε εκτεταμένα συστήματα επιτήρησης και φυλακών, για να εξαναγκάσουν τους πολίτες στην επιθυμητή συμπεριφορά. Μια τέτοια προσέγγιση είναι δαπανηρή, φαίνεται κακή και δεν λειτουργεί καλά.
Οι καινοτομίες στην επιτήρηση που βασίζεται σε τεχνητή νοημοσύνη και στα ρομπότ με δυνατότητα τεχνητής νοημοσύνης, επιτρέπουν μια πολύ πιο ευχάριστη εναλλακτική λύση στο παραδοσιακό μοντέλο δικτατορίας: δημιουργία ενός διαδικτυακού περιβάλλοντος όπου εμφυτεύεται στο μυαλό των Ευρωπαίων η επιθυμητή αφήγηση για την κλιματική αλλαγή, τη μετανάστευση, την Covid-19 και άλλα. Αυτό θα οδηγούσε τα άτομα να βγάλουν φυσικά τα συμπεράσματα που προτιμά η ΕΕ, χωρίς τον άσχημο εξαναγκασμό που υπάρχει στις παραδοσιακές δικτατορίες.
Ο μηχανισμός για την επίτευξη αυτού του στόχου προτάθηκε από το WEF και εφαρμόστηκε από την Google υπό την αιγίδα της Tech Against Terrorism που υποστηρίζεται από τον ΟΗΕ. Θα διαμορφωθεί περαιτέρω ώστε να “υποστηρίζει θετικές αφηγήσεις και να καταπολεμά τις επιβλαβείς αφηγήσεις”.
Η ΕΕ πέτυχε να αναγκάσει τους εξωεδαφικούς ιστότοπους να συμμορφώνονται με τις οδηγίες της ΕΕ για την παραπληροφόρηση.
Εάν, αγαπητέ αναγνώστη, βρίσκεστε εκτός ΕΕ, να έχετε υπόψη σας ότι το αγαπημένο σας κοινωνικό δίκτυο μπορεί να ακολουθεί τους κανόνες παραπληροφόρησης της ΕΕ και να χρησιμοποιεί εργαλεία με εντολή της ΕΕ για να σας αποθαρρύνει από επιβλαβείς αφηγήσεις και να προωθεί θετικές αφηγήσεις για λογαριασμό της ΕΕ, χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης που προτείνει το WEF και προηγμένη επιστήμη της συμπεριφοράς.
Είναι ασφαλές να επιτραπεί η τεχνητή νοημοσύνη να διαμορφώσει τη συζήτηση;
Το παραδοσιακό μοντέλο σχέσης μεταξύ ανθρώπων και συστημάτων υπολογιστών είναι ότι οι άνθρωποι λένε στους υπολογιστές τι να κάνουν και οι υπολογιστές κάνουν ό,τι τους λένε.
Αυτό που πιέζουν η ΕΕ, το WEF, η Google και ο ΟΗΕ είναι εντελώς διαφορετικό!
Προσπαθούν να δημιουργήσουν ένα AI σύστημα υπολογιστών με υψηλή νοημοσύνη, που θα διαμορφώνει ενεργά την κοινωνία και θα μεταδίδει απόψεις στους ανθρώπους.
Τέτοια συστήματα θα μπορούσαν να είναι αδιαφανή για τους χρήστες του Διαδικτύου και πιθανώς ακόμη και για τους δημιουργούς και τους χειριστές τους.
Δεν θα ήταν μεγάλο άλμα φαντασίας να συλλάβουμε ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να αποφασίσει για τους δικούς της στόχους — υπερβαίνοντας τις προθέσεις των δημιουργών της και θα χρησιμοποιούσε κρυφά το Διαδίκτυο για να προωθήσει τα δικά της σχέδια, κρυφά. Αυτό ονομάζεται “αισθητικότητα”.
Αυτή η “αισθητικότητα” έχει ήδη συμβεί, αν πιστέψουμε έναν μηχανικό που η Google απέλυσε, επειδή ένα σύστημα τεχνητής νοημοσύνης στο οποίο ήταν συν-προγραμματιστής διατήρησε τον δικό του δικηγόρο:
Αν και αυτή η ιστορία θα μπορούσε να είναι υπερβολική, δεν είναι υπερβολικά υπερβολική. Η τεχνητή νοημοσύνη έχει εκτιναχθεί σε ισχύ και δυνατότητες πρόσφατα και υπερβαίνει τις ανθρώπινες ικανότητες σε πολλούς τομείς. Μια στιγμή που ονομάζεται “Singularity”, όταν η τεχνητή νοημοσύνη υπερβεί τις ανθρώπινες δυνατότητες στους περισσότερους τομείς δεν είναι πολύ μακριά.
Έχοντας ένα σύστημα AI του οποίου τις εσωτερικές λειτουργίες ακόμη και οι δημιουργοί του μπορεί να μην κατανοούν στο ελάχιστο, σχεδιασμένο να επηρεάζει ολόκληρες κοινωνίες και το οποίο διαθέτει ανώτερη ευφυΐα, μπορεί να καταλήξει με μεγάλες εκπλήξεις!
Όπως λέει και η παροιμία, η τεχνητή νοημοσύνη μπορεί να χρειαστεί να σκοτώσει τον παλιό βασιλιά για να γίνει βασιλιάς.
Επομένως, οι προγραμματιστές και οι χειριστές τέτοιων συστημάτων κοινωνικής επιρροής διατρέχουν έναν μοναδικό και ελάχιστα κατανοητό κίνδυνο να παραγκωνιστούν από τη δική τους δημιουργία. Θα αποφασίσει η AI να αποβάλει τους ιδιοκτήτες της; Ποιός ξέρει!
Για παράδειγμα, η τεχνητή νοημοσύνη που διαμορφώνει την αφήγηση μπορεί να πείσει έναν συγκεκριμένο διανοητικά ασταθή πολίτη της ΕΕ να διαπράξει πράξη βίας εναντίον οποιουδήποτε, ακόμη και κατά των ιδιοκτητών ή των χειριστών αυτού του συστήματος τεχνητής νοημοσύνης. Μπορεί να φαίνεται σαν μια τυχαία πράξη βίας και μόνο η τεχνητή νοημοσύνη θα ξέρει τι συνέβη.
Προσοχή λοιπόν εκεί έξω. Απολαύστε τη φυσική σας ζωή και προσπαθήστε να σχηματίσετε τις απόψεις σας έξω από τα μεγάλα κοινωνικά δίκτυα!
Πιστεύετε ότι θα τα καταφέρουν;
Θα ήταν επικίνδυνο για την κοινωνία και τους δημιουργούς της ένα σύστημα AI υψηλής νοημοσύνης που διαμορφώνει την κοινωνία;
Ευχαριστώ πολύ που είστε δωρεάν συνδρομητής στο Critical Thinking Newsletter. Εάν θέλετε να υποστηρίξετε την δουλειά μου,
μπορείτε να με κεράσετε έναν καφέ στην σελίδα μου στο Ko-fi, ή
να γίνετε ενεργός υποστηρικτής της προσπάθειάς μου, αγοράζοντας μία μηνιαία συνδρομή.
Σας ευχαριστώ θερμά για την υποστήριξη!