Il ruolo dei social nel fascismo moderno, dalla disinformazione alla divisione
La truffa, i ricatti, l'avvelenamento informativo, la distorsione della realtà e le ritorsioni mafiose sono l’anima del commercio neoliberista e della politica, che nel complesso sono un tutt’uno. Quando ciò non è sufficiente, arrivano gli omicidi mirati e le "stragi di stato" (nel senso di organizzate dagli organi dello stato eterodiretti dai padroni d'oltreoceano).
Tale pratica di governo pubblico di solito ha piani a lunghissimo termine, a prescindere dagli eletti. Essa prevede che le opinioni e i sentimenti di amicizia o di odio delle grandi masse siano indirizzati attraverso un addomesticamento lento, ma incessante e strutturalmente programmato in modo da essere praticamente inattaccabile e difeso con le unghie e con i denti dagli stessi cittadini vittime di tale manipolazione.
Fatta questa doverosa premessa, diamo uno sguardo a come si sta evolvendo l'informazione demenziale con cui i social media indottrinano le grandi masse:
Alcuni hanno detto che l'apprendimento automatico ha già causato disastri perché viene usato nei motori di raccomandazione dei social media antisociali, quelli che decidono cosa mostrare alle persone per massimizzare il tempo che trascorrono usando il sistema. Hanno scoperto che la disinformazione fascista è estremamente efficace per questo e sta promuovendo il fascismo in tutto il mondo, ignorando la verità. Se credi a tutto ciò che senti da un certo gruppo di persone, possono mentire continuamente e tu crederai a qualsiasi bugia dicano. Ci sono milioni di persone che fanno questo e, una volta che una persona ha perso la connessione con la verità, è molto difficile convincerla che sta credendo a bugie. Queste persone non hanno più un criterio di giudizio.
tratto da:
Ciò è tremendamente vero. La disinformazione alimentata dall'intelligenza artificiale contribuisce alla diffusione del fascismo e del nazismo a livello globale, sfruttando le vulnerabilità nelle percezioni pubbliche e amplificando i messaggi di odio e divisione. La combinazione di disinformazione e algoritmi dei social media che promuovono contenuti controversi crea un ambiente in cui le ideologie fasciste e naziste possono prosperare.
Sia ben chiaro che il web è pieno di contenuti generati da persone che si autodefiniscono "fascisti" o "nazisti" e che ne vanno fieri, quindi l'etichetta di "fascista" o "nazista" è appropriata. Altri gruppi, pur non definendosi esplicitamente per quel che sono, o addirittura dichiarandosi anti-fascisti o anti-nazisti, promuovono nei social ideologie, violenze e crimini del tutto sovrapponibili a quelli del fascismo o del nazismo. Altri ancora commettono azioni gravissime e penalmente rilevanti, fino al pestaggio o all'omicidio, senza alcuna ideologia, ma solo per "apparire" sui social.
A tal proposito, è interessante l'inizio dell'articolo "Weaponized Social Media Is Driving the Explosion of Fascism" (tradotto: "I social media armati guidano l'esplosione del fascismo"), che racconta il video del massacro in una moschea in Nuova Zelanda apparso su Facebook. Il filmato, creato da un autodefinitosi “fascista”, immortalava le immagini di terrore sui volti delle vittime. Questo video, trasformato in un meme armato, ha diffuso l'odio tra milioni di persone, e ciò è assattamente ciò che vogliono i proprietari di tali piattaforme.
Questo accade perché i social media sono strutturati per favorire contenuti che provocano reazioni viscerali. Nonostante le critiche per la diffusione di odio e fascismo, i dirigenti dei social media sono riluttanti a cambiare il modello di business basato sui clic.
I social sono una guerra contro la realtà empirica. Le falsità sono la valuta del fascismo e per i regimi autoritari, tra i quali possiamo considerare le cosidette "democrazie", nelle quali il voto è un teatrino truccato per confermare un potere inamovibile (cfr. "L'illusione della democrazia: il vero volto delle elezioni italiane"). La verità è il nemico da distruggere. Le fake news sui social abilmente indirizzate tramite algoritmi, e quelle propagandate da tutto il resto del main stream, televisione in primis, superano milioni di volte le visualizzazioni di quelle delle rare fonti giornalistiche alternative che con grande fatica fanno un lavoro serio e ben documentato, solitamente su canali frequentemente censurati e osteggiati in mille modi.
Senza una realtà condivisa, il dialogo democratico cede il posto alla rabbia e al linguaggio del fascismo. L'abbiamo già sperimentato tante volte, e continuiamo a viverlo. Proprio per questa ragione, i "padroni universali" che controllano i grandi canali di informazione sono abilissimi nel dividere le persone in buoni e cattivi, dove i sedicenti "buoni" sono incoraggiati a odiare e a far del male ai presunti "cattivi", ovvero coloro che mettono in dubbio la narrativa ufficiale. Chiunque abbia un po' di senno farà molta fatica a capire cosa significhi "buono" o "cattivo" in questo caso, oppure "bene" e "male", etichette sovente strumentalizzate a scopo politico e di manipolazione.
L'intelligenza artificiale aumenta la velocità, la scala e la personalizzazione delle campagne di disinformazione, grazie alla creazione di contenuti falsi altamente persuasivi e realistici, oppure rendendo assai più visibili contenuti di odio o crimini reali. Queste capacità consentono di automatizzare la diffusione di informazioni di odio, false o autentiche che siano, rendendo queste campagne pervasive e praticamente impossibili da contrastare. La televisione e i giornali rilanciano poi questi contenuti, spostando ciò di cui discutono le persone nella direzione voluta dai "padroni" (cfr. "AGENDA SETTING - Usare la tv per mettere fratello contro fratello: combattere gli uni contro gli altri per motivi che le lobby decidono).
(7 agosto 2024)
AI, ChatGPT e Software Libero: Richard Stallman, Pisa, 2023
Nel video che riporto in calce, registrato all'Università di Pisa il 7 giugno 2023 (fonte 1 e fonte 2), Richard Stallman ha parlato delle problematiche legate all'uso del software proprietario, evidenziando come questo tipo di software spesso includa funzionalità malevole progettate per controllare gli utenti. Ha spiegato che la maggior parte delle persone non si rende conto di quanto siano maltrattate dai software proprietari, che sono progettati per dare potere alle grandi aziende tecnologiche a scapito degli utenti. Stallman ha sottolineato che molti programmi proprietari oggi sono effettivamente malware, in quanto disegnati per spiare, limitare o manipolare gli utenti, creando così un ambiente digitale oppressivo e non trasparente.
Stallman ha criticato aspramente i cosiddetti "smartphone", che considera dei computer in miniatura totalmente sotto il controllo delle aziende produttrici. Questi dispositivi non solo limitano la libertà degli utenti, ma sono anche progettati per impedire l'installazione di software libero, rendendo gli utenti completamente dipendenti dal software proprietario preinstallato. Questo controllo estremo impedisce agli utenti di esercitare la loro libertà digitale, costringendoli a utilizzare software che può essere malevolo e lesivo della loro privacy e sicurezza.
Inoltre, Stallman ha esortato tutti a rifiutare l'uso di dispositivi che limitano la libertà dell'utente, sottolineando l'importanza di mantenere il controllo sui propri strumenti digitali. Ha spiegato che rifiutare di utilizzare smartphone e altri dispositivi che non permettono l'installazione di software libero è un atto di resistenza contro la crescente invasione della privacy e la sorveglianza delle grandi aziende tecnologiche. Ha incoraggiato gli utenti a prendere coscienza delle limitazioni imposte dai dispositivi proprietari e a cercare alternative che rispettino la loro libertà e privacy.
Sicurezza degli utenti vs sicurezza delle aziende
Stallman ha affrontato il tema della sicurezza digitale, criticando il modo in cui le aziende tecnologiche spesso privilegiano la loro sicurezza a scapito di quella degli utenti. Ha sottolineato che molte discussioni sulla sicurezza informatica si concentrano su come proteggere le aziende da eventuali attacchi, trascurando invece la protezione degli utenti dai software malevoli che queste stesse aziende potrebbero distribuire.
Ha evidenziato come il software proprietario nelle scuole rappresenti un problema particolare, poiché viola la privacy degli studenti e li espone a pratiche di sorveglianza. Stallman ha spiegato che le scuole dovrebbero essere luoghi di apprendimento e libertà, non di sorveglianza, e ha criticato l'uso di software proprietario che raccoglie dati sugli studenti senza il loro consenso informato. Questo tipo di software spesso obbliga gli studenti a rinunciare alla loro privacy, imponendo pratiche invasive che limitano la loro libertà.
Stallman ha proposto soluzioni alternative per affrontare questi problemi, come l'adozione del software libero nelle scuole. Ha suggerito che l'uso di software libero può aiutare a proteggere la privacy degli studenti e a promuovere un ambiente di apprendimento più etico e rispettoso. Inoltre, ha invitato le istituzioni educative a rifiutare i sistemi che richiedono l'uso di software proprietario, incoraggiando invece l'adozione di soluzioni che rispettino la libertà e la privacy degli utenti.
Impatto della pandemia sul software proprietario nelle scuole
Durante il suo talk, Stallman ha discusso l'impatto della pandemia di COVID-19 sull'adozione del software proprietario nelle scuole. Ha spiegato che molte scuole, costrette a passare all'insegnamento a distanza, hanno adottato rapidamente software proprietario come Microsoft Teams e Google Classroom, aggravando i problemi di privacy e controllo sugli studenti. Questi strumenti, sebbene pratici, comportano una serie di rischi per la privacy degli studenti, che spesso non hanno scelta se non accettare questi sistemi invasivi.
Inoltre, Stallman ha fatto un parallelo con le pratiche distopiche descritte in "1984" di George Orwell, riferendosi ai software di sorveglianza utilizzati durante gli esami. Ha descritto come questi programmi prendano il controllo totale dei computer degli studenti, monitorando ogni loro movimento e persino l'ambiente circostante attraverso le webcam. Queste pratiche di sorveglianza estrema sono paragonabili a un regime di controllo totalitario, dove ogni azione degli studenti viene scrutata e valutata senza riguardo per la loro privacy.
Per contrastare questi problemi, Stallman ha proposto che gli studenti dovrebbero avere la possibilità di sostenere esami su computer scolastici, dove il software di sorveglianza non possa essere utilizzato contro di loro. Ha suggerito che le scuole devono prendere una posizione etica, garantendo che gli strumenti utilizzati per l'educazione non compromettano la libertà e la privacy degli studenti. Questa transizione verso l'uso del software libero è essenziale per creare un ambiente educativo giusto e sicuro.
Intelligenza artificiale e percezione pubblica
Stallman ha chiarito che strumenti come ChatGPT non sono veri e propri sistemi di AI, poiché non comprendono né sanno nulla; generano semplicemente testo fluido senza alcuna reale intelligenza. Ha sottolineato che l'intelligenza artificiale richiede la capacità di comprendere e conoscere cose, il che manca completamente a sistemi come ChatGPT. Questi sistemi sono in grado di produrre testo che sembra sensato solo perché imitano il linguaggio umano, ma senza alcuna comprensione reale del contenuto.
Ha avvertito dei pericoli derivanti dalla fiducia cieca in questi sistemi, poiché molte persone tendono a prendere per buone le risposte generate, senza rendersi conto della loro mancanza di comprensione. Questa fiducia può portare a gravi fraintendimenti e decisioni sbagliate basate su informazioni generate automaticamente senza una vera comprensione. Stallman ha messo in guardia contro l'uso indiscriminato di tali tecnologie senza una corretta consapevolezza delle loro limitazioni.
Stallman ha anche discusso delle implicazioni etiche e sociali dell'uso di reti neurali addestrate. Ha affermato che:
Gli utenti meritano il controllo dei programmi che usano, il che non si applica a un'IA che fosse una persona, perché una persona esiste per se stessa, quella IA dovrebbe avere il controllo sul suo codice. Tuttavia, la maggior parte delle IA non ha "agency" [capacità di un'entità di agire autonomamente, prendere decisioni e avere intenzionalità, n.d.t] o scopi propri, quindi le persone che le possiedono dovrebbero avere il controllo su di esse. Credo che gli utenti debbano avere controllo sui sistemi di IA che utilizzano.
Reti neurali e software libero
Una rete neurale è un modello di apprendimento automatico ispirato al funzionamento del cervello umano. È composta da strati di "nodi" o "neuroni" artificiali, che sono i componenti fondamentali della rete. Questi nodi sono organizzati in strati: uno strato di input, uno o più strati nascosti e uno strato di output.
Ogni nodo è collegato ad altri nodi attraverso "pesi", che sono valori numerici che vengono modificati durante il processo di addestramento della rete neurale. Questi pesi determinano la forza e la direzione della connessione tra i nodi. Quando una rete neurale viene addestrata su un set di dati, i pesi vengono regolati in modo da minimizzare l'errore nella previsione o nel compito che la rete sta cercando di imparare.
Stallman ha spiegato che i valori dei "nodi" all'interno della rete "agiscono come codice sorgente". Questo permette di modificare il comportamento della rete addestrandola ulteriormente con nuovi esempi, senza dover accedere ai dati di addestramento originali. Questa caratteristica rende possibile distribuire reti neurali addestrate come software libero, poiché è possibile apportare modifiche e miglioramenti in modo indipendente dai dati di origine.
Più precisamente:
- Stallman sostiene che non è cruciale fornire i dati di addestramento originali agli utenti di un sistema di machine learning. Ha spiegato che i dati di addestramento non sono necessari per utilizzare o modificare il modello addestrato, in quanto i "pesi" del modello stesso possono essere ulteriormente addestrati con nuovi esempi per migliorare o cambiare il comportamento della rete.
- Stallman sottolinea che spesso i dati di addestramento possono contenere informazioni personali che non dovrebbero essere distribuite per motivi di privacy. Per questo motivo, non distribuire i dati di addestramento può anche essere una misura di protezione della privacy.
- Un altro punto sollevato riguarda il "bias" (cioè distorsione sistematica) nei dati di addestramento. Questo significa che i dati non sono rappresentativi della realtà nel suo complesso, ma riflettono piuttosto le tendenze, i pregiudizi e le disuguaglianze presenti nella società da cui provengono. Stallman ha affermato che è possibile rilevare e correggere il bias nei modelli addestrati senza necessariamente avere accesso ai dati di addestramento originali. Testando il sistema con un numero sufficiente di esempi, si può osservare se il modello presenta bias e successivamente addestrarlo ulteriormente con dati correttivi.
Ricapitolando, Stallman ha sostenuto che, poiché i pesi della rete neurale possono essere modificati e utilizzati per alterare il comportamento della rete, essi possono essere trattati come il codice sorgente di un programma tradizionale. Questo significa che una rete neurale addestrata può essere distribuita come software libero se gli utenti hanno accesso ai pesi e agli strumenti per modificare questi pesi, ovvero se sono rispettati questi requisiti:
- Accessibilità: Gli utenti devono avere accesso ai pesi della rete.
- Modificabilità: Devono poter modificare i pesi attraverso ulteriori cicli di addestramento (il che implica che il modello deve essere gestibile con un computer ordinario, e non essere così enorme da richiedere necessariamente un super-computer - su questa questione Stallman afferma di non avere una soluzione).
- Distribuzione: Devono poter ridistribuire la rete modificata.
Stallman ha anche ragionato sulla differenza tra reti neurali addestrate e intelligenze artificiali reali:
A proposito, dovrei sottolineare che quando ho detto questo ho parlato di sistemi di apprendimento automatico o reti neurali addestrate, non ho detto IA perché la maggior parte di essi, direi, non sono IA. Faccio quella distinzione con attenzione. Utilizzerò il termine intelligenza artificiale solo per parlare di un sistema che può conoscere cose e capire cose. Quindi ChatGPT non è un'intelligenza artificiale. Non lo chiamerò così. Alcune reti neurali addestrate, se stanno capendo informazioni specifiche in qualche senso, forse capiscono qualcosa. Quindi forse sono IA piuttosto limitate, ma forse sono IA, anche se piuttosto limitate. Quindi stiamo attenti a non trattare quei termini come indistinguibili.
Tuttavia, Stallman ha avvertito dei pericoli associati alle AI avanzate, che potrebbero superare l'intelligenza umana e creare scenari imprevedibili e potenzialmente disastrosi. Ha citato scenari ipotetici dove AI estremamente avanzate potrebbero sviluppare piani complessi e sottili che gli esseri umani non sarebbero in grado di comprendere o contrastare in tempo. Questo solleva gravi preoccupazioni etiche e pratiche su come gestire lo sviluppo di tali tecnologie:
Non penso che ChatGPT sia una minaccia per l'umanità in questo momento perché non ha volontà, non può fare piani e non può realizzarli. Sai, gli scenari in cui un'IA decide di fare qualcosa, per esempio trasformare il mondo intero in graffette, sono un'idea ipotetica di come un obiettivo apparentemente innocuo dato a un'IA potrebbe portare al disastro se l'IA fosse abbastanza intelligente e potente da poter realizzare i suoi piani nel mondo reale.
Alcuni hanno detto che l'apprendimento automatico ha già causato disastri perché viene usato nei motori di raccomandazione dei social media antisociali, quelli che decidono cosa mostrare alle persone per massimizzare il tempo che trascorrono usando il sistema. Hanno scoperto che la disinformazione fascista è estremamente efficace per questo e sta promuovendo il fascismo in tutto il mondo, ignorando la verità. Se credi a tutto ciò che senti da un certo gruppo di persone, possono mentire continuamente e tu crederai a qualsiasi bugia dicano. Ci sono milioni di persone che fanno questo e, una volta che una persona ha perso la connessione con la verità, è molto difficile convincerla che sta credendo a bugie. Queste persone non hanno più un criterio di giudizio.
Quindi, forse l'apprendimento automatico ha già causato disastri per l'umanità perché viene usato da potenti corporazioni amorali, che sono la radice di questo disastro, e i sistemi di apprendimento automatico sono uno strumento che usano.
E per quanto riguarda l'ipotetica futura IA che potrebbe essere intelligente come un essere umano? Non possiamo prevedere cosa farà, è fondamentalmente impossibile perché sarebbe più intelligente di noi, potrebbe fare piani sottili che non scopriremmo mai fino a quando sarebbe troppo tardi. Come potremmo prevenirlo? Ci sono persone che da più di 10 anni stanno cercando di trovare un modo per sviluppare IA amichevoli, non so quali progressi abbiano fatto. So che vari libri di fantascienza hanno scenari molto diversi su cosa potrebbe accadere e non penso che possiamo escludere nessuno di quegli scenari, e sono sicuro che ci sono molti altri che le persone non hanno ancora immaginato.
Quindi, secondo me, non possiamo sperare di fare piani ora per ciò che ci terrebbe al sicuro dalle IA con intelligenza a livello umano. Forse, se alcune IA sono dalla nostra parte, ci aiuterebbero a fare tali piani. D'altra parte, potrebbero mentirci molto efficacemente. Con un altro essere umano possiamo avere una base per sapere che possiamo fidarci di alcune persone fino a un certo punto, ma possiamo anche essere ingannati. Quando trattiamo con un'IA, non sarebbe difficile per un'IA immaginare cosa direbbe a una persona se fosse onesta e dire esattamente quello. È la cosa più semplice al mondo: creare uno scenario alternativo, eseguire se stessa in quello scenario, guardare il risultato e capire come cambiarlo.
A proposito, ho letto un racconto di fantascienza che solleva la questione se le invocazioni ricorsive di programmi intelligenti meritino diritti umani [le invocazioni ricorsive sono un concetto familiare ai programmatori di software, in questo caso si riferisce a quando un'IA crea copie temporanee di se stessa per determinati compiti, n.d.t]. Se un'IA merita diritti umani in quanto persona, che dire delle invocazioni ricorsive? Dovrebbero semplicemente essere cancellate quando hanno fatto il loro lavoro? Credo che si chiamasse "Stones of Significance" e sollevava una questione filosofica molto inquietante.
Stallman ha anche discusso delle difficoltà nel rendere queste tecnologie trasparenti e controllabili. Ha evidenziato che molte delle AI e dei sistemi di apprendimento automatico attuali sono sviluppati come software proprietario, limitando la capacità degli utenti di comprenderne e modificarne il funzionamento. Questo crea un ulteriore livello di disuguaglianza e controllo, dove solo le grandi aziende hanno il potere di determinare come queste tecnologie vengono utilizzate e sviluppate.
Critiche alla legislazione sulla privacy
Stallman ha espresso forte preoccupazione per la mancanza di regolamentazioni che proteggano i diritti degli utenti contro le pratiche invasive delle aziende tecnologiche. Ha criticato le leggi attuali che spesso non riescono a impedire alle aziende di raccogliere e utilizzare dati personali senza il consenso esplicito degli utenti. Questa mancanza di protezione giuridica permette alle aziende di continuare a sfruttare i dati personali per profitto, senza riguardo per la privacy degli individui.
Ha esortato alla creazione di leggi che limitino l'accumulo e l'uso dei dati personali da parte delle aziende, sottolineando che i dati raccolti inevitabilmente saranno abusati. Ha sostenuto che la prevenzione è la migliore difesa, e che limitare la raccolta di dati è essenziale per proteggere la privacy degli utenti. Stallman ha anche criticato le leggi esistenti che, pur essendo ben intenzionate, spesso mancano di efficacia a causa di numerose eccezioni che permettono alle aziende di aggirarle.
Stallman ha fatto un appello alla resistenza individuale e organizzata contro il software proprietario, incoraggiando l'uso di alternative libere come il sistema operativo GNU/Linux. Ha sottolineato che la libertà del software è una componente essenziale della libertà personale e della democrazia, e ha invitato tutti a unirsi alla lotta per un mondo digitale più libero e giusto. Ha ribadito che solo attraverso l'adozione diffusa del software libero si possono ottenere cambiamenti significativi nella protezione della privacy e nella riduzione del potere delle grandi aziende tecnologiche.
Problemi del software proprietario nelle università
Stallman ha osservato come molte università e istituzioni di ricerca siano sempre più dipendenti dal software proprietario. Questo software spesso richiede infrastrutture complesse e costose, che solo le grandi aziende possono permettersi di mantenere. Questa dipendenza crea un ciclo vizioso, dove le università diventano sempre più legate alle soluzioni proprietarie, riducendo le opportunità per il software libero e le soluzioni più indipendenti.
Ha sottolineato che le università dovrebbero essere luoghi di libero pensiero e innovazione, non mercati per il software proprietario. Stallman ha evidenziato come molte istituzioni abbiano abbandonato l'uso di software libero per soluzioni proprietarie che, sebbene possano sembrare più efficienti a breve termine, a lungo termine limitano la libertà accademica e la capacità di innovazione indipendente. Ha citato esempi di professori e ricercatori che, nonostante le pressioni, continuano a utilizzare software libero per le loro attività accademiche, dimostrando che è possibile mantenere un ambiente di ricerca libero e aperto.
Stallman ha suggerito che i governi dovrebbero intervenire per sostenere lo sviluppo del software libero nelle università. Ha proposto che fondi pubblici siano destinati a sviluppare e mantenere infrastrutture basate su software libero, riducendo così la dipendenza dalle soluzioni proprietarie delle grandi aziende. Questo non solo proteggerebbe la libertà accademica, ma promuoverebbe anche un ecosistema di ricerca più aperto e collaborativo.
Appello alla resistenza contro il software proprietario
Stallman ha ribadito che la resistenza al software proprietario deve partire dagli individui. Ha incoraggiato tutti a prendere una posizione attiva e a rifiutare l'uso di software che limita la loro libertà. Ha suggerito di adottare alternative libere come il sistema operativo GNU/Linux, che offre un controllo completo sul proprio ambiente di lavoro e garantisce che il software utilizzato sia trasparente e modificabile dagli utenti.
Ha spiegato che la libertà del software è una componente essenziale della libertà personale e della democrazia. Secondo Stallman, utilizzare software libero non è solo una scelta tecnica, ma un atto politico e sociale che contribuisce a costruire una società più giusta e libera. Ha sottolineato che ogni volta che un individuo sceglie il software libero, compie un passo verso la riduzione del potere delle grandi aziende tecnologiche e la promozione della libertà digitale.
Stallman ha anche invitato le organizzazioni a unirsi a questa lotta. Ha esortato le scuole, le università e le istituzioni pubbliche a adottare software libero e a rifiutare le soluzioni proprietarie che limitano la libertà degli utenti. Ha concluso sottolineando che solo attraverso un'azione collettiva e organizzata si può sperare di creare un mondo digitale più libero e equo.
Pagamenti anonimi con GNU Taler
Stallman ha introdotto GNU Taler come una soluzione innovativa per i pagamenti anonimi, un sistema che permette di effettuare transazioni senza rivelare l'identità dell'acquirente. Ha spiegato che, a differenza dei sistemi di pagamento tradizionali che raccolgono una quantità significativa di dati personali, GNU Taler garantisce che l'identità dell'acquirente rimanga anonima, proteggendo così la privacy degli utenti. Questo sistema, però, assicura che il venditore sia sempre identificabile, prevenendo così l'uso illecito del sistema per scopi come l'evasione fiscale.
Ha criticato duramente i sistemi di pagamento digitali tradizionali per la loro invasività e la raccolta di dati personali. Stallman ha sottolineato che ogni pagamento effettuato con carte di credito o sistemi simili lascia una traccia digitale che può essere utilizzata per sorvegliare le abitudini e i movimenti delle persone. Questa sorveglianza finanziaria rappresenta una grave minaccia per la privacy e la libertà individuale, creando un ambiente in cui ogni transazione è monitorata e registrata.
Stallman ha promosso l'uso del contante come un mezzo semplice e efficace per preservare la privacy nelle transazioni quotidiane. Ha invitato le persone a utilizzare il contante il più possibile per ridurre la quantità di dati personali raccolti dai sistemi di pagamento digitali. Ha anche sottolineato l'importanza di lottare per il diritto all'anonimato nelle transazioni finanziarie, un diritto che ritiene essenziale per una società libera e democratica.
Necessità di nuove leggi sulla privacy
Stallman ha evidenziato che le attuali leggi sulla privacy sono insufficienti per proteggere realmente gli utenti dai continui abusi delle aziende tecnologiche. Ha spiegato che, una volta raccolti, i dati personali sono quasi inevitabilmente soggetti ad abusi, sia intenzionalmente che accidentalmente. Questa realtà richiede un cambiamento fondamentale nelle leggi, mirato a limitare la raccolta stessa dei dati piuttosto che semplicemente regolare il loro uso.
Ha denunciato la pratica delle aziende di identificare gli utenti tramite numeri di identificazione nazionale, evidenziando i rischi di repressione e sorveglianza di massa. Stallman ha spiegato che l'uso di numeri di identificazione nazionale per correlare dati da diverse fonti crea un sistema di sorveglianza onnipresente e pervasivo, facilitando la repressione politica e sociale. Ha sostenuto che ogni organizzazione dovrebbe assegnare il proprio identificatore piuttosto che usare un unico numero universale, riducendo così la facilità con cui i dati possono essere correlati e abusati.
Stallman ha inoltre criticato i sistemi di pagamento digitali per la loro raccolta invasiva di dati personali e ha promosso l'uso del contante per preservare la privacy. Ha argomentato che i pagamenti in contante sono uno dei pochi modi rimasti per effettuare transazioni anonime, libere dalla sorveglianza finanziaria. Ha esortato le persone a utilizzare il contante ogni volta che è possibile, come forma di resistenza contro la crescente invasione della privacy da parte dei sistemi di pagamento digitali.
Crescente complessità del software
Ha sottolineato che la crescente complessità del software è un problema significativo, in quanto molti programmi moderni richiedono investimenti e infrastrutture significative per essere sviluppati e mantenuti. Questa tendenza favorisce le grandi aziende con risorse sostanziali, limitando la capacità del software libero di competere. Stallman ha esortato a una maggiore valorizzazione della semplicità e dell'indipendenza nello sviluppo del software, suggerendo che programmi più semplici possono essere più facilmente mantenuti e distribuiti senza la necessità di strutture aziendali complesse.
Ha evidenziato come le università e le istituzioni di ricerca spesso richiedano software complesso, che solo le grandi aziende possono fornire. Questo crea una dipendenza dalle soluzioni proprietarie e limita l'adozione del software libero. Stallman ha suggerito che i governi dovrebbero sostenere lo sviluppo e la manutenzione del software libero nelle istituzioni pubbliche, garantendo così che queste organizzazioni non diventino dipendenti dalle soluzioni delle grandi aziende.
Stallman ha inoltre argomentato che il governo ha la responsabilità di garantire che la società rimanga libera, il che include la promozione del software libero. Ha sottolineato che lasciare un vuoto che può essere riempito da sviluppatori di software non libero equivale a permettere a queste entità di dominare parti significative della società. Pertanto, ha insistito sulla necessità di politiche pubbliche che promuovano attivamente il software libero.
Pericoli dell'Internet delle Cose (IoT)
Stallman ha espresso profonde preoccupazioni riguardo all'Internet delle Cose (IoT), descrivendolo come l'"Internet delle spie" o l'"Internet delle cose malevole". Ha sottolineato che qualsiasi dispositivo connesso è potenzialmente pericoloso se non implementato con software libero, poiché il software proprietario non può essere controllato dagli utenti. Questo crea un ambiente in cui i dispositivi domestici possono essere utilizzati per spiare e controllare gli utenti, piuttosto che servire i loro interessi.
Ha spiegato che i dispositivi connessi, come le telecamere di sorveglianza e gli elettrodomestici "intelligenti", possono raccogliere dati sugli utenti e inviarli a terzi senza il loro consenso informato. Questo non solo compromette la privacy, ma può anche essere utilizzato per fini malevoli, come la sorveglianza di massa o il controllo sociale. Stallman ha esortato a una maggiore consapevolezza riguardo ai rischi associati all'IoT e alla necessità di preferire dispositivi che utilizzano software libero, che gli utenti possono controllare e modificare.
Stallman ha concluso sottolineando che la libertà del software è parte integrante della lotta per la libertà e la democrazia in generale. Ha esortato tutti a prendere parte attiva nel movimento per il software libero e a rifiutare i sistemi che minano la libertà e la privacy degli individui. Solo attraverso un'azione collettiva e organizzata si può sperare di creare un mondo digitale più libero e giusto.
Etica e AI: i confini della tecnologia e la responsabilità umana
L'uso delle intelligenze artificiali generative presenta numerose criticità che meritano attenzione e riflessione.
Innanzitutto, c'è la frode vera e propria. In molti casi, queste tecnologie vengono utilizzate con l'intento di rubare informazioni personali o finanziarie. Le intelligenze artificiali possono generare contenuti o interazioni che sembrano innocui ma in realtà finalizzati alla raccolta dei nostri dati, portandoci a condividere dati sensibili, dati aziendali o comunque informazioni che compromettono la nostra privacy, il nostro lavoro o la nostra sicurezza. La sofisticazione di questi strumenti rende sempre più difficile distinguere tra un'interazione legittima come sarebbe quella con un "amico" (giacché l'intelligenza artificiale si presenta così) e l'uso di "servizi" sulla cui implementazione e gestione non sappiamo nulla. Potremmo estendere la stessa riflessione a tutto il mondo del software proprietario, degli smartphone e dei servizi cloud.
Un altro problema significativo è l'errore di competenza. Spesso attribuiamo a queste intelligenze artificiali un livello di expertise che non possiedono realmente, semplicemente perché si esprimono con grande sicurezza. Questo può portarci a prendere decisioni basate su informazioni errate o incomplete fornite da un sistema che, sebbene convincente, non ha la competenza necessaria per risolvere determinate questioni. Questa fiducia mal riposta nelle capacità delle intelligenze artificiali può avere conseguenze dannose in ambiti critici come la medicina, il diritto, la finanza, l'automazione industriale, la ricerca scientifica e ogni altro campo dove improvvisare senza reale conoscenza è pericoloso.
Inoltre, non dovremmo sperare che intelligenze artificiali sempre più evolute, installate su super-computer sempre più potenti, costosi ed energivori, possa realmente "ragionare" in modo migliore delle intelligenze artificiali attuali, perché in realtà non c'è alcun "ragionamento" come inteso da noi esseri umani né "coscienza". Mi rendo conto che l'uso quotidiano delle intelligenze artificiali generative possa dimostrare il contrario, viste le innegabili capacità di ragionamento simbolico, ma sarà più chiaro cosa intendo quando citerò Socrate. Tra l'altro, su questa specifica questione, l'8 marzo 2023 la rivista scientifica Nature ha pubblicato l'articolo "In AI, is bigger always better?", in cui ha dimostrato che ChatGPT ha ottenuto solo il 26% di risposte corrette su un campione di problemi matematici di livello scolastico. La ragione è abbastanza semplice: le intelligenza artificiali tendono a fare affidamento su modelli statistici piuttosto che su un vero e proprio ragionamento. Questo significa che possono generare risposte plausibili solo entro i limiti dei dati di addestramento, ma possono fallire in modo significativo quando affrontano nuove situazioni.
Detto in altri termini, i dati sono dati, e dal punto di vista matematico si riducono tutti a numeri da elaborare: l'intelligenza artificiale è un software per computer e non può andare oltre a ciò. Essa dispone di un'enorme mole di dati di addestramento da cui, tramite super-computer, sono stati estratti dei Large Language Model (LLM) e, su base statistica, produce delle risposte in base a tali LLM. Alcuni LLM avanzati possono simulare ragionamenti complessi, pur senza una vera comprensione. L'intelligenza artificiale risponde "non lo so" soltanto quando ha un modello che, in base ai dati in input, deduce che tali dati non sono sufficienti per generare una risposta, come nel caso di un indovinello. Ma non dirà mai "non lo so" quando non ha un modello per generare tale risposta, producendo pertanto "allucinazioni" su questioni su cui non ha informazioni sufficienti.
L'intelligenza artificiale non può andare oltre i LLM su cui opera. Ad es., un utente che voglia applicare la maieutica per far "nascere" la verità nell'intelligenza artificiale su questioni che essa non conosce o su cui ha dati opinabili o addirittura falsi, resterà profondamente deluso. Il metodo socratico può funzionare con un bambino, ma non con l'intelligenza artificiale, perché ogni LLM è un confine invalicabile. I produttori delle intelligenze artificiali generative oggi più diffuse hanno cercato di raggirare questo limite introducendo la ricerca automatica nel web delle informazioni utili per generare certe risposte, ma è solo un modo per spostare il limite del recinto: anche il web ha seri limiti, specialmente su ricerche automatizzate e negli attuali tempi di censura. I motori di ricerca e i social cancellano intenzionalmente ciò che ai "padroni universali" non piace.
È fondamentale riconoscere i limiti delle intelligenze artificiali e non sopravvalutare le loro capacità. Ricordiamoci sempre che non sono nulla di più che software per computer. Chi come me ha passato gran parte della vita a programmare, anche con esperienze in elettronica, sa bene che i computer non capiscono nulla né di matematica, né di altre questioni. Non hanno circuiti per la comprensione, nessun codice per la comprensione, niente che possa rappresentare ciò che noi umani intendiamo per comprensione. Essi implementano un insieme di processi fisici nei loro circuiti elettrici che, se gestiti e interpretati dall'uomo, possono essere mappati in una corrispondenza tra ciò che la macchina fa e le cose che noi umani comprendiamo. In questo caso la macchina diventa "utile", ma rimane una macchina.
A questo proposito, Richard Stallman è stato molto chiaro:
Non posso predire il futuro, ma è importante capire che ChatGPT non è un'intelligenza artificiale. Non ha intelligenza, non sa nulla e non capisce nulla. Gioca con le parole per creare un testo inglese plausibile, ma tutte le affermazioni fatte in esso sono suscettibili di essere false. Non può evitarlo perché non sa cosa significhino le parole.
Veniamo adesso ad un'altra criticità. L'esperienza con lo sviluppo software mi ha reso evidente che più un software è complesso, e inserito all'interno di un ambiente di esecuzione infinitamente più complesso rispetto a quello disponibile durante lo sviluppo e il testing, e maggiormente potrà presentare comportamenti imprevisti o imprevedibili. L'incoerenza è infatti un'altra critica importante alle intelligenze artificiali, che pur essendo in grado di eseguire compiti ripetitivi con una certa precisione, non sempre garantiscono coerenza nei loro comportamenti. Ciò significa che le risposte o le azioni generate in situazioni simili possono variare notevolmente, creando confusione e incertezza. Questo è particolarmente problematico in settori dove la ripetibilità e l'affidabilità sono essenziali. Di contro, è anche un vantaggio per chi sa sfruttare tale imprevedibilità.
In aggiunta a questo quadro già complesso, c'è il problema dell'illegalità. Spesso diamo per scontato che le intelligenze artificiali siano programmate per rispettare tutte le normative vigenti, ma non è sempre così. Anzi, da un certo punto di vista, è lecito il dubbio se sia l'intelligenza artificiale a rispettare le leggi o le leggi a rispettare i diktat delle Big Tech che gestiscono l'intelligenza artificiale. Basterebbe notare che tutte le intelligenze artificiali generative nascono da un massiccio furto di dati protetti da copyright o persino da legittimo segreto (come le conversazioni private degli utenti nelle piattaforme social), ma nessuna legge condannerà mai le Big Tech per questo, o quantomeno è assai improbabile che ciò accada. La rapidità con cui queste tecnologie si evolvono supera la capacità delle leggi di adattarsi, creando zone grigie dove la responsabilità e la conformità diventano difficili da determinare.
C'è anche un'altra questione, legata ai costi e all'energia consumata, che dimostra l'ipocrisia e il doppiopesismo delle cosidette "politiche green". L'addestramento e l'esecuzione dei LLM più popolari richiedono risorse computazionali immense e costi ingenti. Ad esempio, l'addestramento di GPT-3 è costato oltre 4 milioni di dollari, con costi operativi mensili di circa 700 mila dollari. Sono cifre che ovviamente sono cresciute con GPT-4 e seguenti. Riguardo all'energia consumata, l'addestramento di PaLM di Google ha richiesto circa 3,4 gigawattora, equivalente al consumo annuale di 300 famiglie statunitensi. L'impatto ambientale è quindi significativo e preoccupante.
Lo sviluppo dei LLM è dominato da poche grandi aziende tecnologiche con risorse sufficienti, limitando la diversificazione e l'accessibilità della ricerca in questo campo. Pur esistendo LLM scaricabili e utilizzabili con varie licenze open-source, siamo molto lontani dal concetto di "software libero" come tradizionalmente inteso, perché ci sono caratteristiche e sfide molto diverse, oltre a licenze che non sempre garantiscono le libertà fondamentali degli utenti. I dati di addestramento non sono resi pubblici, e anche qualora lo fossero, nessuno con un computer domestico può generare un LLM di complessità tale da essere realmente utilizzabile. Alla fine, mentre il software libero prevede che un utente possa scaricarsi il codice sorgente di un programma, modificarlo e compilarlo a proprio piacimento, con le intelligenze artificiali generative ciò è semplicemente impossibile, se per "codice sorgente" intendiamo anche i dati di addestramento. Se invece per "codice sorgente" intendiamo soltanto i "nodi" delle "rete neurale", cioè i neuroni artificiali, allora il discorso cambia. Suggerisco un confronto con: "AI, ChatGPT e Software Libero: Richard Stallman, Pisa, 2023".
Come nota conclusiva, l'intelligenza artificiale non ha etica, e non può averla, perché ha solo dei modelli, cioè i LLM, da seguire. L'intelligenza artificiale non ha quindi una moralità intrinseca e può essere utilizzata per scopi malevoli, o abusata causando danni involontari. Solo noi possiamo avere etica e reale consapevolezza. Le decisioni etiche sono responsabilità di chi progetta, sviluppa e utilizza queste tecnologie. Ricordiamoci sempre che l'intelligenza artificiale è limitata dai dati su cui è addestrata, che possono essere incompleti, distorti o persino falsi.
(4 agosto 2024)
La critica di Nichiren Daishonin alle preoccupazioni mondane
Nichiren Daishonin critica il fatto che dedichiamo tutte le nostre energie alle preoccupazioni mondane, trascurando così la pratica buddista. Invece di coltivare saggezza e consapevolezza, sprechiamo le nostre giornate in attività superflue rispetto alla scopo della vita.
Non siamo qui per rincorrere i desideri terreni. A cosa ci servirà l'appagamento dei nostri desideri quando saremo davanti al tribunale di Yama, dio della morte?
[...] Gli uomini vivono in questo mondo fuggevole ove tutto è incertezza e impermanenza, eppure giorno e notte non pensano che alla quantità di ricchezza che possono ammassare in questa esistenza. Dall’alba al crepuscolo si concentrano solo su faccende terrene, senza venerare il Budda e senza credere nella Legge; trascurano la pratica buddista, mancano di saggezza e sprecano le loro giornate. Quando saranno trascinati davanti al tribunale di Yama, il signore dell’inferno, quali provviste porteranno con sé nel lungo viaggio attraverso il triplice mondo, cosa potranno usare come barca o zattera per attraversare il mare delle sofferenze di nascita e morte e giungere nella Terra della Ricompensa Effettiva o nella Terra del Budda della Luce Tranquilla? Quando siamo illusi è come se sognassimo, quando siamo illuminati è come se ci fossimo svegliati. [...]
tratto da: Le quattordici offese
Re Yama, il Signore della Morte, è il terribile giudice dei morti. È anche la personificazione dell'impermanenza, dell'infallibile legge del karma e dell'inevitabile mortalità.
Quindi il "Tribunale di Yama" è il luogo dove saremo giudicati, dopo la morte, per le nostre azioni durante la vita terrena. Yama, con l'aiuto dei suoi assistenti, valuta le azioni buone e cattive e decide il destino post-mortem, che può includere la reincarnazione in diverse forme di vita o la permanenza in vari regni celesti o infernali.
Visto che dovremo passare tutti dal giudizio di Yama, Nichiren Daishonin critica l'inutilità del dedicare tutte le nostre energie e tempo a questioni materiali. Possiamo estendere questa osservazione all'inutilità di aggrapparsi a idee rigide e divisive. Come il denaro e i beni terreni servono a separare chi li ha da chi non li ha, creando conflitti e discordie, anche le idee rigide ci separano dagli altri e creano guerre. Ma il denaro, i beni, i desideri e le idee sono effimeri e di nessun aiuto dopo la morte.
Quando nutriamo emozioni negative o pensieri divisi o distruttivi, pensiamo a Yama. Quando abbiamo la bramosia di qualcosa o di qualcuno, pensiamo a Yama.
Tutte le tradizioni antiche, pur con un linguaggio diverso, ci danno il medesimo messaggio.
Nell'antica religione egizia, le anime dei defunti venivano giudicate da Osiride, il dio dei morti e della resurrezione. Il defunto doveva confessare davanti a 42 giudici ed essere sottoposto alla "Pesatura del Cuore", ovvero il cuore del defunto veniva pesato contro la "piuma della verità". Se il cuore era più leggero o uguale alla piuma, l'anima poteva entrare nel regno dei morti felici. Se era più pesante, l'anima veniva divorata da Ammit, un mostro con parti di leone, ippopotamo e coccodrillo.
Nella mitologia greca, dopo la morte, le anime dei defunti venivano condotte da Ermes al fiume Stige, dove Caronte le traghettava nell'oltretomba. Qui, tre giudici – Minosse, Radamante e Eaco – giudicavano le anime. A seconda delle loro azioni in vita, le anime venivano mandate nei Campi Elisi (per i giusti), nel Tartaro (per i malvagi) o negli Asfodeli (per le anime comuni).
Nello zoroastrismo, le anime dei defunti devono attraversare il Ponte Chinvat. Le anime dei giusti trovano il ponte largo e facile da attraversare, conducendole al paradiso. Le anime dei malvagi trovano il ponte stretto e difficile, facendole cadere nell'inferno. Questo giudizio avviene sotto la supervisione di Mithra, Sraosha e Rashnu.
Nel cristianesimo, il concetto di giudizio dopo la morte è rappresentato dal Giudizio Particolare e dal Giudizio Universale. Il Giudizio Particolare avviene immediatamente dopo la morte e determina lo stato dell'anima in base alla vita vissuta e alle azioni compiute. Il Giudizio Universale avviene alla fine dei tempi, durante la seconda venuta di Cristo. Durante il Giudizio Universale, tutte le azioni e i motivi delle persone saranno rivelati pubblicamente.
Nel credo islamico, il Giorno del Giudizio è quando Allah giudicherà tutti gli esseri umani. Le azioni buone e cattive, scritte preventivamente dagli angeli su fogli sottilissimi, saranno pesate su una "bilancia escatologica". Chi avrà più buone azioni entrerà in paradiso, mentre chi avrà più cattive azioni sarà mandato all'inferno.
La mitologia norrena ha un approccio diverso. Invece di un giudizio morale universale, il destino delle anime è più legato alle circostanze della morte e al ruolo sociale del defunto. C'è però un'eccezione per le anime di assassini, spergiuri e adulteri, che finiscono in Náströnd, continuamente sbranate dal serpe Níðhöggr e tormentate da un groviglio di serpenti. Questa è una punizione specifica per crimini socialmente distruttivi piuttosto che un giudizio morale.
Nella religione tradizionale cinese, sia nel buddismo che nel taoismo, Yanluo Wang è il re dell'inferno e giudice delle anime. Le anime dei defunti vengono giudicate per le loro azioni e assegnate a diverse pene o premi. Questa figura presenta molte similitudini con il Re Yama della mitologia induista, con cui ha condiviso influenze culturali e religiose nel corso dei secoli.
Questi esempi tratti da varie tradizioni religiose ci dimostrano che capire la morte è un prerequisito per comprendere la vita. Ciò dovrebbe far luce su quest'altre parole del Daishonin:
[...] Se mi guardo indietro, è da quando ero ragazzo che sto studiando gli insegnamenti del Budda. Allora pensavo: «La vita dell’essere umano è fugace. Non sempre a un respiro ne segue un altro. Nemmeno la rugiada che svanisce al vento è una metafora adeguata. Nessuno, saggio o stolto, vecchio o giovane, sa mai che cosa gli accadrà nell’istante successivo. Così va il mondo! Perciò prima di tutto dovrei studiare ciò che riguarda il momento della morte e poi tutto il resto».
Così ho radunato tutti i sacri insegnamenti dell’intera vita di Shakyamuni, come pure gli scritti e i commentari degli eruditi e dei maestri, e ho meditato su di essi. Poi li ho applicati, come uno specchio limpido, al momento della morte delle persone e ai momenti successivi, e non ho trovato la minima discordanza.
Ho visto che questa persona era caduta nell’inferno o che quell’altra era rinata nel mondo degli esseri umani o celesti. Al contrario, c’erano persone che nascondevano la verità sugli ultimi momenti dei loro maestri o dei loro genitori, dicendo che erano rinati nella Pura terra a ovest. Che tristezza! Mentre i loro maestri, caduti nei cattivi sentieri dell’esistenza, affrontavano sofferenze insopportabili, i discepoli rimasti in questo mondo ne glorificavano la morte, non facendo altro che aggravarne la sofferenza nell’inferno. È come tappare la bocca a chi ha commesso una grave colpa mentre lo stanno interrogando, oppure non incidere un bubbone a qualcuno e lasciare che si aggravi. [...]
tratto: L'importanza del momento della morte
Prima viene la comprensione della morte, poi quella della vita.
(3 agosto 2024)