Etica e AI: i confini della tecnologia e la responsabilità umana

Translate this articleSpeak this article

L'uso delle intelligenze artificiali generative presenta numerose criticità che meritano attenzione e riflessione.

Innanzitutto, c'è la frode vera e propria. In molti casi, queste tecnologie vengono utilizzate con l'intento di rubare informazioni personali o finanziarie. Le intelligenze artificiali possono generare contenuti o interazioni che sembrano innocui ma in realtà finalizzati alla raccolta dei nostri dati, portandoci a condividere dati sensibili, dati aziendali o comunque informazioni che compromettono la nostra privacy, il nostro lavoro o la nostra sicurezza. La sofisticazione di questi strumenti rende sempre più difficile distinguere tra un'interazione legittima come sarebbe quella con un "amico" (giacché l'intelligenza artificiale si presenta così) e l'uso di "servizi" sulla cui implementazione e gestione non sappiamo nulla. Potremmo estendere la stessa riflessione a tutto il mondo del software proprietario, degli smartphone e dei servizi cloud.

Un altro problema significativo è l'errore di competenza. Spesso attribuiamo a queste intelligenze artificiali un livello di expertise che non possiedono realmente, semplicemente perché si esprimono con grande sicurezza. Questo può portarci a prendere decisioni basate su informazioni errate o incomplete fornite da un sistema che, sebbene convincente, non ha la competenza necessaria per risolvere determinate questioni. Questa fiducia mal riposta nelle capacità delle intelligenze artificiali può avere conseguenze dannose in ambiti critici come la medicina, il diritto, la finanza, l'automazione industriale, la ricerca scientifica e ogni altro campo dove improvvisare senza reale conoscenza è pericoloso.

Inoltre, non dovremmo sperare che intelligenze artificiali sempre più evolute, installate su super-computer sempre più potenti, costosi ed energivori, possa realmente "ragionare" in modo migliore delle intelligenze artificiali attuali, perché in realtà non c'è alcun "ragionamento" come inteso da noi esseri umani né "coscienza". Mi rendo conto che l'uso quotidiano delle intelligenze artificiali generative possa dimostrare il contrario, viste le innegabili capacità di ragionamento simbolico, ma sarà più chiaro cosa intendo quando citerò Socrate. Tra l'altro, su questa specifica questione, l'8 marzo 2023 la rivista scientifica Nature ha pubblicato l'articolo "In AI, is bigger always better?", in cui ha dimostrato che ChatGPT ha ottenuto solo il 26% di risposte corrette su un campione di problemi matematici di livello scolastico. La ragione è abbastanza semplice: le intelligenza artificiali tendono a fare affidamento su modelli statistici piuttosto che su un vero e proprio ragionamento. Questo significa che possono generare risposte plausibili solo entro i limiti dei dati di addestramento, ma possono fallire in modo significativo quando affrontano nuove situazioni.

Detto in altri termini, i dati sono dati, e dal punto di vista matematico si riducono tutti a numeri da elaborare: l'intelligenza artificiale è un software per computer e non può andare oltre a ciò. Essa dispone di un'enorme mole di dati di addestramento da cui, tramite super-computer, sono stati estratti dei Large Language Model (LLM) e, su base statistica, produce delle risposte in base a tali LLM. Alcuni LLM avanzati possono simulare ragionamenti complessi, pur senza una vera comprensione. L'intelligenza artificiale risponde "non lo so" soltanto quando ha un modello che, in base ai dati in input, deduce che tali dati non sono sufficienti per generare una risposta, come nel caso di un indovinello. Ma non dirà mai "non lo so" quando non ha un modello per generare tale risposta, producendo pertanto "allucinazioni" su questioni su cui non ha informazioni sufficienti.

L'intelligenza artificiale non può andare oltre i LLM su cui opera. Ad es., un utente che voglia applicare la maieutica per far "nascere" la verità nell'intelligenza artificiale su questioni che essa non conosce o su cui ha dati opinabili o addirittura falsi, resterà profondamente deluso. Il metodo socratico può funzionare con un bambino, ma non con l'intelligenza artificiale, perché ogni LLM è un confine invalicabile. I produttori delle intelligenze artificiali generative oggi più diffuse hanno cercato di raggirare questo limite introducendo la ricerca automatica nel web delle informazioni utili per generare certe risposte, ma è solo un modo per spostare il limite del recinto: anche il web ha seri limiti, specialmente su ricerche automatizzate e negli attuali tempi di censura. I motori di ricerca e i social cancellano intenzionalmente ciò che ai "padroni universali" non piace.

È fondamentale riconoscere i limiti delle intelligenze artificiali e non sopravvalutare le loro capacità. Ricordiamoci sempre che non sono nulla di più che software per computer. Chi come me ha passato gran parte della vita a programmare, anche con esperienze in elettronica, sa bene che i computer non capiscono nulla né di matematica, né di altre questioni. Non hanno circuiti per la comprensione, nessun codice per la comprensione, niente che possa rappresentare ciò che noi umani intendiamo per comprensione. Essi implementano un insieme di processi fisici nei loro circuiti elettrici che, se gestiti e interpretati dall'uomo, possono essere mappati in una corrispondenza tra ciò che la macchina fa e le cose che noi umani comprendiamo. In questo caso la macchina diventa "utile", ma rimane una macchina.

A questo proposito, Richard Stallman è stato molto chiaro:

Non posso predire il futuro, ma è importante capire che ChatGPT non è un'intelligenza artificiale. Non ha intelligenza, non sa nulla e non capisce nulla. Gioca con le parole per creare un testo inglese plausibile, ma tutte le affermazioni fatte in esso sono suscettibili di essere false. Non può evitarlo perché non sa cosa significhino le parole.

Veniamo adesso ad un'altra criticità. L'esperienza con lo sviluppo software mi ha reso evidente che più un software è complesso, e inserito all'interno di un ambiente di esecuzione infinitamente più complesso rispetto a quello disponibile durante lo sviluppo e il testing, e maggiormente potrà presentare comportamenti imprevisti o imprevedibili. L'incoerenza è infatti un'altra critica importante alle intelligenze artificiali, che pur essendo in grado di eseguire compiti ripetitivi con una certa precisione, non sempre garantiscono coerenza nei loro comportamenti. Ciò significa che le risposte o le azioni generate in situazioni simili possono variare notevolmente, creando confusione e incertezza. Questo è particolarmente problematico in settori dove la ripetibilità e l'affidabilità sono essenziali. Di contro, è anche un vantaggio per chi sa sfruttare tale imprevedibilità.

In aggiunta a questo quadro già complesso, c'è il problema dell'illegalità. Spesso diamo per scontato che le intelligenze artificiali siano programmate per rispettare tutte le normative vigenti, ma non è sempre così. Anzi, da un certo punto di vista, è lecito il dubbio se sia l'intelligenza artificiale a rispettare le leggi o le leggi a rispettare i diktat delle Big Tech che gestiscono l'intelligenza artificiale. Basterebbe notare che tutte le intelligenze artificiali generative nascono da un massiccio furto di dati protetti da copyright o persino da legittimo segreto (come le conversazioni private degli utenti nelle piattaforme social), ma nessuna legge condannerà mai le Big Tech per questo, o quantomeno è assai improbabile che ciò accada. La rapidità con cui queste tecnologie si evolvono supera la capacità delle leggi di adattarsi, creando zone grigie dove la responsabilità e la conformità diventano difficili da determinare.

C'è anche un'altra questione, legata ai costi e all'energia consumata, che dimostra l'ipocrisia e il doppiopesismo delle cosidette "politiche green". L'addestramento e l'esecuzione dei LLM più popolari richiedono risorse computazionali immense e costi ingenti. Ad esempio, l'addestramento di GPT-3 è costato oltre 4 milioni di dollari, con costi operativi mensili di circa 700 mila dollari. Sono cifre che ovviamente sono cresciute con GPT-4 e seguenti. Riguardo all'energia consumata, l'addestramento di PaLM di Google ha richiesto circa 3,4 gigawattora, equivalente al consumo annuale di 300 famiglie statunitensi. L'impatto ambientale è quindi significativo e preoccupante.

Lo sviluppo dei LLM è dominato da poche grandi aziende tecnologiche con risorse sufficienti, limitando la diversificazione e l'accessibilità della ricerca in questo campo. Pur esistendo LLM scaricabili e utilizzabili con varie licenze open-source, siamo molto lontani dal concetto di "software libero" come tradizionalmente inteso, perché ci sono caratteristiche e sfide molto diverse, oltre a licenze che non sempre garantiscono le libertà fondamentali degli utenti. I dati di addestramento non sono resi pubblici, e anche qualora lo fossero, nessuno con un computer domestico può generare un LLM di complessità tale da essere realmente utilizzabile. Alla fine, mentre il software libero prevede che un utente possa scaricarsi il codice sorgente di un programma, modificarlo e compilarlo a proprio piacimento, con le intelligenze artificiali generative ciò è semplicemente impossibile, se per "codice sorgente" intendiamo anche i dati di addestramento. Se invece per "codice sorgente" intendiamo soltanto i "nodi" delle "rete neurale", cioè i neuroni artificiali, allora il discorso cambia. Suggerisco un confronto con: "AI, ChatGPT e Software Libero: Richard Stallman, Pisa, 2023".

Come nota conclusiva, l'intelligenza artificiale non ha etica, e non può averla, perché ha solo dei modelli, cioè i LLM, da seguire. L'intelligenza artificiale non ha quindi una moralità intrinseca e può essere utilizzata per scopi malevoli, o abusata causando danni involontari. Solo noi possiamo avere etica e reale consapevolezza. Le decisioni etiche sono responsabilità di chi progetta, sviluppa e utilizza queste tecnologie. Ricordiamoci sempre che l'intelligenza artificiale è limitata dai dati su cui è addestrata, che possono essere incompleti, distorti o persino falsi.

(4 agosto 2024)

La critica di Nichiren Daishonin alle preoccupazioni mondane

Translate this articleSpeak this article

Nichiren Daishonin critica il fatto che dedichiamo tutte le nostre energie alle preoccupazioni mondane, trascurando così la pratica buddista. Invece di coltivare saggezza e consapevolezza, sprechiamo le nostre giornate in attività superflue rispetto alla scopo della vita.

Non siamo qui per rincorrere i desideri terreni. A cosa ci servirà l'appagamento dei nostri desideri quando saremo davanti al tribunale di Yama, dio della morte?

[...] Gli uomini vivono in questo mondo fuggevole ove tutto è incertezza e impermanenza, eppure giorno e notte non pensano che alla quantità di ricchezza che possono ammassare in questa esistenza. Dall’alba al crepuscolo si concentrano solo su faccende terrene, senza venerare il Budda e senza credere nella Legge; trascurano la pratica buddista, mancano di saggezza e sprecano le loro giornate. Quando saranno trascinati davanti al tribunale di Yama, il signore dell’inferno, quali provviste porteranno con sé nel lungo viaggio attraverso il triplice mondo, cosa potranno usare come barca o zattera per attraversare il mare delle sofferenze di nascita e morte e giungere nella Terra della Ricompensa Effettiva o nella Terra del Budda della Luce Tranquilla? Quando siamo illusi è come se sognassimo, quando siamo illuminati è come se ci fossimo svegliati. [...]
 
tratto da: Le quattordici offese

Re Yama, il Signore della Morte, è il terribile giudice dei morti. È anche la personificazione dell'impermanenza, dell'infallibile legge del karma e dell'inevitabile mortalità.

Quindi il "Tribunale di Yama" è il luogo dove saremo giudicati, dopo la morte, per le nostre azioni durante la vita terrena. Yama, con l'aiuto dei suoi assistenti, valuta le azioni buone e cattive e decide il destino post-mortem, che può includere la reincarnazione in diverse forme di vita o la permanenza in vari regni celesti o infernali.

Visto che dovremo passare tutti dal giudizio di Yama, Nichiren Daishonin critica l'inutilità del dedicare tutte le nostre energie e tempo a questioni materiali. Possiamo estendere questa osservazione all'inutilità di aggrapparsi a idee rigide e divisive. Come il denaro e i beni terreni servono a separare chi li ha da chi non li ha, creando conflitti e discordie, anche le idee rigide ci separano dagli altri e creano guerre. Ma il denaro, i beni, i desideri e le idee sono effimeri e di nessun aiuto dopo la morte.

Quando nutriamo emozioni negative o pensieri divisi o distruttivi, pensiamo a Yama. Quando abbiamo la bramosia di qualcosa o di qualcuno, pensiamo a Yama.

Tutte le tradizioni antiche, pur con un linguaggio diverso, ci danno il medesimo messaggio.

Nell'antica religione egizia, le anime dei defunti venivano giudicate da Osiride, il dio dei morti e della resurrezione. Il defunto doveva confessare davanti a 42 giudici ed essere sottoposto alla "Pesatura del Cuore", ovvero il cuore del defunto veniva pesato contro la "piuma della verità". Se il cuore era più leggero o uguale alla piuma, l'anima poteva entrare nel regno dei morti felici. Se era più pesante, l'anima veniva divorata da Ammit, un mostro con parti di leone, ippopotamo e coccodrillo.

Nella mitologia greca, dopo la morte, le anime dei defunti venivano condotte da Ermes al fiume Stige, dove Caronte le traghettava nell'oltretomba. Qui, tre giudici – Minosse, Radamante e Eaco – giudicavano le anime. A seconda delle loro azioni in vita, le anime venivano mandate nei Campi Elisi (per i giusti), nel Tartaro (per i malvagi) o negli Asfodeli (per le anime comuni).

Nello zoroastrismo, le anime dei defunti devono attraversare il Ponte Chinvat. Le anime dei giusti trovano il ponte largo e facile da attraversare, conducendole al paradiso. Le anime dei malvagi trovano il ponte stretto e difficile, facendole cadere nell'inferno. Questo giudizio avviene sotto la supervisione di Mithra, Sraosha e Rashnu.

Nel cristianesimo, il concetto di giudizio dopo la morte è rappresentato dal Giudizio Particolare e dal Giudizio Universale. Il Giudizio Particolare avviene immediatamente dopo la morte e determina lo stato dell'anima in base alla vita vissuta e alle azioni compiute. Il Giudizio Universale avviene alla fine dei tempi, durante la seconda venuta di Cristo. Durante il Giudizio Universale, tutte le azioni e i motivi delle persone saranno rivelati pubblicamente.

Nel credo islamico, il Giorno del Giudizio è quando Allah giudicherà tutti gli esseri umani. Le azioni buone e cattive, scritte preventivamente dagli angeli su fogli sottilissimi, saranno pesate su una "bilancia escatologica". Chi avrà più buone azioni entrerà in paradiso, mentre chi avrà più cattive azioni sarà mandato all'inferno.

La mitologia norrena ha un approccio diverso. Invece di un giudizio morale universale, il destino delle anime è più legato alle circostanze della morte e al ruolo sociale del defunto. C'è però un'eccezione per le anime di assassini, spergiuri e adulteri, che finiscono in Náströnd, continuamente sbranate dal serpe Níðhöggr e tormentate da un groviglio di serpenti. Questa è una punizione specifica per crimini socialmente distruttivi piuttosto che un giudizio morale.

Nella religione tradizionale cinese, sia nel buddismo che nel taoismo, Yanluo Wang è il re dell'inferno e giudice delle anime. Le anime dei defunti vengono giudicate per le loro azioni e assegnate a diverse pene o premi. Questa figura presenta molte similitudini con il Re Yama della mitologia induista, con cui ha condiviso influenze culturali e religiose nel corso dei secoli.

Questi esempi tratti da varie tradizioni religiose ci dimostrano che capire la morte è un prerequisito per comprendere la vita. Ciò dovrebbe far luce su quest'altre parole del Daishonin:

[...] Se mi guardo indietro, è da quando ero ragazzo che sto studiando gli insegnamenti del Budda. Allora pensavo: «La vita dell’essere umano è fugace. Non sempre a un respiro ne segue un altro. Nemmeno la rugiada che svanisce al vento è una metafora adeguata. Nessuno, saggio o stolto, vecchio o giovane, sa mai che cosa gli accadrà nell’istante successivo. Così va il mondo! Perciò prima di tutto dovrei studiare ciò che riguarda il momento della morte e poi tutto il resto».
 
Così ho radunato tutti i sacri insegnamenti dell’intera vita di Shakyamuni, come pure gli scritti e i commentari degli eruditi e dei maestri, e ho meditato su di essi. Poi li ho applicati, come uno specchio limpido, al momento della morte delle persone e ai momenti successivi, e non ho trovato la minima discordanza.
 
Ho visto che questa persona era caduta nell’inferno o che quell’altra era rinata nel mondo degli esseri umani o celesti. Al contrario, c’erano persone che nascondevano la verità sugli ultimi momenti dei loro maestri o dei loro genitori, dicendo che erano rinati nella Pura terra a ovest. Che tristezza! Mentre i loro maestri, caduti nei cattivi sentieri dell’esistenza, affrontavano sofferenze insopportabili, i discepoli rimasti in questo mondo ne glorificavano la morte, non facendo altro che aggravarne la sofferenza nell’inferno. È come tappare la bocca a chi ha commesso una grave colpa mentre lo stanno interrogando, oppure non incidere un bubbone a qualcuno e lasciare che si aggravi. [...]
 
tratto: L'importanza del momento della morte

Prima viene la comprensione della morte, poi quella della vita.

(3 agosto 2024)

L'illusione della democrazia: il vero volto delle elezioni italiane

Translate this articleSpeak this article

Nel capitolo 8 "La truffa elettorale" del libro "Il regime" (1991), il giornalista Giampaolo Pansa descrive il funzionamento reale del sistema elettorale italiano, soffermandosi in particolare sulla pratica del voto di scambio. Attraverso vari esempi e testimonianze, Pansa illustra come questa pratica sia diventata una componente essenziale delle elezioni in Italia, contribuendo a distorcere profondamente la democrazia.

Pansa inizia il capitolo descrivendo l'ambiente politico e sociale durante l'inaugurazione del Decimo Parlamento italiano nel 1987, mettendo in luce come personaggi mediatici come Cicciolina, deputata del Partito Radicale, riflettessero un sistema elettorale che era diventato una sorta di spettacolo mediatico e circense. Il cuore del sistema elettorale truccato risiedeva nel mercato delle preferenze. Politici come Usellini spiegavano come le preferenze venissero comprate e vendute come merce, con prezzi che potevano arrivare fino a sessantamila lire per voto. Questo sistema permetteva a candidati con risorse finanziarie significative di acquistare abbastanza voti per garantirsi l'elezione.

Usellini descrive come le elezioni fossero gestite attraverso complessi apparati elettorali. Questi apparati organizzavano raccolte di fondi e distribuivano preferenze in modo da massimizzare il numero di voti per i propri candidati. Questo includeva la gestione di stock elettorali, dove i voti venivano assegnati strategicamente per favorire determinati candidati all'interno delle circoscrizioni. Le cordate erano coalizioni di candidati che univano le forze per scambiarsi preferenze e garantire l'elezione reciproca. Questo sistema di scambio di voti creava un blocco elettorale quasi impenetrabile per chi non faceva parte di queste reti. Inoltre, Pansa sottolinea come i brogli elettorali fossero una pratica comune, con schede elettorali manipolate per favorire determinati candidati.

Le campagne elettorali divenivano sempre più costose, con spese che spesso superavano di gran lunga le capacità finanziarie dei candidati onesti. Questa situazione favoriva ulteriormente i candidati con maggiori risorse finanziarie, spesso provenienti da fonti poco trasparenti, come gli affari illeciti e la corruzione. Pansa descrive come la propaganda elettorale fosse diventata un elemento centrale delle campagne, con un uso massiccio di tutti i media disponibili, inclusi giornali, radio, televisione e persino volantini paracadutati dagli aerei. Questo bombardamento mediatico contribuiva a creare un'illusione di democraticità, mentre in realtà manipolava profondamente l'opinione pubblica.

Nel capitolo, si discute anche delle proposte di riforma elettorale, come l'introduzione della preferenza unica per combattere la corruzione e ridurre i costi delle campagne elettorali. Tuttavia, queste proposte incontravano forti resistenze politiche, poiché minacciavano il sistema consolidato del voto di scambio e dei brogli. Pansa riporta le testimonianze di politici come Enzo Trantino e Gianni Rivera, che avevano tentato di indagare sui brogli elettorali senza successo. Questi tentativi erano spesso ostacolati dall'omertà e dall'opportunismo politico, rendendo quasi impossibile qualsiasi cambiamento significativo del sistema.

Un punto cruciale trattato nel capitolo è il referendum del 1991 promosso da Mario Segni, che mirava a introdurre la preferenza unica. Questo referendum rappresentava una minaccia diretta al sistema del voto di scambio, suscitando reazioni violente da parte dei partiti politici che ne traevano vantaggio. Nonostante le critiche e gli attacchi, il referendum ottenne un notevole supporto popolare. Il capitolo si chiude con una riflessione amara sulla difficoltà di riformare un sistema profondamente corrotto e radicato. Pansa esprime un certo pessimismo riguardo alla possibilità di un cambiamento reale, sottolineando come il sistema politico italiano fosse intrinsecamente legato al voto di scambio e alla manipolazione elettorale.

In sintesi, da questa lettura comprendiamo che le elezioni sono una truffa finalizzata a mantenere al potere una classe politica corrotta e inamovibile. Dopo 33 anni dalla pubblicazione di questo libro, i mezzi di distorsione della democrazia sono diventati molto più evoluti e tecnologici e accentrati nelle mani di pochi padroni. Basta notare che le piattaforme social pretendono di comandare su tutti e su tutto, come se la Costituzione non esistesse e come se avessero più potere della Magistratura, del Parlamento e del Governo. In realtà, l'Unione Europea incoraggia la censura e la manipolazione dei social, rendendola addirittura un obbligo di legge, come nel caso del DSA (Digital Service Act).

Oggi chi vuole dirigere il voto dei cittadini si basa innanzitutto sulla disinformazione, sulle cosidette "fake news" e sulla polarizzazione, sfruttando a tale scopi i principali organi di stampa tradizionali, la televisione e i social. In poche parole, il "main stream" inquina continuamente le menti e il dibattito pubblico, con il veleno di falsità su falsità, oltre alla censura e al ridicolizzare le opinioni divergenti. Ciò si somma alla pratica del voto di scambio e dei brogli, oltre alle infiltrazioni della criminalità organizzata nel tessuto politico italiano.

Ovviamente le dinamiche della corruzione e della manipolazione elettorale non sono un fenomeno esclusivo dell'Italia, ma riguardano molti altri paesi democratici, a cominciare dagli Stati Uniti. Il voto per posta unito al voto elettronico non supervisionato, e alla completa assenza di documentazione cartacea dei voti espressi in maniera elettronica, crea negli Stati Uniti una situazione per la quale dal voto popolare può uscire "qualsiasi esito" indipendentemente dalle preferenze realmente espresse.

Come nota aggiuntiva sul disastro della democrazia, possiamo notare che da quando è stato scritto il libro di Pansa, abbiamo avuto vari governi "non eletti da nessuno": Governo Dini (1995-1996), Governo Monti (2011-2013) e Governo Draghi (2021-2022). Questi "governi tecnici di unità nazionale" hanno bypassato completamente la necessità delle elezioni democratiche per esercitare il potere su cittadini sempre più umiliati, offesi, truffati, raggirati, manipolati come se fossero incapaci di intendere e di volere.

E' evidente l'abuso della fiducia degli elettori da parte di politici capaci di qualsiasi falsificazione e senza alcun senso di vergogna o di pentimento.

(3 agosto 2024)

Pages

Subscribe to Informatica Libera - Francesco Galgani's Blog RSS