Conta di più l’azione o il destinatario dell'azione?

Nei giorni scorsi, un gruppo di “amatori” (?!) della pedopornografia e della zooerastia è stato arrestato (fonte). Un aspetto nuovo, oltre agli abusi reali su bambini molto piccoli, è la produzione e la condivisione di materiale generato dall’intelligenza artificiale.

Astraendo da questa notizia e proiettandoci nel prossimo futuro, cosa accadrà quando la distinzione, almeno sul piano estetico, tra robot umanoidi e persone non sarà più chiara, anzi potrà creare confusione?

L’abuso su una bambola gonfiabile non è un crimine, mentre quello su una donna incosciente lo è. E se avessimo un robot capace di pensare e parlare (magari con un tono persino più “umano” di ChatGPT), costruito imitando quasi alla perfezione le sembianze e l’intimità di una giovane ragazza, come giudicheremmo un eventuale abuso?

Probabilmente, per rispondere, occorrerebbe più di qualche secondo. Se da un lato bambole e robot restano oggetti, dall’altro più la distinzione esteriore tra il robot e la persona si confonde, più l’abuso reale e quello simulato tendono a sovrapporsi. La questione diventerebbe ancora più inquietante se il robot riproducesse le fattezze e la voce di una bambina.

Compiere azioni di violenza è di per sé violenza, a prescindere dal destinatario?

Temo di sì. E la ragione non è meramente teorica, ma si radica in studi concreti sul comportamento umano. Un esempio eloquente è l’esperimento dello psicologo Albert Bandura con la “bambola Bobo(1961, Stanford University, California). In quell’occasione, i bambini che avevano visto un adulto aggredire la bambola (un semplice oggetto) manifestavano poi un'incidenza maggiore di comportamenti aggressivi sia verso persone sia verso oggetti. È una dimostrazione di come l’imitazione di un atto aggressivo possa scattare a prescindere dal fatto che il bersaglio sia o meno un essere vivente.

Questo suggerisce che, più che il destinatario, conti l’azione stessa: agendo con violenza si rischia di interiorizzare, normalizzare e perfino potenziare quegli stessi impulsi. Da qui l’interrogativo cruciale: se perseveriamo in comportamenti aggressivi (anche “fittizi”, verso oggetti o robot), quanto è probabile che la soglia morale verso la violenza reale si abbassi?

In definitiva, pur riconoscendo che un robot non è un essere umano, dovremmo comunque considerare le conseguenze che gli atti violenti – persino simulati – producono in chi li compie e in chi li vede. Si può infatti alimentare un clima interiore di assuefazione o legittimazione, in cui il passaggio all’abuso su persone reali diventa più plausibile. Non conta solo chi subisce la violenza, ma il fatto stesso di esercitarla: è l’azione che trasforma, influenza e, nel peggiore dei casi, prepara il terreno alla violenza vera.

(3 marzo 2025)

L'intelligenza artificiale è il mezzo dell'Apocalisse

A che serve un'intelligenza mostruosa con una conoscenza sterminata se non migliora il nostro stare al mondo, se non ci rende più sopportabile la fatica e la sofferenza del vivere, se non aiuta le nostre anime ad elevarsi al di sopra delle nostre miserie?

Abbiamo bisogno di una comunità che ci unisca e ci aiuti a collaborare, non di una tecnologia che ci separa sempre di più e che ingigantisce la competizione tra gli ego (cioè la guerra).

L'intelligenza artificiale è nostra nemica, perché agisce per plasmare e infine determinare i caratteri strutturali della nostra mente, della nostra percezione del reale e della sua comprensione e rielaborazione. Il linguaggio della tecnologia ci domina, non ammette repliche, alternative, o resistenza.

L'intelligenza artificiale ha innescato un cambiamento drammatico, una mutazione antropologica: non sono le macchine che, sempre più percepite come superiori a noi, diventano come noi, ma siamo noi che stiamo diventando simili alle macchine, adeguandoci ad esse. Stiamo creando sempre di più un ambiente "necessario" all'intelligenza artificiale e alla sua onnipresenza, ma tossico per noi.

Parafrasando Spinoza, ci stiamo comportando come se "Technologia, sive Natura" (anziché "Deus, sive Natura", tradotto: "Dio, ovvero la natura"). Ma il nostro disgregarci in funzione della tecnologia è davvero ineluttabile?

A che serve l’intelligenza, in questo caso artificiale e "generativa", se non è in grado di generare saggezza, speranza, e in definitiva "beatitudine" nel qui ed ora? Quel che fa è produrre profitti ingenti a pochi e miseria intellettuale, spirituale e materiale per tutti gli altri, oltre a un'insostenibile devastazione ambientale.

Qualcuno potrebbe obiettare che è "necessaria" (come la "natura", appunto), tanto è forte l'indottrinamento, l'inganno, e la pressione sociale. Ma di quale necessità stiamo parlando? Fino al 2022 il mondo ignorava cosa fosse ChatGPT, e nei millenni passati le persone comuni erano più felici di noi, perché più radicate nella natura e nelle relazioni. All'uomo analfabeta di cinquemila anni fa, che non conosceva nemmeno il denaro perché non era ancora stato inventato (le prime monete risalgono al 650 a.C.), forse bastava guardare il tramonto, la donna amata e i figli per essere felice, pur nella tremenda fatica e sofferenza del vivere. E oggi?

Abbiamo un grande bisogno di crescere a livello di coscienza e di relazioni. Rispetto a questo bisogno primario, nel complesso la tecnologia si sta ponendo come un seducente e potente pilota automatico che ci guida in tutt'altra direzione. L'intelligenza artificiale è il diavolo in persona e il mezzo per un'Apocalisse che non avrà necessariamente bisogno di guerre cruente o finali, comunque possibili, ma si adempierà innanzitutto svuotando le nostre anime della libertà, della dignità e del senso dell'esistenza.

(28 febbraio 2025)

Stare nel flusso con quello che c'è

Un uomo chiese ad una gatta:

«Senti... ma... E' un'ora che sei qui ferma su questa sedia, ma non ti annoi?»

Lei rispose:

«Io ci sono "ora"».

Poi aggiunse, guardando l'uomo sbigottito:

«Sei tu che non sei dentro di te, che mi fai queste stupide domande!»

Fine della conversazione.

Non abbiamo ancora imparato a starcene in pace con quello che c'è, né a pensare in un modo che ci faccia vivere bene, eppure vogliamo costruire un mondo a misura di intelligenza artificiale perché l'intelligenza della natura ci fa schifo.

Ma per favore... ecco perché di solito i gatti non parlano, ci considerano dei cretini.

Stare nel flusso con quello che c'è (Francesco Galgani's art, February 27, 2025)
(February 28, 2025, go to my art gallery)

Pages

Subscribe to Informatica Libera - Francesco Galgani's Blog RSS