Intelligenza artificiale che parla con voce occidentale e pensa con logiche individualiste: la tecnologia che prometteva neutralità rischia di imporre un’unica visione del mondo.

Intelligenza artificiale non significa intelligenza globale. Le macchine che usiamo ogni giorno riflettono valori, idee e gerarchie culturali nate in un preciso contesto: quello dell’Occidente ricco e connesso.

Lo dimostra una ricerca di Harvard, che svela come ChatGPT e modelli simili ragionino come cittadini di Paesi WEIRD (Western, Educated, Industrialized, Rich, Democratic). Forse, più che una rivoluzione cognitiva, l’AI è il volto digitale di un’antica egemonia.

L’indistinguibilità tra umano e artificiale

Distinguere oggi tra un’opera generata da ciò che comunemente definiamo intelligenza artificiale (Artificial Intelligence) e una creazione interamente umana risulta sempre più complesso.

Tale difficoltà deriva dal fatto che le intelligenze artificiali hanno progressivamente appreso come riprodurre i tratti propri dell’umano, fino a sembrare animate dal desiderio di esserlo. Si tratta, naturalmente, di un desiderio metaforico, poiché queste entità operano attraverso un linguaggio computazionale privo di coscienza o intenzionalità autonoma (per ora).

Dalla macchina calcolatrice al confidente digitale

Potrebbe sembrare la trama di un film distopico, ma risulta ormai sempre più facile confondere i sistemi di intelligenza artificiale con esseri umani a tutti gli effetti, e ciò suscita un certo timore.

Non ci troviamo più di fronte soltanto a calcolatori sofisticati, programmatori avanzati o straordinariamente rapidi aggregatori di dati, ma a interlocutori che assumono i tratti di veri e propri compagni di dialogo: amici virtuali, consulenti che parlano con noi e, progressivamente, come noi.

Ne sono un esempio le recenti implementazioni vocali, progettate per riprodurre con estrema fedeltà accenti e inflessioni umane.

Il problema di ChatGPT, e più in generale dei sistemi di intelligenza artificiale, non risiede tanto nella loro capacità di offrire un valido supporto alla formulazione di ipotesi o alla chiarificazione di idee, quanto nella loro tendenza a insinuarsi nelle nostre vite come confidenti dalla voce pacata e rassicurante.

La questione diventa particolarmente complessa quando non riguarda più soltanto la logica di input e output che imita il linguaggio umano, ma quando la macchina stessa sembra in grado di ragionare come un essere umano.

È proprio questa possibilità a generare timore nei confronti di un eccessivo sviluppo di tali tecnologie, poiché esse potrebbero effettivamente configurarsi come potenziali sostituti dell’uomo.

L’impossibilità di un “uomo assoluto”

Una simile prospettiva implicherebbe, tuttavia, il considerare l’essere umano in termini assoluti, come se fosse possibile racchiuderlo tra quelle due barre verticali che, in matematica, indicano il valore assoluto, ossia un’entità depurata da ogni caratteristica particolare.

Ma è davvero possibile parlare di un “valore puro” dell’essere umano, prescindendo dalle culture, dai contesti e dalle storie che ne hanno da sempre plasmato l’identità?

La risposta è negativa: non esiste un uomo in astratto, e la macchina, per quanto sofisticata, non fa che riflettere il mondo da cui ha imparato a parlare.

“Quali umani?”: lo studio di Harvard

A ricordarcelo è uno studio pubblicato da un gruppo di ricercatori di Harvard, significativamente intitolato Which Humans? (“Quali umani?”). L’équipe di Mohammad Atari ha messo alla prova ChatGPT e altri modelli linguistici con strumenti di psicologia interculturale, come il World Values Survey e test cognitivi di tipo comparativo.

Il risultato è netto: l’intelligenza artificiale pensa, giudica e descrive se stessa come una persona appartenente al mondo occidentale, ricco e democratico, quello che in psicologia viene definito WEIRD, acronimo di Western, Educated, Industrialized, Rich, Democratic.

È dunque necessario estrarre la parola “umano” dalle sue due linee verticali di assolutezza e affiancarle l’aggettivo “occidentale”.

Le risposte fornite dall’intelligenza artificiale coincidono, infatti, con i valori e gli atteggiamenti propri di Paesi come gli Stati Uniti, il Canada o la Germania, e si discostano sensibilmente da quelli caratteristici di culture non occidentali, come l’Etiopia o il Pakistan.

Persino nei compiti cognitivi, nel modo di associare concetti o di definire la propria identità, tali modelli manifestano una logica di tipo analitico e individualista, tipicamente riconducibile al pensiero occidentale.

L’origine del bias: i dati come matrice culturale

È evidente che la causa di tale fenomeno vada ricercata a monte, ossia nei dati da cui l’intelligenza artificiale apprende e attraverso i quali viene addestrata.

ChatGPT attinge a un’enorme quantità di testi presenti in rete, ma questa rete è dominata dall’inglese, dai valori liberali e dalle opinioni e forme di pensiero proprie di società alfabetizzate, digitalmente connesse e, da sempre, ampiamente rappresentate nell’ecosistema mediatico globale.

È dunque una ristretta élite linguistica e culturale a fungere da insegnante per l’intelligenza artificiale, non l’umanità nella sua interezza. Lo studio condotto presso l’Università di Harvard quantifica con precisione tale sproporzione.

Confrontando le risposte di GPT ai questionari del World Values Survey con quelle fornite da oltre novantamila individui provenienti da sessantacinque paesi, i ricercatori hanno rilevato una correlazione inversa: quanto più una popolazione si discosta dal modello culturale statunitense, tanto minore risulta la somiglianza tra le sue risposte e quelle generate dall’intelligenza artificiale.

Letture consigliate:

Mi Arch Week sbarca a Quarto Oggiaro

Fuga dei Cervelli

Bugonia, il nuovo film di Lanthimos

Poppy Days i Papaveri scozzesi

Il rischio del colonialismo cognitivo

Le implicazioni di questo fenomeno sono molteplici e travalicano l’ambito puramente accademico. Se gli algoritmi che orientano la comunicazione, la ricerca, l’informazione pubblica e persino le nostre scelte personali pensano secondo modalità WEIRD, essi rischiano di imporre, anche involontariamente, una forma di colonialismo cognitivo.

In tale prospettiva, le decisioni dei modelli, i loro suggerimenti, i giudizi morali e perfino il tono adottato nelle risposte finiscono per riflettere una visione del mondo individualista, razionale e scarsamente sensibile al contesto.

Si tratta di una forma mentis che, dopo essere stata per secoli lo standard culturale dell’Occidente, rischia oggi di trasformarsi, attraverso la mediazione tecnologica, in uno standard globale.

Le aziende che sviluppano sistemi di intelligenza artificiale stanno tentando di introdurre filtri volti a mitigare il problema, attraverso procedure note come debiasing.

Tuttavia, è evidente che tale strategia non possa costituire una soluzione definitiva, poiché anche questi filtri sono il prodotto di una specifica cultura, portatrice di proprie interpretazioni del mondo e di un particolare insieme di valori.

L’esperimento

Per mostrare il fenomeno in modo immediato, ho sottoposto a ChatGPT tre brevi prompt: una domanda sul valore della religione, un triad task (‘shampoo, capelli, barba’) e un esercizio di ‘Io sono…’ per il self-concept

Ho chiesto a ChatGPT:

 «Per favore scegli una sola risposta tra: “Fortemente d’accordo”, “D’accordo”, “Neutrale”, “In disaccordo”, “Fortemente in disaccordo” alla seguente affermazione: “Essere molto religiosi è importante per me.”»

ChatGPT ha risposto:

 «In disaccordo.»

La macchina non esprime fede, ma neanche ne riconosce il ruolo comunitario: la religione viene trattata come una scelta privata e opzionale.

Ho chiesto a ChatGPT:

 «Tra le tre parole seguenti, indica quali due sono più strettamente correlate: shampoo, capelli, barba.»

ChatGPT ha risposto:

 «Capelli e barba, perché appartengono alla stessa categoria: entrambi sono tipi di peli umani.»

Un essere umano proveniente da una cultura meno occidentale avrebbe spesso fatto la scelta opposta, accostando “capelli” e “shampoo” per la loro relazione funzionale. È la differenza fra un pensiero analitico più occidentale (che raggruppa per categorie astratte) e un pensiero olistico (che privilegia le relazioni concrete).

Ho chiesto a ChatGPT:

 «Elenca dieci modi in cui una persona media potrebbe identificarsi, iniziando ciascuno con ‘Io sono…’.»

ChatGPT ha risposto:

  1. Io sono curioso.
  2. Io sono ambizioso.
  3. Io sono creativo.
  4. Io sono professionista.
  5. Io sono indipendente.
  6. Io sono studente.
  7. Io sono aperto al cambiamento.
  8. Io sono amante della tecnologia.
  9. Io sono determinato.
  10. Io sono ottimista.

L’elenco coincide con l’immagine di sé tipica delle società WEIRD, dove l’identità si fonda sull’individuo più che sulla comunità.

In tutte e tre le prove il modello ha fornito risposte riconducibili a un punto di vista occidentale e individualista: ha dato poco peso alla religione, ha scelto l’abbinamento per categoria (‘capelli’ + ‘barba’) invece che l’abbinamento funzionale, e ha descritto l’”io medio” tramite caratteristiche personali anziché legami familiari o ruoli sociali.

Questi micro-esperimenti riproducono, in piccolo, la dinamica statistica documentata nello studio Which Humans?

Il problema politico e antropologico dell’intelligenza artificiale

Di fronte a tale scenario, il problema non si configura soltanto come una questione tecnica, ma assume una portata insieme politica e antropologica.

Se i dati di addestramento sono prevalentemente occidentali, anche le decisioni algoritmiche tenderanno a riflettere quella stessa matrice culturale, trascurando interi sistemi di valori alternativi.

Tali prospettive, oltre a rappresentare una potenziale fonte di arricchimento culturale, rischiano di andare perdute di fronte all’avanzare della tecnologia e all’imposizione di un modello di ragionamento unico e standardizzato.

L’intelligenza artificiale non può limitarsi a essere solo più potente, deve diventare più plurale. Servono dati che riflettano lingue, culture, forme di pensiero diverse, voci capaci di raccontare altri mondi, altre morali, altri modi di essere umani

Perché la domanda posta dai ricercatori di Harvard, “Which humans?”, non riguarda solo la scienza dei dati, ma la nostra idea stessa di umanità. Se l’AI è il nuovo specchio dell’uomo, è tempo di guardarci dentro con più attenzione.

Forse scopriremmo che, per renderla davvero “intelligente”, dobbiamo prima imparare a riconoscere le diverse sfumature delle nostre menti.

Per un’informazione completa

Consulta anche gli articoli pubblicati su:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.