AI, se la macchina è il tuo psicologo

wave

Nell’autunno del 2022 è arrivata ChatGPT, che ha dato il via alla corsa dei prodotti basati sulla AI generativa, ha consentito la possibilità di giocare o sperimentare una miriade di strumenti - spuntati come funghi giorno dopo giorno - e iniziato la competizione fra le grandi aziende tech per rilanciare i propri servizi all’insegna di questa tecnologia. Immersi nella nebbia facciamo fatica a capire che cosa sia veramente nuovo, che cosa invece esiste da tempo. Che cosa sia rivoluzionario e cosa sia reazionario. Soprattutto chi non è uno specialista non è in grado di individuare i rischi effettivi e distinguerli dal catastrofismo, differenziare chi è sfruttato da chi farà enormi profitti e capire quanto potere abbiano effettivamente le Big Tech, Microsoft, Google, Facebook nel confronto con i governi. La maggior parte dei ricercatori sono in netto contrasto fra di loro sulla capacità, l’impatto e i rischi conseguenti alla IA.

...

Ma se cerchiamo qualche riferimento storico e usiamo un po’ di psicologia. più che un rischio di un danno troviamo il danno già avvenuto. Robert Jungk, nel suo saggio Gli apprendisti stregoni. Storia degli scienziati atomici (Einaudi 1958), dove vengono esplorati i rapporti fra i fisici nucleari, la società e la politica scrive che “Quasi in ogni epoca c’è un campo del pensiero e dell’attività umana che attira con forza particolare gli spiriti dotati, così in certe epoche gli spiriti inquieti, tutti protesi al nuovo, sono portati particolarmente all’architettura; in altre alla pittura o alla musica, alla teologia o alla filosofia. Improvvisamente - e nessuno potrebbe dire come - i più aperti avvertono in che punto esattamente si è dischiusa una breccia, e si spingono là dove possono sperare di non restare semplici discepoli, ma di divenire anch’essi fondatori e maestri. Proprio una siffatta forza di attrazione ebbe la fisica atomica negli anni che seguirono alla Prima Guerra Mondiale”. Vale oggi lo stesso per l’AI? Ci troviamo davvero di fronte a una breccia intellettuale? Se anche così fosse, dalla storia un insegnamento possiamo trarlo: cominciare a riflettere sui nostri aspetti più fragili e sulla diffusa e conseguente dipendenza dalle macchine (e da chi le programma, addestra e controlla).

...

ChatGPT ha rapidamente assunto molti ruoli nelle vite dei milioni di persone che lo utilizzano ogni giorno. Per tanti, ChatGPT è diventato un interlocutore con cui è possibile conversare su ogni argomento, spesso in maniera convincente, un aiutante nella scrittura, nella ricerca, un amico. Per molti perfino il proprio psicologo. Una scelta che viene fatta da un numero non trascurabile di utenti, che si relazionano a ChatGPT come se davvero fosse uno psicoterapeuta.

Per impedire un utilizzo giudicato improprio e pericoloso, OpenAI , che evidentemente questa possibilità l’aveva contemplata, fa in modo che il suo sistema di intelligenza artificiale generativa non possa offrire aiuto psicologico. Infatti di fronte a richieste di questo tipo si limita a fornire materiale utile da consultare. Uno dei pochi che sicuramente non si sarebbe sorpreso e che avrebbe avuto moltissimo da dire sull’argomento è Joseph Weizenbaum, scienziato informatico e docente al MIT di Boston, scomparso nel 2008. Colui che parecchi decenni prima della propria morte aveva approfondito le ragioni che portano le persone a relazionarsi come “pazienti” con le macchine e le cause di questo comportamento.

...

Nel 1966 Weizenbaum crea il primo chatbot della storia: ELIZA, il più antico programma informatico in grado di comunicare per via testuale con una persona, e capace di intrattenere una conversazione almeno parzialmente coerente. Scrive Andrea Signorello: “Così battezzata in onore di Eliza Doolittle, personaggio del Pigmalione di George Bernard Shaw che vuole imparare a esprimersi in maniera forbita, ELIZA è progettata per imitare in maniera caricaturale il comportamento di uno psicologo della scuola rogersiana, che – come scrive lo stesso Weizenbaum in Computer Power and Human Reason, nel 1976 – è un metodo “relativamente semplice da imitare, perché buona parte della sua tecnica consiste nel rivolgere al paziente le sue stesse dichiarazioni in forma di domanda”.

Nel testo Weizenbaum riporta anche un dialogo in chiave psicologica che una persona ha avuto con Eliza.

...

Paziente: “Ho bisogno di aiuto, di questo sono certa”.

Eliza: “Che cosa significherebbe per te ricevere aiuto?”

Paziente: “Forse riuscirei ad andare d’accordo con mia madre”

Eliza: “Dimmi di più della tua famiglia”

Paziente: “Mia madre si prende cura di me”

Eliza: “Chi altri nella tua famiglia si prende cura di te?”

Paziente: “Mio padre”

Eliza: “Tuo padre”

Paziente: “Per certi versi assomigli a mio padre”

Eliza: “Che somiglianza vedi?”

Paziente: “Non sei per niente aggressivo, ma penso che tu non voglia che io lo noti”

Eliza: “Che cosa ti fa pensare che io non sia aggressivo?”

Paziente: “Non discuti con me”

Eliza: “Perché pensi che io non discuta con te?”

Paziente: “Sei spaventata da me”

Eliza: “Ti fa piacere pensare che io sia spaventata da te?”

Come si vede dalla conversazione di cui sopra, Eliza risponde in maniera coerente quando ha qualche appiglio facile su cui incentrare la sua risposta (per esempio il termine “madre” la porta subito a porre una domanda sulla famiglia), mentre in tutti gli altri casi si limita a ribaltare in forma di domanda l’affermazione fatta dal “paziente”.

...

ELIZA ha ben poco a che fare con gli strumenti generativi a cui ci stiamo abituando oggi. “Ciò che non avevo però compreso è che un’esposizione anche molto breve a un programma informatico relativamente semplice potesse provocare reazioni deliranti in persone altrimenti decisamente normali” scriveva Weizenbaum. Il problema è purtroppo diventato drammaticamente evidente da decenni. Abbiamo lasciato che i computer, il mondo informatico e l’ intelligenza artificiale giocassero un ruolo troppo importante nella società. Non è detto che possano un giorno superarci e dominare il mondo, ma sicuramente abbiamo ceduto a delle macchine, e agli umani che per ora le controllano, una eccessiva responsabilità e libertà.

...

ELIZA era un semplice programma di meno di 200 righe di codice, mentre ChatGPT nasce, nella sua prima versione, da una rete neurale dotata di 175 miliardi di parametri, addestrata su un ampio corpus di contenuti e alimentata da un potere computazionale incomparabile. C’è purtroppo un filo rosso che lega questi due strumenti appartenenti a epoche così diverse: la necessità dell’essere umano di confidarsi ed essere in relazione con l’altro immaginato privo di pregiudizi, gratuito e sempre a disposizione, non come i parenti e gli amici non sempre disponibili o gli psicoterapeuti a pagamento. Qui concludo, perché l’epidemia di solitudine che affligge giovani, bambini e non solo, scatenata dalla latitanza della genitorialità e dalla scarsità di adulti, è già in sé una catastrofe.