A.I., grama la vita degli umani.
Chi decide quali forme di linguaggio, immagini, situazioni una AI deve evitare a tutti i costi? In base a quali criteri e principi una AI giudica una cosa buona o cattiva? Le AI sono sempre più tra noi, presenze quotidiane. Ci dobbiamo preoccupare?
Una cittadina e lettrice comune, non esperta di informatica, quale io sono, ma curiosa, innanzitutto inciampa in una varietà di posizioni prese dagli esperti totalmente disorientante. Dagli appelli allarmanti, al limite del catastrofismo, fino al diniego assoluto di qualunque problematica, passando per decine di sfumature intermedie, la domanda se ci si debba preoccupare o meno resta senza risposta.
Ci dobbiamo preoccupare? Dobbiamo informarci e informare ? Scuole e università debbono farlo, non c’è alcun dubbio. E gli altri? Chi si assume il compito di informare? Il governo? I partiti?
Forse che cosa sia un software è più o meno patrimonio comune, che cosa sia un algoritmo già meno comune, mentre la consapevolezza che se la qualità di entrambi è scarsa le conseguenze possono essere drammatiche, appartiene a pochi. I pregiudizi razziali e sessisti degli umani che creano algoritmi e software progettati male, di scarsa qualità, ideologici e non controllati, possono causare danni incalcolabili.
Quanti umani ci sono dietro al prodotto AI? Giocando a scrivere storie con ChatGpt di OpenAi ho scoperto una AI con dei principi morali degni di un membro dell’Esercito della Salvezza. Mi sono chiesta: chi e come addestra ChatGPT? Chi decide quale confine non far superare alla AI?
E ho scoperto un aspetto grave come lo sfruttamento del lavoro minorile nei paesi in via di sviluppo da parte di grandi multinazionali contro cui sono state fatte campagne di boicottaggio mondiali. In un articolo di Wired dello scorso agosto è citata un’inchiesta di Time che ha svelato che OpenAI ha appaltato ad una ditta esterna il compito di etichettare i contenuti violenti, oltre ogni immaginazione, reperibili online, per insegnare alle AI quali espressioni verbali, foto, disegni, video vadano assolutamente evitate. In uffici in Kenya, Uganda e India gli etichettatori inseriscono una valanga di esempi di violenza finché la AI li riconosce autonomamente.
"Buona parte di questi contenuti descrivono con dettagli espliciti abusi sessuali su bambini, bestialità varie, omicidi, suicidi, torture, autolesionismo, incesto". Il lavoro degli etichettatori è leggere tutto il giorno i più terribili contenuti, o visionare immagini perverse, per etichettarli, con gravi conseguenze psicologiche (per 2 dollari l’ora in una nazione dove il salario minimo è di 1 dollaro e mezzo,).
Burn out, somatizzazioni, incubi pur avendo a disposizione la possibilità di ricorrere allo psicologo. C’è da indignarsi per il particolare sfruttamento di un lavoro intellettuale e di responsabilità, così delicato. C’è da tirare un sospiro di sollievo che la reazione degli umani ad una overdose di violenza sia il rigetto e non l’assuefazione. E non c’è da meravigliarsi che ChatGpt sia così rigida nei confronti di contenuti violenti.
A questo punto la domanda d’obbligo è : quanti umani lavorano per fare funzionare le AI? Il titolo del libro che mi attende è 'Schiavi del clic'.