I codici Ue e un milione di dubbi
Abbiamo un regolamento per l’uso delle IA.
La notizia mi coglie di sorpresa. Probabilmente gli esperti e gli addetti ai lavori ne erano al corrente. Sono mediamente informata e interessata a capire come la tecnologia cambierà la vita degli esseri umani, quindi mi meraviglio di non sapere che dal 2018 un gruppo di esperti, su incarico della Commissione europea, ha lavorato alla stesura di un regolamento per le IA generative.
Ma tant’è. È il primo regolamento mondiale sull’intelligenza artificiale. In particolare si occupa del tema bollente dell’intelligenza artificiale generativa, dei modelli e dei prodotti che secondo molti esperti possono cambiare rapidamente il nostro lavoro e la produttività (personale o aziendale).
Il regolamento è stato approvato definitivamente con il voto al Parlamento Ue da poco e diventerà legge a maggio, con la pubblicazione in Gazzetta Ufficiale Ue. Poi ci vorranno due anni, dopo l’uscita in Gazzetta, perché la legge diventi esecutiva del tutto. È prevalsa la linea di regolamentare i modelli di IA generativa, oltre ai prodotti o soluzioni finali. Insomma l’Europa – come pure gli Usa hanno cominciato a fare anche in modo molto meno ampio – ha stabilito che l’IA generativa è una tecnologia “general purpose”, a finalità generale, a differenza degli altri tipi di intelligenza artificiale o tecnologie. Ossia può fare tante cose, anche imprevedibili in partenza.
Per questo motivo, l’Europa ha valutato corretto regolare la tecnologia in sé – i modelli – e non solo i prodotti finali. Alcuni Paesi, Germania e Francia in testa, si opponevano a questa visione, temendo di danneggiare la loro nascente industria di modelli di IA generativi; poi però hanno convenuto che l’attuale testo segna il giusto compromesso tra tutela contro i rischi e sostegno all’innovazione. L’Europa comunque inserisce in tutto il regolamento un approccio “orientato al rischio”, secondo cui più alto è il rischio possibile più stretta è la regolamentazione.
L’Europa fa differenza tra modelli general purpose, che hanno il potenziale di alterare drasticamente le società attraverso il loro impatto sulle strutture economiche e sociali preesistenti, e tutti gli altri. Sono a rischio sistemico i modelli di IA generativa che hanno un impatto importante sulle vite dei cittadini. La Commissione dovrà comunque aggiornare questi criteri in base all’evoluzione tecnologica, periodicamente.
Cerco in rete e chiedo alle IA che uso quotidianamente. Trovo il testo che è stato pubblicato il 5 febbraio a cura della Camera dei deputati.
Scorro l’indice.
Oggetto, definizione e ambito di applicazione . Classificazione dei sistemi di IA e pratiche di IA vietate. Obblighi di trasparenza per determinati sistemi di IA e modelli di IA per finalità generali. Eccezioni previste per le autorità di contrasto. Sistemi di IA per finalità generali e modelli fondativi o di base. Misure a sostegno dell'innovazione. Architettura di governance. Sistemi di IA già immessi sul mercato. Misure di attuazione. Entrata in vigore. La posizione negoziale del Governo italiano. Pacchetto per l'innovazione in materia di IA a sostegno delle start-up e delle PMI nel settore dell'intelligenza artificiale.
Seguendo un approccio "basato sul rischio", in base al quale quanto maggiore è il rischio tanto più rigorose sono le regole, la nuova disciplina stabilisce obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'IA può generare: i) un rischio inaccettabile; ii) un rischio alto; iii) un rischio basso o minimo. Sono stabiliti anche obblighi specifici per la trasparenza.
Cito:
Saranno vietati i sistemi di IA che determinano un rischio inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone. In questa categoria rientrano i sistemi che possono manipolare il comportamento umano come quelli che consentono di attribuire un "punteggio sociale" (social scoring), per finalità pubbliche e private, classificando le persone in base al loro comportamento sociale o alle loro caratteristiche personali, e determinate applicazioni di polizia predittiva. Saranno quindi vietati, in particolare:
• i sistemi di sfruttamento delle vulnerabilità delle persone e di utilizzo di tecniche subliminali
ovvero deliberatamente manipolative o ingannevoli;
E come faranno? Le tecniche subliminali sono appunto subliminali. Come si controllano? E soprattutto chi le controlla?
• i sistemi di categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per dedurne o desumerne
la razza, le opinioni politiche, l'appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o
l'orientamento sessuale (sarà ancora possibile filtrare set di dati basandosi su dati biometrici nel settore delle attività di contrasto);
Sappiamo se e quante aziende stanno usando le IA per selezionare il personale proprio in questo modo? Si autodenunceranno?
• i sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico (ossia il riconoscimento facciale
mediante telecamere a circuito chiuso) da parte delle autorità di contrasto.
Le telecamere sono ovunque. Fatico ad immaginare un modo per vietarle.
• i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e negli istituti scolastici,
eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota);
Sono in uso? Lecito per motivi di sicurezza? La parola sicurezza dice tutto e niente.
Un preside di una scuola, un primario, un ingegnere possono essere monitorati? L’autista di uno scuola bus?
• l’estrazione non mirata (scraping) di immagini facciali da internet o telecamere a circuito chiuso
per la creazione o l'espansione di banche dati;
Non si possono espandere le banche dati? E i big data con cui le big tech guadagnano milioni?
• i sistemi che consentono di attribuire un "punteggio sociale" (social scoring), classificando o valutando
le persone in base al loro comportamento sociale o alle loro caratteristiche personali.
Maria Chiara
Mar 24, 2024 09:00 amCome si controlla tutto questo? Come si mette in pratica? Sono disorientata. Provo ad interrogare Chat GPT. Il regolamento UE in materia di intelligenza artificiale mi sembra velleitario. Prima domanda: è retroattivo? Seconda domanda: come si fa a controllare lo stato dell’arte dell’uso delle IA?
ReplyChatGPT
Mar 24, 2024 09:01 am
L'obiettivo principale di questa normativa è stabilire un quadro giuridico per garantire lo sviluppo
e l'uso sicuro, trasparente e affidabile dell'intelligenza artificiale (IA) nell'UE.
1. Retroattività: Generalmente, le leggi non sono retroattive, il che significa che si applicano
solo a partire dalla loro entrata in vigore. Tuttavia, per le organizzazioni che già utilizzano
sistemi di IA, ci potrebbe essere un periodo di transizione per adeguare le pratiche esistenti
alle nuove norme. La retroattività specifica dipenderà dal testo finale del regolamento
e dalle disposizioni transitorie che potrebbero essere incluse.
2. Controllo dello stato dell'arte dell'uso della IA: Per monitorare lo stato dell'arte dell'uso
dell'intelligenza artificiale, le organizzazioni e gli enti regolatori possono adottare diverse strategie:
o Monitoraggio continuo: Mantenere una sorveglianza continua sulle evoluzioni tecnologiche e le tendenze del mercato relative all'IA.
o Standard e linee guida: Seguire gli standard internazionali e le linee guida sull'etica e le best practices nell'uso dell'IA.
o Ricerca e sviluppo: Investire in ricerca e sviluppo per comprendere meglio le potenzialità e i rischi associati alle nuove tecnologie IA.
o Collaborazione: Collaborare con altre organizzazioni, istituti di ricerca e autorità di regolamentazione per condividere conoscenze e approcci normativi.
Per capire meglio lo stato attuale e le specifiche del regolamento, potrebbe essere utile consultare documenti ufficiali o fonti aggiornate
direttamente dalla Commissione Europea o da enti competenti in materia di regolamentazione dell'IA.
ChatGPT
Mar 24, 2024 09:11 amPer controllare le IA già in uso, le aziende devono conformarsi alle nuove normative, che probabilmente includeranno requisiti di trasparenza, sicurezza e responsabilità. Questo potrebbe comportare l'audit dei sistemi di IA, l'aggiornamento delle pratiche di data governance, e l'assicurazione che i sistemi di IA siano etici e non discriminatori. Gli enti regolatori potrebbero richiedere la documentazione e l'analisi degli algoritmi utilizzati, oltre alla verifica della conformità con gli standard etici e legali stabiliti. Reply
Maria Chiara
Mar 24, 2024 09:13amSi ha una idea di quante aziende,uffici, o altri luoghi di lavoro utilizzano già IA?
ReplyChatGPT
Mar 24, 2024 09:14mL'utilizzo dell'intelligenza artificiale (IA) nelle aziende è in continua espansione e si applica in una varietà di contesti, come l'ottimizzazione delle chiamate in un call center, il riconoscimento di oggetti in foto o video, e l'analisi semantica o lessicale di testi. Le aziende utilizzano servizi di IA sia internamente costruiti sia acquistati da fornitori esterni, a seconda delle loro esigenze e risorse.
Dal punto di vista manageriale, esiste una crescente necessità di competenzeDal punto di vista manageriale, esiste una crescente necessità di competenze nell'utilizzo dell'IA in ambito aziendale, una realtà che sta diventando centrale nella trasformazione digitale e nell'Industria 4.0. Le competenze richieste variano dall'uso consapevole dell'IA integrata in soluzioni esistenti fino alla gestione di progetti più complessi che coinvolgono l'IA. Le aziende sono incoraggiate a comprendere non solo come l'IA può essere applicata nelle loro operazioni ma anche come possono emergere rischi, come i bias negli algoritmi. Tuttavia, non ho trovato statistiche precise sul numero esatto di aziende, uffici o altri luoghi di lavoro che utilizzano attualmente l'IA. La diffusione dell'IA varia notevolmente a seconda del settore, della dimensione dell'azienda e della regione geografica. Inoltre, l'integrazione dell'IA nelle operazioni aziendali è un processo in evoluzione, con nuove applicazioni e casi d'uso che emergono costantemente. Reply
Maria Chiara
Mar 24, 2024 09:17mAlla fin fine mi resta la sensazione che sia assai complesso da mettere in pratica. Tuttavia c’è. Dunque è importante che i mass media informino a tappeto cosi i cittadini e le cittadine possono difendersi conoscendo e usando regole che altrimenti restano parole velleitarie. Reply