AI, Open Gov e approccio etico

Gianluigi Cogo
Webeconoscenza
Published in
7 min readMar 8, 2024

--

Photo by Luke Southern on Unsplash

Mi appunto, as usual, alcune note a supporto del contributo che porterò al talk: Intelligenza artificiale e open gov: un matrimonio possibile? organizzato da ForumPA.

Partendo dalla considerazione, piuttosto ovvia, che rispetto ai temi cardine e ai principi fondanti della cultura e della strategia dell’Open Government (trasparenza, partecipazione, innovazione, ecc.) quello dell’Open Data risulta oggi il più maturo e più facilmente declinabile in soluzioni innovative concrete (grazie soprattutto ai prodotti e ai servizi derivanti dal riuso dei dati) appare quasi logico che l’attenzione dell’Intelligenza Artificiale e delle sue recenti e dirompenti innovazioni possa e debba rivolgersi proprio al patrimonio di dati pubblici già pronto e disponibile all’uso.

Considerando, inoltre, i superpoteri percepiti e i vantaggi derivati dall’uso di servizi di IA generativa come ChatGPT, CoPilot o Gemini che permettono di fare cose che un tempo riuscivano a fare solo i nerd (a tal proposito, pensiamo proprio ai prodotti del riuso dei dati, molto difficili da creare per le persone comuni che, fino a ieri, han dovuto affidarsi esclusivamente a soluzioni e servizi progettati da altri).

Dunque, il contesto attuale sul quale anche l’Open Government Data oggi vorrebbe rispecchiarsi è quello che, grazie all’IA generativa, rende tutto maledettamente più facile e soprattutto aperto e disponibile a tutti grazie a servizi mirabolanti che consentono di realizzare qualcosa di creativo from scratch, senza essere nerd ma semplicemente interagendo con un bot.

Dopo questa premessa di contesto, mi concentrerei ora su alcuni aspetti da dibattere e approfondire durante il talk a cui sono stato invitato.

  • In generale associare l’IA all’Open Data e cercarne sinergie possibili rappresenta un po’ un ossimoro, perchè l’Open Data è figlio naturale di altri paradigmi, tutti open e partecipati by default: Open Source, Open Government, Copyleft sui diritti di distribuzione, Free of charge, ecc. L’IA, invece, è gestita da colossi che non condividono questi modelli teorici, filosofici e pratici e nemmeno i valori di trasparenza, controllo democratico e partecipazione civica in primis, che li sostanziano.
    Basta fare un po’ di ricerche su Google con la keyword: ‘Biggest AI companies’ e i risultati che emergono in forma di classifica ordinata sull’impegno in ricerca, sulla potenza di calcolo, o semplicemente sui dollari investiti in IA, portano in evidenza sempre le stesse multinazionali: Microsoft, Google, Meta, Apple, Nvidia, Intel, ecc.
    Inoltre, rispetto alla precondizione di disponibilità e gratuità degli Open Data e dei prodotti derivati, le nuove piattaforme di IA generativa (utili per produrre contenuti, nonchè agevolare o sostituire attività a supporto delle persone e delle organizzazioni), sono tutte basate su un modello di business che prevede un pagamento a fronte delle prestazioni erogate!
  • Più in particolare poi, abbiamo un enorme problema di privacy dei dati. Con l’IA soprattutto i dati personali e delle interazioni fra le persone sono in grande pericolo. Val la pena dunque soffermarsi sul tema importantissimo della privacy differenziale (1) ovvero quell’approccio alla protezione dei dati che permette di trarre delle conclusioni utili analizzando uno o più insiemi di dati ma, al tempo stesso, garantisce che le informazioni su un singolo individuo rimangano celate.
    Ecco, questa attenzione che con l’Open Data viene sempre garantita, con l’IA nessuno può sapere se venga rispettata!
  • Un altro problema etico è quello relativo alla bonifica delle informazioni generate, e dunque dei dati raccolti, attraverso lo sfruttamento del lavoro tossico. Dietro all’incredibile successo di una società come OpenAI che ha reso possibile la generazione automatizzata di testi, immagini, suoni, video, nonchè la soluzione di problemi di natura matematica finora ritenuti impossibili, si cela un problema che nessuna macchina è in grado di risolvere, ovvero distinguere il buono dal cattivo, il vero dal falso e l’opportuno dal suo contrario.
    Per fare questo OpenAI si è rivolta a una forza lavoro umana, dislocata in Kenia e sottopagata. Per soli 2 dollari all’ora i lavoratori kenioti si sono occupati di ascoltare e visionare milioni di contenuti raschiati dal web per poterli successivamente etichettare e dare in pasto alla macchina che, a quel punto, era istruita su cosa elaborare e cosa scartare.
    Anche questo fatto dimostra la distanza siderale dai principi dell’Open Data che identifica, fra le caratteristiche imprescindibili degli stessi, il fatto di essere raccolti e trattati come primari e non discriminatori.
  • Infine, e non per ultimo come importanza, c’è il tema della trasparenza, vero pilastro dell’Open Data e dell’Open Government. Per anni ci siamo battuti per imporre un modello basato sulla totale libertà e soprattutto trasparenza dei dati. Per offrire capacità di analisi e soprattutto predittive basate su su dati, processi e algoritmi aperti, disponibili e migliorabili da tutti.
    La definizione di standard sui dati, sui cataloghi, sui metadati, sulle API, ecc. sono stati portati a livelli di partecipazione mai visti prima e che hanno impegnato un esercito di stakeholder a vari livelli, dai produttori ed estrattori di dati, alla governance pubblica insediata nella PA, ai nerd sviluppatori di soluzioni, passando per il regolatore e infine il controllore, inteso quest’ultimo come movimentismo attento (Fondazioni, Associazioni, Comitati e Gruppi di lavoro) e parte integrante del processo. Insomma, trasparenza vera, non solo dichiarata nelle intenzioni.
    On the other side, che ne sappiamo dell’IA, dei dati raccolti, degli algoritmi e del controllo sui risultati del machine learning?

L’IA generativa è caratterizzata da opacità radicale, e chi se ne occupa lo sa da parecchi anni: il funzionamento di questi sistemi è ben compreso da chi li progetta, quindi spiegabile (per lo meno in senso generale) a chiunque; invece, il modo esatto in cui essi eseguono con tanta efficienza i propri compiti rimane vago o indecifrabile anche agli addetti ai lavori, a causa della complessità di questi sistemi e della mole di dati su cui si allenano

Rispetto a tutti questi problemi che denotano un approccio poco etico e poco trasparente, risulta però ancora più difficile assimilare l’Open Government Data con l’IA, riguardo allo specifico tema occupazionale.

Val la pena ricordare che quando il presidente Obama enunciò: ‘man mano che i dati aperti continuano a essere utilizzati in modo più ampio, i risultati non si limiteranno a una maggiore efficienza e a una riduzione delle spese inutili nel governo, ma creeranno anche crescita economica e posti di lavoro grazie ai prodotti e ai servizi che utilizzano le informazioni come base’, da più parti si azzardò sull’effetto coda lunga che l’Open Data poteva dare all’occupazione.

Ciò portò anche la UE a sostenere che: ‘si possono identificare diversi vantaggi economici derivanti dal riutilizzo dei dati aperti, sia diretti che indiretti. I benefici diretti sono benefici monetizzati che si realizzano nelle transazioni di mercato sotto forma di ricavi e valore aggiunto lordo, numero di posti di lavoro coinvolti nella produzione di un servizio o prodotto e risparmi sui costi. I benefici economici indiretti sono, ad esempio, nuovi beni e servizi, risparmio di tempo per gli utenti di applicazioni che utilizzano dati aperti, crescita dell’economia della conoscenza, maggiore efficienza nei servizi pubblici e crescita dei mercati correlati’.

Su questo tema la distanza siderale fra i due modelli è ancora più marcata e ne ho parlato proprio in un recente articolo pubblicato su Smart Working Magazine

anticipando brutte sensazioni che, nei giorni successivi, hanno portato a uno dei più consistenti atti di licenzamento/riposizionamento causati dall’IA degli ultimi anni.

Come considerazione finale vorrei però lasciare aperta la porta della speranza che dovrebbe condurre verso un IA controllabile, più etica e per certi versi più open. E lo faccio citando Demis Hassabis, amministratore delegato di DeepMind (di proprietà del gruppo Google/Alphabet) che, durante il recente Mobile World Congress di Barcellona, pur incalzato dai giornalisti sui problemi di Gemini e in particolare sul ‘caso’ che ha fatto discutere mezzo mondo relativamente all’incapacità del giocattolo di Google nel generare immagini di persone dalla pelle bianca, ha risposto lanciandosi in una previsione di apertura, ovviamente tutta da verificare:
I principi etici di DeepMind, che abbiamo avuto fin dall’inizio, sono poi confluiti in quelli che oggi sono i ‘Google AI principles’ e che ci guidano nello sviluppo e nell’uso dell’intelligenza artificiale. C’è un dibattito in corso, che interessa anche i governi e la società civile, su come impedire alle persone sbagliate di accedere a questa tecnologia per farne un uso dannoso. Stiamo parlando di un tema complesso, che tocca anche l’AI Open Source di cui siamo grandi promotori. Proprio recentemente abbiamo lanciato Gemma, un modello di IA per la comunità open source. Perché sappiamo che molte persone, ma anche molte aziende, vogliono sviluppare e controllare direttamente ciò che fanno con l’IA. Ma ogni volta il tema dell’uso dannoso ritorna, e io dico che questo oggi non è un vero problema perché stiamo parlando di una tecnologia giovane. Ma tra tra pochi anni, tre o quattro, quando queste IA diventeranno più potenti e saranno in grado di pianificare e compiere azioni nel mondo reale, l’intera società dovrà preoccuparsi seriamente’.

Note:

1 — In pratica, si tratta di aggiungere in vari modi un livello di incertezza (“rumore”, in molti casi, ma sono possibili altre tecniche) ai dati, in modo che — pur mantenendo questi, al contempo, un certo grado di utilità complessiva (obiettivo in contrapposizione a quello di riservatezza) — sia impossibile risalire alle informazioni di una persona identificata o identificabile (fonte).

2— Il testo di questo post non è stato in alcun modo generato o integrato, utilizzando con strumenti di AI generativa: https://www.zerogpt.com/

--

--