TRANS-

Nell’ultimo anno si parla sempre più di Intelligenza Artificiale (IA); spesso con toni enfatici, non di rado con crescente preoccupazione. Ma in cosa consistono, esattamente, le promesse di bene e le inquietudini che accompagnano la trasformazione digitale? E come mai la questione dell’IA sta suscitando così tanto interesse?

Prendere congedo dalla verità

Una delle ragioni per le quali l’IA ha occupato il centro della scena è l’apertura al grande pubblico di strumenti come ChatGPT e Midjourney; si tratta di applicazioni agili, utilizzabili anche da utenti non esperti, che consentono di generare testi, immagini e persino musica. Questa ‘democratizzazione’ dell’IA ha suscitato entusiasmo e interesse diffuso ma, al tempo stesso, perplessità e preoccupazioni. Basti pensare all’incremento (sui social, ma non solo) di immagini e video falsi (fake) generati dall’IA. Queste creazioni possono essere utilizzate per finalità ludiche, come la produzione di deepfake divertenti, ma anche per scopi più sinistri, come la disinformazione politica. La facilità con la quale l’IA generativa riesce a creare contenuti visivi altamente convincenti rischia di rendere sempre più arduo distinguere la realtà dalla finzione, minando sia la credibilità del nostro sistema di informazione, sia la nostra capacità di prendere decisioni informate.
Un discorso analogo riguarda la generazione automatica di testi. L’IA può essere usata (e viene usata) anche per diffondere informazioni fuorvianti o dannose (le cosiddette fake news), ad esempio influenzando i risultati elettorali, aumentando le tensioni sociali e minando la fiducia nelle istituzioni. Dei rischi della disinformazione, va detto, siamo ben consapevoli già da tempo, ma oggi tutto sembra complicarsi ulteriormente. Verità e menzogna, infatti, diventano sempre più indistinguibili, amplificando un fenomeno tipico del Novecento, ovvero la crescente sfiducia nella possibilità di ‘dire il vero’. Sfiducia evidente nella crisi di autorevolezza che investe il sapere esperto (in primis scientifico) e nel proliferare di ‘verità alternative’.
Se, almeno per l’Oxford Dictionary, il 2016 è stato l’anno della post-verità – ovvero l’avvio di una stagione in cui, nella formazione dell’opinione pubblica, i fatti oggettivi paiono passare in secondo piano rispetto a emozioni e convinzioni personali –, il 2023 può essere detto l’anno in cui si inizia a dubitare della possibilità stessa di riconoscere fatti chiaramente accertati. Come stabilire, oggigiorno, l’oggettività di una foto di cronaca, di un videodenuncia, di una conversazione registrata? Un bel problema, ma non il solo. Il ricorso sempre più diffuso all’IA, infatti, apre ulteriori fronti di preoccupazione. Uno sviluppo incontrollato di tali tecnologie sembra infatti poter mettere a rischio moltissimi posti di lavoro, violare la privacy dei cittadini in nome del profitto o dell’ordine pubblico, plasmare i comportamenti individuali, adottare decisioni discriminatorie nei confronti di specifici gruppi o categorie di persone. Questo rapido elenco non pretende certo di essere esaustivo, ma solo di suggerire l’ampiezza e la complessità dei problemi sul tappeto.

Sul ruolo della politica

Di fronte a queste crescenti preoccupazioni, la politica ha iniziato a muoversi. Numerosi sono i summit, ai massimi livelli, nei quali si è discusso di come governare il cambiamento, scongiurando il rischio di una IA fuori controllo. L’ultimo, al momento in cui scrivo, è quello che si è tenuto a Bletchley, in Inghilterra, lo scorso 2 novembre, al quale hanno partecipato 28 Paesi (tra i quali Regno Unito, USA e Cina) più l’Unione Europea. Al di là del risultato del vertice – la sottoscrizione congiunta di una dichiarazione d’intenti – ciò che conta è il significato di un simile evento: la presa d’atto che, di fronte a un rischio globale, le strategie necessarie per contrastarlo devono avere una portata altrettanto globale. Occorre quindi cooperare per garantire uno sviluppo sicuro e affidabile dell’IA.
Al tempo stesso, però, le principali potenze mondiali stanno cercando di definire una loro strategia in materia (è di questi giorni, ad esempio, la firma di un corposo ordine esecutivo da parte del presidente americano Joe Biden volto a rafforzare l’uso dell’IA da parte del governo federale e, insieme, a introdurre regole più rigorose in quanto a sicurezza, protezione e affidabilità). Il problema, però, è che spesso queste tecnologie innovative destano timori quando vengono utilizzate da altri (privati o potenze straniere), mentre per sé si vorrebbe avere sempre maggiore mano libera.
In questo contesto, l’Unione Europea ha assunto un ruolo di leadership nel cercare di bilanciare lo sviluppo tecnologico con la sicurezza e i diritti fondamentali dei cittadini. Pare indubbio che non si possa rinunciare alle promesse di bene che accompagnano la trasformazione digitale: dai veicoli autonomi che migliorano la sicurezza stradale, alla medicina personalizzata che salva vite; dall’automazione industriale che aumenta l’efficienza e la sostenibilità di processi produttivi, alla traduzione automatica in grado di abbattere ogni barriera linguistica; dalle tecnologie capaci di ridurre il consumo energetico, all’agricoltura di precisione. Per altro verso, però, sembra altrettanto evidente che questi obiettivi di sviluppo non possano venire perseguiti abdicando ai valori di fondo dell’Unione Europea. Per tale ragione, si è cercato un approccio capace di garantire lo sviluppo di una IA sicura, affidabile ed etica.
Un passo significativo in questa direzione è stato l’approvazione di una proposta di legge dal titolo Artificial Intelligence Act, attualmente in discussione al Parlamento europeo. A mio avviso, è particolarmente utile analizzare la logica di tale proposta – che ritroviamo applicata, in buona sostanza, anche nella Dichiarazione di Bletchley cui facevo cenno poc’anzi – in quanto ci permette di cogliere la posta in gioco quando si parla di AI.

La fatica di un’etica condivisa

L’Artificial Intelligence Act muove dal riconoscimento di alcuni valori guida, condivisibili con facilità da tutti i cittadini dell’Unione: privacy, dignità umana, responsabilità, spiegabilità, non discriminazione, controllo umano significativo. Il problema, però, è come tradurli in regole condivise. Riconoscersi in principi etici generali, per quanto non sia affatto scontato, è un compito meno arduo rispetto a trovare un accordo su quale debba essere, nel contesto di specifiche situazioni, l’ordine di priorità da attribuire a quei valori, qualora non possano essere perseguiti allo stesso modo e nello stesso tempo. Cosa fare, ad esempio, quando la sicurezza pubblica confligge con la privacy personale? Cosa fare quando l’efficacia di un sistema decisionale comporta l’opacità dei suoi criteri di scelta? La soluzione prospettata dall’Artificial Intelligence Act sembra suggerire una strategia persuasiva: partire dal male da cui tutti vogliamo tenerci alla larga. L’umano, infatti, riconosce con più facilità ciò che lo ferisce e l’umilia. A partire da qui, poi, si spera possa essere più agevole convenire, in positivo, su strategie di sviluppo capaci di promuovere il benessere e lo sviluppo umano. Partire dai pericoli da cui è più urgente difendersi si traduce, secondo la proposta di legge europea, in un approccio normativo basato sulla gestione del rischio. L’Artificial Intelligence Act definisce, infatti, quattro livelli di potenziale minaccia associati all’IA. Questi livelli determinano le regole e gli obblighi differenziati che le aziende devono rispettare. Ad esempio, i sistemi di IA ad alto rischio, come quelli utilizzati nel settore della salute o dei trasporti, sono soggetti a normative e controlli più rigorosi. Progressivamente meno soggetti a restrizioni e regole sono, invece, i sistemi a limitato o minimo livello di rischio. Quelli, poi, che presentano un rischio inaccettabile sono semplicemente vietati.

Futuro a pericolosità crescente

Per quanto sommariamente, proviamo allora a vedere più da vicino cosa comporta un simile approccio. Il primo livello di rischio comprende le applicazioni dell’IA che presentano pericoli minimi o trascurabili come, ad esempio, filtri antispam o videogiochi abilitati. Tali applicazioni sono lasciate fuori dal perimetro normativo dell’Artificial Intelligence Act e soggette alle normali leggi sulla sicurezza dei prodotti in vigore nell’Unione Europea. Il secondo livello coinvolge le applicazioni dell’IA con rischi limitati, come ad esempio le chatbot o i sistemi di IA capaci di generare o manipolare contenuti di immagini, audio o video. Queste tecnologie richiedono una maggiore regolamentazione e una sorveglianza più attenta; in particolare, esse dovranno rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate (ad esempio, venendo avvertiti quando interagiscono con una IA o quando un’immagine è stata creata artificialmente). Il terzo livello include le applicazioni dell’IA ad alto rischio, come i sistemi di guida autonoma o gli applicativi diagnostici in ambito medico. In questo caso, sono necessarie regole più rigorose per garantire la sicurezza e la responsabilità. Tali sistemi dovranno essere registrati in un apposito database dell’Unione Europea e sottoposti a standard di sicurezza elevati (con particolare attenzione alla qualità dei dati sui quali gli algoritmi vengono allenati). Fanno parte di questo gruppo anche sistemi di gestione e funzionamento di infrastrutture critiche, applicativi legati al mondo dell’istruzione e della formazione professionale, strumenti per la gestione delle migrazioni, o di supporto all’interpretazione e amministrazione della legge. Infine, il quarto livello riguarda le applicazioni dell’IA con rischi inaccettabili e, pertanto, vietate. Ne fanno parte, ad esempio, i software di identificazione biometrica remota in tempo reale, gli strumenti di polizia predittiva, di credito sociale o di manipolazione subliminale, i sistemi in grado di sfruttare le vulnerabilità dei soggetti più fragili. Interessante notare, su quest’ultimo punto, lo scontro in essere tra quanti ritengono prioritaria la tutela della privacy e della libertà dei cittadini e quanti difendono le prerogative degli Stati in materia di sicurezza e ordine pubblico. Un nodo al quale occorre prestare grande attenzione.

Una bussola per navigare nell’incertezza

Come detto, questo approccio graduato, basato su differenziati livelli di rischio, vorrebbe offrire un compromesso ragionevole tra progresso tecnologico e tutela dei cittadini. Nel farlo, però, la proposta europea sembra anteporre in modo abbastanza deciso le ragioni dell’etica a quelle di un progresso tecnologico preoccupato di massimizzare l’efficienza e l’efficacia delle proprie soluzioni. Mettere a terra un proposito così ambizioso non sarà affatto semplice. Tuttavia, va riconosciuta la volontà di indicare con chiarezza una precisa direzione di marcia: quella di una innovazione capace di mettere al centro i bisogni e i valori umani. È questo il senso di quel rinnovato umanesimo digitale di cui spesso si sente parlare. Chiaramente questo è solo l’inizio di una discussione che non potrà limitarsi all’aula del Parlamento europeo o ai forum intergovernativi, ma dovrà attraversare le nostre comunità, animando un dibattito pubblico informato e responsabile.

multiverso

18