Studiare, monitorare, normare: l'Italia e l'UE per il futuro dell'IA
ROMA\ aise\ - Una situazione da studiare a fondo, monitorare a dovere e normare a livello italiano, europeo e anche globale. Cercando di essere "il treno che conduce" verso un'intelligenza artificiale che non intacchi l'individualità dell'essere umano e che ponga al centro delle leggi anche la protezione degli uomini su fake news, truffe digitali, la vendita di dati incontrollata e le ingerenze straniere nelle elezioni.
Questo il messaggio giunto alla fine dell'incontro svolto ieri sera "Integrità dell'informazione e privacy al tempo dell'Intelligenza Artificiale", organizzato a Roma dal Circolo Esperia e Wilfried Mertens Centro for European Studies. Quello di ieri, è stato il primo evento del ciclo di conferenze sui temi chiave per l'Italia e per l'Europa, e ha visto un considerevole numero di partecipanti e relatori, tra cui il Sottosegretario alla Presidenza del Consiglio dei Ministri con delega all'informazione e all'editoria, Alberto Barachini, la deputata di Forza Italia, Deborah Bergamini, e l'europarlamentare Salvatore De Meo, oltre al fisico, Professor Antonio Ballarin.
L'evento è stato aperto, e poi condotto, da Mattia de' Grassi, Consigliere per le tematiche e le politiche Europee del Ministro degli Affari Esteri e della Cooperazione Internazionale, Antonio Tajani, nonché membro del circolo Esperia.
È stato lui, dunque, a dare il via agli interventi spiegando come l'Italia debba necessariamente "avere un ruolo fondamentale per l'Europa" in materia IA, cercando così di essere il "treno che conduce tramite proposte concrete". L'IA, ha spiegato il Consigliere, "cresce a livelli esponenziali, ma Italia ed Europa sono un po' indietro. Inoltre, questa innovazione comporta dei rischi, tra fake news, deep fake, privacy intaccata: dobbiamo capire come proteggere i cittadini". E su questo fronte, de' Grassi ha spiegato che "l'UE è molto attiva". Così come l'Italia, che cerca di assecondare le difficili sfide che comporta questo argomento: "abbiamo lanciato un processo", ha assicurato. "Il governo vi ascolta e siamo pronti ad apprendere le vostre istanze".
A seguire sono iniziati gli interventi, dei relatori a partire da quello del Sottosegretario Barachini, che ha parlato di "responsabilità" come tema centrale. "L'innovazione non si ferma, tutto cambia, anche la percezione". Difatti, a suo parere, oggi "è più importante sentirsi informati che essere informati". Per questo, il tempo medio che una persona dedica a una notizia è di 7 secondi, cioè titolo e sottotitolo e "si sente informata". Anche per questo "abbiamo una commissione che deve lavorare di concerto con l'Europa". Tra le proposte pensate dalla commissione c'è anche quella dell'introduzione di un reato di deep fake, "novità assoluta che vuole proteggere realmente le persone". Ma il tutto, comprese le iniziative legate alla cybersicurezza, deve partire dalle "grandi società di IA che dovrebbero rinunciare ai grandi profitti per sostenere il mercato nel suo complesso".
Ha poi preso parola l'On. Bergamini, che ha spiegato: "possiamo criticare l'UE per tante cose, ma su questo argomento non ha avuto paura. Ha preso dei rischi che hanno rappresentato un fattore unificante". La sua disamina è infatti partita da un concetto base, ossia che "negli Usa si tutela più il cittadino/consumatore, mentre noi abbiamo normato la persona. E questo è un punto di forza dell'UE". Secondo lei, la "privacy nel breve futuro non esisterà più, riverseremo tutte le nostre informazioni sull'IA. Io anche lo uso, e ormai l'IA è diventata me. Cambierà il rapporto con noi stessi". E dunque, proprio in virtù di questo, l'On. Bergamini si è chiesta: "Come regolare? Le aziende IA non possono autoregolarsi. Il consiglio UE, a tal proposito, sta facendo lavoro straordinario. A breve nasceranno nuovi diritti che andranno tutelati. Inoltre bisognerà mettere dei limiti alla produzione dell'IA, perché qui in UE abbiamo un concetto dell'essere umano preciso, un'entità autonoma, individuale e integrale, e dobbiamo considerarlo per normare eticamente lo sviluppo dell'IA". Come ultimo punto, la debutata di Forza Italia ha anche voluto proporre la creazione, a suo modo di vedere, a livello globare di "una sorta di WTO con regole vincolanti sull'IA. Perché se lasciata libera, il rischio di danni è possibile".
Dopo di lei, ha preso parola anche Laura Aria, componente dell'Autorità per le Garanzie nelle Comunicazioni, la quale ha voluto mettere in parallelo le esperienze tra UE e USA: l'Ue si dà molto da fare e da sempre ha regolamentato il tema. E questo è un bene perché sono regole che non strozzano i sistemi. Il mercato unico UE, non si è sviluppato molto in grande, però i servizi digitali invece sì, sono paneuropei. Ci sono tanti "act" che vogliono regolare i soggetti più forti che gravano sulle grandi piattaforme. Dobbiamo cercare di giocare di anticipo con l'IA" e magari riuscire "ad esportare le regole". "Abbiamo tanto da fare, soprattutto, senza frenare l'innovazione, dobbiamo tenere in conto l'individualità europea".
Con il fisico Ballarin si è entrati più nello specifico dell'Intelligenza Artificiale: "mette insieme tante discipline. È un tema complicato che annovera 5 gruppi di persone che approcciano all'IA in modo diverso. Ma la Tecnologia è e resta asettica, e quindi può essere usato per il bene così come per il male. Dipende solo dall'utilizzo che se ne fa. Quando si parla di IA, significa usare accoppiamenti dati-algoritmi. Sono gli algoritmi che emulano l'apprendimento della mente umana, e sono circa 150". Ma secondo il professore, anche se su questo tema si investe tanto e ci si approccia con un certo timore, "la macchina non può fare il cervello, perché una macchina non sarà mai in grado di fare ciò che fa la mente umana. Non può attivare induzione intuitiva. Così come non può farlo con l'inconscio. Siamo solo all'alba di capire come funziona l'induzione intuitiva. L'IA ad oggi può solo imitare il pensiero umano". Per questo è necessario, a suo modo di vedere, "l'alfabetizzazione" sul tema, perchè "pochi sanno i limiti dell'IA". E poi c'è il tema dell'etica: "come rendere etici i sistemi dell'IA?", si è chiesto il professore. "Con dei test etici", ha la sua risposta. "L'IA - ha aggiunto - è subdola, rischia di uccidere le menti, di fare abbassare capacità mnemoniche. Bisogna istituire organismi internazionali per il controllo dell'IA con dei test etici".
Infine, ha preso parola anche Andrea Poli, imprenditore della comunicazione, che ha parlato di quanto l'IA e le piattaforme impattino sulle imprese: "c'è un impatto alto. Facciamo fatica a regolare la lobby, qui in UE. Rischiamo di andare verso un'IA che determina i decisori politici. E prima di decidere che fare, credo che dobbiamo avere chiaro che tipo di partita stiamo giocando e contro chi". Poli ha infatti spiegato come 7 società che investono in IA, abbiano aumentato, da 5 mila miliardi a 13 mila miliardi, il loro fondo d'investimento. Più del PIL di tanti paesi. Sono tutte società di Hig tech, esclusa "X", che però ha anche Tesla. È una partita che deve affrontare tutta insieme l'UE, a questo serve il mercato unico. Ma il mercato non può cambiare da solo".
Per concludere ha ripreso parola il Consigliere de' Grassi, che si è detto soddisfatto da questo primo incontro riguardo il tema IA e cybersicurezza, perché oltre ad assicurare l'ascolto degli esperti e delle istanze di chi ha un impatto da queste, "siamo una squadra forte, qui in Italia, anche se spesso non riusciamo a coordinarci nel modo giusto. Ma c'è tanto materiale su cui lavorare". (l.m.\aise)