rotate-mobile
Intelligenza Artificiale / Centro Storico

Università, l'innovazione tecnologica incontra l'etica con il laboratorio 'Good AI'

Inaugurato martedì 26 marzo, è un laboratorio multidisciplinare che studia sistemi di Intelligenza Artificiale affidabili, trasparenti, robusti, sicuri ed etici, dialogando anche con imprese e Pubblica Amministrazione

Nasce 'GOOD AI', il laboratorio multidisciplinare dell’Università di Pisa per lo studio e lo sviluppo di sistemi di 'buona' Intelligenza Artificiale, che soddisfino, cioè, non solo criteri di accuratezza ed efficienza, ma anche di trasparenza, sicurezza ed eticità. Il laboratorio ha sede presso il Dipartimento di Ingegneria dell’Informazione dell’Ateneo pisano ed è compartecipato da docenti e ricercatori con diverse competenze, dalla filosofia alla linguistica computazionale fino alla giurisprudenza, all’informatica e all’ingegneria, non solo dell’Università di Pisa, ma anche di Scuola Normale Superiore e CNR. L'inaugurazione è avvenuta con una conferenza stampa nella mattina di martedì 26 marzo.

"Un progetto che nasce come risposta alla nuova regolamentazione europea sull''AI Act' che è stata approvata in modo definitivo a marzo di quest'anno e che pone il problema di vedere l'intelligenza artificiale non solo più nell'aspetto tecnologico ma anche nella sua relazione con gli esseri umani - afferma Francesco Marcelloni, docente al Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa e coordinatore del laboratorio - quindi aspetti etici, giuridici e umanistici devono incontrarsi per far sì che l'intelligenza artificiale esca dalla dimensione del laboratorio tecnologico aprendosi alla società umana, su cui sta già avendo un forte impatto economico, sociale e culturale; basti pensare a sistemi come ChatGPT o DALL-E".

Con l'AI Act l'Unione Europea sta ponendo delle basi per regolamentare l'uso di tecnologie basate sull'intelligenza artificiale, che offrono enormi potenzialità ma espongono anche a rischi. Secondo il professor Marcelloni bisogna essere capaci di discernere la 'buona IA' a cui delegare con fiducia molti compiti anche in contesti critici, da una 'cattiva IA', che è invece imperativo controllare e limitare. Proprio questo principo orientativo guiderà l'attività del laboratorio 'GOOD AI', occupandosi di valutare la conformità di sistemi di Intelligenza Artificiale, soprattutto quelli usati in contesti critici, come per esempio i sistemi di riconoscimento facciale, rispetto a criteri non solo di efficienza, ma anche di trasparenza, sicurezza ed eticità.

L’'AI Act', che il professor Marcelloni definisce come una normativa "molto forte nella sua capacità di limitare i potenziali rischi dell'uso di questa tecnologia", impone che i sistemi di AI immessi sul mercato abbiano superato la procedura di valutazione di impatto prevista dalla norma secondo un sistema a 'scala di rischi', che prevede la soddisfazione di requisiti di conformità sempre più elevati a seconda della criticità del contesto di applicazione. 

“Questa normativa - prosegue Marcelloni - avrà naturalmente un effetto importante sul mercato stesso delle Tecnologie dell’Informazione, in quanto il successo di un’applicazione potrà dipendere proprio dal suo grado di conformità ai valori della 'buona IA'". Per questo, oltre a occuparsi dello sviluppo di sistemi conformi, il laboratorio GOOD AI fornirà un servizio di consulenza a imprese e pubbliche amministrazioni relativamente al grado di adeguatezza delle loro applicazioni rispetto ai principi stabiliti dalla normativa europea.

Un supporto che è quanto mai necessario soprattutto in una galassia aziendale che opera secondo un approccio sempre più 'data driven'. "Sotto questo punto di vista - specifica il coordinatore del 'GOOD AI' Lab - se è pur vero che esistono già leggi sulla privacy che regolamentano raccolta e trattamento dei dati, l'IA mette in una nuova prospettiva la loro gestione, perché con essa si utilizzano algoritmi che apprendono proprio dai dati".

Il rischio è che i dati raccolti si portino dietro, in fase di elaborazione, informazioni che in realtà non sono quelle che ci aspetteremmo di vedere contenute. "Il nostro laboratorio deve servire anche a trasmettere alle aziende i rischi di un apprendimento automatico, consigliandole sulle migliori soluzioni da un punto di vista tecnologico, etico e legale e dare effettivamente loro la possibilità di approcciare l'evoluzione dei sistemi di IA con tranquillità. Lo sviluppo anche industriale del nostro paese - conclude Marcelloni - dipende in modo critico dalla capacità del mondo imprenditoriale di adeguarsi ai nuovi paradigmi di tipo etico, sociale e normativo dell’industria 5.0, che vogliono i processi produttivi plasmati sulle esigenze di persone e ambiente”.

"Questo progetto presenta due aspetti molto interessanti - commenta Giuseppe Iannaccone, prorettore vicario dell'Università di Pisa - da un lato ha una componente importante di servizio nei confronti di imprese e pubblica amministrazione che vogliono adottare soluzioni basate sull'AI. Nel nuovo piano strategico abbiamo rimarcato il ruolo dell'Università come guida e sostegno per lo sviluppo culturale, sociale ed economico del Paese, mettendola sempre più in contatto con il mondo esterno a essa. L'altro aspetto veramente importante - continua Iannaccone - è che molti dei ricercatori impegnati in questo laboratorio di monitoraggio della 'buona AI' sono al contempo impegnati nella ricerca scientifica che permette l'evoluzione di sistemi che ne fanno uso. Questi studiosi hanno sia sensibilità per comprendere cosa serve sul fronte dell'innovazione, sia un'attenzione a quelli che possono essere i rischi. Ed è importante bilanciare le due cose perché vediamo troppo spesso che in Unione Europea si sta molto attenti ai rischi e poco invece ad acquisire una posizione di leadership su questa tecnologia".

Il laboratorio nasce dalle attività del progetto FAIR (https://fondazione-fair.it/), finanziato dal PNRR con l’obiettivo di sviluppare i sistemi di intelligenza artificiale del futuro. 

Fanno parte del Consiglio Scientifico del 'GOOD AI' Lab: Francesco Marcelloni (coordinatore); Pietro Ducange, Dipartimento Ingegneria dell’Informazione; Adriano Fabris e Veronica Neri, Dipartimento di Civiltà e Forme del Sapere; Alessandro Lenci e Giovanna Marotta, Dipartimento di Filologia, Letteratura e Linguistica; Dino Pedreschi e Anna Monreale, Dipartimento di Informatica; Marco Conti, CNR; Fosca Giannotti, Scuola Normale Superiore.

In Evidenza

Potrebbe interessarti

Università, l'innovazione tecnologica incontra l'etica con il laboratorio 'Good AI'

PisaToday è in caricamento