Accredia / Digitalizzazione / Osservatorio Accredia sull’Intelligenza Artificiale: il Convegno alla Sapienza

Osservatorio Accredia sull’Intelligenza Artificiale: il Convegno alla Sapienza

Notizia
25 ottobre 2024

Presentato insieme al CINI, il nuovo studio dell’Osservatorio evidenzia il ruolo della valutazione della conformità accreditata nella gestione del rischio per l’IA, anche attraverso lo sviluppo di tre esempi concreti di applicazione degli standard.

Si è svolto il 16 ottobre scorso alla Sapienza Università di Roma, il Convegno “Intelligenza Artificiale tra valutazione del rischio e certificazione accreditata” in cui è stato discusso il nuovo studio dell’Osservatorio Accredia, realizzato in collaborazione con il Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems (AIIS) del Consorzio Interuniversitario Nazionale per l’Informatica (CINI).

L’Osservatorio “Norme tecniche e valutazione della conformità accreditata per lo sviluppo dei sistemi di Intelligenza Artificiale” riflette su come l’Intelligenza Artificiale (IA) offra  possibilità senza precedenti per l’innovazione e il miglioramento della qualità della vita, ma sollevi anche questioni significative relative alla sicurezza, alla privacy, all’equità e all’etica.

 

 

Lo studio di Accredia e del CINI sviluppa un percorso esplorativo proprio sull’evoluzione della regolazione sull’IA, a partire dal Regolamento UE 2024/1689 (AI Act), ed elabora tre specifici Proof of Concept (PoC), di cui due in ambito medico e uno relativo alla Pubblica Amministrazione.

I PoC sono esempi concreti di applicazione di standard nell’ambito dei sistemi di IA, che pongono l’attenzione sul ruolo delle norme tecniche e della valutazione della conformità accreditata nella gestione del rischio.

 


L’importanza degli standard e il fondamento dei dati


Nei suoi saluti introduttivi, la Rettrice della Sapienza Antonella Polimeni ha ricordato come  “La capacità dell’IA di andare a supportare decisioni cliniche anche nelle ultime scoperte per la detection del melanoma o sulla stratificazione dei pazienti con sclerosi multipla, dimostri il suo ruolo cruciale per migliorare l’assistenza sanitaria”.

Tuttavia, l’applicazione e lo sviluppo di sistemi di IA “devono essere poi accompagnati da una valutazione molto rigorosa dei rischi e dalla conformità agli standard tecnici di sicurezza e di trasparenza”.

L’intervento del Presidente di Accredia Massimo De Felice ha passato in rassegna i principali campi di applicazione nell’uso dei sistemi di IA e la catena dei controlli messa in campo della recente regolamentazione europea per garantire qualità e sicurezza.

“Non basta definire i modi per giudicare la conformità dei macchinari, cioè l’hardware, il software e l’algoritmica. L’esito dell’uso dei sistemi – ha spiegato De Felice – dipende in modo rilevante dai dati utilizzati. E, quindi, qualità e completezza rispetto al metodo che si utilizza e alla finalità d’uso”, senza dimenticare il controllo di stabilità “perché entra in gioco in questi processi l’inferenza”.

 


I PoC in ambito medico e Quality Management


Daniele Nardi, Professore di Intelligenza Artificiale alla Sapienza ha illustrato in dettaglio lo studio dell’Osservatorio, introducendo i tre PoC al centro dell’analisi, che sono stati condotti con l’obiettivo di comprendere l’efficacia e le modalità applicative di alcune norme specifiche in vista di uno schema di certificazione e accreditamento.

Per realizzare i due PoC in ambito medico, sulla detection del melanoma e sulla stratificazione dei pazienti con sclerosi multipla, è stata sviluppata un’analisi sui bias, ovvero le distorsioni o pregiudizi in sistemi di IA e che prendono decisioni, con focus sui bias dei dati, algoritmici e cognitivi.

Per quanto riguarda la detection del melanoma, ad esempio, “sono emersi alcuni aspetti critici come la garanzia che i dati siano raccolti in maniera attendibile e sulle loro qualità, completezza e pulizia per fare sì che un sistema possa apprendere senza distorsioni”.

Parallelamente, nel settore della Pubblica Amministrazione, l’Osservatorio ha anche elaborato un caso di studio (PoC) con INAIL che evidenzia l’importanza della norma ISO/IEC 42001:2023 sul Quality Management per i sistemi di IA. L’adeguamento a tale norma assicura che ogni processo decisionale automatizzato sia sottoposto a controlli rigorosi prima di essere implementato.

 


La Standardization Request e i framework internazionali


Piercosma Bisconti, Ricercatore dell’AIIS del CINI, è intervenuto per spiegare l’aspetto legato agli standard e al loro ruolo all’interno del framework legislativo europeo: “L’adozione e la certificazione sulla base di standard armonizzati e pubblicati sull’Official Journal della Commissione Europea garantisce la presunzione di conformità. Qualunque organizzazione e industria si certifichi sullo standard, quello che avviene nel pratico è che è l’Autorità a dovere dimostrare la non conformità”.

La prima richiesta di standardizzazione (Standardization Request) da parte della Commissione Europea a JTC21, il Comitato Tecnico Congiunto sull’Intelligenza Artificiale composto da CEN e CENELEC, è di maggio 2023, mentre la seconda richiesta di standardizzazione “è in arrivo e dovrebbe contenere una parte sul General-Purpose Artificial Intelligence”.

Infine, Daniele Gerundino, Membro del Centro Studi per la Normazione di UNI, ha ricordato come “promuovere strategicamente la normazione e l’assesment di conformità sia molto importante”. Anche se “sappiamo che si tratta di una sfida veramente ardua tenendo conto della complessità e della rapidità di evoluzione della tecnologia”.

In questo senso, i Paesi del G7 possono “dare un utilissimo contributo alla normazione internazionale per creare un framework che possa essere utilizzato dalle diverse giurisdizioni”.