Accredia / Digitalizzazione / Intelligenza Artificiale: presentato il nuovo Osservatorio Accredia con CINI

Intelligenza Artificiale: presentato il nuovo Osservatorio Accredia con CINI

Notizia
16 ottobre 2024

Lo studio presentato da Accredia alla Sapienza Università di Roma propone un focus sulle applicazioni dei sistemi di IA in ambito medico, evidenziando il ruolo delle norme tecniche e della valutazione della conformità accreditata nella gestione del rischio.

L’Intelligenza Artificiale offre possibilità senza precedenti per l’innovazione e il miglioramento della qualità della vita, ma solleva anche questioni critiche relative alla sicurezza, alla privacy, all’equità e all’etica.

Su questi temi Accredia, in collaborazione con il Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems (AIIS) del CINI, ha sviluppato il nuovo studio dell’Osservatorio “Norme tecniche e valutazione della conformità accreditata per lo sviluppo dei sistemi di Intelligenza Artificiale”, presentato al Convegno “Intelligenza Artificiale tra valutazione del rischio e certificazione accreditata”, che si è svolto il 16 ottobre alla Sapienza Università di Roma.

L’incontro è stato aperto dai saluti di Antonella Polimeni, Rettrice della Sapienza, e dalla relazione di Massimo De Felice, Presidente Accredia, e ha visto l’intervento di Daniele Nardi, Professore di Intelligenza Artificiale alla Sapienza, Piercosma Bisconti, ricercatore del Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems (AIIS) del CINI, e Daniele Gerundino, Membro del Centro Studi per la Normazione di UNI.

 


I sistemi di IA ad alto rischio


Partendo dall’AI Act (Regolamento UE 2024/1689) che fornisce un quadro di regole per la tutela degli interessi dei cittadini europei, l’Osservatorio riflette sugli strumenti della normativa tecnica, della valutazione della conformità e dell’accreditamento, che avranno un ruolo significativo per la sua efficace applicazione.

In particolare, evidenzia come l’accreditamento potrebbe supportare lo sviluppo di sistemi di Intelligenza Artificiale (IA) affidabili e sicuri che proteggano i diritti fondamentali dei cittadini.

Il ruolo di Accredia sarà quello di affiancare le Autorità, che rappresenteranno la governance in questo settore, nel garantire la competenza degli organismi e dei laboratori chiamati a valutare la conformità dei sistemi di IA alle norme tecniche. Gli standard saranno sviluppati dagli Enti di normazione europei, rendendo più chiare ed efficaci le procedure necessarie all’adeguamento all’AI Act.

In particolare, i sistemi di IA ad alto rischio dovranno essere conformi a una serie di requisiti volti a minimizzare i potenziali danni legati al loro utilizzo, tra i quali ci sono misure di cybersicurezza, qualità del data set e requisiti di supervisione umana. Solo nel caso in cui la procedura di valutazione della conformità abbia esito positivo, potrà essere apposta la marcatura CE, che testimonierà il rispetto della normativa.

 


Il ruolo dell’accreditamento e della formazione


“Come in altri Regolamenti europei, anche l’AI Act richiama il ruolo delle Autorità di notifica e degli organismi notificati nei casi in cui le esigenze di tutela dei cittadini europei richiedano particolare attenzione – ha spiegato Massimo De Felice, Presidente di Accredia.”

“La formazione riveste un ruolo cruciale – ha evidenziato De Felice – perché per garantire che l’implementazione dei sistemi IA sia conforme agli standard etici e normativi, è essenziale che professionisti, sviluppatori e organizzazioni acquisiscano una solida comprensione delle tecnologie emergenti e dei relativi impatti. In questo contesto, le iniziative educative proposte da Accredia  Academy offrono un approccio strutturato per sviluppare competenze specializzate, promuovendo l’uso tecnicamente adeguato e sicuro dell’IA nelle aziende e nelle istituzioni.”

 


Le norme tecniche e i Proof of Concept


“La definizione di standard e norme tecniche ha un ruolo cruciale nell’applicazione dell’AI Act – ha evidenziato Daniele Nardi, responsabile del progetto per il CINI-AIIS –. Il Laboratorio Artificial Intelligence and Intelligent Systems del CINI contribuisce attivamente a questo percorso, interagendo con diversi attori istituzionali e in particolare con Accredia, con l’obiettivo di fornire il supporto tecnico-scientifico necessario.”

“Nel progetto con Accredia – ha spiegato Nardi – ha rivestito particolare importanza lo sviluppo dei cosiddetti Proof of Concept, ossia esempi concreti di applicazione di standard: solo attraverso una sperimentazione dedicata si riescono a definire i passi di un processo che rappresenta la controparte operativa dell’azione volta a rendere l’utilizzo dei sistemi di IA sicuro e rispettoso dei diritti fondamentali.”

 


I casi di studio in ambito medico


In ambito medico l’applicazione di sistemi di IA rientra tra gli utilizzi che prevedono l’intervento di un organismo notificato. L’Osservatorio, in tale ambito, sviluppa due casi di studio – uno sulla detection del melanoma e uno per la stratificazione dei pazienti con sclerosi multipla   simulando una verifica della conformità alla linea guida ISO/IEC TR 24027:2021 per la gestione dei bias.

La simulazione dei controlli di conformità nello sviluppo dei sistemi di IA e prima del loro rilascio, ha evidenziato l’importanza di un approccio sistematico e tecnico volto a minimizzare il rischio di pregiudizi nei dati con un impatto sull’efficacia dei sistemi di IA.

Parallelamente, nel settore della Pubblica Amministrazione, l’Osservatorio riporta il caso di studio con l’INAIL che evidenzia l’importanza della norma ISO 42001:2023 sul Quality Management per i sistemi di IA: l’adeguamento a tale norma assicura che ogni processo decisionale automatizzato sia sottoposto a controlli rigorosi prima di essere implementato.

Approccio particolarmente pertinente nell’ottica dell’AI Act, che pone in risalto l’importanza di una gestione adeguata del rischio e della qualità nell’IA.