Disposizioni che interessano l’Infrastruttura per la Qualità:
Macchine – Regolamento UE 2023/1230
E’ stato pubblicato (GU UE L 165 del 29 giugno scorso) il Regolamento relativo alle macchine e che abroga la direttiva 2006/42/CE del Parlamento europeo e del Consiglio e la direttiva 73/361/CEE del Consiglio, che stabilisce i requisiti di sicurezza e di tutela della salute per la progettazione e la costruzione di macchine, prodotti correlati e quasi-macchine. L’obiettivo è consentire la messa a disposizione sul mercato o messa in servizio delle macchine, garantendo un livello elevato di tutela della salute e sicurezza delle persone, in particolare dei consumatori e degli utilizzatori professionali, degli animali domestici nonché di tutela dei beni e dell’ambiente.
Le disposizioni si applicheranno alle seguenti macchine e prodotti correlati:
Il Regolamento riguarderà anche le cosiddette quasi macchine: “un insieme che non costituisce ancora una macchina in quanto, da solo, non è in grado di eseguire un’applicazione specifica e che è soltanto destinato a essere incorporato o assemblato ad altre macchine o ad altre quasi-macchine o apparecchi per costituire una macchina”. Non si applicherà, invece, a una serie di tipologie di macchine (o relativi prodotti) elencate all’art. 2, comma 2 (ad esempio mezzi di trasporto per via aerea, armi, trattori agricoli, ecc.).
Rilevanti sono le norme riguardanti la valutazione della conformità, volta a dimostrare il rispetto dei requisiti essenziali di sicurezza e di tutela della salute previsti dal Regolamento. Per verificare i requisiti, il Regolamento prevede diverse procedure che si basano sul potenziale rischio per i cittadini derivante dall’utilizzo della macchina o di un prodotto ad esso connesso.
L’allegato I, parte A, elenca i prodotti che presentano un “potenziale rischio grave”, che soddisfano almeno una delle seguenti condizioni:
Per queste macchine o prodotti correlati, la valutazione di conformità richiede l’intervento di un organismo notificato. Per essere notificato, l’organismo interessato può allegare un certificato di accreditamento che ne attesti la conformità ai requisiti previsti dal Regolamento. In assenza di un certificato di accreditamento, deve fornire tutte le prove documentali necessarie per dimostrare il rispetto di detti requisiti. L’organismo potrà eseguire le attività di un organismo notificato solo se la Commissione o gli Stati membri non solleveranno obiezioni entro due settimane dalla convalida della notifica – qualora essa includa un certificato di accreditamento – o entro due mesi dalla notifica in assenza di certificato di accreditamento.
L’allegato I, parte B, comprende invece qualsiasi altra categoria di macchine o prodotti correlati che presenti un grave rischio potenziale intrinseco, ma non soddisfi una o più delle condizioni sopraelencate (lettera a-d).
Per queste macchine e prodotti si può ricorrere anche al controllo interno della produzione, purché il fabbricante progetti e costruisca la macchina “conformemente alle norme armonizzate o alle specifiche comuni proprie a tale categoria di macchine (o prodotti correlati) riguardanti tutti i pertinenti requisiti essenziali di sicurezza e di tutela della salute”. In tal caso, si può applicare la procedura di controllo interno (definita al modulo A dell’allegato VI), che si utilizza altresì per le macchine e i relativi prodotti non contenuti negli allegati ma oggetto del Regolamento.
Il Regolamento si applicherà nella sua interezza a decorrere dal 14 gennaio 2027. Le norme relative alla notifica degli organismi, tuttavia, si applicheranno dal 14 gennaio 2024.
Intelligenza Artificiale – Proposta di Regolamento UE
Il 14 giugno scorso il Parlamento europeo ha approvato la propria posizione in merito alla proposta di Regolamento sull’Intelligenza Artificiale ed è ora pronto ad avviare i negoziati con il Consiglio europeo per arrivare a un testo di compromesso.
Nuova definizione di “sistema di intelligenza artificiale” che, in base a quanto stabilito da un emendamento adottato, ricomprenderà ogni “sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti, può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali”.
Sistemi di intelligenza artificiale ad alto rischio ricadenti nell’allegato III (Biometria, Istruzione, Occupazione, gestione dei lavoratori, solo per citarne alcuni). Nel testo proposto dalla Commissione, tutti questi sistemi IA sono considerati ad alto rischio. Il Parlamento, invece, ha specificato che saranno considerati ad alto rischio i “sistemi di IA che rientrano in uno o più settori critici e casi d’uso di cui all’allegato III, se prestano un rischio significativo di danno per la salute umana, la sicurezza o i diritti fondamentali delle persone fisiche…”. Sarà la Commissione, sempre secondo la proposta del Parlamento, a fornire “orientamenti che specificano le circostanze in cui l’output dei sistemi di IA di cui all’allegato III comporterebbe un rischio significativo di danno…”.
Restano sostanzialmente invariate le disposizioni di cui all’art. 43 “valutazione della conformità”.
Per i sistemi di IA ad alto rischio relativi alla biometria, se il fornitore ha applicato le norme armonizzate o le specifiche comuni nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti previsti dal Regolamento, potrà scegliere se eseguire:
In caso di mancata o parziale applicazione delle norme armonizzate o delle specifiche comuni (o in assenza delle stesse), invece, il fornitore dovrà necessariamente ricorrere alla procedura di valutazione con un organismo notificato. Il fornitore potrà in ogni caso decidere di ricorrere a una valutazione di parte terza a prescindere dal grado di rischio.
Con riferimento alla biometria, il testo proposto dal Parlamento vieta “l’immissione sul mercato, la messa in servizio o l’uso di sistemi di categorizzazione biometrica che classificano le persone fisiche in base ad attributi o caratteristiche sensibili o protetti o basati sulla deduzione di tali attributi o caratteristiche”. Questi sistemi non potranno essere immessi sul mercato e non saranno soggetti alla procedura di valutazione di conformità.
Il divieto, tuttavia, non si applicherà ai sistemi di IA destinati a scopi terapeutici, approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale.