Il nuovo draft del Codice di Condotta per i modelli di intelligenza artificiale a finalità generali: il rischio sistemico
/in Privacy/di Nicolò ShargoolCon l’evoluzione dell’Intelligenza Artificiale (IA), le preoccupazioni sui potenziali rischi sistemici associati ai modelli di IA a finalità generali (General Purpose AI Models, GP-AIM) sono diventate sempre più rilevanti. Il recente draft del Codice di Condotta dedicato a questi modelli, pubblicato nell’ambito dell’AI Act, offre un quadro dettagliato di come affrontare tali sfide, introducendo nuove obbligazioni e tecniche di mitigazione del rischio.
Nel nostro precedente articolo, abbiamo analizzato le caratteristiche e gli obblighi relativi ai modelli di AI per finalità generali delineati nella bozza del Codice di Condotta. Abbiamo esaminato i principi fondamentali e le regole specifiche volte a garantire trasparenza, conformità normativa e tutela del copyright.
In questo articolo ci concentreremo sui modelli di AI generativa che presentano rischi sistemici, un ambito che richiede ulteriori misure tecniche, organizzative e di governance. Questi modelli, che per loro natura hanno un impatto potenzialmente più significativo e diffuso, necessitano di un approccio regolatorio approfondito per gestire i pericoli che potrebbero derivare dalla loro adozione e utilizzo.
Modelli di IA a finalità generali e il rischio sistemico nell’AI Act
I modelli di IA a finalità generali sono definiti dall’AI Act come sistemi di IA progettati per essere adattabili a molteplici compiti e contesti applicativi, spesso non definiti al momento dello sviluppo. Questi modelli si distinguono per la loro versatilità, ma proprio questa caratteristica li rende particolarmente vulnerabili a un uso improprio o non previsto. L’AI Act li classifica ulteriormente in due categorie: modelli con rischio sistemico e modelli generici. Il rischio sistemico, come specificato dall’articolo 3(65) dell’AI Act, si riferisce a potenziali effetti di vasta portata sulla società, sull’economia o sull’ambiente, derivanti da vulnerabilità o malfunzionamenti del sistema.
Un modello è generalmente considerato a rischio sistemico quando raggiunge capacità computazionali che superano la soglia di 10(25) FLOPS (floating-point operations per second). Tale livello di potenza computazionale implica che il modello è in grado di eseguire operazioni estremamente complesse, aumentando significativamente il potenziale impatto sistemico.
La tassonomia del rischio sistemico
Il Codice di Condotta introduce una tassonomia articolata dei rischi sistemici, suddivisa in tipi, natura e fonti. I tipi di rischio includono minacce come l’uso offensivo delle capacità cibernetiche, la proliferazione di armi chimiche o biologiche, la perdita di controllo sui modelli autonomi e la manipolazione di massa attraverso disinformazione. Secondo l’articolo 3(2) dell’AI Act, tali rischi devono essere valutati considerando sia la gravità sia la probabilità di ciascun evento. In particolare, la classificazione deve basarsi su metriche standardizzate per garantire coerenza e comparabilità tra diversi scenari applicativi.
La natura dei rischi è descritta attraverso dimensioni quali origine, intenti (intenzionali o non), velocità di manifestazione e visibilità. Ad esempio, un rischio potrebbe emergere gradualmente ma in modo difficilmente rilevabile, complicando le strategie di mitigazione. Come specificato all’interno della proposta di codice, l’analisi dovrebbe includere anche l’impatto potenziale sugli utenti finali e sulle infrastrutture critiche. Infine, le fonti dei rischi includono capacità pericolose dei modelli, propensioni indesiderate come bias o confabulazione, e fattori socio-tecnici, come la modalità di distribuzione o la vulnerabilità sociale.
Obbligazioni per i fornitori di modelli con rischio sistemico
I fornitori di GP-AIM con rischio sistemico sono soggetti a obblighi più stringenti rispetto ai modelli generici. Come stabilito dall’articolo 55(1) dell’AI Act, essi devono:
- Valutare il modello secondo protocolli standardizzati, inclusi test avversariali per identificare vulnerabilità e mitigare i rischi. L’articolo 55(2) sottolinea i fornitori possono basarsi su codici di buone pratiche ai sensi dell’articolo 56 per dimostrare la conformità agli obblighi. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi.
- Mitigare i rischi a livello dell’Unione Europea, documentandone le fonti e adottando misure correttive. Queste misure devono essere aggiornate periodicamente in base all’evoluzione tecnologica e normativa.
- Garantire la sicurezza cibernetica sia del modello sia delle infrastrutture fisiche correlate.
- Monitorare e segnalare incidenti rilevanti, mantenendo una comunicazione costante con l’AI Office e le autorità competenti includendo una descrizione dettagliata degli incidenti e le azioni correttive intraprese.
Ne discende che, l’attuazione di questi obblighi richiede un investimento considerevole in risorse, competenze e infrastrutture. Questo rende imprescindibile una sinergia tra i diversi protagonisti della catena del valore dell’IA, affinché possano condividere conoscenze e strumenti per affrontare insieme le sfide legate alla conformità normativa e all’innovazione responsabile.
Strategie di mitigazione e governance
Il Codice di Condotta propone un quadro di riferimento per la sicurezza e la governance. In questo scenario i fornitori dovranno implementare un framework di sicurezza e mitigazione dei rischi, noto come Safety and Security Framework (SSF). Questo framework deve includere misure tecniche e organizzative volte a prevenire, rilevare e rispondere efficacemente ai rischi identificati, garantendo che i modelli di AI operino in modo sicuro e affidabile lungo l’intero ciclo di vita del prodotto. Nello specifico, le principali misure includono:
- Identificazione e analisi continua dei rischi: attraverso metodologie robuste, i fornitori devono mappare le capacità pericolose, le propensioni e altre fonti di rischio, categorizzandole in livelli di gravità.
- Raccolta di evidenze: L’uso di valutazioni rigorose e metodologie avanzate, come test di red-teaming e simulazioni, è fondamentale per comprendere le potenzialità e i limiti dei modelli. Inoltre, i fornitori sono tenuti a impegnarsi in un processo continuo di raccolta di evidenze sui rischi sistemici specifici dei loro modelli di IA a finalità generali con rischio sistemico. Tale processo, delineato dal Codice, prevede l’utilizzo di metodi avanzati, tra cui la previsione e le migliori valutazioni disponibili, per indagare capacità, propensioni e altri effetti di questi modelli.
- Misure di mitigazione: i provider saranno tenuti a mappare i potenziali elementi di rischio sistemico e conseguenti misure di mitigazione proporzionalmente necessarie, basandosi sulle linee guida dell’AI Office, se disponibili. La mappatura dovrà essere progettata per mantenere i rischi sistemici al di sotto di un livello intollerabile e minimizzare ulteriormente il rischio al di là di tale soglia. Inoltre, i fornitori si impegnano a dettagliare come ciascun livello di gravità o indicatore di rischio si traduca in specifiche misure di sicurezza e mitigazione, in linea con le migliori pratiche disponibili. Questo processo mira non solo a contenere i rischi entro livelli accettabili, ma anche a promuovere una continua riduzione del rischio attraverso un’analisi iterativa e approfondita.
Il draft del Codice di Condotta rappresenta un passo cruciale verso una regolamentazione responsabile dei modelli di IA a finalità generali. Pur essendo ancora in fase preliminare, offre un quadro strutturato per identificare, valutare e mitigare i rischi sistemici, contribuendo a creare un equilibrio tra sicurezza e innovazione. Tuttavia, il percorso verso una piena attuazione è complesso e solleva interrogativi fondamentali, come l’armonizzazione delle metodologie di valutazione, la creazione di standard condivisi e la definizione precisa dei livelli di gravità.
Questa sfida rappresenta non solo un obbligo normativo per i fornitori, ma anche un’opportunità strategica per dimostrare leadership etica e tecnica in un settore in continua evoluzione. La capacità di affrontare queste tematiche con trasparenza e lungimiranza potrà diventare un elemento distintivo per le organizzazioni, favorendo la costruzione di un ecosistema di fiducia tra regolatori, utenti e sviluppatori.