Modelli di AI e Compliance Normativa: La Proposta del Codice di Condotta Europeo

Introduzione

Nel contesto normativo europeo in continua evoluzione, l’intelligenza artificiale (AI) rappresenta una delle tecnologie più innovative e trasformative del nostro tempo. Con l’entrata in vigore dell’AI Act il 1° agosto 2024, l’Unione Europea ha compiuto un passo significativo verso la regolamentazione di questa tecnologia, mirando a garantire che lo sviluppo e l’adozione dell’AI avvengano nel rispetto dei diritti fondamentali e della sicurezza degli utenti. In questo panorama, la bozza del Codice di Condotta per i fornitori di modelli di AI per finalità generali, la cui versione definitiva è prevista entro il 1° maggio 2025, mira a fungere da ponte verso standard di compliance armonizzati e rappresenta una guida pratica per chi opera in questo complesso settore.

Come ricordato dagli stessi relatori l’obiettivo principale del Codice è quello di stabilire linee guida chiare e condivise che siano “future proof” ovvero in grado di adattarsi alle evoluzioni e alle esigenze tecnologiche del prossimo decennio e che permettano ai fornitori di modelli di AI di operare in un ambiente sicuro e responsabile, promuovendo al contempo l’innovazione e la competitività nel settore. 

Questo articolo esplorerà i punti salienti e le componenti più rilevanti della bozza del Codice di condotta, suddividendo l’analisi in due parti principali: i modelli di AI per finalità generali e l’AI generativa con rischi sistemici. Nello specifico di questi ultimi 

Modelli di AI per Finalità Generali

Definizione e Obblighi

Secondo l’AI Act, un modello di AI per finalità generali è definito come un sistema di intelligenza artificiale progettato per eseguire una vasta gamma di compiti senza essere specificamente ottimizzato per una singola applicazione. Questi modelli sono caratterizzati da una flessibilità che consente loro di adattarsi a diverse situazioni e contesti, rendendoli strumenti potenti ma anche potenzialmente rischiosi se non gestiti correttamente. Questa peculiare caratteristica comporta responsabilità uniche per i fornitori, poiché tali modelli possono essere integrati in sistemi a valle con finalità diverse.

Il Codice di Condotta impone ai fornitori di tali modelli una serie di obblighi volti a garantire che lo sviluppo e l’implementazione dei modelli di AI avvengano in conformità con le normative europee e con i principi etici fondamentali. Questi obblighi includono la necessità di una documentazione tecnica completa, che deve includere dettagli rilevanti come la struttura architettonica, il numero di parametri e le specifiche sul consumo energetico e che deve essere fornita all’AI Office e ai provider downstream, garantendo così la tracciabilità e la trasparenza nell’utilizzo dei modelli di AI.

Principi Fondamentali del Codice

Il Codice di Condotta si allinea strettamente con i principi stabiliti dall’Unione Europea e dall’AI Act, sottolineando l’importanza di una regolamentazione proporzionata ai rischi associati all’uso dei modelli di AI. Uno dei principi fondamentali, cari al legislatore Europeo, è la proporzionalità delle misure adottate rispetto non solo ai rischi identificati, ma anche alle capacità del provider assicurando che le strategie di mitigazione non soffochino l’innovazione ma piuttosto ne garantiscano un uso responsabile. Sotto quest’ultimo aspetto la bozza del codice si propone di dettare misure meno stringenti per PMI, Startup e progetti Open Source (fatto salvo per quelli che presentano un rischio sistemico) i quali hanno, per loro natura, risorse e capacità limitate da dedicare agli stringenti obblighi di compliance che l’AI Act prevede.

Inoltre, il Codice promuove il sostegno all’ecosistema dell’AI, incoraggiando la collaborazione tra fornitori, ricercatori e autorità regolatorie. Questo approccio collaborativo è essenziale per creare un ambiente in cui la sicurezza e l’affidabilità dei modelli di AI siano continuamente monitorate e migliorate, favorendo al contempo lo sviluppo di soluzioni innovative che rispondano alle esigenze della società.

Regole ed Obblighi per i Fornitori di Modelli di AI per Finalità Generali

Una delle componenti chiave del Codice riguarda le regole specifiche a cui dovrebbero attenersi i fornitori di modelli di AI per finalità generali. Tra queste, come anticipato nel paragrafo che precede, la documentazione tecnica riveste un ruolo centrale: i fornitori che vorranno adottare il codice di condotta saranno chiamati a descrivere i processi di training, test e validazione del modello, includendo informazioni dettagliate sui dati utilizzati, come “i metodi di acquisizione, frazioni di dati provenienti da diverse fonti e caratteristiche principali”.

 Un altro aspetto fondamentale riguarda la tutela del copyright. Il Codice impone l’obbligo di rispettare il diritto d’autore, anche nell’uso e raccolta dei dati durante la fase di training del modello. Questo significa che i fornitori devono garantire che i dati utilizzati per addestrare i modelli di AI non violino i diritti di proprietà intellettuale di terzi, adottando misure preventive e correttive per evitare potenziali infrazioni. Il Codice nell’enfatizzare la necessità di rispettare le eccezioni al text and data mining previste dalla Direttiva (EU) 2019/790 richiede a chi addestra tali modelli, ad esempio, il rispetto dei file robots.txt, che possono limitare l’accesso automatizzato a contenuti accessibili dal web.

La trasparenza nelle modalità di distribuzione e utilizzo del modello è un ulteriore requisito essenziale. Secondo questo primo draft, infatti, i fornitori saranno tenuti a comunicare chiaramente agli utenti finali le modalità di funzionamento del modello di AI, inclusi i limiti e le potenziali applicazioni, assicurando che l’uso della tecnologia avvenga in modo informato e consapevole.

Conclusione

Il Codice di Condotta per i fornitori di modelli di AI per finalità generali, benché ancora in fase di bozza, rappresenta un primo passo verso una regolamentazione condivisa e operativa. Con la sua versione definitiva prevista entro maggio 2025, il Codice offrirà un riferimento fondamentale per prepararsi all’applicabilità diretta delle obbligazioni dell’AI Act pendenti in capo ai provider di modelli a partire dal 2 agosto 2025.

In questa sede abbiamo analizzato le disposizioni relative ai modelli di AI per finalità generali. Restano però da esplorare i dettagli normativi e tecnici legati ai modelli con rischio sistemico, un tema che richiede attenzione specifica e che sarà oggetto di un prossimo approfondimento.

Un ulteriore aspetto degno di interesse è l’introduzione di un equilibrio tra obblighi proporzionati ai rischi e misure flessibili per realtà come startup e PMI. Questa impostazione non solo riconosce le differenze di capacità tra i vari attori, ma permette di evitare che un approccio unico penalizzi l’innovazione. Diventa quindi fondamentale che i provider, indipendentemente dalle loro dimensioni, considerino il Codice come uno strumento non solo di compliance ma di efficienza operativa, in grado di migliorare la gestione e la tracciabilità dei modelli lungo l’intero ciclo di vita

Da ultimo va sottolineato che, essendo una bozza, il Codice lascia spazio a ulteriori miglioramenti e aggiustamenti. Questo periodo di consultazione rappresenta un’opportunità per i provider di contribuire attivamente alla definizione delle regole che influenzeranno il settore.