Garantire che i modelli di intelligenza artificiale (AI) per finalità generali immessi sul mercato europeo, compresi quelli più potenti, siano sicuri e trasparenti: è questo lo scopo del “Codice di condotta per i modelli di AI general-purpose” (“The General-Purpose AI Code of Practice”) sviluppato da 13 esperti indipendenti, con il contributo di oltre 1 000 portatori di interessi, tra cui fornitori di modelli, piccole e medie imprese, accademici, esperti in materia di sicurezza dell’IA, titolari dei diritti e organizzazioni della società civile, e presentato oggi alla Commissione europea.
Il codice è frutto del contributo di oltre 1.000 portatori di interessi, tra cui fornitori di modelli, piccole e medie imprese, accademici, esperti in materia di sicurezza dell’AI, titolari dei diritti e organizzazioni della società civile.
Il documento è progettato per aiutare l’industria a conformarsi alle norme della legge sull’AI per quanto riguarda i modelli general-purpose (con finalità generali), che entrerà in vigore il 2 agosto 2025.
Le norme diventeranno applicabili dall’ufficio per l’AI della Commissione un anno dopo l’entrata in vigore per quanto riguarda i nuovi modelli e due anni dopo per quanto riguarda i modelli esistenti.
Il codice si divide in tre capitoli: trasparenza, diritto d’autore e sicurezza.
Prima di approfondire queste misure occorre ricordare che la sottoscrizione del codice è su base volontaria.
I fornitori che firmano, tuttavia, beneficeranno di un onere amministrativo ridotto e di una maggiore certezza del diritto rispetto ai fornitori che sceglieranno di dimostrare la conformità in altri modi.
Codice di condotta per i modelli di AI general-purpose: quali sono i vincoli in materia di trasparenza
Il Capitolo sulla trasparenza del codice di condotta delinea tre misure fondamentali che i fornitori di modelli di AI general-purpose devono attuare per conformarsi agli obblighi di trasparenza stabiliti dall’AI Act.
La prima misura del capitolo sulla trasparenza vincola i fornitori, al momento dell’immissione sul mercato di un modello, a redigere e mantenere aggiornata una documentazione completa, basata sul “Modulo di Documentazione del Modello”, progettato per facilitare la raccolta delle informazioni richieste.
Tale documentazione deve essere costantemente aggiornata per riflettere ogni modifica, comprese le nuove versioni del modello, e le versioni precedenti devono essere conservate per dieci anni dall’immissione sul mercato.
Il modulo specifica chiaramente a chi è destinata ciascuna informazione: ai fornitori a valle, all’Ufficio AI o alle autorità nazionali competenti. La Misura 1.2 disciplina la fornitura di tali informazioni.
Secondo questa misura i firmatari devono pubblicare i contatti per consentire all’Ufficio AI e ai fornitori a valle di richiedere l’accesso alla documentazione o ad altre informazioni necessarie. Su richiesta dell’Ufficio AI, ai sensi degli Articoli 91 o 75(3) dell’AI Act, le informazioni più aggiornate devono essere fornite entro i termini specificati, purché la richiesta indichi la base legale e lo scopo e riguardi solo gli elementi strettamente necessari per i compiti di supervisione.
Ai fornitori a valle, invece, devono essere messe a disposizione le informazioni specifiche contenute nella documentazione, oltre a quelle aggiuntive necessarie per una chiara comprensione delle capacità e limitazioni del modello e per l’adempimento dei loro obblighi, il tutto entro un periodo ragionevole, non superiore a 14 giorni salvo circostanze eccezionali, sempre nel rispetto dei diritti di proprietà intellettuale e delle informazioni commerciali riservate.
I firmatari sono inoltre incoraggiati a considerare la divulgazione pubblica, totale o parziale, delle informazioni documentate per promuovere una maggiore trasparenza.
La terza misura stabilisce che le informazioni documentate devono essere controllate per qualità e integrità, conservate come prova di conformità e protette da alterazioni involontarie, con l’incoraggiamento a seguire protocolli e standard tecnici consolidati.
Il capitolo sottolinea l’importanza che tutti i destinatari delle informazioni contenute nel Modulo di Documentazione del Modello rispettino la riservatezza, tutelando in particolare i diritti di proprietà intellettuale e i segreti commerciali, e implementino misure di cybersecurity efficaci per la protezione dei dati.
Queste misure non si applicano ai fornitori di modelli di AI general-purpose rilasciati con una licenza libera e open-source che soddisfano le condizioni specificate nell’Articolo 53(2) dell’AI Act, a meno che il modello non sia classificato come modello di AI general-purpose con rischio.
Diritto d’autore e intelligenza artificiale: le nuove linee guida per i fornitori di modelli
Il secondo capitolo del codice di condotta per i modelli di AI general-purpose fornisce indicazioni per quanto riguarda il copyright. Il principio è garantire che i fornitori di modelli di intelligenza artificiale di uso generale rispettino la normativa europea sul diritto d’autore, in linea con l’articolo 53(1), punto (c), dell’AI Act.
Questo articolo impone ai fornitori di identificare e rispettare le riserve di diritti espresse dai titolari, anche tramite l’impiego di tecnologie avanzate, come previsto dall’articolo 4(3) della direttiva (UE) 2019/790.
È fondamentale sottolineare che l’adesione a questo codice non costituisce di per sé una prova definitiva di conformità agli obblighi dell’AI Act o alla legislazione europea sul diritto d’autore.
Gli impegni dei firmatari
I firmatari del codice si impegnano a definire, mantenere e implementare una politica sul diritto d’autore per i modelli di AI immessi sul mercato dell’Unione. Tale politica deve essere documentata e includere misure che riflettano l’applicazione del diritto d’autore da parte degli Stati membri.
Questa politica dovrà essere descritta in un unico documento e le responsabilità per la sua implementazione e supervisione dovranno essere chiaramente assegnate all’interno dell’organizzazione.
I fornitori firmatari vengono inoltre incoraggiati a rendere pubblico un riassunto della loro politica e a mantenerlo aggiornato.
Durante il “crawling” del web, i firmatari si impegnano a non eludere le misure tecnologiche efficaci che impediscono o limitano l’accesso non autorizzato, rispettando in particolare i paywall e gli abbonamenti. Devono inoltre escludere dal loro crawling i siti web notoriamente e ripetutamente coinvolti in violazioni del diritto d’autore su scala commerciale, come riconosciuto da tribunali o autorità pubbliche nell’UE e nello Spazio Economico Europeo. A tal fine, sarà resa pubblica una lista dinamica di collegamenti a questi siti.
I “web-crawler” utilizzati devono essere in grado di leggere e seguire le istruzioni del Robot Exclusion Protocol (robots.txt) e di altri protocolli leggibili da macchina per esprimere le riserve di diritti.
I firmatari sono incoraggiati a supportare lo sviluppo di questi standard e a dialogare con i titolari dei diritti. Dovranno inoltre rendere pubbliche le informazioni sui web-crawler impiegati e sulle misure adottate per rispettare le riserve di diritti, fornendo anche un mezzo per essere notificati sugli aggiornamenti. Per i fornitori di motori di ricerca, si raccomanda di evitare che il rispetto delle riserve di diritti influenzi negativamente l’indicizzazione dei contenuti.
Infine, il capitolo sul diritto d’autope per i modelli di AI general-purpose prevede che i fornitori implementino salvaguardie tecniche per prevenire la generazione di output che riproducano illecitamente contenuti protetti da diritto d’autore.
Nelle loro politiche di utilizzo accettabile o termini e condizioni, devono proibire gli usi del modello che violano il diritto d’autore.
Nel caso di modelli open-source, gli utenti dovranno essere avvertiti di tale proibizione nella documentazione.
Per garantire trasparenza e una comunicazione facile su eventuali problematiche, i firmatari sono inoltre tenuti a designare un punto di contatto per la comunicazione elettronica con i titolari dei diritti e a fornire informazioni facilmente accessibili al riguardo.
Devono anche predisporre un meccanismo che consenta ai titolari dei diritti (o ai loro rappresentanti) di presentare reclami in merito alla non conformità, agendo su di essi in modo diligente e tempestivo, a meno che non siano manifestamente infondati o già gestiti.
Safety e security, cosa prevede il codice di condotta
Il Codice di condotta europeo per la sicurezza dei modelli di AI general-purpose introduce una serie di obblighi per i fornitori in materia di sicurezza (intesa sia come safety che security), articolati in una serie di impegni e misure dettagliate.
Il concetto di “rischio sistemico”
Ricordiamo, inoltre, che l’AI Act europeo propone un approccio normativo basato sulla valutazione del rischio, con norme più stringenti per le soluzioni di AI che pongono un rischio significativo ai diritti tutelati dai trattati e dalle leggi UE.
Questo sistema, che abbiamo descritto nel dettaglio in questo articolo, prevede anche l’esclusione dalla commercializzazione sul mercato unico (si applica quindi anche a prodotti extra-UE) delle soluzioni che pongono un rischio inacettabile.
Particolare attenzione viene data dalla normativa a quei modelli che presentano un “rischio sistemico”, che può manifestarsi sia perché i modelli sono molto capaci sia perché hanno un impatto significativo sul mercato interno per altri motivi.
Per i fornitori, il codice di condotta prevede l’obbligo di notificare tali modelli alla Commissione. Devono, inoltre: valutare e attenuare i rischi sistemici da essi derivanti, anche attraverso l’esecuzione di valutazioni dei modelli; segnalare incidenti gravi; garantire un’adeguata sicurezza informatica di tali modelli.
Vediamo, più nel dettaglio, quali misure e azioni prevede il codice di condotta per i modelli di AI general-purpose
La gestione della sicurezza dei modelli
Innanzitutto, i fornitori sono tenuti ad adottare un quadro di sicurezza all’avanguardia per la gestione dei rischi sistemici, che include:
- la creazione di una politica che descriva i processi di valutazione e mitigazione del rischio
- la loro continua implementazione attraverso monitoraggio e valutazioni periodiche
- l’aggiornamento costante del quadro stesso
L’Ufficio AI dovrà avere accesso a questi documenti entro cinque giorni lavorativi dalla loro conferma.
Un altro impegno fondamentale riguarda, come già detto, l’identificazione e l’analisi del rischio sistemico.
I fornitori devono compilare un elenco di rischi basati su tipologie predefinite, analizzarne le caratteristiche e sviluppare scenari specifici per ciascun rischio identificato.
L’analisi prosegue con la raccolta di informazioni indipendenti dal modello (tramite ricerche web, revisioni della letteratura, interviste con esperti, ecc.), la conduzione di valutazioni del modello per stimare capacità e propensioni, oltre che alla modellazione e stima del rischio sistemico utilizzando metodi all’avanguardia.
È previsto anche un monitoraggio post-immissione sul mercato, con raccolta di feedback, segnalazione di bug e supporto alla ricerca scientifica, garantendo accesso a valutatori esterni indipendenti.
La determinazione dell’accettabilità del rischio sistemico è un passaggio cruciale: i fornitori devono definire criteri chiari e giustificati per accettare i rischi, procedendo con lo sviluppo o l’immissione sul mercato solo se i rischi risultano accettabili.
In caso contrario, devono adottare misure correttive, che possono includere il non immettere il modello sul mercato o limitarne la disponibilità.
Il capitolo specifica anche misure di sicurezza tecniche e informatiche. Per le prime, si richiede l’implementazione di salvaguardie proporzionate per garantire che i rischi sistemici siano gestibili lungo tutto il ciclo di vita del modello, come il filtraggio dei dati di addestramento o la modifica del comportamento del modello.
Per la sicurezza informatica, è necessario definire un obiettivo di protezione e implementare mitigazioni adeguate per affrontare rischi come rilasci o accessi non autorizzati.
I fornitori hanno anche l’obbligo di redigere rapporti sul modello di sicurezza prima dell’immissione sul mercato, fornendo una descrizione dettagliata dell’architettura e delle capacità del modello, le motivazioni per l’accettabilità dei rischi sistemici, la documentazione delle attività di identificazione, analisi e mitigazione del rischio, e i rapporti di valutatori esterni indipendenti. Questi rapporti devono essere aggiornati periodicamente e resi accessibili all’Ufficio AI.
Per assicurare un’efficace gestione del rischio, è richiesta una chiara allocazione delle responsabilità del rischio sistemico all’interno dell’organizzazione, con la definizione di ruoli specifici per la supervisione, la proprietà e il monitoraggio, l’allocazione di risorse adeguate e la promozione di una sana cultura del rischio.
Infine, i fornitori devono implementare processi per la segnalazione degli incidenti gravi all’Ufficio AI e alle autorità nazionali competenti.
A questo scopo, sono tenuti a identificare metodi per rilevare incidenti, raccogliere informazioni pertinenti (date, danni, cause) e rispettare tempistiche precise per la segnalazione iniziale e gli aggiornamenti successivi, conservando la documentazione per almeno cinque anni.
Completano il quadro obblighi di documentazione aggiuntiva e trasparenza, con la necessità di mantenere descrizioni dettagliate del modello e delle mitigazioni, e di pubblicare versioni riassuntive dei quadri e dei rapporti di sicurezza quando necessario.
L’iter di approvazione del documento
Una volta che il codice sarà approvato dagli Stati membri e dalla Commissione, i fornitori di modelli di AI general-purpose che firmeranno volontariamente il codice saranno in grado di dimostrare la conformità ai pertinenti obblighi della legge sull’AI beneficiando quindi della riduzione dell’onere amministrativo.
Il codice sarà integrato da orientamenti della Commissione sull’AI genrral-purpose che saranno pubblicati prima dell’entrata in vigore degli obblighi in materia.
Gli orientamenti chiariranno chi rientra nell’ambito di applicazione delle norme sui modelli di AI general-purpose all’interno dell’AI Act.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link