Nel quadro degli ormai numerosi provvedimenti che, culminando nello AI Act, hanno indicato la volontà europea di promuovere una Intelligenza Artificiale competitiva sul piano globale ma rispettosa dei valori fondamentali della UE e dei Paesi che ne fanno parte, vanno ora segnalate le Linee guida per i fornitori di Intelligenza artificiale di uso generale (GPAI) che la Commissione UE ha recentemente pubblicato e alle quali dovranno conformarsi dal 2 agosto i fornitori di modelli di Intelligenza Artificiale di uso generale che operino nell’ambito della UE.
Linee guida per fornitori di Gpai (AI general purpose): cosa sono e a che servono
E’ evidente che queste Linee Guida sono necessariamente integrative dello AI Act e concorrono a rendere meno rischioso per i fornitori dei sistemi di IA valutare la conformità dei sistemi da loro proposti e messi sul mercato, così come esse aiutano gli utilizzatori dei sistemi di IA a finalità generale a valutare meglio i rischi che essi possono comportare e come evitarli.
Proprio per questo le Linee guida in questione introducono criteri tecnici chiari alla stregua dei quali valutare, ad esempio, quando un sistema di IA può definirsi generico o a scopi generali e quindi quando gli sviluppatori dei sistemi devono prestare la massima attenzione al rispetto degli obblighi imposti dallo AI Act.
Inoltre queste Linee Guida, emanate proprio in un momento nel quale massima era la richiesta formulata da operatori, anche importanti, di rinviare l’entrata in vigore dello AI Act, hanno anche un carattere fortemente pragmatico e operativo come dimostra il fatto che esse sottolineano più volte che gli obblighi in esse contenute devono essere rispettati dagli operatori che apportano modifiche significative ai sistemi di AI, lasciando invece fuori da nuovi obblighi coloro che si limitino a modiche di minor rilievo.
Infine, per favorire l’open source le linee guida esentano da obblighi precisamente definiti i modelli di IA open source segnando così un’attenzione molto chiara a promuovere trasparenza e innovazione in un campo che, come dimostra anche il documento Winning the Race. America’s AI Action Plan, adottato da Trump nel luglio di quest’anno, costituisce ormai una tecnologia essenziale nella competizione globale.
L’importanza più significativa di queste Linee guida è però quella di fornire una interpretazione dei termini e dei concetti chiave dello AI Act, il che aiuta a chiarire chi è tenuto a rispettare gli obblighi in esso contenuti e secondo quali modalità.
Tutto questo rende queste Linee guida uno strumento molto utile per definire meglio e con più chiarezza come i fornitori di sistemi di IA a scopi generali possano adempiere ai propri obblighi ai sensi dello AI Act.
Il significato più profondo delle linee guida per fornitori di GPAI
Tuttavia il significato più importante di queste Linee guida consiste nella dimostrazione che la Commissione intende accompagnare da vicino tutto il processo presente e, soprattutto, futuro di attuazione dello AI Act, di fatto facendo dell’Ufficio AI, previsto dallo AI Act e, non casualmente, istituito presso la Commissione, l’interlocutore necessario degli operatori nell’attuazione dello AI Act e dei sistemi di AI.
Poiché, come abbiamo detto, l’Ufficio per la AI è concepito nello AI Act come uno strumento strettamente collegato alla Commissione e istituzionalmente tenuto anche a dare ad essa consulenza sulla attuazione della normativa europea in materia di AI è facile gioco per la Commissione estendere gli obblighi che gli operatori di sistemi di AI a finalità generale devono adempire presso l’Ufficio per la IA, assicurandosi così la possibilità di essere costantemente al corrente dei sistemi adottati e delle loro eventuali modificazioni e potendo quindi decidere, di volta in volta, se e quali provvedimenti adottare.
Insomma non è difficile capire che, anche attraverso queste Linee guida, come già aveva fatto adottando il precedente Codice di condotta per la AI come modello al quale i singoli operatori possono aderire per dimostrare la loro volontà di rispettare a pieno lo AI Act, la Commissione segue la via di una costruzione e espansione dei suoi poteri che avvicina sempre di più nei fatti la normativa sulla Intelligenza Artificiale a quella sulla Privacy. Il che rafforza la convinzione che la strada che si sta percorrendo è destinata a portare rapidamente all’istituzione della figura del Garante dei dati nella società digitale, al di là dell’uso che di volta in volta si fa di questi dati e delle caratteristiche che questi hanno.
Nella trama del caso in questione tuttavia vi è di più.
Ponendo in fila, come è inevitabile fare, le norme contenute nello AI Act, che hanno le caratteristiche specifiche delle norme UE applicate a una attività determinata, con il contenuto di queste Linee guida emerge con chiarezza un punto.
Serve un Ciao (Chief Intelligence Artificial Officer) nelle aziende per AI ACT
La normativa complessiva che ne deriva e gli obblighi conseguenti che gravano sugli operatori di sistemi di IA generale a carattere generale nel quadro europeo sono di tale complessità e spessore da richieder quasi necessariamente che ogni impresa, specie se di medie e grandi dimensioni, che utilizzi sistemi di AI generativa senta quanto prima l’esigenza di avvalersi al proprio interno di esperti che assumano e svolgano i compiti dello CIAO (Chief Intelligence Artificial Officer) ponendo così le premesse per un non lontano nuovo intervento normativo che probabilmente concorrerà a arricchire i compiti del DPO, almeno nei casi in cui una impresa faccia uso ampio e rilevante di sistemi di AI: il che, almeno per quanto riguarda le medie e grandi imprese, significa praticamente tutte le imprese in attività a livello sovranazionale e globale.
E’ facile prevedere che se tutto questo avverrà prima della fine del decennio in corso nuovi atti nomativi UE interverranno in materia di Intelligenza Artificiale, istituendo così anche in Europea quello che in USA è previsto fin dai primissimi provvedimenti esecutivi adottati da Biden che, appena entrato alla Casa Bianca, impose alla Agenzie federali che facessero usto di sistemi di AI la nomina di un Chief Artificial Intelligence Officer che garantisse la responsabilità, la leadership e la supervisione della tecnologia AI utilizzata dalla propria Agenzia.
E’ chiaro che l’ordine di Biden, riguardando tutte le Agenzie federali, aveva l’obiettivo di mettere sotto controllo tutti i sistemi di IA usati da tutte le Agenzie del governo federale, così come solo una rete di CIAO, tutti responsabili verso il Governo federale, poteva garantire.
Negli USA il sistema ha funzionato e si è espanso, dando corpo ormai a una figura capace di assicurare responsabilità e controllo sui sistemi di IA molto forte e assai diffusa.
In UE invece noi abbiamo conosciuto fino ad ora essenzialmente il DPO come figura chiamata a tutelare il diritto fondamentale alla privacy delle persone.
Non è difficile però capire che lo sviluppo ormai ampio e molto rapido non solo dei sistemi di IA in UE ma anche della normazione europea a garanzia e tutela dell’uso di questi sistemi spingerà quanto prima, anche per lo sviluppo della AI USA, le aziende stesse, specie se di ampie dimensioni, e poi la UE come soggetto regolatore, a sviluppare la fi giura del CIAO, o di un suo equivalente, anche nel sistema europeo.
Pare infine prevedibile che in futuro le imprese per prime, ma anche i regolatori se non altro per agevolare le imprese, si orienteranno a fondere in un’unica figura i DPO con i suoi compiti rafforzati dalle esigenze della società digitale, e il CIAO con compiti anche di vigilanza e controllo in materia di IA.
Prepariamoci dunque a una imminente e molto interessante nuova fase di formazione a livello europeo, che offra ai DPO già in azione la possibilità di integrare con quelle già acquisite anche nuove conoscenze e competenze che li rendano adeguati anche a svolgere funzioni del CIAO rispondenti alle esigenze del nuovo mondo della IA.
In realtà tutto conferma che siamo solo ancora all’inizio di una transizione estremamente interessante e rapida, tutta incentrata sulla società digitale.
Anche la figura del DPO, e molto di più quella del CIAO fanno parte di questa transizione che sarà sempre più veloce.
Adeguiamo dunque rapidamente i corsi di formazione per i DPO e prepariamoci a fornire a tutti gli interessati corsi efficaci per elevare rapidamente le loro competenze rapidamente.
Cosa, quest’ultima, che come sappiamo vale sempre di più per tuti i cittadini. Come il Garante italiano e lo EDPB ripetono, infatti, nella società digitale la prima tutela per i cittadini è avere le competenze necessarie, fornite da un sistema scolastico\formativo adeguato, per poter vivere ed esercitare i propri diritti in modo consapevole e responsabile nella società digitale.
Linee guida dell’UE per fornitori Gpai (Ai act, obbligo 2 agosto): i punti chiave
Le linee guida per fornitori Gpai fornisce chiarimenti pratici sull’applicazione degli obblighi previsti dal Capitolo V dell’AI Act, applicabili dal 2 agosto 2025, riguardo ai modelli di IA di uso generale, con o senza rischio sistemico.
Chi è soggetto agli obblighi per GPAI
Qualsiasi fornitore (anche non UE) che mette a disposizione sul mercato europeo un modello di IA di uso generale, anche gratuitamente o tramite API, è soggetto agli obblighi dell’AI Act.
Anche chi modifica significativamente un modello open-source può diventare “fornitore” e quindi soggetto agli obblighi.
Quando un modello è considerato “di uso generale”
Un modello è considerato GPAI se:
ha una capacità computazionale di training superiore a 10²³ FLOP,
può generare linguaggio (testo o audio) oppure immagini/video da testo, e
è capace di svolgere un’ampia gamma di compiti diversi.
Eccezioni: modelli limitati a un solo task (es. trascrizione vocale, upscaling immagini, giochi) non sono GPAIM, anche se superano il limite di FLOP.
GPAI con rischio sistemico
Un GPAI è considerato a rischio sistemico se:
supera 10²⁵ FLOP nel training, oppure
è designato dalla Commissione secondo criteri di impatto sociale o tecnico.
Questi modelli sono soggetti a obblighi aggiuntivi:
Valutazione continua dei rischi,
Notifica alla Commissione UE,
Misure di cybersecurity e governance rafforzata.
Obblighi per i fornitori di GPAIM
Dal 2 agosto 2025:
Documentazione tecnica aggiornata (art. 53.1.a),
Informazioni tecniche accessibili ai downstream (art. 53.1.b),
Policy sul copyright conforme al diritto UE (art. 53.1.c),
Sintesi pubblica dei dati di training (art. 53.1.d),
Nomina di un rappresentante autorizzato in UE, se fuori UE (art. 54).
La conformità può essere semplificata aderendo a un codice di condotta approvato (art. 56).
Modelli open-source: quando sono esenti
I GPAIM (modelli Gpai) sono esenti da alcuni obblighi se:
Sono rilasciati con licenza veramente open-source, che permette accesso, uso, modifica e redistribuzione,
Non vi è monetizzazione diretta o indiretta,
Sono resi pubblici i parametri, i pesi, l’architettura e le modalità d’uso.
Ma non sono esenti dagli obblighi su:
policy copyright (art. 53.1.c),
sintesi dei dati di training (art. 53.1.d).
Sanzioni e controlli
I controlli saranno effettuati dall’AI Office della Commissione Europea.
La non conformità può comportare sanzioni amministrative, la cui entità sarà valutata anche in base alla cooperazione con la Commissione.
AI ACT e GPAI: Raccomandazioni pratiche per le aziende
- Verificare se il proprio modello è un GPAIM, e se ha rischio sistemico.
- Preparare la documentazione tecnica e copyright richiesta.
- Valutare l’adesione a un codice di condotta ufficiale (per semplificare la compliance).
- Se si usa un modello di terzi: accertarsi che sia conforme all’AI Act oppure che non rientri nei criteri di GPAIM.
- Se si modifica un modello: calcolare la compute usata (>⅓ di quella originale = probabile nuovo obbligo).
- In caso di rilascio open-source: garantire reale apertura e assenza di monetizzazione.
Redazione
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link