L’AI Act, entrato nella fase di implementazione, rappresenta il primo tentativo organico di normare lo sviluppo e l’uso dell’intelligenza artificiale su scala continentale.
A presentare la visione, le sfide e le opportunità del nuovo regolamento è stato Brando Benifei, eurodeputato italiano al suo terzo mandato e tra i principali negoziatori del provvedimento, nel corso del suo intervento all’AI Week 2025 di Milano.
Il suo intervento ha chiarito come il nuovo regolamento europeo voglia evitare due rischi contrapposti: da un lato l’anarchia tecnologica, dall’altro una regolazione troppo gravosa per le imprese. A emergere è un tentativo di sintesi tra diritti fondamentali e strategia industriale, in un continente che sconta ancora la frammentazione normativa e la mancanza di capitali.
Benifei all’AI Week: il senso politico dell’AI Act
“L’AI Act nasce da una visione pragmatica: quella di impedire che il mercato globale dell’intelligenza artificiale resti appannaggio esclusivo di poche realtà extraeuropee, capaci di imporre unilateralmente standard tecnologici, economici e sociali”.
Secondo Benifei, infatti, il regolamento non deve essere letto come un ostacolo, bensì come una misura abilitante. “Lo sforzo dell’AI Act è quello di creare fiducia attraverso la trasparenza, la condivisione di informazioni e la gestione dei rischi”, ha spiegato. La normativa mira a stabilire regole chiare per chi sviluppa, commercializza o utilizza sistemi di intelligenza artificiale nell’Unione, a prescindere dalla nazionalità dell’attore economico coinvolto. “Senza una regolamentazione forte e comune, l’Europa rischia di restare marginale nel grande gioco della competizione globale, dove Stati Uniti e Cina operano in contesti normativi più laschi e centralizzati”.
Un approccio basato sul rischio: proibizioni, obblighi, responsabilità
Benifei ha illustrato in dettaglio la struttura del regolamento, fondato su un approccio basato sul rischio. “Esistono usi dell’intelligenza artificiale che saranno vietati per legge all’interno del mercato europeo; tra questi i sistemi di polizia predittiva basati esclusivamente su caratteristiche personali, l’uso non autorizzato delle telecamere biometriche (consentito solo con controllo giudiziario e dell’autorità per la privacy ndr), e il riconoscimento delle emozioni in contesti lavorativi o educativi. Chi commercializzerà prodotti IA toccando questi ambiti dovrà garantire che tali funzionalità non vengano attivate sul suolo europeo”.
Il principio è chiaro: alcuni usi dell’AI, pur tecnicamente possibili, non sono accettabili sul piano etico e giuridico. Allo stesso tempo, l’AI Act individua una categoria di sistemi ad alto rischio, soggetti a specifici requisiti di conformità: applicazioni in ambito sanitario, lavorativo, educativo, giudiziario. “In questi casi – ha chiarito l’eurodeputato – diventa essenziale garantire qualità dei dati, sicurezza informatica e supervisione umana”.
Brando Benifei all’AI Week: le responsabilità in capo agli sviluppatori
Un punto nodale del suo intervento è stata la ridefinizione del perimetro delle responsabilità. “Secondo l’AI Act, è lo sviluppatore del sistema – non tanto l’utilizzatore finale – a dover garantire la conformità del prodotto”. Una scelta che, secondo Benifei, risponde alla logica della filiera tecnologica attuale: “Il rischio, altrimenti, è che i grandi sviluppatori vendano verso il basso i rischi, scaricandoli su chi adatta i sistemi o fa fine tuning, evitando di assumersi responsabilità”.
Questo passaggio è fondamentale per comprendere il senso dell’intervento regolatorio europeo: non si tratta solo di protezione dei diritti, ma anche di riequilibrio delle dinamiche economiche che penalizzano le startup e le PMI europee, già svantaggiate da una cronica carenza di capitali e infrastrutture.
Il problema strutturale dell’Europa: frammentazione e investimenti insufficienti
Benifei non ha nascosto le difficoltà strutturali dell’Europa. “Noi abbiamo una serie di problemi in Europa”, ha affermato, indicando tra i principali la mancanza di accesso al capitale di rischio, un mercato dei capitali non integrato, e infrastrutture digitali inadeguate. Il regolamento, per quanto ambizioso, non basta da solo: “Servono investimenti più significativi, serve un passo in più”, ha sottolineato.
“Non sono sufficienti le AI Factories finanziate dalla Commissione Europea, né le Giga Factories in fase di discussione in alcuni Paesi membri. Serve, ha detto, un salto di qualità anche politico. L’Unione resta un organismo “lascamente coordinato”, che fatica a competere con la coesione strategica degli Stati Uniti o con la centralizzazione cinese”.
Sandbox normativa: protezione per le startup europee
In questo contesto si inserisce un’altra novità significativa dell’AI Act: l’introduzione della sandbox, uno spazio regolatorio protetto pensato per le startup. L’obiettivo è permettere l’ingresso graduale nel mercato, senza costringere le giovani imprese a confrontarsi da subito con l’intero apparato normativo. “Abbiamo voluto evitare che l’innovazione europea si trovi subito schiacciata dal peso delle regole”, ha spiegato Benifei. La sandbox rappresenta, secondo l’eurodeputato, una delle leve più concrete per non compromettere la competitività dell’ecosistema europeo dell’AI. Una forma di accompagnamento, non di deresponsabilizzazione.
Una semplificazione per 27 Paesi: il valore dell’uniformità
Uno dei meriti principali dell’AI Act, secondo Benifei, è l’uniformità regolatoria che garantisce all’interno dell’Unione. “Oggi esistono tantissime certificazioni e regole complesse per accedere ai settori sensibili, dalla sanità alla pubblica amministrazione. L’AI Act fa in modo che ci sia un regime unico per tutta Europa”, ha evidenziato. “Questo approccio semplifica non solo la vita degli sviluppatori, ma anche dei governi e delle pubbliche amministrazioni, che potranno contare su un quadro coerente e armonizzato in tutti gli Stati membri”.
Trasparenza e riconoscibilità: i nuovi obblighi
Altro punto cardine del regolamento è l’obbligo di trasparenza, in particolare per quanto riguarda i contenuti generati da AI. Benifei ha citato il watermarking obbligatorio e la tutela del diritto d’autore come elementi essenziali per proteggere i creatori e i consumatori. “È un tema delicato, che richiede equilibrio per non bloccare l’innovazione, ma anche per garantire una remunerazione adeguata agli autori”, ha osservato.
L’AI umano-centrica come scelta culturale
A chiusura del suo intervento, Benifei ha ribadito l’orientamento umano-centrico dell’AI Act, che rifiuta l’idea di un’AI totalizzante e incontrollata. “Un Grande Fratello potenziato dall’intelligenza artificiale a nostra insaputa in Europa non lo vogliamo. La scelta europea è quella di una tecnologia compatibile con i diritti fondamentali, con regole chiare, verificabili e uniformi. Il modello europeo, per quanto impegnativo da attuare, è l’unico – ha sostenuto – che possa garantire al tempo stesso innovazione e tutela”.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link