
Digital Omnibus on AI 2026: riforma dell’AI Act, nuove pratiche vietate e impatti per imprese e professionisti
Il voto del 26 marzo 2026 del Parlamento europeo segna un passaggio decisivo nel percorso di revisione del quadro normativo europeo sull’intelligenza artificiale. Con l’approvazione degli emendamenti alla proposta di Regolamento nota come Digital Omnibus on AI, l’Unione europea conferma la volontà di rendere più efficiente, chiaro e concretamente applicabile il Regolamento (UE) 2024/1689 (AI Act).
L’intervento si inserisce nel più ampio pacchetto Digital Omnibus, finalizzato all’ottimizzazione dell’acquis normativo europeo in materia digitale. L’obiettivo è chiaro: semplificare la compliance normativa, ridurre sovrapposizioni regolatorie e garantire certezza giuridica agli operatori economici.
Digital Omnibus on AI: perché nasce la riforma dell’AI Act
L’AI Act rappresenta la prima disciplina organica europea sull’intelligenza artificiale, ma la sua struttura complessa ha immediatamente evidenziato criticità applicative, soprattutto per le forti intersezioni con:
- GDPR e protezione dei dati personali
- normativa europea sulla sicurezza dei prodotti
- regole sulla responsabilità del produttore
- tutela dei consumatori
- cybersecurity e governance digitale
Il Digital Omnibus on AI nasce quindi dall’esigenza di rendere il sistema regolatorio più lineare, evitando duplicazioni burocratiche e interpretazioni incerte.
Il Parlamento europeo, seguendo la linea già tracciata dal Consiglio il 13 marzo 2026, conferma l’impianto originario dell’AI Act, ma introduce modifiche significative su profili operativi e sostanziali.
Nuove scadenze per i sistemi di IA ad alto rischio
Uno dei temi più rilevanti riguarda il calendario di applicazione degli obblighi previsti per i sistemi di intelligenza artificiale ad alto rischio.
Date certe per imprese e operatori
Il Parlamento sceglie una linea orientata alla certezza normativa, introducendo date precise:
Sistemi ad alto rischio autonomi
(art. 6, par. 2 e Allegato III AI Act)
Applicazione obblighi dal 2 dicembre 2027
Sistemi integrati in prodotti regolati da normativa UE
(art. 6, par. 1 AI Act)
Applicazione obblighi dal 2 agosto 2028
Si tratta di una scelta strategica: imprese, sviluppatori, deployer e organismi notificati potranno programmare con maggiore chiarezza investimenti, processi di adeguamento e valutazioni di conformità.
IA generativa: trasparenza e contenuti artificiali
Il Digital Omnibus on AI interviene anche sui sistemi di IA generativa, oggi centrali nel mercato tecnologico.
Etichettatura dei contenuti artificiali
Per i sistemi già immessi sul mercato prima del 2 agosto 2026, il Parlamento propone che i fornitori si adeguino agli obblighi di trasparenza entro:
2 novembre 2026
L’obbligo riguarda l’indicazione chiara dei contenuti generati artificialmente, tema cruciale per contrastare disinformazione, manipolazione mediatica e frodi digitali.
Deepfake sessuali: nuove pratiche vietate
Tra le modifiche più sensibili emerge la proposta di introdurre una nuova pratica di IA vietata.
Divieto di immagini o video sessualmente espliciti senza consenso
Secondo il testo del Parlamento europeo, sarebbe vietato immettere sul mercato, utilizzare o mettere in servizio sistemi di IA che:
- alterano immagini realistiche
- manipolano video realistici
- generano artificialmente contenuti realistici
raffigurando attività sessualmente esplicite o parti intime di una persona identificabile senza il suo consenso.
Divieto non assoluto
Il legislatore adotta però una logica bilanciata: il divieto non colpisce la tecnologia in sé, ma il suo uso illecito, lasciando spazio allo sviluppo tecnologico ove siano adottate misure efficaci e continuative di prevenzione degli abusi.
Questa impostazione tenta di conciliare:
- tutela della dignità personale
- diritto all’immagine
- protezione da revenge porn e abusi digitali
- libertà d’impresa
- innovazione tecnologica
Bias algoritmici e trattamento dei dati sensibili
Un altro punto centrale riguarda la lotta alle discriminazioni algoritmiche.
Uso dei dati particolari per correggere bias
Il Parlamento conferma la possibilità di trattare categorie particolari di dati personali (origine etnica, salute, convinzioni religiose, ecc.) quando ciò sia strettamente necessario per:
- rilevare bias nei modelli di IA
- correggere output discriminatori
- prevenire impatti negativi sui diritti fondamentali
- tutelare salute e sicurezza delle persone
Rapporto con il GDPR
La previsione è particolarmente rilevante perché si inserisce nel delicato rapporto tra AI Act e GDPR. Il principio adottato è prudente:
- necessità stretta
- carattere eccezionale
- garanzie adeguate
- finalità limitata al contrasto delle discriminazioni
Per molte imprese si aprirà la necessità di una valutazione integrata AI compliance + privacy compliance.
Coordinamento con la normativa europea sui prodotti
Il Parlamento interviene anche sul rapporto tra AI Act e normativa di armonizzazione europea relativa ai prodotti.
Obiettivo: evitare duplicazioni
Per i prodotti già soggetti a marcatura CE, certificazioni tecniche o controlli di sicurezza, si vuole evitare che l’AI Act imponga procedure parallele inutilmente onerose.
Nuovo criterio per qualificare l’alto rischio
Un sistema IA incorporato in un prodotto sarà considerato ad alto rischio solo se il suo funzionamento è necessario per garantire la conformità ai requisiti di sicurezza UE.
Si tratta di una modifica di grande impatto per:
- medical devices
- automotive
- machinery
- robotics
- dispositivi industriali intelligenti
Digital Omnibus on AI: un approccio pragmatico
L’orientamento emergente dalle posizioni di Commissione, Consiglio e Parlamento è chiaramente pragmatico.
L’Unione europea sembra voler superare una regolazione solo teorica per privilegiare una disciplina:
- applicabile nella pratica
- compatibile con il mercato
- sostenibile per le PMI
- coordinata con il resto del diritto europeo
- capace di tutelare diritti fondamentali senza bloccare innovazione
Il negoziato interistituzionale potrà ancora modificare diversi aspetti, soprattutto sulle nuove pratiche vietate e sui sistemi generativi.
Impatti concreti per aziende, startup e professionisti
Le imprese che sviluppano, integrano o utilizzano sistemi di IA devono già oggi prepararsi su più fronti:
Compliance normativa
- classificazione del rischio AI
- governance interna dei sistemi
- procedure di audit algoritmico
- registri tecnici e documentazione
Privacy e data governance
- basi giuridiche del trattamento
- DPIA
- uso dati sensibili per bias detection
- trasferimenti internazionali
Contrattualistica
- responsabilità tra provider e deployer
- SLA tecnologici
- garanzie su dataset e modelli
- manleva regolatoria
Contenzioso e responsabilità
- danni da IA
- discriminazioni automatizzate
- deepfake lesivi
- violazioni reputazionali e concorrenziali
Perché affidarsi allo Studio Legale Bonanni Saraceno
Di fronte all’evoluzione dell’AI Act e al Digital Omnibus on AI, il supporto di professionisti altamente specializzati è oggi essenziale.
Lo Studio Legale Bonanni Saraceno offre competenze avanzate in:
Diritto dell’innovazione e intelligenza artificiale
Assistenza a imprese, startup, provider tecnologici e investitori nella conformità al quadro normativo europeo sull’IA.
Privacy e GDPR
Gestione integrata dei profili AI Act – GDPR, DPIA, data governance, trattamenti complessi e dati particolari.
Regulatory compliance europea
Analisi dei sistemi ad alto rischio, procedure di conformità, governance aziendale e audit documentale.
Contratti tecnologici
Redazione e negoziazione di contratti SaaS, licensing AI, sviluppo software, outsourcing tecnologico e responsabilità tra operatori.
Contenzioso e tutela reputazionale
Difesa in caso di deepfake, diffamazione digitale, uso illecito di contenuti generati artificialmente, discriminazioni algoritmiche e danni da automazione.
Supporto strategico per PMI e grandi imprese
Percorsi personalizzati di adeguamento normativo, risk assessment e formazione interna.
Conclusioni
Il Digital Omnibus on AI rappresenta un passaggio decisivo verso una regolazione europea dell’intelligenza artificiale più chiara, coerente e concretamente applicabile. Per le imprese non è più tempo di attendere: la compliance AI va costruita oggi.
In questo scenario, lo Studio Legale Bonanni Saraceno si propone come partner qualificato per affrontare con metodo, competenza e visione strategica le sfide legali poste dall’intelligenza artificiale e dalla trasformazione digitale.
*****************
Per ulteriori approfondimenti su questo tema o sulle relative implicazioni pratiche potete contattare:
STUDIO LEGALE BONANNI SARACENO
Avv. Fabrizio Valerio Bonanni Saraceno
Piazza Giuseppe Mazzini, 27 – 00195 – Roma
Tel. +39 0673000227
Cell. +39 3469637341
@: avv.bonanni.saraceno@gmail.com




