Salta al contenuto
Prompti.it
Compliance AI Act

FAQ AI Act: 15 domande frequenti dal mercato italiano

Risposte concrete su Regolamento UE 2024/1689, scadenze, articolo 4, alto rischio, sanzioni.

Le 15 domande che riceviamo più frequentemente da PMI italiane, studi professionali e PA su AI Act. Aggiornate al maggio 2026 con riferimenti normativi puntuali e link a risorse approfondite.

Vedi guida AI Act

In questa pagina raccogliamo le 15 domande più frequenti che riceviamo da clienti e prospect su AI Act, Regolamento UE 2024/1689. Le risposte sono aggiornate al maggio 2026 con riferimenti normativi puntuali e link a risorse approfondite. Sono pensate come primo orientamento — per situazioni specifiche serve sempre valutazione del singolo caso da parte di consulente AI/legal.

Trovate le 15 risposte nella sezione FAQ qui sotto, e altre risorse correlate nelle pagine: guida completa AI Act, articolo 4 alfabetizzazione, sanzioni, checklist 20 domande.

FAQ AI Act

Tutte le domande frequenti.

Cos'è l'AI Act in sintesi?

AI Act è il Regolamento UE 2024/1689, primo framework normativo al mondo sull'intelligenza artificiale. Approvato dal Parlamento Europeo a marzo 2024, pubblicato in Gazzetta Ufficiale UE a luglio 2024, in vigore con scadenze graduali dal 2 febbraio 2025 al 2 agosto 2027. Si applica a fornitori, deployer, importatori e distributori di sistemi AI nel mercato UE.

Quando entra in vigore l'AI Act?

Calendario in vigore: (1) 2 febbraio 2025 — articoli 1-5 (definizioni, pratiche vietate, articolo 4 alfabetizzazione AI); (2) 2 agosto 2025 — autorità competenti, sanzioni GPAI; (3) 2 febbraio 2026 — codice condotta GPAI; (4) 2 agosto 2026 — sistemi alto rischio allegato III, articolo 50 trasparenza, sanzioni; (5) 2 agosto 2027 — sistemi alto rischio incorporati in prodotti regolamentati.

Chi è soggetto all'AI Act?

Quattro categorie di soggetti: (1) Fornitori (chi sviluppa sistemi AI o li commercializza); (2) Deployer (chi usa sistemi AI per attività professionale, anche se non li sviluppa); (3) Importatori di sistemi AI nel mercato UE; (4) Distributori. Le PMI italiane che usano ChatGPT/Copilot/Claude sono deployer: si applicano gli obblighi articolo 4 e gli obblighi specifici se usano sistemi alto rischio (allegato III).

Quali sistemi AI sono ad alto rischio?

Allegato III dell'AI Act lista 8 categorie alto rischio: (1) biometria, (2) infrastrutture critiche, (3) istruzione e formazione professionale, (4) occupazione e gestione lavoratori (HR scoring, recruiting AI), (5) servizi essenziali (credit scoring, polizze, accesso servizi pubblici), (6) law enforcement, (7) migrazione e asilo, (8) amministrazione giustizia e processi democratici. Per questi sistemi si applicano obblighi articoli 9-15 (gestione qualità, documentazione tecnica, sorveglianza umana, log).

L'articolo 4 si applica anche alle microimprese?

Sì. L'articolo 4 si applica a tutti i deployer indipendentemente dalla dimensione. Una microimpresa con 5 dipendenti che usa ChatGPT per email ha obbligo di garantire alfabetizzazione AI del personale. Il livello di formalità documentale può essere proporzionato, ma il requisito sostanziale resta. Vedi guida articolo 4.

Cosa succede se non rispetto l'AI Act?

Articolo 99 prevede tre fasce sanzionatorie: fino €35M o 7% fatturato globale (pratiche vietate art. 5), fino €15M o 3% (alto rischio + GPAI + trasparenza), fino €7,5M o 1% (informazioni inesatte). ACN è autorità competente in Italia. Vedi guida sanzioni.

Quale autorità vigila in Italia?

ACN — Agenzia per la Cybersicurezza Nazionale è l'autorità di vigilanza primaria designata dalla Legge 132/2025 di adeguamento italiano. Affianca AgID (Agenzia per l'Italia Digitale) per aspetti tecnici. Per dati personali concorre il Garante Privacy. Per settori specifici (banche, sanità, energia) restano autorità di settore.

AI Act si applica a OpenAI, Anthropic, Google?

Sì. I provider di GPAI (General Purpose AI Models) come OpenAI, Anthropic, Google sono soggetti agli obblighi specifici per GPAI (articoli 51-55): documentazione tecnica, training data summary, copyright compliance, valutazione rischi sistemici per modelli più grandi. Sono inoltre disponibili Codici di Condotta volontari elaborati dalla Commissione UE.

Devo rifare la DPIA se uso AI?

Probabilmente sì, soprattutto per usi AI con dati personali. AI Act articolo 27 richiede Fundamental Rights Impact Assessment per deployer di sistemi alto rischio in determinati casi. Per usi AI generici resta GDPR articolo 35 (DPIA) quando il trattamento presenta rischi elevati. La best practice: aggiornare DPIA esistente integrando valutazione AI specifica.

GPAI con rischio sistemico, cosa è?

GPAI con rischio sistemico sono modelli con capacità ad alto impatto: training compute superiore a 10^25 FLOPs, oppure designazione discrezionale Commissione UE basata su capacità del modello. Esempi probabili 2026: GPT-5 full, Claude Opus 4.x, Gemini 2.5 Ultra, Llama 4 Behemoth. Hanno obblighi rinforzati: model evaluation rigorosa, risk assessment sistemico, cybersecurity adeguata, reporting incidenti gravi.

Mi serve un AI Compliance Officer?

Non obbligatorio per legge. Diventa pratica raccomandata in aziende con: (a) sistemi AI alto rischio in deployment, (b) 100+ dipendenti che usano AI quotidianamente, (c) settori regolati (banking, sanità, PA, defense). Tipicamente è figura ibrida con DPO o consulente esterno. Costo tipico Italia: €60-130k RAL interno, oppure €1.500-5.000/mese consulenza esterna.

AI Act vs GDPR: cosa cambia?

AI Act e GDPR sono complementari, non alternativi. GDPR si applica al trattamento di dati personali indipendentemente dalla tecnologia. AI Act si applica ai sistemi AI indipendentemente dal tipo di dati. Per usi AI con dati personali si applicano entrambi. Per dati anonimi o aggregati si applica solo AI Act. Le due normative condividono principi (trasparenza, accountability) ma con focus diverso.

Codici di Condotta: sono obbligatori?

No, sono volontari. La Commissione UE ha promosso Codici di Condotta per GPAI (presentati nel 2025) che permettono ai provider di dimostrare conformità in modo facilitato. Adesione volontaria ma fortemente raccomandata: provider non aderenti devono dimostrare conformità tramite altri mezzi, con maggior onere documentale e più rischio in caso di audit.

Quanto costa essere conformi AI Act per una PMI?

Range tipico per PMI 50-200 dipendenti senza sistemi alto rischio: €10.000-30.000 setup iniziale (audit + formazione + governance) + €5.000-15.000/anno manutenzione (refresh formativo, aggiornamento policy). Per PMI con sistemi alto rischio (HR scoring, credit scoring): €30.000-100.000 setup + €15.000-40.000/anno. ROI: evitare sanzioni + accesso a gare enterprise + riduzione rischio reputazionale.

Da dove inizio se non so nulla di AI Act?

Tre step concreti: (1) leggete la nostra guida AI Act per aziende per orientarvi; (2) compilate la checklist 20 domande per autovalutazione; (3) prenotate una call con noi €240 per gap analysis personalizzata e roadmap actionable.

Iniziamo da una conversazione di un'ora.

Una call di un'ora per capire le priorità della vostra azienda, valutare il livello di maturità AI e definire l'eventuale percorso. Costo: €240, compensato in caso di accettazione del preventivo successivo.

info@prompti.it

Tutte le call si svolgono in videoconferenza, in italiano, inglese o spagnolo.

IT