Chi deve fare cosa, entro quando. Deployer, provider, livelli di rischio: tutto quello che serve sapere — con un tool per capire subito la tua situazione.
L'EU AI Act non riguarda solo chi sviluppa intelligenza artificiale. Riguarda chiunque la usi in modo professionale — e questo include la maggior parte delle aziende italiane che adottano software con componenti AI. Il punto di partenza è capire il proprio ruolo e il livello di rischio dei sistemi in uso.
La distinzione è fondamentale: gli obblighi variano significativamente in base al ruolo che hai nella catena AI.
Progetta, sviluppa e immette sul mercato un sistema AI. Ha gli obblighi più pesanti: documentazione tecnica completa, test di conformità, registrazione nel database EU, responsabilità primaria.
⚠Se personalizzi un modello (fine-tuning) per un caso d'uso specifico, puoi essere considerato provider anche se non hai sviluppato il modello base.
Utilizza un sistema AI già esistente nel proprio contesto operativo. Obblighi meno estesi ma concreti: supervisione umana, formazione del personale, gestione del rischio, trasparenza verso gli utenti finali.
⚠La maggior parte delle PMI italiane è deployer, non provider — ma questo non significa essere esclusi dagli obblighi.
L'AI Act classifica i sistemi AI in quattro categorie. Il livello di rischio determina quali obblighi si applicano.
Sistemi che manipolano il comportamento umano, sfruttano vulnerabilità, implementano social scoring governativo o usano biometria in tempo reale in spazi pubblici. In vigore da febbraio 2025.
Sistemi usati in settori critici che impattano direttamente su diritti, salute, sicurezza delle persone. Risk management, documentazione, supervisione umana, audit trail obbligatori per deployer e provider.
Sistemi che interagiscono con utenti umani (chatbot, deepfake, generazione di contenuti). Obbligo principale: dichiarare che l'utente sta interagendo con un sistema AI.
La maggior parte dei sistemi AI ricade qui: filtri spam, raccomandazioni di contenuti, videogiochi AI. Nessun obbligo obbligatorio, ma codici di condotta volontari sono incoraggiati.
Gli obblighi variano in base al ruolo e al livello di rischio del sistema. Questa tabella sintetizza le principali richieste per i sistemi ad alto rischio.
| Obbligo | Provider | Deployer | Scadenza |
|---|---|---|---|
| AI Literacy — formare il personale che usa AI | ✓ | ✓ | Feb 2025 ✅ |
| Sistema di gestione del rischio — identificare e mitigare i rischi | ✓ | parziale | Ago 2026 ⚠ï¸ |
| Documentazione tecnica — specifiche, dati, test | ✓ | — | Ago 2026 ⚠ï¸ |
| Supervisione umana — meccanismi di override e controllo | ✓ | ✓ | Ago 2026 ⚠ï¸ |
| Log e audit trail — tracciabilità delle decisioni | ✓ | ✓ | Ago 2026 ⚠ï¸ |
| Trasparenza verso gli utenti — informare chi è soggetto a decisioni AI | ✓ | ✓ | Ago 2026 ⚠ï¸ |
| Registrazione EU database — per sistemi ad alto rischio | ✓ | alcuni casi | Ago 2026 ⚠ï¸ |
| Notifica incidenti gravi — segnalazione alle autorità | ✓ | ✓ | Ago 2026 ⚠ï¸ |
6 domande. 2 minuti. Capisci subito se sei soggetto agli obblighi e quali.
Questa autovalutazione ha scopo orientativo e non costituisce parere legale. Per un'analisi completa, prenota una call gratuita.