Il Digital Omnibus è la nuova proposta della Commissione europea pensata per aggiornare e semplificare le principali norme digitali UE. Tra le modifiche più rilevanti spicca l’intervento sull’AI Act, che chiarisce e amplia la possibilità di utilizzare categorie particolari di dati personali nei sistemi di intelligenza artificiale per finalità di bias detection e bias mitigation, cioè per individuare e correggere possibili discriminazioni algoritmiche.
I dati interessati sono quelli tutelati dall’articolo 9 GDPR: informazioni su origine razziale o etnica, stato di salute, convinzioni religiose, opinioni politiche e altri dati sensibili. Con l’introduzione del nuovo articolo 4a dell’AI Act, il Digital Omnibus consente – in via eccezionale – il trattamento di questi dati quando è necessario per:
Non del tutto. Una previsione simile esiste già nell’articolo 10 dell’AI Act, ma è limitata ai soli sistemi di IA ad alto rischio. Il problema è che i bias non emergono soltanto in questa categoria: anche sistemi non classificati come ad alto rischio possono produrre effetti discriminatori su gruppi protetti.
Per questo motivo, con il Digital Omnibus il legislatore europeo ha deciso di:
Dal punto di vista della protezione dei dati personali, il trattamento di queste categorie particolari trova fondamento nell’articolo 9, paragrafo 2, lettera g del GDPR, che consente l’uso di dati sensibili quando:
Le attività di bias detection e bias mitigation sui sistemi di IA rientrano in questo quadro, perché mirano proprio a prevenire e ridurre le discriminazioni che possono colpire determinate categorie di persone (ad esempio per origine etnica, religione o salute).
L’uso di dati particolari nei sistemi di IA non è affatto illimitato. Il Digital Omnibus e il nuovo articolo 4a dell’AI Act prevedono che:
Un punto fondamentale in ottica compliance GDPR è che questi dati non possono essere riutilizzati per altre finalità, ad esempio:
In sintesi, il Digital Omnibus non introduce un principio completamente nuovo, ma amplia e generalizza una tutela già prevista dall’AI Act per i sistemi di IA ad alto rischio. La novità sta nel fatto che:
Per chi sviluppa o utilizza sistemi di intelligenza artificiale nell’Unione europea, questo significa dover progettare processi e misure di governance dei dati che consentano di: