Sanzioni e limiti per i sistemi di intelligenza artificiale

Sanzioni e limiti per i sistemi di intelligenza artificiale

Ridurre al minimo i rischi per la sicurezza e i diritti fondamentali che potrebbero essere generati da sistemi di intelligenza artificiale attraverso il concetto della “piramide di rischio” ascendente (che va dal rischio basso/medio a quello elevato, fino al rischio inaccettabile) per classificare, nell’ambito dell’Ia, una serie di casi di pratiche generali e di impieghi specifici in determinati settori a cui ricollegare limitazioni o divieti. E’ uno degli obiettivi della proposta di regolamento Com(2021)206, in questi giorni in discussione al Senato. Il testo reca una serie di norme armonizzate applicabili alla progettazione, allo sviluppo e all’utilizzo di determinati sistemi di intelligenza artificiale ad alto rischio, così come restrizioni in relazione a determinati usi, tra i quali in particolare i sistemi di identificazione biometrica remota.

I divieti, nel dettaglio, riguardano una serie limitata di utilizzi dell’Ia ritenuti incompatibili con i valori dell’Unione, in particolare quelli che si sostanziano nei diritti fondamentali contenuti nella Carta europea. Si tratta in particolare di: divieti concernenti i sistemi di Ia che distorcono il comportamento di una persona attraverso tecniche subliminali o sfruttando vulnerabilità specifiche in modi che causano o sono suscettibili di causare danni fisici o psicologici e divieti concernenti l’attribuzione di un punteggio sociale (social scoring) con finalità generali mediante sistemi di Ia da parte di autorità pubbliche. Il regime specifico di divieto si estende a determinati sistemi di identificazione biometrica remota (ad esempio strumenti di riconoscimento facciale per controllare i passanti in spazi pubblici), salvo casi eccezionalmente autorizzati dalla legge riconducibili in linea di massima ad attività di prevenzione e contrasto del crimine, in ogni caso soggetti a garanzie specifiche. Una seconda categoria di sistemi di Ia, pur consentiti ma classificati ad alto rischio, deve rispettare un insieme di requisiti specificamente progettati, che comprendono “l’utilizzo di set di dati di alta qualità, l’istituzione di una documentazione adeguata per migliorare la tracciabilità, la condivisione di informazioni adeguate con l’utente, la progettazione e l’attuazione di misure adeguate di sorveglianza umana e il conseguimento degli standard più elevati in termini di robustezza, sicurezza, cybersicurezza e precisione”, come si legge nella relazione prodotta dal Parlamento sul regolamento.

Il sistema di sanzioni delineato (articolo 71) prevede per le violazioni più gravi del regolamento (ad esempio, inosservanza del divieto delle pratiche di intelligenza artificiale) sanzioni amministrative pecuniarie fino a 30 milioni di euro o, se l’autore del reato è una società, fino al 6 per cento del fatturato mondiale totale annuo dell’esercizio precedente, se superiore. Per inosservanze ritenute meno gravi le soglie scendono a 20 milioni di euro o al 4 per cento del fatturato. La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 10 milioni o, se l’autore del reato è una società, fino al 2 per cento del fatturato mondiale totale annuo dell’esercizio precedente, se superiore.

Iscriviti alla newsletter

Inserisci il tuo indirizzo email per ricevere aggiornamenti da Opificiumagazine.it

Grazie! Ti sei iscritto alla newsletter.

Pin It on Pinterest