Analisi, scenari, inchieste, idee per costruire l'Italia del futuro

Intelligenza artificiale: ecco le regole più utili per metterla a regime | L’intervento di Marcello Clarich, ordinario di diritto Amministrativo alla Sapienza Università di Roma

Anche per l’intelligenza artificiale (AI) è scoccata l’ora della regolamentazione.

L’Unione Europea ha fatto da battistrada con la proposta di regolamento che verrà approvato nel 2024.

Ma gli Stati Uniti hanno bruciato tempi con l’Executive Order del presidente Joe Biden del 30 ottobre che prevede una serie articolata di misure volte a scongiurare i rischi derivanti dall’uso di algoritmi sofisticati (di machine learning).

L’AI è destinata a influire sempre più sulla vita delle persone, sulle attività economiche, sull’opinione pubblica e, in ultima analisi, sulla stessa democrazia.

Secondo un portavoce della Casa Bianca si tratta del più robusto complesso di azioni intraprese nel mondo per garantire “safety, security and trust” dei sistemi di AI.

La ragione di questo attivismo legislativo è che l’autodisciplina dei privati che le sviluppano e le applicano non basta.

Peraltro, anche nel campo dell’AI i principali gruppi a livello mondiale si sono impegnati di recente su base volontaria a osservare una serie di regole che incorporano principi etici da tempo elaborati da commissioni di esperti di vari paesi.

Già nel 2019, per esempio, la Commissione europea ha pubblicato gli “Orientamenti etici per una IA affidabile” elaborati da esperti di alto livello.

L’obiettivo è garantire che l’AI resti antropocentrica e coerente con il rispetto della dignità umana, della libertà, dell’eguaglianza e degli altri valori fondanti l’Unione europea.

Ma troppi sono gli interessi pubblici in gioco per poter confidare sull’autoregolazione privata o su strumenti di soft law (orientamenti, raccomandazioni) elaborati da governi e agenzie.

E l’Executive Order di Biden ricorre non a caso ai poteri eccezionali del Defense Production Act approvato nel 1950 all’epoca della guerra in Corea utilizzati negli anni per fronteggiare le varie emergenze, da ultimo quella pandemica.

L’Executive Order, un corpo normativo di ben 37 pagine, impone alle imprese che sviluppano modelli di AI potenzialmente rischiosi per la sicurezza nazionale ed economica o per la salute pubblica (cioè quasi tutti) di condividere tutte le informazioni con il governo già in fase di sperimentazione e di comunicare i risultati dei test prima di renderli pubblici e di utilizzarli.

Si istituisce così nella sostanza un sistema di autorizzazione preventiva.

Al National Institute of Standards and Technology viene richiesto di elaborare standard per testare i modelli di AI sotto il profilo della sicurezza (cosiddetto red-team testing).

Il Dipartimento per il Commercio dovrà elaborare regole per autenticare il contenuto di messaggi in modo che sia sempre chiaro ed esplicito il fatto che essi sono generati da AI.

Le agenzie federali sono invitate a rafforzare i presidi per tutelare i consumatori e gli utenti da frodi favorite dall’AI.

Per proteggere meglio la privacy l’Executive Order invita il Congresso ad approvare su basi bipartisan norme legislative specifiche.

Contro il rischio di discriminazioni e di pregiudizi e altri tipi di abuso in ambiti come la giustizia, la sanità, l’housing sociale, le agenzie federali e il Dipartimento di giustizia dovranno attrezzarsi per monitorare e perseguire violazioni dei diritti civili correlate all’AI.

Dovranno essere sviluppati principi e best practices per mitigare i danni e massimizzare i benefici dell’AI che, come si prevede, avrà effetti dirompenti su molte attività lavorative.

L’Executive Order non pone solo regole stringenti, ma prevede anche misure per promuovere l’innovazione e la concorrenza.

Per esempio, sostiene la ricerca con borse di studio e con l’accesso agevolato dei ricercatori e degli studenti a risorse e dati di AI.

Impegna risorse e garantisce assistenza tecnica alle piccole imprese che intendano immettere sul mercato applicazioni innovative di AI.

Richiede alle agenzie federali di attrezzarsi per utilizzare l’AI per le proprie funzioni.

A questo fine dovranno nominare un chief artificial intelligence officer e potranno assumere personale con le conoscenze e le professionalità adeguate.

SCARICA IL PDF DELL'ARTICOLO

[bws_pdfprint display=’pdf’]

Iscriviti alla Newsletter

Ricevi gli ultimi articoli di Riparte l’Italia via email. Puoi cancellarti in qualsiasi momento.

Questo sito utilizza i cookie per migliorare l'esperienza utente.