USA, la bozza di Memorandum sulla regolazione dell’Intelligenza Artificiale

di Maria Bianca Armiento

Il 7 gennaio 2020 l’Office of Science and Technology Policy della Casa Bianca ha pubblicato una proposta di Memorandum su come regolare le attuali applicazioni dell’intelligenza artificiale (Memorandum for the Heads of Executive Departments and Agencies, Guidance for Regulation of Artificial Intelligence Applications), rivolta a tutte le agenzie federali americane[1]. La Guidance si pone in continuità con l’emergente tendenza da parte di alcuni Paesi e delle organizzazioni internazionali di adottare “linee guida” in materia di intelligenza artificiale: si pensi a quelle adottate dall’Unione Europea nell’aprile 2019[2] e dall’OCSE nel maggio 2019[3].

Il Memorandum parte dal presupposto che l’intelligenza artificiale può apportare miglioramenti significativi e diversi benefici alla vita dell’uomo. Lo sviluppo dell’AI è infatti in grado di perseguire diversi obiettivi sociali quali la sicurezza, la giustizia, il welfare e la trasparenza, permettendo al contempo agli Stati Uniti di mantenere il proprio status di leader nel settore. Alla luce dell’enorme importanza dell’intelligenza artificiale, è necessario, da un lato, incoraggiarne l’innovazione e promuovere la fiducia nelle tecnologie e, dall’altro, proteggere «i valori americani». Per questo motivo, il Memorandum prevede che le agenzie federali evitino quanto più possibile approcci regolatori o non-regolatori che possano ostacolare l’innovazione e lo sviluppo dell’intelligenza artificiale. In particolare, sarebbe da evitare un approccio regolatorio di tipo “precauzionale” che renda poi impossibile per i consociati di beneficiare delle potenzialità dell’intelligenza artificiale.

Photo by Timon Studler on Unsplash

Dobbiamo avere fiducia nell’intelligenza artificiale?

Il Memorandum formula dieci principi che le agenzie americane sono tenute a seguire nella loro attività di regolazione dell’intelligenza artificiale.

Significativo è il primo principio, denominato Public Trust in AI. Nel Memorandum si parte dal presupposto che, poiché l’intelligenza artificiale può comportare dei pregiudizi per alcuni diritti fondamentali (la riservatezza, l’autonomia o le libertà personali), è necessario che i consociati ripongano la massima fiducia nell’intelligenza artificiale. A tal fine, l’approccio dei pubblici poteri deve essere quello di promuovere usi dell’intelligenza artificiale che siano affidabili, robusti e meritevoli di fiducia. La public trust rappresenta peraltro una costante del Memorandum ed è alla base anche di tutti gli altri principi. Si pensi, ad esempio, a principi di tipo “tecnicistico” quali il n. 3, Scientific Integrity and Information Quality, e il n. 9, Safety and Security, che possono essere letti congiuntamente. Il primo principio pone l’accento sulla qualità delle informazioni e dei dati impiegati per “addestrare” le macchine intelligenti ed aumentare così la fiducia nell’intelligenza artificiale. Il secondo, invece, evidenzia la necessità di sviluppare sistemi che siano sicuri e protetti: sicurezza e protezione devono caratterizzare l’implementazione dei sistemi di intelligenza artificiale in ogni fase. Ancora, si pensi ai principi “garantistici” di imparzialità e non discriminazione (Fairness and non-discrimination, n. 7) oppure di disclosure e trasparenza (disclosure and transparency, n. 8) che devono caratterizzare le decisioni regolatorie. Al fine di accrescere la fiducia nell’intelligenza artificiale, le agenzie sono tenute a verificare in che modo la tecnologia possa ridurre gli effetti discriminatori o i bias delle decisioni umane e a considerare quali aspetti dell’intelligenza artificiale debbano essere resi pubblici o trasparenti. I pubblici poteri dovrebbero poi garantire ai cittadini di poter prendere parte a tutte le fasi del processo regolatorio dell’intelligenza artificiale (Public partecipation, n. 2). I restanti principi vertono invece sulle modalità con cui le agenzie dovrebbero regolare o meno l’intelligenza artificiale. In particolare, l’approccio da seguire dovrebbe essere improntato all’analisi e alla gestione del rischio: bisognerebbe determinare quali sono i rischi accettabili e quali no, nonché renderli trasparenti (Risk assessment and management, n. 4). Ancora, si rende necessario procedere a una valutazione dei costi e dei benefici dell’intelligenza artificiale (Benefits and costs, n. 5) e adottare un approccio quanto più flessibile rispetto agli aggiornamenti e ai cambiamenti che caratterizzano l’intelligenza artificiale (Flexibility, n. 6). Da ultimo, si richiede il coordinamento tra le varie agenzie al fine di condividere informazioni ed esperienze relative alle politiche in materia di intelligenza artificiale (Interagency Coordination, n. 10).

Come (non) regolare l’intelligenza artificiale

Dopo aver enunciato i 10 principi, il Memorandum sembra supportare un approccio di tipo non-regolatorio da parte delle agenzie rispetto all’intelligenza artificiale. Nello specifico, alle agenzie viene raccomandato di indicare linee guida specifiche e “settorializzate” per l’intelligenza artificiale (sector-specific policy guidance or frameworks), oppure di procedere a progetti pilota o esperimenti (ad esempio, regulatory sandboxes), nonché di incoraggiare la creazione tra i privati di voluntary consensus standards. Inoltre, in ossequio all’Executive Order n. 13859/2019 on Maintaining American Leadership in Artificial Intelligence, le agenzie dovrebbero poi cercare di ridurre le barriere all’impiego dell’intelligenza artificiale, proteggendo al contempo la libertà personale e i diritti fondamentali dei cittadini americani. Questo obiettivo verrebbe realizzato tramite, ad esempio, l’accesso ai dati pubblici quando è necessario garantire la trasparenza; oppure attraverso la comunicazione al pubblico di informazioni relative a rischi e benefici dell’intelligenza artificiale. Ancora, dovrebbe essere incoraggiata la cooperazione tra le agenzie federali e i privati per la creazione di standards relativi alla sicurezza, alla privacy, all’affidabilità dei sistemi di intelligenza artificiale. Infine, sarebbe da promuovere una cooperazione internazionale in tema.

Nell’appendice A del Memorandum, inoltre, sono contenute alcune indicazioni per le agenzie che decidano di regolare l’utilizzo dell’intelligenza artificiale. Ad esempio, si dovrebbe svolgere analisi di impatto della regolazione, incoraggiare la consultazione degli stakeholders, valutare i rischi relativi a possibili comportamenti anticoncorrenziali da parte delle imprese e saper gestire i rischi in modo adeguato.

Alcune considerazioni conclusive

In conclusione, dall’analisi della Guidance emergono alcuni dati interessanti. Innanzitutto, è opportuno sottolineare che l’approccio all’intelligenza artificiale seguito dall’amministrazione Trump, opportunamente definito di tipo «light-touch», lascia alcuni spazi per l’intervento pubblico al fine di preservare i diritti fondamentali dei cittadini e la loro libertà[4]. Questo perché la Guidance parte dall’assunto che l’intelligenza artificiale è intrinsecamente benefica e, dunque, deve essere quanto più possibile incoraggiata e “lasciata libera” di svilupparsi in autonomia, intervenendo solo dove i diritti fondamentali dei cittadini siano in pericolo (si pensi, ad esempio, alla riservatezza). Inoltre, l’approccio americano sembra distaccarsi da quello europeo che pone l’uomo. “Protagonista” delle linee guida americane è infatti la stessa intelligenza artificiale e non il cittadino. Si pensi, ad esempio, alle previsioni in materia di intervento umano, che deve essere comunque garantito, previste sia dall’Unione Europea, sia dall’OCSE. Questa componente, infatti, sembra mancare nelle linee guida volute dall’amministrazione Trump, che pongono l’accento, piuttosto, sulle potenzialità dell’intelligenza artificiale e sui suoi benefici per la comunità, più che sui suoi effetti negativi. Il tema della fiducia è presente anche nei documenti dell’Unione Europea e dell’OCSE, ma declinato in termini diversi: centro diviene il cittadino, che per avere fiducia nell’intelligenza artificiale deve potersi “confrontare” con macchine sicure e affidabili, che siano trasparenti, che non violino la sua privacy e non lo discriminino.  

Per approfondire

White House releases ‘first of its kind’ set of binding AI principles for agency regulators, by Jory Heckman

Trump Administration Outlines Approach to Regulating AI, by Dan Bosch

New White House AI principles reach beyond economic and security considerations, by Jack Karsten

Will the White House’s AI Policies Lead to Permissionless Innovation?, by Abigail Slater


[1] La Guida è stata adottata a seguito dell’Executive Order “Maintaining American Leadership in Artificial Intelligence” n. 13859, febbraio 2019.

[2] Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato delle Regioni «Building Trust in Human-Centric Artificial Intelligence», 8 aprile 2019, COM(2019), 168 final.

[3] OCSE, Recommendation of the Council on Artificial Intelligence, 22 maggio 2019.

[4] Così, ad esempio, D. Bosch, Trump Administration Outlines Approach to Regulating AI, in American Action Forum, 22 gennaio 2020.