In palio il futuro della (propria) economia: L’Europa risponde con l’AIA
di Roberto Tomasin – GO-SPA CONSULTING SRL
La competizione tra aree d’influenza delle nazioni per lo sviluppo -e gli utilizzi- dell’Intelligenza Artificiale (IA o AI) è in continuo divenire, si pensava senza grandi colpi di scena. La gara vede gli Stati Uniti stabilmente in testa, tallonati dalla Cina che si è posizionata, forse troppo presto, già nella corsia di sorpasso; mentre l’Europa arranca in terza posizione, rallentata anche delle normative GDPR (General Data Protection Regulation). Oggi più di 30 nazioni nel mondo hanno creato delle strategie nazionali per modellare il futuro della tecnologia, nella prospettiva di migliorare la propria competitività economica. Strategie che prendono in esame anche come impostare correttamente il necessario cambiamento sociale e culturale. L’ascesa dell’IA solleva inevitabilmente le domande su quanto le tecnologie impatteranno sulle imprese, sull’organizzazione del lavoro, sull’economia in generale e, in definitiva, sulle persone.
Certamente l’intelligenza artificiale, e lo sviluppo continuo degli algoritmi, offre già adesso dei vantaggi e opportunità sostanziali per le aziende: nell’aumento della produttività, l’automazione su vasta scala nella personalizzazione dei prodotti per il singolo consumatore, anche in chiave predittiva raffinando esponenzialmente la gestione dei dati che si rendono, via via, disponibili.
Tuttavia, l’aumento dell’efficienza e della produttività promesso dall’IA presenta anche grandi sfide. In particolare le aziende devono attrezzarsi nel ricercare e trattenere talenti qualificati per inserirli armonicamente nei processi aziendali e produttivi. Inoltre, bisogna considerare che la pandemia in atto della Covid 19 ha accelerato i processi di trasformazione già presenti dal punto di vista occupazionale, degli investimenti e nelle attività aziendali. Si pensi al ritorno in patria delle attività produttive –reshoring– nel dover garantire al consumatore la disponibilità del prodotto rispetto al basso prezzo, ma introvabile…ma anche alla gestione dei lavoratori in smart working e la conseguente tutela delle aree intime e personali. In questo primo quadro d’insieme interviene, il 21 aprile scorso la Commissione Europea creando, di fatto, un nuovo terreno di gioco. Possiamo definirlo un colpo di scena che, forse, potrebbe influire sui piazzamenti della competizione.
Nel particolare si tratta di un progetto di legge per regolamentare l’Intelligenza Artificiale nell’Unione Europea. L’Artificial Intelligence Act (AIA) che si distingue per un’ampia definizione di sistemi di intelligenza artificiale e l’imposizione di un’ampia documentazione, formazione e requisiti di monitoraggio sugli strumenti di intelligenza artificiale che rientrano nella sua area di competenza.
Qualsiasi azienda di qualsiasi nazione che voglia approcciare il mercato dell’UE e che sviluppa o vuole adottare software basato sull’apprendimento automatico, dovrà sottostare all’AIA. L’impatto normativo investirà notevolmente i servizi economici e finanziari (fintech), l’istruzione, le forze dell’ordine, i dispositivi medici, l’industria automobilistica, macchinari, giocattoli, i sistemi industriali e le risorse umane. Dando alcune indicazioni dal punto di vista pratico e per comprendere meglio, l’AIA definisce l’intelligenza artificiale in generale come una suite di framework di sviluppo software, comprendente l’apprendimento automatico, i sistemi esperti e logici e gli approcci bayesiani o statistici. Distinguendo tre categorie: usi dell’IA vietati, usi dell’IA ad alto rischio e sistemi a rischio limitato.
Verranno vietati i sistemi di intelligenza artificiale che svolgono anche solamente una di queste operazioni:
- l’utilizzo di tecniche subliminali per manipolare il comportamento di una persona in modo tale da causare danni psicologici o fisici;
- sfruttare le vulnerabilità di qualsiasi gruppo di persone a causa della loro età, disabilità fisica o mentale in un modo che può causare danni psicologici o fisici;
- consentire ai governi di utilizzare il “punteggio di credito sociale” generico;
- fornire l’identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle forze dell’ordine, tranne in alcuni scenari di sicurezza pubblica a tempo limitato.
Sono considerati “ad alto rischio” per la sicurezza o i diritti fondamentali, gli utilizzi di IA nelle:
- infrastrutture critiche, dove il sistema di intelligenza artificiale potrebbe mettere a rischio la vita e la salute delle persone;
- negli ambiti educativi e professionali in cui il sistema di IA potrebbe determinare l’accesso all’istruzione o alla formazione professionale;
- nel lavoro, gestione dei lavoratori e lavoro autonomo;
- nei servizi essenziali privati e pubblici, compreso l’accesso a servizi finanziari come i sistemi di credit scoring;
- per le Forze dell’ordine;
- nei monitoraggi migratori, asilo e controllo delle frontiere, compresa la verifica dell’autenticità dei documenti di viaggio;
- nell’amministrazione della giustizia.
Questo per offrirvi un primo elenco informativo. Nella consapevolezza che la Commissione potrà sempre ampliare queste indicazioni attraverso un processo amministrativo. La Commissione potrà intervenire sui futuri prodotti di intelligenza artificiale ad alto rischio per la salute, la sicurezza e i diritti fondamentali, oltre che potenzialmente in grado di incidere su una “pluralità di persone” e sull’incapacità degli utenti finali di rinunciare a un risultato.
Per i prodotti e i servizi di intelligenza artificiale disciplinati dalla legislazione esistente sulla sicurezza dei prodotti, come automobili, aviazione, macchinari, dispositivi medici e giocattoli, i requisiti della legge rientreranno nelle strutture di valutazione della conformità di terze parti esistenti e nei quadri normativi già applicabili. In generale, qualsiasi organo di vigilanza o legislazione sia responsabile dell’attività che fornisce un servizio di IA regolamentato sovrintenderà all’AIA.
Ad esempio, una società di servizi finanziari che vorrà utilizzare strumenti di intelligenza artificiale per la valutazione del rischio di credito continuerà a essere controllata dalle competenti autorità di vigilanza finanziaria secondo l’attuale struttura del codice del mercato unico dell’UE. Per quanto riguarda le sanzioni si prevede una multa fino a 30 milioni di euro o il 6% del fatturato annuo su scala mondiale. Pensate ad esempio ai nostri dati gestiti dalla IA delle FAAMG (Facebook, Apple, Amazon, Microsoft e Google).
La legge non è ancora in “costruzione” nel Parlamento europeo, dovendo anche sottostare al vaglio del Consiglio dei Ministri. Una volta approvata sarà oggetto d’implementazione per due anni. AIA rappresenta un importante opportunità per ripristinare la qualità del vivere democratico ponendo al centro il rispetto della persona, come il rispetto dei fattori ambientali e sociali. Un approccio di governance che prende l’abbrivio dagli aspetti normativi ma che si offre come approccio globale, in termini di visione, alla corretta gestione dello sviluppo dell’Intelligenza Artificiale.