AI, regolamentazioni e rischi

AI, regolamentazioni e rischi

“Evitare di inondare il mercato con un numero praticamente illimitato di immagini contraffatte pronto a infliggere danni permanenti al mercato dell’arte e degli artisti”. È la motivazione con la quale Sarah Andersen, Kelly McKernan e Karla Ortiz, attraverso il loro avvocato Matthew Butterick, hanno fatto causa a Stability AI, creatrice di Stable Diffusion, algoritmo di intelligenza artificiale (AI) in grado di generare foto, dipinti e illustrazioni partendo da una breve richiesta testuale, al concorrente Midjourney, oltre che a DeviantArt, un forum artistico che ospita le opere generate artificialmente e che recentemente ha creato a sua volta l’altro algoritmo DreamUp. La mancanza di una regolamentazione specifica ha permesso di prelevare dalla Rete miliardi di immagini senza il consenso dei loro autori. Secondo un’analisi indipendente basata su un campione di 12 milioni di set di dati, per esempio, LAION-5B, un pacchetto di oltre 5 miliardi di coppie di immagini e tag di testo prelevati dal web pubblico gestito da un’organizzazione no-profit con sede in Germania, utilizzato da Stable Diffusion, contiene molti contenuti protetti da copyright: quasi la metà delle immagini sono state prese da soli 100 domìni. Il più conosciuto è Pinterest, che costituisce circa l’8,5% delle immagini campionate; ci sono poi i siti noti per l’hosting di contenuti generati dagli utenti (come Flickr, DeviantArt e Tumblr) e siti di foto stock come Getty Images e Shutterstock. Si tratta di fonti che contengono contenuti protetti da copyright, siano essi di artisti indipendenti o fotografi professionisti. 

Più in generale, il problema della regolamentazione dell’AI è ormai di cruciale importanza per la stessa democrazia. Ne è consapevole la stessa Unione Europea, che ad aprile 2021 ha presentato la sua Proposta per la regolamentazione dell’intelligenza artificiale che contiene una classificazione per livelli di rischio degli algoritmi di intelligenza artificiale. Ma anche la messa al bando di alcuni di essi, tra cui i sistemi di social scoring che catalogano le persone in base ai loro comportamenti o le tecnologie in grado di influenzarne in maniera subliminale il comportamento. Un caso che ha fatto scuola a tal proposito è quello avvenuto in Olanda, dove il governo guidato da Mark Rutte si è dimesso dopo che è emerso che le autorità fiscali del Paese hanno perseguito ingiustamente migliaia di famiglie innocenti (secondo la Bbc circa 26mila tra il 2012 e il 2019) per frode ai sussidi per l’assistenza all’infanzia. Famiglie si sono ritrovate in gravi difficoltà finanziarie, fino a perdere il lavoro, la casa, le relazioni con i propri figli e partner: insomma, in molti casi famiglie rovinate. Molte di queste erano famiglie di immigrati, che vivevano in quartieri poveri.  

Responsabilità, frodi e conseguenze

“Sono stati commessi errori a tutti i livelli che hanno portato a una grande ingiustizia per migliaia di famiglie. Persone innocenti sono state criminalizzate e le loro vite distrutte. Questo governo se n’è assunto la piena responsabilità” ha affermato Rutte. Ma una parte di responsabilità sarebbe proprio dell’intelligenza artificiale, o meglio di SyRI (System Risk Indicator), un sistema di analisi di Big Data ideato nel 2014 dal Ministero per gli Affari Sociali e il Lavoro e usato per valutare situazioni di rischio sociale e per individuare le frodi assistenziali. Un modello di calcolo del rischio giudicato illegale per violazione del GDPR e dei diritti umani nel febbraio 2020, con una sentenza della Corte dell’Aia. Il sistema veniva attivato quando qualche agenzia governativa sospettava una frode in merito a sussidi, indennità o tasse. I comuni, il Ministero degli Affari Sociali e del Lavoro e l’autorità fiscale avevano accesso al sistema, che poteva decidere quali cittadini del quartiere erano soggetti rischiosi, e che quindi dovevano essere ulteriormente investigati. Tra i dati in dotazione al sistema SyRI per valutare se un individuo potesse commettere questo tipo di frodi vi erano il livello di istruzione, la situazione lavorativa e abitativa, i debiti.  

Secondo Jelle Klaas, avvocato del Comitato dei giuristi per i diritti umani dei Paesi Bassi e responsabile del processo, “Come molti di questi sistemi, SyRI ha esordito con un approccio molto negativo – il presupposto che probabilmente le persone stessero commettendo delle frodi”. Almeno 11mila persone erano state selezionate per un controllo approfondito a causa della loro etnia o della loro doppia nazionalità, alimentando accuse di razzismo sistemico di lunga data nei Paesi Bassi. Il timore, quindi, è quello che SyRI abbia giocato un ruolo fondamentale nell’identificazione di sospetti di frode nell’ambito del welfare negli anni precedenti alla sentenza, periodo di tempo che coincide esattamente con quello indicato nel rapporto che ha fatto nascere lo scandalo. La vicenda olandese fa nascere il legittimo sospetto che l’intelligenza artificiale non sia poi così intelligente. O meglio, che la direzione impressa al suo utilizzo da parte della volontà umana determini, molto semplicemente, il risultato della sua azione: se la volontà è discriminatoria, l’AI non potrà che prendere decisioni discriminatorie, con conseguenze anche molto gravi, e magari come accaduto in Olanda senza che famiglie accusate ingiustamente abbiano la possibilità di difendersi da un verdetto scritto da un algoritmo, a sua volta scritto da mani piene di pregiudizi.  

Regolamentazioni e divieti

L’approvazione del regolamento dell’Unione europea sull’intelligenza artificiale è prevista entro il 2023. Ma su molti punti dell’Artificial Intelligence Act (Ai Act) ancora non c’è accordo. Il Consiglio europeo ha idee diverse rispetto a quelle del Parlamento sul riconoscimento facciale in tempo reale. Un altro punto controverso è quello che riguarda i sistemi di identificazione delle emozioni, su cui nell’Europarlamento ci sono posizioni contrastanti. I sistemi di sorveglianza che identificano le persone mentre camminano in luoghi pubblici, per esempio quando salgono le scale di una metropolitana, sono proibiti nel regolamento proposto dalla Commissione. Ma sono previste eccezioni – come la lotta al terrorismo e la ricerca di persone scomparse – che permetterebbero a un giudice di attivarli. Il grosso dei gruppi politici dell’Europarlamento è in linea con la campagna Reclaim your face per un bando totale alla sorveglianza di massa, ma il Consiglio ha aggiunto la “sicurezza nazionale” tra le eccezioni per il suo utilizzo. Un nodo che non sarà semplice dipanare, senza dimenticare che l’Iran ha annunciato di utilizzare il riconoscimento facciale per segnalare le donne che non indossano correttamente il velo. L’utilizzo di questa tecnologia su larga scala in Europa, porterebbe le aziende a rafforzarne la produzione e questo avrebbe un impatto anche su regimi autoritari fuori dal continente.  

Per quanto riguarda l’analisi biometrica dei movimenti per l’identificazione delle emozioni, non è vietata dall’Ai Act, ma comunque definita come una tecnologia “a rischio”. I sistemi che usano questa applicazione dell’AI sono elencati in un allegato al regolamento che dovrà essere periodicamente aggiornato, e sono soggetti a specifiche procedure di certificazione. Una parte dell’Europarlamento ritiene che il riconoscimento delle emozioni andrebbe vietato con la sola eccezione della ricerca medica, ma Ppe e conservatori sono contrari a vietare queste tecnologie, perché ritengono che possano essere utilizzate in modo proficuo per la sicurezza. Tra le altre tecnologie basate sull’AI maggiormente controverse ci sono i cosiddetti poligrafi, sorta di macchine della verità. Il sistema Iborder è basato su un algoritmo che analizza i micro-movimenti del viso; è stato sperimentato ai confini dell’Europa per identificare sospetti terroristi. C’è poi il capitolo della scrittura di testi. Nella proposta dell’Europarlamento, i contenuti generati dall’intelligenza artificiale che sembrano scritti da una persona, così come le immagini deepfake, sono soggetti a obbligo di trasparenza verso gli utenti. Si obbliga cioè a informare gli utenti, durante il momento dell’esposizione al contenuto (chatbot o deepfake) che è stato generato da un algoritmo. Ma questo obbligo di trasparenza è previsto nella bozza dell’Europarlamento, non nella posizione del Consiglio. Ma se dovesse passare la posizione del Parlamento, chi sarà in grado di controllare il rispetto di questa norma?… 

R.V.

Designed by IdLab – Developed by S4Studio