L’algoretica. Uomo o macchina?
Da oltre trent’anni il digitale si è frapposto sempre più velocemente ed intensamente nelle nostre vite, nelle relazioni, nel modo di stare al mondo. La nostra esistenza oggi è mediata incessantemente da strumenti digitali. Il cellulare, che regna nelle borsette e nelle tasche degli abitanti della terra, ne è la prova certa, non più usato unicamente per telefonare. Tutti i servizi della pubblica amministrazione nel nostro paese ad esempio oramai passano attraverso gli smartphone o altri apparecchi informatici. Tornando indietro di qualche anno non avremmo immaginato (o forse sì se appassionati di fantascienza) che sarebbero entrati nel lessico comune termini anglosassoni o acronimi quali spid, dad, home banking, smartworking e che avremmo dovuto, a volte forzatamente, convivere con le attività a cui danno il nome. Le odierne nonnine agitate a richiedere lo spid alla Posta ne sono la plastica rappresentazione.
Il digitale oggi rappresenta il grande strato intermedio nella società, plurale e complesso, formato da diversi attori che stanno generando sia soluzioni alle nostre vite (leggasi Pandemia) sia problemi sempre più divisivi nel diritto, nell’economia, nella geopolitica e soprattutto nell’etica.
Perché la vera domanda è: chi tiene le redini di questo massivo e incontrollato progresso tecnologico?
Il dibattito sull’etica dell’intelligenza artificiale e dell’uso degli algoritmi, utilizzati nella finanza, nel marketing, nella medicina e persino nella giustizia si intensifica giornalmente a tutti i livelli. Molti sono i sospetti a causa dei pochi limiti e della totale assenza di regole nella loro utilizzazione.
A livello politico la Commissione Europea ha presentato un quadro giuridico per regolare l’uso dell’intelligenza artificiale nell’Unione. Si tratta di una proposta che verrà valutata dal Consiglio d’Europa e dal Parlamento nei prossimi due anni e diventerà Regolamento, ma non prima del 2023. Da quel momento, ciascuno degli stati membri dovrà adeguare le proprie leggi nazionali per rispettarne i contenuti.
La proposta mette al centro la persona, classificando l’impatto delle tecnologie su di essa, considerando tre livelli di rischio: basso, medio e alto, e una quarta categoria definita di “rischio inaccettabile”, che contiene le applicazioni vietate. Tra queste ci sono i sistemi di social scoring, quegli algoritmi che raccolgono i dati digitali dei cittadini (per esempio i loro acquisti online) e li usano per calcolare un punteggio di affidabilità che può influenzare l’accesso all’istruzione o a strumenti di sostegno al reddito. Le altre due applicazioni che diventerebbero illegali se la proposta venisse accettata così com’è, sono quelle che manipolano i comportamenti delle persone sfruttando le loro vulnerabilità, soprattutto in campo politico, e l’utilizzo di sistemi di riconoscimento facciale in luoghi pubblici da parte delle forze dell’ordine.
Uno dei maggiori aspetti critici ad esempio si insidia nelle applicazioni ad alto rischio dei sistemi di prevenzione del crimine e della immigrazione irregolare, nel cui utilizzo assai poco regolamentato vi è il serio rischio di “bypassare” alcuni dei principi fondamentali della democrazia, quello di innocenza e non discriminazione.
Agli algoritrmi decisionali di valutazione delle macchine sul diniego di asilo politico basato su parametri pre definiti, per esempio, deve necessariamente essere inserita la supervisione umana come ultima istanza per chi ne subisce un esito negativo, una specie di grado di appello che possa prevedere la revedibilità della decisione, senza tralasciare l’importanza della trasparenza di tutto il procedimento.
La decisione della Commissione di bandire questi sistemi sembra quindi rispondere alle richieste di tante organizzazioni e attivisti, ma è stata criticata perché prevede delle eccezioni, sia nell’utilizzo da parte delle istituzioni, per esempio nel caso della ricerca di bambini scomparsi o durante attacchi terroristici, che da parte di soggetti privati.
Il Regolamento sintetizzando vieta l’intelligenza artificiale che manipola, che sfrutta le informazioni private e che sorveglia: ma il documento è già stato considerato dagli addetti ai lavori assai vago e si dovrà ancora discutere a lungo per superare la frammentazione legislativa esistente e lavorare essenzialmente perchè vengano rispettati i valori fondanti della democrazia, delle libertà fondamentali e dei diritti umani.
Ci vuole molta più chiarezza per il possesso di questo enorme pacchetto di dati e per il suo monitoraggio. In realtà la sensazione di molti è come se tutti i nostri dati fossero contenuti in una scatola nera su cui non riusciamo a mettere mano, e di cui non conosciamo esattamente il contenuto.
E fino a che punto si può aprire la scatola nera? Come possiamo conoscere le modalità attraverso le quali vengono acquisiti e gestiti i dati? Chi li analizza e con quali criteri vengono utilizzati?
Tante e troppe domande per una questione molto complessa dove i governi non sono in possesso degli strumenti per “entrare”.Gli stessi governi che fino ad oggi hanno delegato ai privati detentori dei dati l’autoregolamentazione sul loro utilizzo.
La Fondazione europea Gaia-X che promuove la sovranità digitale degli utenti europei dei servizi cloud, basato sui valori di trasparenza, apertura, protezione dei dati e sicurezza, ha inserito nel board di controllo gli stessi detentori dei dati, che sono i primi sospettati di utilizzarli senza controlli, anche e soprattutto a fini economici.
Ed avendo le stesse imprese digitali il totale dominio sulle cose su cui si deve discutere l’Europa non può fare a meno di coinvolgerle. Un circolo vizioso: non si può e non si deve escluderle dalla discussione se si vuole ottenere una qualche forma regolatoria condivisa.
La normativa deve riuscire ad essere incisiva ed iniziare a limitare i poteri del liberismo tecnologico che i pubblici poteri hanno contribuito a creare delegando in bianco la regolazione di questioni fondamentali.
Si deve assolutamente lavorare per un nuovo umanesimo digitale, ricondurre l’uomo e la sua dignità all’interno di tutto il meccanismo. L’Europa ancora frammentata a livello legislativo deve necessariamente divenire la terza via tra la totale deregulation americana ed il rigidismo cinese. Esiste in tutto ciò un serio problema economico: le cinque imprese americane interessate e accusate valgono da sole più dell’intera piazza affari europea. Sono una potenza, siamo dei “nani”al loro cospetto.
A riprova dell’attualità dell’argomento, anche durante il recentissimo G7 il problema è stato affrontato, sebbene per altri versi più strettamente geopolitici: è stato siglato un patto atlantico contro le minacce cyber, mettendo nel mirino le operazioni di gruppi di criminali informatici riconducibili alla Russia. La sicurezza delle reti è stata pertanto anche al centro del vertice Nato.
Il tema della cybersecurity si è posto al centro delle agende internazionali dopo i recenti attacchi all’azienda energetica Colonial Pipelinee Jbs, la maggior azienda di lavorazione delle carni del mondo. In entrambi i casi un attacco informatico ha causato l’interruzione delle attività e il pagamento di un riscatto in bitcoin per 4,4 e 11 milioni di dollari ad hacker presumibilmente con base in Russia
Sono stati quindi approvati i principi dell’internet sicura predisposti dai ministri “digitali” del G7 già a fine aprile, in base all’individuazione di otto punti di azione comune: in primis la protezione dei diritti umani online nel garantire la libertà di opinione; un approccio multi stakeholder coinvolgendo aziende, società civile, università nel migliorare la sicurezza di internet; l’inclusione dei principi di sicurezza basata sulla progettazione tra le responsabilità sociali delle aziende; la trasparenza e l’attendibilità sulla presenza di attività dannose incluse nei servizi online; la ricerca e la condivisione delle buone pratiche nello sviluppo di tecnologie sicure; la protezione dei bambini da contenuti e attività illegali o dannose; l’istruzione ai media digitali; la partecipazione dei giovani.
Tra gli altri impegni più rilevanti vi è la tanto agognata condivisione di informazioni per contrastare gli abusi di genere online e la necessità di comprendere come le leggi internazionali si possano applicare al cyberspazio, coinvolgendo i ministri dell’Interno e degli Esteri.
Sul tavolo ovviamente anche il tema della raccolta dati, in particolare sul ruolo degli algoritmi“che hanno rafforzato o amplificato bias storici o creato nuove forme di bias o iniquità”. Sul tema cybersecurity sembrerebbe essere stato siglato un piano di accordo con la Russia per lo scambio in estradizione di criminali informaticitra i due paesi.
Il nocciolo del problema a mio avviso non è soltanto la scelta politica ma si colloca in un altro piano: la società, i cittadini, i singoli, sono consapevoli di cosa sta accadendo? Cosa ne pensano della biometria per esempio? Cosa accadrà se gli utilizzatori finali inizieranno a diffidare delle tecnologie, se verrà meno il rapporto di fiducia tra chi le ha create e chi le utilizza?
Recentemente in Italia e non solo, il caso emblematico è stato il flop dell’utilizzo dell’App di contact tracing Immuni, studiata per il tracciamento dei casi di pandemia. I cittadini hanno dimostrato diffidenza e prudenza verso la diffusione di dati relativi alla propria privacy, gli stessi cittadini che paradossalmente concedono con facilità informazioni personali ad altre applicazioni (il 70% dei dispositivi italiani ha Android che è di Google).
Alcuni interrogativi sorgono pertanto a livello sociale. Cosa accadrà se le persone si ribelleranno sempre di più a questo tipo di dominio spezzando il potere economico delle grandi aziende social?
La sensazione di molti è che soprattutto con una ritrovata consapevolezza da parte degli esseri umani il pericoloso circolo vizioso si potrà fermare. Almeno proviamo a sperarlo.
Avvocata Sabrina Bernardi
Responsabile area giuridica Associazione Oltre il Pregiudizio