COVID-19

Covid-19, uso dell'intelligenza artificiale per monitorare la pandemia? Problemi etico-giuridici per il trattamento dei dati

La possibilità di utilizzare in Cina l'intelligenza artificiale (AI) nel contrasto alla pandemia da Covid-19 ha ottenuto risultati efficaci attraverso il controllo preciso degli spostamenti delle singole persone nelle aree coinvolte. Il metodo sembra rientrare nei piani anche del nostro Paese nella fase 2, attraverso App che permettono di segnalare e prevenire i possibili rischi di contagio. Ciò però solleva, in Europa ancora più che negli Usa, importanti problemi etico-giuridici, in relazione soprattutto al diritto alla privacy. Se ne parlato in una web press conference dedicata al tema.

La possibilità di utilizzare in Cina l’intelligenza artificiale (AI) nel contrasto alla pandemia da Covid-19 ha ottenuto risultati efficaci attraverso il controllo preciso degli spostamenti delle singole persone nelle aree coinvolte. Il metodo sembra rientrare nei piani anche del nostro Paese nella fase 2, attraverso App che permettono di segnalare e prevenire i possibili rischi di contagio. Ciò però solleva, in Europa ancora più che negli Usa, importanti problemi etico-giuridici, in relazione soprattutto al diritto alla privacy. Se ne parlato in una web press conference dedicata al tema.

L’occasione è stata la pubblicazione, sulla rivista di politica sanitaria “Italian Health Policy Brief (IHPB)”, edita da ALTIS, di un saggio su “Le chances dell’intelligenza artificiale. Dati, sistemi sanitari, etica: uno sguardo giuridico al dopo-COVID-19" di Andrea Pin, docente di Diritto pubblico comparato presso l'Università di Padova, coordinatore del primo Corso di laurea italiano in Diritto e Tecnologia e responsabile del progetto AI, Society and Teaching innovation.

Questi i tre ‘nodi’ salienti toccati da Pin: i vantaggi del potenziamento della produttività e dell’efficienza dell’individuo contrapposti alle limitazioni del diritto alla privacy, le facilitazioni derivanti dalla possibilità di affrontare emergenze sanitarie su scala internazionale rispetto alla necessità di proteggere gli interessi nazionali e l’equilibrio tra etica e diritto.

«Se l’uomo ha avuto la meglio nel valutare la pericolosità dei fenomeni polmonari che stavano comparendo in Cina, è una macchina ad averlo allertato per prima. Quest’episodio mette in luce le grandi potenzialità dell’AI nel mondo sanitario nel caso di pandemie, finora solo parzialmente comprese e senz’altro solo marginalmente sfruttate» evidenzia.

«Tali potenzialità» aggiunge «nascondono tuttavia delle insidie e degli ostacoli, che esigono di essere affrontate affinché il mondo della salute possa usufruirne, con benefici diffusi su scala globale».

Le insidie e gli ostacoli principali
Tra i molti aspetti di particolare delicatezza –  sottolinea Pin - conviene evidenziarne in particolare tre, che stanno sollevando diverse obiezioni nel mondo giuridico relativamente all’integrabilità o persino alla sostituibilità dell’azione umana con l’AI. Si tratta di:

  • trattamento dei dati;
  • proprietà delle tecnologie;
  • piano etico della gestione del dato personale e sue conseguenze giuridiche.

Il consenso alla raccolta e al trattamento dei dati in Oriente, in Europa e negli USA
Uno degli elementi trasversalmente “caldi” in tutto questo scenario è sicuramente il tema del rapporto tra “dato e consenso”, argomento che viene sviluppato nelle varie realtà (Europa, Usa, Cina) in modo radicalmente differente.

In Cina e nella realtà del “Global South” vi è un’impostazione del tipo ‘trasparenza universale’, in cui i dati di ogni singolo cittadino sono completamente utilizzabili senza previo consenso da parte delle autorità, dato l’interesse pubblico prevalente, spiega il giurista.

In Europa, come è noto viene dato il massimo rilievo alla tutela della privacy, per cui l’accesso ai dati sensibili – sanitari e non (quali spostamenti, etc.) e la loro elaborazione deve essere effettuata solo previo consenso informato, prosegue Pin.

La realtà statunitense rappresenta qualcosa di intermedio, prosegue, secondo un concetto che deriva dal direct marketing, di “opt-out”, per cui di fatto il paziente è informato dell’uso che verrà fatto dei suoi dati (tipo “cookies”) senza però possibilità di tutela (fatta eccezione per lo stato della California).

«Giacché gli sviluppi e le potenzialità dell’AI non sono controllabili se non a posteriori e con fatica» ribadisce il professore «il vero campo di contesa continua a essere quello dei dati, la cui raccolta è pertanto sottoposta a forti limitazioni. Il perno attorno a cui ruotano tanto il modello americano quanto quello europeo – sebbene in base a prospettive molto diverse – pone al centro la necessità, per le aziende che usano i dati, di ottenere il consenso di chi li conferisce».

«Le politiche di contenimento sociale così come le limitazioni alla mobilità transfrontaliera imposte in diversi Paesi hanno messo in mostra le potenzialità dell’AI su larga scala» scrive nel suo saggio il giurista.

«Questa non è soltanto utile nel momento della diagnosi o in fasi come il rilevamento della temperatura su base individuale. Può, ad esempio, monitorare gli spostamenti di persone e identificarle tramite il riconoscimento facciale durante la quarantena, individuare alterazioni termiche nell’utenza degli aeroporti o mappare gli attraversamenti delle frontiere» specifica.

L’indubbia utilità di tali operazioni tuttavia va contemperata con altri valori giuridici in gioco, che rendono il quadro molto più complesso e frastagliato, continua. «Mentre l’opportunità di monitorare gli spostamenti della popolazione è indubitabile sul piano sanitario, il quadro giuridico di riferimento varia però sensibilmente da un Paese all’altro, rendendo difficilmente trapiantabili molte misure, indipendentemente dalla loro potenziale efficacia».

«Se è evidentemente efficace il controllo del territorio che la Cina assicura tramite un sistema fortemente automatizzato, in cui sistemi di videosorveglianza pervasiva utilizzano tecniche di riconoscimento facciale integrato, è però difficilmente immaginabile che un tale apparato possa essere trasferito in Europa, e probabilmente forse anche negli Stati Unit» aggiunge.

Secondo Pin, insomma, un sistema di sorveglianza delle pandemie in Europa (se non mondiale) non può prescindere da un protocollo concordato di carattere giuridico, date le profonde differenze normative in materia tra i vari Paesi.

Il problema della proprietà delle tecnologie
Quel che le istituzioni pubbliche in Occidente non intendono e/o non hanno gli strumenti per fare, sarebbe teoricamente possibile alle grandi realtà private, evidenzia il giurista. E qui si giunge a un altro grande problema: la proprietà delle tecnologie. «I giganti del digitale hanno una capacità di raccogliere e processare informazioni che talvolta persino il potere pubblico ha utilizzato, servendosene per acquisire dettagli sulla situazione sanitaria in contesti critici» scrive.

«Tuttavia, anziché a creare forme di partnership, il diritto è spesso impegnato a limitare lo spazio d’azione dei privati, temendo che la loro capacità tecnica, unita al regime quasi monopolistico di elaborazione dei dati di cui essi godono, consenta loro di monitorare e manipolare la società con modalità subdole perché impercettibili» prosegue.

«Giacché gli sviluppi e le potenzialità dell’AI non sono controllabili se non a posteriori, e con fatica, il vero campo di contesa continua a essere quello dei dati, la cui raccolta è pertanto sottoposta a forti limitazioni. Il perno attorno a cui ruotano tanto il modello americano quanto quello europeo – sebbene in base a prospettive molto diverse – pone al centro la necessità, per le aziende che usano i dati, di ottenere il consenso di chi li conferisce» sottolinea Andrea Pin.

Il peso delle diverse scelte di politica sanitaria all’interno dell’UE
Le politiche messe in atto per rispondere alla pandemia non mostrano solo un gap tecnologico, ma anche delle forti differenze sul piano etico, non solo tra Oriente e Occidente, ma anche all’interno di quest’ultimo. In Europa, rimarca Pin.

«Mentre alcuni Paesi hanno tentato di congelare la mobilità, altri hanno puntato su un moderato contenimento, concentrandosi sugli ingressi dall’estero, e scommesso su una diffusione del virus blandamente controllata, puntando alla cosiddetta “immunità di gregge” e assicurando il mantenimento delle attività economiche» (si veda il caso della Gran Bretagna che poi ha dovuto cambiare strategia, così come la Svezia).

«L’esperienza della lotta al COVID-19 pone questioni di formidabile portata» conclude Andrea Pin «sia per l’impostazione fortemente protettiva nei confronti dei dati all’interno dell’UE, che ha a sua volta influenzato lo sviluppo e la diffusione di tecnologie di sorveglianza, sia per la caratura etica delle scelte di politica »sanitaria.

Riferimento bibliografico:
Pin A. Le chances dell’intelligenza artificiale. Dati, sistemi sanitari, etica: uno sguardo giuridico al dopo-COVID-19. IHPB. 2020(2):2-3.


SEZIONE DOWNLOAD