Privacy e intelligenza artificiale: vigilare sugli algoritmi
04/07/2019
Il contributo del Garante italiano nel Comitato consultivo della Convenzione 108.
Il 25 gennaio 2019 a Strasburgo, il Comitato Consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108) ha emanato le Linee-guida in materia di intelligenza artificiale e protezione dei dati.
Come già avvenuto per altre innovazioni tecnologiche, le applicazioni basate sull’intelligenza artificiale (AI), quali sistemi, software, dispositivi digitali, possono avere ripercussioni negative sulla società, quindi sulle persone.
I firmatari della Convenzione 108, per scongiurare questo pericolo, garantiscano e assicurano che lo sviluppo dell’Intelligenze Artificiali rispetterá il diritto alla tutela della vita privata e della protezione dei dati personali, sottolineando così l’impegno verso i diritti e le libertà fondamentali.
A salvaguardia della dignità umana, dei diritti e delle libertà fondamentali di ogni individuo, le linee guida contenute nella convenzione delineano misure di base per i governi, gli sviluppatori, i produttori e fornitori di servizi di IA.
Quali sono i principi generali delle linee guida in materia di intelligenza artificiale e protezione dei dati personali?
1) Nello sviluppo e nell’adozione di applicazioni IA è prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali 2) Le IA che trattano dati personali devono operare secondo i principi della Convenzione 108 modernizzata, conosciuta come Convenzione 108+che detta un approccio basato su: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accauntability, trasparenza, sicurezza dei dati e gestione dei rischi. 3) Lo sviluppo delle IA necessita un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali. 4) Nella valutazione del rischio è necessario adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici 5) Le IA devono rispettare pienamente i diritti degli interessati 6) Le IA devono sempre consentire un controllo da parte degli interessati.
Cosa devono fare Sviluppatori, produttori e fornitori di servizi?
Sviluppatori, produttori e fornitori di servizi di IA nella progettazione dei loro prodotti e servizi dovrebbero adottare i principi contenuti nella Convenzione 108+.
1) Adottare un approccio precauzionale per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA. 2) In tutte le fasi del trattamento dei dati personali dovrebbero avere un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitare qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati. 3) Dovrebbero valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile. 4) Si deve tener conto che l’utilizzo di modelli algoritmici decontestualizzati può produrre impatti negativi sulle persone e la società. 5) Sviluppatori, produttori e fornitori di servizi IA dovrebbero coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi. 6) La valutazione del rischio dovrebbe essere misurata coinvolgendo gruppi di potenziali interessati all’applicazione IA. 7) Prodotti e servizi dovrebbero essere sviluppati in modo tale da non sottoporre l’individuo a una scelta unica di trattamento automatizzato. 8) Sviluppatori, produttori e fornitori di servizi IA dovrebbero sviluppare le applicazioni consentendo agli individui la libertà di scelta di utilizzo dell’IA. 9) Devono adottare forme di vigilanza sugli algoritmi durante tutto il ciclo di vita delle IA. 10) Gli individui dovrebbero essere informati se interagiscono con un’applicazione di Intelligenza Artificiale potendone conoscere la logica che governa il trattamento dei dati. 11) Dovrebbero garantire agli interessati il diritto di opporsi al trattamento basato su tecnologie che possono alterano le opinioni e lo sviluppo personale.
Cosa devono fare invece legislatori e policy makers?
1) Per rafforzare la fiducia nei confronti di prodotti e servizi di IA, i legislatori dovrebbero garantire l’adozione di procedure di valutazione del rischio e di altre misure come i codici ci condotta e i meccanismi di certificazione. 2) Nelle procedure di appalto dovrebbero imporre a sviluppatori, produttori e fornitori di effettuare una valutazione preliminare sull’impattodell’applicazione delle IA. 3) Alle autorità di controllo dovrebbero essere forniti mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. 4) L’intervento umano dovrebbe essere preservato nei processi decisionali. 5) Sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo. 6) Dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore. 7) Dovrebbero garantire l’indipendenza dei comitati di esperti. 8) I legislatori dovrebbero garantire la partecipazione e inclusione attiva di individui, gruppi o altre parti interessare al dibattito sul ruolo della IA. 9) I policy maker dovrebbero effettuare investimenti in direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti. Dovrebbero incentivare la formazione professionale degli sviluppatori di IA per consentire loro di comprendere i potenziali effetti dell’IA su individui e società, favorendo la ricerca in direzione su un’Intelligenza artificiale compatibile con i diritti umani.
Hai degli asset di valore della tua azienda? Noi possiamo aiutarti a proteggerli.