Intelligenza Artificiale e normativa: quali problemi per Privacy e responsabilità civile?

08 aprile 2021 / Di Redazione Osservatori Digital Innovation / 0 Comments

Negli ultimi anni è fortemente cresciuta l’attenzione verso i temi di sicurezza e protezione dei dati, anche tra le imprese che sviluppano soluzioni di Artificial Intelligence (AI). Inoltre, in caso di danni provocati da sistemi di AI, si inizia ad affrontare il tema della responsabilità civile. Il motivo principale risiede nello sviluppo tecnologico di questi sistemi sempre più avanzati che, sebbene portino con sé numerosi benefici, provocano anche una serie di controversie legali.

La tutela dei dati ai tempi dell'AI

L’introduzione di normative come il GDPR porta sempre più in evidenza i temi di compliance, soprattutto in termini di sicurezza e protezione dei dati, e questo ricade sulla progettazione, l’acquisto e l’implementazione in azienda di sistemi dotati di intelligenza artificiale. Questo ha portato le aziende a considerare con maggiore attenzione fattori come:

  • l’utilizzo dei dati degli individui sulla base di un trattamento automatizzato;
  • la necessità di misure di sicurezza adeguate ai rischi insiti nel trattamento;
  • la prevenzione e la gestione del data breach;
  • l’effettuazione della valutazione di impatto in relazione al trattamento;
  • controlli adeguati sulle eventuali catene di fornitura.

E qui scaturisce un quesito: la normativa è in grado di supportare un trattamento lecito dei dati?

La normativa privacy applicata all’Intelligenza Artificiale

Attività tipiche dei sistemi di intelligenza artificiale come la profilazione, il monitoraggio e la combinazione di dati possono avere un impatto significativo sulle scelte dei soggetti interessati. Per evitare effetti troppo pervasivi la normativa prevede che, fin dalla progettazione di sistemi mediante i quali vengono trattati dati personali, si rispettino i principi di privacy by design e privacy by default. L’obiettivo è quello di garantire la minimizzazione del trattamento, ossia l’esigenza per cui possono essere raccolti e trattati solo dati necessari per le finalità perseguite e dichiarate agli interessati.

Ma in ambito AI, questo ultimo punto comporta non poche difficoltà in termini di coerenza tra funzionamento della tecnologia e aderenza alla normativa. Per esempio:

  • molte tecniche di intelligenza artificiale (es. apprendimento automatico) si basano sulla gestione di grandi quantità di dati, utilizzati per addestrare gli algoritmi;
  • occorre garantire alle persone fisiche i cui dati vengono trattati il diritto a non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato;
  • nell’ambito di un determinato quesito, il sistema non deve avvalersi di dati particolari (es. dati che rivelino l’etnia, la religione, l’orientamento sessuale, le opinioni politiche) per fornire al quesito una soluzione discriminatoria.

In generale, per le aziende che intendono richiedere dati di individui tramite sistemi di intelligenza artificiale, la normativa richiede di:

  • informare gli individui sull’utilizzo della tecnologia, le finalità e le modalità del trattamento;
  • garantire la minimizzazione del trattamento coerentemente con le finalità dichiarate;
  • valutare gli impatti del ricorso a tecnologie intelligenti sui diritti e sulle libertà degli individui;
  • garantire l’intervento umano in casi di errori o violazioni da parte dell’IA.

Intelligenza artificiale e problematiche legali: impatti sulla Privacy e tutela della proprietà intellettuale

Guarda il Webinar

Intelligenza Artificiale e responsabilità civile

Anche se in maniera più circoscritta rispetto alle tematiche di aderenza alla normativa privacy, le aziende stanno affrontando sempre di più anche il tema dell’individuazione della responsabilità civile per danni derivanti da decisioni e comportamenti di sistemi di intelligenza artificiale.

Perché si tratta di una questione importante? Se pensiamo, per esempio, alle applicazioni di AI nel settore medico-chirurgico, bancario o assicurativo – ambiti in cui l’ipotesi di un errore è tutt’altro che rara –, è chiaro che la questione di chi debba rispondere dei danni non sia semplice da affrontare.

Al momento non esiste una normativa per regolare le conseguenze giuridiche dell’utilizzo di sistemi intelligenti, ma esiste un quadro legislativo applicabile ai sistemi di AI considerati come “prodotti” (cioè oggetti), fondato su una serie di normative europee che hanno introdotto la responsabilità del produttore. Alla luce di questo, in caso di difetti di produzione o danni all’utilizzatore o a terzi causati da tali difetti, si applica la normativa che disciplina la responsabilità da prodotto difettoso, a cui risponde il produttore.

Tuttavia, quando il sistema di AI agisce come un “agente”, programmato per apprendere e decidere autonomamente (es. come nel caso di applicazioni di Deep Learning), si aggiunge una componente di imprevedibilità che rende difficile stabilire un nesso di causalità tra condotta del produttore e/o dell’utilizzatore ed evento dannoso. Inoltre, potrebbero essere coinvolti più soggetti, dal creatore dell’algoritmo al programmatore, dal produttore all’utente. E anche se la normativa attuale ancora non definisce con certezza su quale soggetto ricada l’obbligo di risarcire il danno, per mitigare i rischi le aziende dovranno sicuramente confrontarsi con questo tema.

Sistemi intelligenti autonomi e responsabilità civile: inquadramento e stato dell'arte

Guarda il Webinar

Unisciti alla community Telegram di Osservatori Digital Innovation per ricevere ogni settimana le notizie più rilevanti dell'Innovazione Digitale e i risultati chiave delle nostre ricerche.

Iscriviti al canale

  • Autore

Gli Osservatori Digital Innovation del Politecnico di Milano sono un punto di riferimento qualificato sull’Innovazione Digitale in Italia.