Negli ultimi anni è fortemente cresciuta l’attenzione verso i temi di sicurezza e protezione dei dati, anche tra le imprese che sviluppano soluzioni di Artificial Intelligence (AI). Inoltre, in caso di danni provocati da sistemi di AI, si inizia ad affrontare il tema della responsabilità civile. Il motivo principale risiede nello sviluppo tecnologico di questi sistemi sempre più avanzati che, sebbene portino con sé numerosi benefici, provocano anche una serie di controversie legali.
La tutela dei dati ai tempi dell'AI
L’introduzione di normative come il GDPR porta sempre più in evidenza i temi di compliance, soprattutto in termini di sicurezza e protezione dei dati, e questo ricade sulla progettazione, l’acquisto e l’implementazione in azienda di sistemi dotati di intelligenza artificiale. Questo ha portato le aziende a considerare con maggiore attenzione fattori come:
- l’utilizzo dei dati degli individui sulla base di un trattamento automatizzato;
- la necessità di misure di sicurezza adeguate ai rischi insiti nel trattamento;
- la prevenzione e la gestione del data breach;
- l’effettuazione della valutazione di impatto in relazione al trattamento;
- controlli adeguati sulle eventuali catene di fornitura.
E qui scaturisce un quesito: la normativa è in grado di supportare un trattamento lecito dei dati?
La normativa privacy applicata all’Intelligenza Artificiale
Attività tipiche dei sistemi di intelligenza artificiale come la profilazione, il monitoraggio e la combinazione di dati possono avere un impatto significativo sulle scelte dei soggetti interessati. Per evitare effetti troppo pervasivi la normativa prevede che, fin dalla progettazione di sistemi mediante i quali vengono trattati dati personali, si rispettino i principi di privacy by design e privacy by default. L’obiettivo è quello di garantire la minimizzazione del trattamento, ossia l’esigenza per cui possono essere raccolti e trattati solo dati necessari per le finalità perseguite e dichiarate agli interessati.
Ma in ambito AI, questo ultimo punto comporta non poche difficoltà in termini di coerenza tra funzionamento della tecnologia e aderenza alla normativa. Per esempio:
- molte tecniche di intelligenza artificiale (es. apprendimento automatico) si basano sulla gestione di grandi quantità di dati, utilizzati per addestrare gli algoritmi;
- occorre garantire alle persone fisiche i cui dati vengono trattati il diritto a non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato;
- nell’ambito di un determinato quesito, il sistema non deve avvalersi di dati particolari (es. dati che rivelino l’etnia, la religione, l’orientamento sessuale, le opinioni politiche) per fornire al quesito una soluzione discriminatoria.
In generale, per le aziende che intendono richiedere dati di individui tramite sistemi di intelligenza artificiale, la normativa richiede di:
- informare gli individui sull’utilizzo della tecnologia, le finalità e le modalità del trattamento;
- garantire la minimizzazione del trattamento coerentemente con le finalità dichiarate;
- valutare gli impatti del ricorso a tecnologie intelligenti sui diritti e sulle libertà degli individui;
- garantire l’intervento umano in casi di errori o violazioni da parte dell’IA.
Intelligenza Artificiale e responsabilità civile
Anche se in maniera più circoscritta rispetto alle tematiche di aderenza alla normativa privacy, le aziende stanno affrontando sempre di più anche il tema dell’individuazione della responsabilità civile per danni derivanti da decisioni e comportamenti di sistemi di intelligenza artificiale.
Perché si tratta di una questione importante? Se pensiamo, per esempio, alle applicazioni di AI nel settore medico-chirurgico, bancario o assicurativo – ambiti in cui l’ipotesi di un errore è tutt’altro che rara –, è chiaro che la questione di chi debba rispondere dei danni non sia semplice da affrontare.
Al momento non esiste una normativa per regolare le conseguenze giuridiche dell’utilizzo di sistemi intelligenti, ma esiste un quadro legislativo applicabile ai sistemi di AI considerati come “prodotti” (cioè oggetti), fondato su una serie di normative europee che hanno introdotto la responsabilità del produttore. Alla luce di questo, in caso di difetti di produzione o danni all’utilizzatore o a terzi causati da tali difetti, si applica la normativa che disciplina la responsabilità da prodotto difettoso, a cui risponde il produttore.
Tuttavia, quando il sistema di AI agisce come un “agente”, programmato per apprendere e decidere autonomamente (es. come nel caso di applicazioni di Deep Learning), si aggiunge una componente di imprevedibilità che rende difficile stabilire un nesso di causalità tra condotta del produttore e/o dell’utilizzatore ed evento dannoso. Inoltre, potrebbero essere coinvolti più soggetti, dal creatore dell’algoritmo al programmatore, dal produttore all’utente. E anche se la normativa attuale ancora non definisce con certezza su quale soggetto ricada l’obbligo di risarcire il danno, per mitigare i rischi le aziende dovranno sicuramente confrontarsi con questo tema.
Vuoi conoscere l'evoluzione dell'Intelligenza Artificiale e le normative che la regolano?
- Autore
Gli Osservatori Digital Innovation del Politecnico di Milano sono un punto di riferimento qualificato sull’Innovazione Digitale in Italia.
Gli ultimi articoli di Redazione Osservatori Digital Innovation
-
Identità finanziaria, cos’è e come funziona 19 luglio 2024
-
Robotic Process Automation: cos'è e come funziona la RPA? 12 aprile 2024
Rimani aggiornato sui trend dell’Innovazione Digitale
Inserisci qui la tua email
Potrebbe interessarti
Articoli più letti