Il rapporto tra diritto e intelligenza artificiale

Argomenti di una nuova puntata di Doppio Binario su Le Fonti TV, sono stati: intelligenza artificiale, implicazioni nell'utilizzo dell'intelligenza artificiale sotto il profilo giuridico e anche sotto il profilo penale. Se ne è parlato con l'avvocato Chiara Padovani, Founder dello Studio Legale Padovani, con l'avvocato Claudio Perrella, Socio Anra e Partner di R&P Legal e l'avvocato Massimiliano Nicotra, Socio di Qubit Law Firm

Argomenti di una nuova puntata di Doppio Binario su Le Fonti TV, sono stati: intelligenza artificiale, implicazioni nell’utilizzo dell’intelligenza artificiale sotto il profilo giuridico e anche sotto il profilo penale. Se ne è parlato con l’avvocato Chiara Padovani, Founder dello Studio Legale Padovani e con l’avvocato Claudio Perrella, Socio Anra e Partner di R&P Legal.

Quali sono le ultime evoluzioni dell’intelligenza artificiale in una chiave di lettura giuridica, sotto il profilo del diritto penale?
Chiara Padovani. Occorre premettere che l’evoluzione è nel segno di un poderoso avanzare dell’intelligenza artificiale e degli algoritmi sulla scena della giustizia penale ed è un avanzare che è oggetto di riflessioni importanti. Alcuni giuristi, anche francesi hanno definito l’irruzione dell’intelligenza artificiale nel sistema penalistico, come una vera e propria fattura antropologica oppure addirittura come una rivoluzione epistemologica. Questo perché il sistema penale è un sistema pensato per l’uomo, cioè un sistema costruito su un rimprovero penale e colpevole rispetto ad un’azione che è umana, ed è affidato a giudizio di un uomo che sarà certamente fallibile ma la cui decisione nel nostro sistema, come in altri, è ovviamente sottoposta con un controllo della motivazione e quindi ad un controllo su una decisione che è basata su criteri ben definiti dall’ordinamento. Sotto il profilo del diritto penale sostanziale, si tratta anzitutto di comprendere se ci troviamo di fronte a una scelta epocale in cui cioè occorre decidere se siano ancora applicabili i principi, di rango costituzionale al principio di personalità e colpevolezza della responsabilità penale ma anche di trattamento rieducativo della pena rispetto a quei fatti in cui non assistiamo ad una azione umana, ma diamo ad un’azione creata da un soggetto, da un’entità che di umano non sa nulla, ma che è appunto costruito con software composto da vari algoritmi o se quel patto di reato è l’opera congiunta dell’azione umana e dell’intelligenza artificiale, senza poi se si tratta di self – learning. L’attenzione a questi profili critici, il diritto penale sostanziale è altissima anche a livello internazionale sovranazionale tanto che la European Committee on Crime Problems del Consiglio Europeo ha istituito proprio una commissione che è preposta a studiare sia le applicazioni pratiche sia i singoli ordinamenti stanno adottando ma che sta cercando di dare qualche impulso per un’armonizzazione delle implicazioni pragmatiche dell’intelligenza artificiale nell’ambito della giustizia penale.

Facciamo invece qualche esempio pratico di implicazioni giuridiche, nell’utilizzo dell’intelligenza artificiale mi viene in mente l’auto a guida autonoma.
Claudio Perrella. La guida autonoma è sicuramente un caso assolutamente concreto di tutti i giorni ed è molto ben rappresentativo della criticità e della delicatezza dei problemi anche di natura etica che già ora abbiamo e che avremo sempre di più in futuro. La collega padovani ha già perfettamente inquadrato le criticità che ci sono sotto il profilo penale che evidentemente si ripropongono anche sul versante civile perché anche evidentemente sul versante civilistico ragioniamo di dolo o colpa grave. Molto difficile forse anche impossibile, applicare queste categorie quando la condotta è di una macchina di un robot di un software però non dobbiamo dimenticarci, che c’è un essere umano che ha progettato la macchina, che ha inserito quell’algoritmo e per tornare allo spunto che lei mi ha dato, io faccio un esempio che qualche anno fa poteva sembrare assolutamente clamoroso, poteva sembrare forzato. In realtà non lo è assolutamente, ipotizziamo un’auto totalmente a guida autonoma in cui il conducente può disinteressarsi della condotta della sua auto che in una situazione di emergenza trovi più possibili ostacoli, bersagli, più possibile oggetto di una collisione, in qualche modo sia chiamata a scegliere qual è il bersaglio sacrificabile. Può sembrare una forzatura ma in realtà non lo è.
Noi partiamo dal presupposto che alla guida dell’auto siamo padroni delle nostre decisioni e siamo in grado di scegliere in un contesto emergenziale se salvare noi stessi, sacrificare la vita degli altri. Non è una scelta cosciente, nessuno può avere questo sangue freddo.

Dal punto di vista investigativo, in che modo può essere utilizzata
l’intelligenza artificiale?

Chiara Padovani. In una prospettiva investigativa di polizia, l’uso dell’intelligenza artificiale si è già tradotta nelle attività di sforzi nelle tecniche di profiling e quindi attraverso il sistema di identificazione facciale e vocale. In concreto significa innanzitutto mappare, quindi in una chiave preventiva, mappare il rischio criminale, quindi allocare le forze di polizia in una formazione più o meno densa e a seconda di quel territorio dove vi può essere una pendenza la commissione di reati, secondo le tecniche di predictive policing e quindi neutralizzare la convinzione rischio di commissione di determinati reati di ridurre la vittimizzazione.
Ci sono innanzi tutto qua a Milano, perché proprio nella questura di Milano è stato inventato ad opera ad un investigatore il programma key crime e che è utilizzabile per condotte seriali come rapine agli anziani ma anche reati a sfondo sessuale ma anche il programma che è stato invece sviluppato dalla polizia di Napoli ed è attualmente applicato in diverse regioni e che serve a prevedere quel ritorno a prevedere furti e rapine. In questa fase investigativa di polizia, l’uso degli algoritmi predittivi ha profilato un problema di rispetto del principio di uguaglianza, perché tra le varie problematiche questi software considerano alcuni fattori di rischio e
non altri, considerando l’età, il genere, ma anche la criminalità di quartiere. Addirittura in alcuni casi negli stili di vita digitali, oltretutto l’appartenenza a una etnia e alla parte una distinzione di razza e quindi sulla base di questi dati suggerisce la maggiore allocazione delle risorse di polizia ma pone anche una presunzione di pericolosità in relazione ad alcuni soggetti e non ad altri.
Questa prospettiva si è fatto notare, come questi risultati possano essere condizionati non così diversi da quei pregiudizi tipici del giudizio delle decisione umane ad esempio e quindi mi fermo la newyorkese propublica che è un’organizzazione di giornalismo investigativo, ha sostenuto in un suo report software compass che è largamente utilizzato negli stati uniti all’interno del sistema della giustizia penale anche in fase decisionale, valorizzerebbe alcuni fattori strettamente correlati al alla razza.

Come si può applicare la responsabilità prodotto sui prodotti di cosiddetta nuova generazione, visto che parliamo di intelligenza
Artificiale?

Claudio Perrella. Anche quello è una sfida potenzialmente enorme e saremo probabilmente tutti chiamati a valutare che tipo di aggiornamento sul piano normativo giuridico servirà in relazione a nuovi prodotti.
Noi abbiamo una disciplina di tutela del consumatore che protegge il consumatore, ma tiene conto però del fatto che i prodotti siano suscettibili di una console scienza più memorabile e non è detto che un prodotto sia difettoso per il solo fatto che un modello più antiquato rispetto ad altri prodotti parimenti in commercio però è chiaro che, in un contesto in cui c’è una intelligenza artificiale che ha una progressione assolutamente dirompente, una di evoluzione sul piano tecnologico che è difficilissimo intercettare anche per i produttori e c’è addirittura il machine learning e cioè abbiamo dei sistemi che auto imparano, si riproducono, crescono immagazzinando costantemente dati.
Diventa veramente difficilissimo capire quando un prodotto può qualificarsi come difettoso e prima ancora che cos’è un prodotto in relazione per esempio a un software. Ho fatto prima un esempio che sembrava fantasioso anni fa, ora non lo è assolutamente più, gliene faccio un altro che poteva sembrare parimenti esotico e ora assolutamente non lo è: i prodotti realizzati con le stampanti 3d. Ormai siamo arrivati alle stampanti che realizzano prodotti 4d, cioè sono protesi per fare un esempio, perché sono i prodotti tra i più diffusi realizzati in questo modo. Reagiscono all’agente esterno, alla temperatura, al contesto esterno e hanno dei mutamenti nella struttura.
Anche qui è veramente difficilissimo a questo punto capire dove si pone l’asticella del grado di diligenza del produttore della attenzione che va riposta nella valutazione, l’introduzione di un prodotto sul mercato.
Faccio veramente un ultimissimo commento per portarci in una tema di attualità assoluta e grazie all’intelligenza artificiale che si è arrivati ai vaccini che si stanno profilando ora che probabilmente ne avremo più dei due che si stanno profilando, grazie all’intelligenza artificiale. Adesso ci sono delle sfide perché questi vaccini dovranno funzionare, essere assolutamente sicuri e quindi si vede benissimo come siamo di fronte a delle sfide delle quali probabilmente non abbiamo neanche la piena percezione.

Nella seconda parte di Doppio Binario, ospiti sono stati l’avvocato Chiara Padovani, Founder dello Studio Legale Padovani e l’avvocato Massimiliano Nicotra, Socio di Qubit Law Firm.

Quali sono le implicazioni dell’utilizzo dell’intelligenza artificiale nella sede giudiziale penale?
Chiara Padovani. In sede giudiziale, considerando quella fase dopo che è stato commesso il delitto, l’uso dell’intelligenza artificiale attraverso indice algoritmi predittivi promettono un’accuratezza maggiore rispetto alla valutazione della pericolosità sociale e dalla capacità di recidive e quindi si tratta sostanzialmente di algoritmi che utilizzano una serie di fattori che vanno dalla crimes al background socio familiare, addirittura all’employment status e anche alla propria vita digitale, in alcuni casi vediamo criticamente anche alla razza, relativi al passato e individuano delle ricorrenze cosiddetti partner e caratterizzate da una base statistica. Base statistica che viene considerata molto più solida di quella alla base dei giudizi umani quindi si tratta di strumenti che aiutano le valutazioni predittive che possono essere utilizzate ad esempio mutuandolo nel sistema giudiziario italiano, su una valutazione su rischio di recidive in sede cautelare, per i fini di una misura di sicurezza o addirittura di prevenzione in punto anche di commisurazione della pena di applicazione della sospensione condizionale o ancora di in sede di misure alternative quando si tratta di decidere sulla misura alternativa alla detenzione quindi sia in fase cautelare che in fase esecutiva.
Traendo somme si pensa ad una riduzione di errori giudiziari determinati da buyers che contaminano. Questo è molto interessante, la valutazione della prova specie quella dichiarativa e quindi ad esempio la valutazione della contraddittorietà del testimone della sua credibilità, sia intrinseca che rispetto al compendio probatorio e quindi concesso estrinseca potrebbe
anche consentire come evidenziato da qualche collega potrebbe anche consentire di aiutare il giudice dell’udienza preliminare nel fare quella proyas sul positivo sviluppo dibattimentale sulla base della quale, come noto il giudice dell’udienza preliminare decide per una rete del procedimento già in quella fase, oppure ebbero un rinvio a giudizio. Potrebbe anche mitigare la cosiddetta, sempre per utilizzare un termine d’oltreoceano, sentenze spariti applicando cioè bene con misura anche ad indice di gravità calcolato eccessivamente. Lo scenario è già stato anticipato largamente negli Stati Uniti ad una sentenza che ha fatto molto clamore perché ha avuto una certa eco sugli organi di stampa della Suprema Corte del Wisconsin che è intervenuta su una decisione del tribunale nella quale i giudici avevano valutato proprio questa proiezione sulla recidiva attraverso il programma Compass e anche per determinare la pena dando peraltro una pena nel caso concreto particolarmente elevata. Il tema è che si tratta comunque di strumenti e Compass è uno dei tanti strumenti che non offrono la spiegazione di quel rischio che è individuato il rapporto al dato statistico e quindi si crea una interruzione del potere di controllo sulla motivazione che è fondamentale per un giusto processo. In altre decisioni statunitensi si sono applicati i programmi analoghi e penso ad esempio al distretto della Colombia con il sistema Saurik addirittura già nel 2018 oppure è allo stato del New jersey che addirittura sostituito le udienze dedicate alla concessione della libertà su cauzione con delle valutazioni del rischio assessment ottenute attraverso algoritmi, quindi una sorta di valutazione psichiatrica sulla base di algoritmi e no non è psichiatrica e predittiva nel senso che sulla base di fattori del passato del suo centro quindi big data che attengono a dove il soggetto abita i suoi vide gli eventuali precedenti penali ma anche ad esempio il contesto di criminalità di cui circondato e le sue abitudini di vita sociale, addirittura le sue abitudini di vita del web, l’appartenenza ad una determinata razza.
Questo comporta la rielaborazione su base statistica di una probabilità è proprio quella una quella sorta di risk assessment che lo vediamo nella mappatura del rischio aziendale che 2 3 1 e molto e molto simile. Ovviamente ci sono dei software sofisticati. Il vero punto è l’opacità cioè l’opacità di come questo rischio sia considerato tale e quindi c’è un interruzione di quello che il rapporto naturale della qualità delle armi del giusto processo tanto che è proprio la carta etica europea sull’uso dell’intelligenza artificiale nei sistemi di giustizia ad aver insistito. Tra le altre cose proprio sul principio della trasparenza della verificabilità buona sostanza quello che si teme è quello di come dire, per ottenere, per inseguire l’utopia di una giustizia esatta di perdere una giustizia verificabile lontana peraltro dal prisma dell’habeas corpus perché appunto stiamo andando ad un ad un’idea dell’habeas data e quindi di un processo che vede sempre più distaccato il giudice dall’imputato ma anche dalla verificabilità del percorso motivazionale del giudice non dell’intelligenza artificiale in quanto tale. Può essere essenzialmente utile.

Come è regolamentata e normata l’intelligenza artificiale a livello
europeo ma anche italiano?

Massimiliano Nicotra. Da un punto di vista europeo noi stiamo passando dall’etica al diritto.
Forse finalmente, nel senso che tutto è partito da un report del 2017 del Parlamento Europeo, si parlava allora solamente di irresponsabilità dei robot in cui vi erano interventi dei sistemi di intelligenza artificiale poi come giustamente ha ricordato, sono Stati, è stato costituito un gruppo di alti esperti soprattutto ai fini dell’individuazione dei profili etici, tra cui hanno dato luogo a una carta dei profili etici diciamo così dell’utilizzo dei sistemi d’intelligenza artificiale, in cui molti dei principi che erano indicati dalla collega sono contenute all’interno della carta.
Addirittura analisi del rischio, se il risk assessment sull’utilizzo del
sistema piuttosto della trasparenza, l’eliminazione di byas, la cantabilità di coloro che utilizzano il sistema. Da questo ci sono tantissimi interventi, il Consiglio d’Europa è intervenuto con un paper su delle linee guida anche per l’utilizzo dei sistemi e anche per la tutela dei diritti fondamentali.
Vi ricordo che noi in Italia abbiamo avuto la strategia Mise pubblicata in forma definitiva allo scorso luglio che è una strategia che ha delle indicazioni sia operative sia anche giuridiche ad esempio nella nostra strategia per favorire la diffusione dell’utilizzo di questi sistemi sono previsti strumenti quali data sharing agreement.
Sappiamo tutti che i sistemi di machine learning piuttosto che di planning, devono utilizzare quantità di dati per poter arrivare poi a essere istruiti, essere allenati addestrati per arrivare per prendere quelle decisioni o a riconoscere in maniera corretta determinati input. Da questa notizia recente se non sbaglio che dieci giorni fa, il Parlamento Europeo ha dato tre risoluzioni indicando la Commissione Europea di fare delle proposte: la prima proprio per tradurre i principi etici stati individuati a livello di gruppo di lavoro internet pc; la seconda riguarda regime della responsabilità civile.
Vi ricordo che a livello europeo è stata prevista che l’allocazione rischio avvenga tramite meccanismi di assicurazione obbligatoria per gli utilizzatori di questi sistemi infine la terza riguarda la tutela dei diritti di proprietà intellettuale per coloro che meglio che utilizzano questi sistemi per creare opere soggette al diritto.
Un’altra cosa super, se andiamo a prendere la circolare sulla adeguata verifica della clientela materia antiriciclaggio prevede che l’analisi del rischio sia anche effettuato da parte delle banche da coloro che devono applicare le normative attraverso degli algoritmi e quindi anche qui c’è un’apertura anche ai sistemi del futuro di intelligenza artificiale che andranno a pesare, non solo su un profilo di rischio di commissione creato antiriciclaggio ad esempio il codice di deontologia sulle centrali rischi. Prima il codice prevede che lo score in possa essere effettuato anche attraverso l’utilizzo di algoritmi anche in questo caso pesi di soggetti per arrivare a delle decisioni.
Abbiamo degli esempi nella decretazione di urgenza che c’è stata questa primavera ed è stato previsto anche l’utilizzo da parte del Ministero della Salute di dati incrociati per arrivare a definire quale debba essere d’approvvigionamento farmaceutico, poi abbiamo la norma principale ad oggi che è quella l’articolo 22 del GDPR che disciplina proprio come devono essere quali sono i presupposti per l’adozione di decisioni automatizzate e quindi questo a livello di protezione di dati personali ma anche di diritti.

Come è regolamentata la cosiddetta prova informatica?
Chiara Padovani. La prova informatica trova articoli del codice di rito ad essa dedicati, sono due fondamentalmente: quella che prevede l’utilizzazione, l’acquisizione di dati informatici acquisiti anche all’estero e l’altra che attiene invece e va dal mezzo di ricerca della prova cioè l’ispezione informatica. La disciplina sostanziale, scusate il bisticcio di parole tra processuale e sostanziale, ma i principi sostanziali di utilizzazione della frode informatica, discendono direttamente dalla Convenzione di Budapest del 2008 che è una convenzione straordinariamente importante per l’acquisizione l’utilizzo è anche la valutazione in sede e in sede giudiziale penale della prova informatica e la Convenzione di Budapest che pretende in buona sostanza che agli stati membri che l’autore impone che sia garantita l’originalità del dato grezzo, la non manipolazione del dato grezzo e quindi che ci sia la prova di una perfetta catena di custodia dal momento in cui le autorità investigative di Polizia o che su ordine della magistratura acquisisce il dato informatico, al momento in cui ne blocca fotograficamente il suo contenuto al momento in cui lo trasmette lo custode e poi lo duplica per l’utilizzo del processo penale. Devo dire che a livello giurisprudenziale purtroppo l’Italia non si attesta tra le pronunce più lucide rigorose in tema di prova informatica, spesso la propria informatica si confonde con la prova documentale e quindi ad esempio il dato contenuto in una mail o in un messaggio, un messaggio telematico viene stampato sappiamo ovviamente che il processo penale non è digitale, è un processo orale basato su documenti ma è orale non è digitale quindi spesso il contenuto informatico del documento cristallizzato segmento informato cristallizzato nel documento fa bypassare una serie di interrogativi processuali contraddittorio su come state fitte, siccome è stato
custodito ovviamente c’è questo il problema interpretativo che si sta correndo oggi.
Dal 2014 ci sono i primi casi negli Stati Uniti di interpretazione degli emoji e delle emoticon, di quel segno digitale di quel segno informatico che viene addirittura utilizzato in alcune corti è stato occupato così, in alcune corti e statunitensi per comprendere ad esempio lo stato mentale che aveva vita è il supposto autore del reato l’imputato nella sua relazione con la vittima. Ad esempio in alcuni è reato ovviamente contro la persona. Qui si aprirebbe un mondo ovviamente anche di adeguamento dell’interpretazione del segno digitale rispetto ai crismi della prova logica e quindi e rigorosi criteri di logica nella quotazione nella prova anche di quelli informati.

Quali sono le altre implicazioni dell’intelligenza artificiale applicata al diritto, come può essere quella in ambito giuslavoristico?
Massimiliano Nicotra. In realtà abbiamo svariate applicazioni perché come tutte le tecnologie abbastanza trasversale, noi ad oggi come dicevo prima, abbiamo un articolo cardine che è l’articolo 22 del GDPR a quello che sta accadendo però è un ravvicinamento e questo è molto curioso. Anche da notare è un ravvicinamento tra le discipline, le faccio un esempio proprio in ambito giuslavoristico, si stanno spesso utilizzando anche a livello di selezione dei candidati piuttosto che per andare a decidere delle progressioni di carriera dei dipendenti e queste tipologie di attività, è stata una sentenza molto interessante molto importante, almeno per quello che mi riguarda che non è proprio intelligenza artificiale ma diciamo sono
decisioni automatizzate quindi rientrano in piano grado in quello che sarà poi nel futuro alla fine l’intelligenza artificiale: è solo un pezzettino che si aggiunge il consiglio di stato lo scorso anno con la sentenza 22 70 nel 2019 ha creato una sorta di carta dell’intelligenza artificiale applicata ai procedimenti amministrativi. Quello che si sta vedendo se ne andiamo a leggere questa carta scusatemi il termine a tecnico, ma in realtà indica dei principi che andiamo a vedere con la carta etica ma con anche quello che ha previsto nell’articolo 22 sono speculari a quelli stabiliti ad esempio ne GDPR sulla trasparenza, sull’obbligo o meglio sul diritto che all’interessato a esser sottoposto a quella decisione automatizzata al vaglio di una persona umana.
Questo lo fa partendo dalla 241 del 1990 che quella che disciplina realtà il procedimento amministrativo applicando quei principi che si applicano appunto nella pubblica amministrazione trasparenza, obbligo di motivazione delle decisioni, possibilità d’intervento del cittadino nel procedimento, arriva a formalizzare gli stessi principi che noi andiamo a vedere nella carta etica piuttosto che nell’articolo stesso. Quindi il tema è sempre come dire di avvicinamento dei principi che di fronte a queste tecnologie e si stanno creando dei principi più generali che tutti dobbiamo sentire nel momento in cui le utilizziamo che son quelli che poi volendo li possiamo far ritornare anche a principi costituzionali piuttosto che la libertà mentale.
Questo è tutto molto interessante anche nell’attività concreta di ogni giorno, le applicazioni oltre a quelle del giuslavorista che immaginate il marketing automatizzato, sulla profilazione degli utenti online, immaginiamo il tema della sorveglianza di massa tramite riconoscimento facciale. European data protection Board nelle ultime linee guida sulla videosorveglianza anche si parla di videosorveglianza poi mette il puntino anche sulla sorveglianza massiva.
Vi ricordo che negli Stati Uniti ad alcuni stati hanno occupato totalmente e alcune big: Google piuttosto che Microsoft hanno detto che non mettono a disposizione i software finché non vi sarà una regolamentazione per i rischi sulle libertà fondamentali dei soggetti quindi quello che si stanno dando è un come dire i principi generali ritornano essere un faro nel nostro agire anche con queste nuove tecnologie e si riesce a fare quegli assessment di cui parlavamo prima e a cercare di camminare un pò di dischi che queste tecnologie comportano per tutte le persone.

© Trascrizione Automatica

Leggi anche...

Le Fonti TOP 50 2023-2024

I più recenti
Crtypto

Nasce ASSOCASP, associazione innovativa per i provider di servizi di Crypto asset

manovra

Manovra 2025, quando viene approvata? Date e step necessari per l’approvazione definitiva

Scienze Giuridiche Giurisprudenza cosa ambia

Scienze Giuridiche o Giurisprudenza? Cosa cambia tra le due facoltà e quale scegliere

praticante avvocato

Quanto guadagna un praticante avvocato? Ecco a quanto ammonta lo stipendio

Newsletter

Iscriviti ora per rimanere aggiornato su tutti i temi inerenti l’ambito legale.