top of page

Intervista all'Avv. Alessandro del Ninno

Rivista Dimostrare: “Buongiorno Professore, intanto grazie di averci voluto ospitare qui, in questi spazi meravigliosi dello Studio Legale Tonucci.”

Prof. Avv. Alessandro del Ninno: “Buongiorno a Lei!”

Rivista Dimostrare: “Come sempre iniziamo l'intervista chiedendo qualcosa di specifico in riferimento alla persona del professionista. Quindi la prima domanda che vorrei porLe è questa. Come è nata la sua passione per l'attività forense? Come ha deciso di intraprendere questo tipo di professione?”

Prof. Avv. Alessandro del Ninno: “In realtà mi considero una persona fortunata, nel senso che io ho sempre avuto la passione della tecnologia e del diritto. Quindi quando mi sono iscritto all'università, sapevo esattamente la materia nella quale mi sarei laureato e che avrei praticato a livello professionale, che era all'epoca il diritto delle nuove tecnologie. Mi sono laureato nel ’93, quindi è un’epoca di preistoria. Ho proseguito nel percorso di formazione di studio e poi professionale, sempre cercando il connubio e la coniugazione tra le due passioni, applicare la tecnologia al diritto, ed è così quindi che sono arrivato a ciò di cui mi occupo ancora oggi.”

Rivista Dimostrare: “Quindi in questo in questo percorso va ad affrontare tutte quelle che possono essere le tematiche del diritto legate al mondo del tecnologico. In realtà vale a dire ci sono ambiti del diritto che sono slegati oggi come oggi dalla tecnologia? Possiamo toglierli da quel tipo di collegamento?”

Prof. Avv. Alessandro del Ninno: “Sì, allora, il diritto tradizionale si applica anche alla tecnologia. Però è pur vero che nel corso degli anni proprio lo sviluppo tecnologico ha comportato alcuni paradigmi. Faccio solo un esempio, quello della applicabilità territoriale del diritto. Il Codice civile, piuttosto che le leggi italiane o le leggi dell'Unione Europea, si applicano a un territorio ben definito che è un territorio nazionale o sovranazionale. L'impatto delle tecnologie comporta che a livello regolatorio, la prima cosa che sparisce è il territorio. Quindi l'ambito di applicabilità di norme così specifiche se pensiamo a internet o alle reti di comunicazione elettronica, è un ambito necessariamente globale.

Già questo ci consente di rispondere. In che modo? È vero che le norme tradizionali si applicano anche al comparto tecnologico, ma è altrettanto vero che il comparto tecnologico ha necessitato nel corso degli anni di normative specifiche. Faccio un esempio, se Lei ha il diritto civile, il diritto dei contratti, il diritto penale, l’amministrativo, il tributario, con le norme che anche come cittadino è abituato a considerare, c'è un contraltare, chiamiamolo atecnicamente elettronico, per ciascuna di queste branche del diritto con una normativa specifica. Per cui abbiamo il diritto amministrativo elettronico, il penale dell'informatica, il civile elettronico e così via. E questo attiene, anche per collegarmi alla prima domanda che mi ha fatto, perché io abbia, oltre alla passione, scelto questo diritto che è il diritto delle ormai non più nuove tecnologie. Perché siccome sono una persona che quando va dall’ortopedico, magari per curare una frattura gli chiede un consiglio su un raffreddore, poiché si aspetta che quello è un medico e non solo un ortopedico gli dia una risposta, desideravo un qualche cosa che mi portasse come professionista a non abbandonare ambiti che nella specializzazione non avrei seguito. Ecco, la specializzazione in diritto delle tecnologie ti impone di essere aggiornato quotidianamente su tutti gli ambiti del diritto tributario, penale e amministrativo, perché da quelli scaturisce la normativa specifica che tu come professionista sei chiamato ad applicare.”

Rivista Dimostrare: “Quindi possiamo affermare che non è soltanto privacy e tutela del trattamento dei dati? Ma c'è un mondo dietro al concetto di come vengono analizzati i dati che non può essere sintetizzato con la privacy?”

Prof. Avv. Alessandro del Ninno: “Assolutamente! Tra l'altro io non utilizzo più il termine privacy perché è un termine novecentesco. La riservatezza è un aspetto davvero residuale di quello che è il vero diritto, cioè il diritto alla protezione dei dati personali. In un mondo dove i nostri figli si fanno beffe della privacy, pubblicando ogni minuto della loro vita sui social media, quasi non ha più senso parlare di privacy. Anzi, c'è un problema, oggetto di studi, sulla rinuncia alla cosiddetta privacy perché ormai siamo abituati a non aspettarci la tutela della nostra riservatezza. Il vero diritto però è la protezione dei dati e il fenomeno a cui fa riferimento Lei, in dottrina si chiama «Dati Station». Cioè, ogni aspetto della vita umana è traducibile in dati. Noi, come identità personale, siamo i nostri dati personali che circolano in rete. La «web reputation», piuttosto che l'immagine, lo stesso nostro corpo, sono credenziali di autenticazione ormai per accedere ai servizi. Allora il problema diventa quello del controllo che terzi fanno delle informazioni e dei nostri dati. Sicuramente, la data protection e il diritto alla protezione dei dati sono gli aspetti che mi appassionano ancor più di tutti gli altri.

Però, se Lei mi chiede se mi occupo di procedure di conformità di sistemi di comunicazione elettronica, diritto delle telecomunicazioni o del commercio elettronico, contrattualistica su reti di comunicazione elettronica, questi rappresentano il mio pane quotidiano.”

Rivista Dimostrare: “Possiamo anche parlare dell’uso che viene fatto ormai con i dati. Le nuove reti ultraveloci e l'intelligenza artificiale. Che poi è lo sfruttamento, non so se il termine sfruttamento è corretto, comunque l’utilizzo di dati personali.”

Prof. Avv. Alessandro del Ninno: “Allora è quasi corretto, nel senso che per i sistemi di intelligenza artificiale, la benzina è costituita dai dataset. Per farci capire, tanto più ampi, rappresentativi e completi sono i dataset, o meglio il complesso di informazioni di addestramento di un sistema di intelligenza artificiale, tanto più coerente ed efficace sarà il risultato, che si chiama output, che noi ci attendiamo da un sistema di intelligenza artificiale. Per farle l'esempio, se io devo sviluppare un software di valutazione della produttività dei dipendenti o, per esempio, un software a supporto delle risorse umane per trovare quel professionista che mi occorre, è ovvio che la profilazione che c'è alla base comporterà che il software che vado a impiegare debba essere stato in precedenza addestrato con dati rappresentativi della categoria professionale, di uomini e donne, per non avere i cosiddetti «bias», cioè la l'algoritmo discriminatorio.

Quindi da questo punto di vista i dati sono la base di tutto. Però il consiglio che io vorrei dare quando ci si approccia a una tematica così rilevante come l'intelligenza artificiale è quello di avere un approccio complessivo. Cioè non si può analizzare e parlare dell'intelligenza artificiale senza il paradigma complessivo di tutte le tecnologie che si interfacciano tra di loro. Il 5G, e reti superveloci, la blockchain, un sistema che entro il 2025 sarà la base del 20% delle transazioni e delle certificazioni mondiali.

Il GDPR, quindi la tutela dei dati per la parte dei dataset, fino ad arrivare anche al regolamento sull'intelligenza artificiale che rappresenta una delle ultime novità del mese scorso. Infatti, il 21 aprile l’Unione europea ha presentato la prima bozza di Regolamento generale di circa cento pagine che costituisce il primo tentativo al mondo di regolamentazione complessiva di questa tecnologia, ed è un paradigma rivoluzionario.”

Rivista Dimostrare: “La necessità di questa regolamentazione manifesta il fatto che, in qualche modo, si sta andando molto avanti con lo sviluppo delle intelligenze artificiali. Da un punto di vista tecnico quindi, come l’intelligenza artificiale può supportare l’avvocato ed eventualmente che tipo di problematiche può creare al professionista?”

Prof. Avv. Alessandro del Ninno: “Allora, prima di rispondere a questa domanda, Lei ha parlato di velocità tecnologica. Ai miei studenti faccio sempre l'esempio del Paradosso di Zenone, di Achille e la tartaruga. Dico sempre che Achille, il legislatore, non raggiunge mai la tecnologia perché quando il legislatore è arrivato quasi a imbrigliare quel fenomeno tecnologico, la tartaruga si è spostata un passetto in avanti, quindi c'è un rischio di normativa che nasce obsoleta.

Ecco perché dev'essere sempre tecnologicamente neutra.

È ovvio che il problema della rapidità dell'evoluzione tecnologica è un problema primario per tutti i legislatori del mondo. Per i professionisti rappresenta un'opportunità, perché ovviamente la tecnologia, l'intelligenza artificiale se antropocentrica, cioè se mette al centro l'uomo e se l'uomo ne mantiene il controllo, non deve spaventare.

Le potrei rispondere con un esempio. Negli Stati Uniti, nel 2019, una grande società ha realizzato una gara tra un sistema di intelligenza artificiale e i più grandi cinque avvocati esperti in corporate, in diritto dei contratti. Si trattava di individuare delle falle di riservatezza o «No Disclosure Agreement». Il più veloce dei mega avvocati americani ha impiegato 56 minuti. Il meno veloce ha impiegato 126 minuti. Il sistema di intelligenza artificiale, 26 secondi.

Sono spaventato da tale risultato? No, perché ovviamente, se mi approccio correttamente, come professionista devo essere spaventato se non mi aggiorno. Cioè se rifiuto la tecnologia come molti colleghi fanno: «Ah, no, non mi parlare dei computer», «non mi parlare di mail e di allegati». Allora è ovvio che tali colleghi sono destinati a essere espulsi dal mercato, quasi come in una selezione naturale. È un po’ come chi, all'inizio del Secolo, sapeva leggere e scrivere rispetto all’analfabeta.

Non dico che bisogna essere ecco chi fa il mio mestiere, il quale deve essere anche un esperto di tecnologia. Però io, per esempio, quando il cliente mi chiede l'audit tecnologico, devo avere l'onestà di dire che faccio l'Avvocato e quindi di rivolgersi a un esperto, un ingegnere, un esperto di infrastrutture che poi io supporto dal punto di vista legale. Quindi un minimo di conoscenza, anzi più di un minimo la si deve avere.

Per chi invece è terrorizzato, non ne vuole sapere, la tecnologia è senz'altro un rischio.

Se invece disponiamo di un approccio dell'aggiornamento professionale e dell'aggiornamento delle tecnologie, queste diventano uno strumento di miglioramento dell'organizzazione.

Il nostro studio, lo Studio Tonucci, fa uso di software di intelligenza artificiale per l'organizzazione del lavoro. Ma questo può essere applicato anche agli uffici giudiziari.

Ci sono degli studi in corso in molte procure o tribunali italiani, dove la gestione dei carichi di lavoro tra uffici giudiziari diversi sono gestiti da sistemi di intelligenza artificiale. Tutto sta a come porsi nell'ambito dell’antropocentrismo, cioè l’uomo dev'essere sempre al centro, in quanto fruitore e in quanto destinatario ultimo dei benefici.”

Rivista Dimostrare: “La magistratura e l'intelligenza artificiale. Che tipo di scenari possiamo, non dico prevedere, però immaginare per il prossimo futuro con l'utilizzo dell'intelligenza artificiale? Fino a che punto è lecito pensare ad un intervento di intelligenza artificiale all'interno di procedimenti?”

Prof. Avv. Alessandro del Ninno: “Intanto la Magistratura. Dobbiamo distinguere tra il civile e il penale. Sono due scenari dove l'impatto dell'intelligenza artificiale è abbastanza diverso e diversificato.

L'impatto che può avere l'intelligenza artificiale è assolutamente rivoluzionario, prevedibile e non evitabile. Oserei dire, come ogni scenario tecnologico nel mondo, nella magistratura penale l'impatto è ancora più profondo perché, come per esempio in Inghilterra sta avvenendo, Scotland Yard utilizza dei software di intelligenza artificiale predittiva. C'era un vecchio film con Tom Cruise, con i precog che ti venivano ad arrestare prima che tu commettessi un reato. Quello scenario fantascientifico è da anni realtà. Nel senso che esiste un software molto preciso con il quale Scotland Yard individua la capacità criminale del cittadino prima che questo commetta un reato.

Poi l'intelligenza artificiale. Essendo il diritto penale, bene o male basato su previsioni algoritmizzabili, i minimi e i massimi dettagli nelle caratteristiche del reato, è automatizzaabile una sorta di emanazione automatica di una sentenza, con l'individuazione specifica della pena, la considerazione delle attenuanti e quant'altro. Quindi su ciò l'impatto sarà forse più rapido rispetto alla giustizia civile.

Nella giustizia civile, oggi i sistemi vengono utilizzati per la distribuzione dei carichi di lavoro, per l'analisi della produttività di un giudice. Poi, anche se lo sviluppo attuale del deep learning non è ancora a quel livello, possono essere utilizzati nella costruzione della sentenza e nell'applicazione della decisione.

Un po’ più difficile nel civile rispetto al penale, ma senz'altro non parliamo di fantascienza ma di scenari, come si dice: soon to be.

Rivista Dimostrare: “In questi scenari, come cerca la Comunità europea di regolamentare l’intera fattispecie?”

Prof. Avv. Alessandro del Ninno: “Lo fa adottando un paradigma rivoluzionario per tanti aspetti. Proverò a citarne alcuni.

Io ho studiato questa che è una proposta di regolamento. Non confondiamo i nostri lettori affermando che è una norma. È stata presentata il 21 aprile ed è una proposta di regolamento organico dell'Unione europea sull'intelligenza artificiale. Ha iniziato il suo percorso politico di approvazione. Non possiamo fare previsioni su quando sarà approvata, perché il regolamento sulla tutela dei dati personali sulle reti di comunicazione elettronica, è quattro anni che provano ad approvarlo.

Però abbiamo quello che è la codificazione di come l'Unione europea intende muoversi ed è una codificazione rivoluzionaria.

Faccio alcuni esempi. Il primo, avendo studiato nello specifico questo regolamento mi ha molto colpito che delle 44 definizioni giuridiche, ce n'è una che per la prima volta nella storia del diritto entra nel nostro foro interno. È la definizione di sistemi di codificazione o deduzione delle emozioni che viene definita giuridicamente. Viene definita come la capacità del sistema di intelligenza artificiale di andare a fare la detection o la previsione delle emozioni. Dall'espressione facciale, prevedendo possibili comportamenti sono cioè in grado di capire se sei triste o felice, quale sarà il tuo comportamento sulla base dell'emozione di cui ho fatto la detection. L'ho trovato, pur essendo «ad uso» alle tecnologie, piuttosto inquietante. Cioè il legislatore che, per la prima volta, con il diritto entra all’interno delle nostre intenzioni.

Poi l'Unione europea introduce un paradigma innovativo per l’utilizzatore. Se Lei oggi va in un negozio e compra un telefonino, che ha un fenomenale sistema di intelligenza artificiale che è Siri, Google o Android, Lei finisce lì il suo rapporto con il fornitore. Non è tenuto ad informare costantemente chi gliel'ha venduto.

Nel regolamento è previsto per le aziende un obbligo che comporterà un'organizzazione aziendale ad hoc, un ufficio contratti che si chiama «sorveglianza post introduzione sul mercato». L'utente finale sarà obbligato, pena sanzioni elevatissime, ad informare costantemente il venditore/il fornitore riguardo come quel sistema sta funzionando.

Per lo sviluppatore è prevista poi tutta una filiera di ruoli e responsabilità diverse, chi scrive l'algoritmo, chi lo sviluppa, chi distribuisce, chi immette sul mercato, chi vende, chi realizza la procedura di conformità presso gli enti di notifiche europei. Ecco, è prevista tutta questa filiera, nella quale per esempio, al fornitore vengono imposti degli obblighi fondamentali di conservazione, di come ha addestrato i sistemi, i famosi dataset di cui parlavamo prima. Che diventano in sede giudiziaria fondamentali se io ricevo un danno da sistema. Chi l'ha creato quel danno? L'utilizzatore o chi ha sviluppato un algoritmo «bias», con la discriminazione. Tutto deve essere tracciato e registrato.

Aggiungo che l'utente, tra gli obblighi ha anche quello di tracciare i log e conservarli per metterli a disposizione del fornitore. E quindi c'è tutto un sistema che si chiama «risk assessment» e quality management» che impone agli sviluppatori, ma soprattutto ai fornitori, una pletora a garanzia nostra. Ma anche noi siamo i garanti di noi stessi. Come Le ho detto, impone una serie di adempimenti pratici organizzativi e tecnologici.”

Rivista Dimostrare: “Su questo però mi permetto di approfittare delle telecamere per portarmi a casa una promessa. Cercando di portare anche fuori dalla telecamera e quindi direttamente a contatto con le persone, sarebbe particolarmente interessante per noi come rivista «Dimostrare», nonché gratificante, poter organizzare un evento all'interno del quale magari affrontare questo tema, rendendo edotte quante più persone possibili. E quindi, vorrei rubarLe una promessa sull'impegno a poter realizzare insieme questo evento.”

Prof. Avv. Alessandro del Ninno: “Promessa assolutamente fatta! Anche nella prospettiva che la conoscenza sensibilizza. È una parte fondamentale di queste normative. È ovvio che io sono consapevole dei rischi, se sono a conoscenza di ciò che vado a utilizzare. Qual è il quadro regolatorio applicabile? Quindi, senz'altro sarà un piacere organizzare qualcosa assieme, per chi ha oggi ascoltato e letto l’intervista e per chi ci vorrà incontrare di persona.”

Rivista Dimostrare: “Professore, restando legati alle applicazioni, mi ha parlato di aspetti predittivi. L'aspetto predittivo ovviamente interessa sicuramente la parte giuridica ma interessa ancor di più la parte investigativa. Quindi, come può essere utilizzato e che tipo di situazione ci troviamo di fronte oggi?”

Prof. Avv. Alessandro del Ninno: “Per questo aspetto specifico faccio riferimento proprio al regolamento, perché il regolamento nell'allegato 3 elenca otto aree di sistemi di intelligenza artificiale che vengono chiamati per distinguere tutti gli altri ad alto rischio. In questo allegato c'è, per esempio, l'impiego di sistemi di riconoscimento e classificazione biometrica da remoto, rispetto ai quali il regolamento prevede certe pratiche che sono vietate.

Per esempio in Cina, dove vige il cosiddetto «social credit score», tutti i cittadini partono da 1000 punti. Se qualcuno prendi una multa o si comporta male, sporca la città, gli viene decurtato questo credito e quando scende sotto un certo livello, non è più ammesso a salire sui mezzi pubblici oppure a scrivere tuo figlio a una scuola. Ciò avviene attraverso sistemi biometrici di identificazione e classificazione da remoto e viene descritto nella trama di una puntata dei «Black Mirror» che è una serie Netflix sulla tecnologia che consiglio a tutti di vedere, proprio come compito.

Ecco questo «social credit score» è vietato nel regolamento.

Torno, dopo aver aperto questa parentesi, alla polizia. L'investigazione con sistemi di intelligenza artificiale predittiva, può essere svolta a scopi antiterrorismo, da autorità pubbliche e di polizia che devono controllare i confini europei o ricercare i bambini scomparsi. Ma utilizzare le videocamere avanzate con i sistemi biometrici è vietato per il normale controllo del cittadino il quale non può essere classificato, profilato o discriminato.”

Rivista Dimostrare: “Uscendo fuori dai confini europei, qual è la situazione a carattere mondiale? L'Europa magari tende a bloccare un certo tipo di sistema, la Cina invece lo incentiva e come mi stava dicendo già lo utilizza quotidianamente. Come possiamo gestire questo tipo di rapporto in un mondo globalizzato come quello in cui viviamo?”

Prof. Avv. Alessandro del Ninno: “Lo abbiamo detto all'inizio! La tecnologia non ha territorio.

Allora, intanto l'Europa è stata la prima entità sovranazionale al mondo a proporre una regolamentazione. Come spesso accade, la regolamentazione europea si pone come modello per altre leggi nazionali. Lo ha fatto il GDPR.

Stavo facendo in questi giorni uno studio comparativo di leggi sulla protezione dei dati al di fuori dell'Unione europea. E se va a vedere, la Thailandia, la Colombia, la stessa India e il Brasile hanno copiato il GDPR.

Quindi in realtà come prima forma di risposta spesso la legislazione dell'Unione europea è il modello per altre legislazioni.

Il secondo aspetto. Ovvio che in Cina non ci si aspetti lo stesso livello di garanzia che possiamo trovare in Europa, ma nemmeno negli Stati Uniti direi.

Ovviamente è sotto gli occhi di tutti lo scontro continuo proprio sulla protezione dei dati personali che c'è tra Stati Uniti e la normativa federale europea che prevede tutto questo complesso di tutele. Ovviamente questo poi si può tradurre in un vantaggio competitivo per chi non ha certe prescrizioni da osservare.

La questione della Cina ovviamente è una questione politica non è più una questione legale. Però sicuramente, abbiamo già visto come l'Unione europea tuteli i propri interessi anche rispetto a ordinamenti giuridici che non hanno quel sistema di cautele. Quindi direi che il regolamento sull'intelligenza artificiale si pone come apripista per altri regolamenti che saranno creati.

Come il GDDR è stato copiato o preso a modello diciamo, in quasi tutto il mondo occidentale e non solo. O comunque, il sistema europeo con il GDPR ha stabilito dei meccanismi che lo rendono applicabile in tutto il mondo.

Faccio l'esempio cosa accade nel Regolamento generale sulla protezione. Lì c'è scritto che se tu non esisti in Europa, sei ovunque nel mondo, non hai nessuna sede legale, nessuna sede amministrativa, ma per scopi di profilazione (qui ci colleghiamo anche all'intelligenza artificiale) o per promuovere e proporre i tuoi prodotti o servizi nell'Unione europea, tratti dati di persone fisiche che si trovano nell’Unione, sei soggetto ad applicabilità del GDPR e devi nominare un rappresentante nel territorio dell'Unione. Questo è un meccanismo che rende in quei due casi il GDPR applicabile in tutto il mondo.

Non c'è un meccanismo del genere nel comparto del regolamento sull'intelligenza artificiale, ma probabilmente durante lo stato dei lavori di approvazione, qualcuno penserà ad introdurlo.”

Rivista Dimostrare: “Prima di chiudere l'intervista vorrei farle l'ultima domanda, quella ormai diventata rituale. Cosa si aspetta e cosa desidera per il Suo futuro?”

Prof. Avv. Alessandro del Ninno: “Dal punto di vista professionale ho un desiderio. È che la mia attività professionale continui così come si è svolta fino ad oggi. Nel senso che dal punto di vista del professionista sono soddisfatto, soprattutto per il riscontro da parte dei miei clienti. Quella passione che mi aveva portato trent'anni fa a fare le scelte di cui ho parlato all'inizio dell'intervista non è mai calata, neanche dopo trent’anni di professione. Quindi spero che continui così!

Se posso farmi un augurio e che appunto mi mantenga come fino a oggi mi sono mantenuto nel percorso che mi ha consentito di arrivare fino a qui.”

Rivista Dimostrare: “Professore, io La ringrazio nuovamente. Le chiedo la cortesia di portare il nostro ringraziamento ovviamente allo studio che ci ha ospitato, lo Studio Tonucci. Per noi è stato un enorme piacere poter fare una conversazione con Lei e imparare una quantità industriale di informazioni sulle nuove tecnologie e su tutto ciò che riguarda il mondo del diritto. Mi auguro che tutti i suoi colleghi che leggeranno e ascolteranno la registrazione di questa intervista, facciano tesoro di un paio di consigli che il buon Professore ha dato a tutti.”

Prof. Avv. Alessandro del Ninno: “Grazie a Voi. Sono lieto di aver fatto questa conversazione insieme. Arrivederci!”

4 visualizzazioni0 commenti

Post recenti

Mostra tutti

Comments


bottom of page