Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Blockchain, Spazio e Fintech. Intervista con l’avvocato del futuro

Alessandro Negri della Torre è il fondatore di LX20 Law Firm, una delle prime realtà italiane a specializzarsi nelle materie del diritto del futuro. Dopo una laurea in Italia e due LL.M all’estero (Usa e Uk) ha lavorato per molti anni in boutique firm e ha sviluppato l’iniziativa fintech di un’importante società di consulenza. Lo incontriamo per comprendere meglio chi sarà e cosa farà l’avvocato del futuro.

Come nasce l’idea di dare vita a uno studio legale del futuro?

Nasce dalla consapevolezza che il mondo moderno chiede al professionista competenze nuove e flessibilità nel comprendere le sfide che derivano dallo sviluppo della tecnologia.

Ho avuto la fortuna di crescere in una famiglia di giuristi e ho potuto percepire la progressiva trasformazione del diritto per effetto dei cambiamenti sociali e tecnologici.

Tra le tecnologie che si stanno sviluppando ci sono Blockchain e Intelligenza Artificiale. Quali sono le opportunità per la società?

Parlerei di opportunità e necessità. Blockchain e intelligenza artificiale sono due esempi di tecnologie cosiddette disruptive perché toccano due aspetti del mondo del diritto assolutamente tradizionali: la presenza di soggetti “intermedi” nella circolazione di beni e servizi e il novero dei “soggetti” in grado di prendere decisioni e alterare il corso di fenomeni, relazioni e sfere giuridiche. Così la blockchain permette di eliminare soggetti con funzioni chiave (banche, intermediari finanziari) e l’intelligenza artificiale promette di ampliare la sfera di soggetti che possono prendere decisioni in autonomia con significative conseguenze per tutti i membri della società.

Parlano di autonomia, ma se una macchina self-driving investe una persona, di chi è la colpa?

La risposta definitiva deve ancora arrivare, ma si può osservare come le variabili del problema siano diverse. In primo luogo si deve capire se al momento dell’incidente il guidatore aveva perso il controllo del veicolo, poi verificare se l’auto ha operato entro i limiti di programmazione, infine si deve determinare una regola per l’identificazione del soggetto che, nella catena dalla progettazione alla produzione alla vendita dell’auto, è nella posizione migliore per rispondere del danno. La questione può essere affrontata in molti modi.

Negli Stati Uniti il diritto in questa materia sta avanzando.

Ritengo che l’approccio americano dell’analisi economica del diritto permetta di giungere ad un risultato “efficiente”. Il vero tema è individuare la “logica” utilizzata dalla AI che guida l’auto. Che responsabilità, obblighi o libertà hanno i programmatori di AI nelle self-driving cars per determinare la logica di comportamento in caso di incidente? È lecito ad esempio che una AI sia programmata per sacrificare una vita umana al posto di due? È necessario imporre standard da inserire obbligatoriamente nel corredo di programmazione di tutte le auto? È necessario intervenire a livello normativo locale, sovranazionale o mondiale? Sono tutte domande alle quali la politica può dare una risposta (almeno a livello di indirizzo generale).

Che ruolo deve avere la politica in questo ambito?

La politica ha il dovere – onere e onore – di dare una veste legale a questi fenomeni affinché possano essere di ausilio ai membri della società. Si tratta di un esercizio complesso e delicato che richiede competenze specifiche e un approccio pragmatico volto a comprendere e poi regolare. Non solo, ma Blockchain e AI possono essere esse stesse di ausilio alla politica e allo Stato.

Come dovrebbe essere organizzata la legge o il sistema di leggi che regolamenteranno l’intelligenza artificiale?

L’intelligenza artificiale presenta caratteristiche del tutto peculiari di cui si deve tener conto. Se una persona può essere orientata nelle scelte tramite certe regole/strutture sociali (ad esempio la minaccia della reclusione per comportamenti antisociali), l’AI non risponde – salvo forme di adattamento – a nulla se non al proprio codice. Inoltre, dove la soggettività umana è limitata nel tempo e nello spazio, l’intelligenza artificiale ha limiti ben diversi con la conseguenza che gli effetti dovuti alla errata progettazione, errata gestione o errata implementazione delle AI possono essere molto gravi. Decidere come le leggi e i regolamenti devono affrontare il tema meriterebbe molte discussioni, ma ritengo che sia essenziale che le regole siano sempre orientate a massimizzare il beneficio per il maggior numero di individui. Credo quindi che sia opportuno individuare delle regole generali che siano impresse alle AI (almeno alcune) al fine di orientarne gli effetti verso il benessere collettivo.

Ti occupi anche di diritto dello Spazio, di cosa si tratta e quali sono le sfide?

La Space law che oggi in Italia è pressoché ignota, è una branca del diritto che nasce per regolare l’esplorazione spaziale, anche privata, e soprattutto l’uso delle risorse nello Spazio. Dagli anni delle prime missioni Apollo, la tecnologia si è evoluta enormemente ed oggi la possibilità di missioni spaziali private con finalità commerciali è sotto gli occhi di tutti. Basti pensare a SpaceX di Elon Musk e la sua missione di portare l’uomo su Marte.

Il diritto dello Spazio mira a individuare delle regole comuni affinché lo Spazio sia fonte di ricchezza e crescita piuttosto che di scontri e disuguaglianze tra Stati. Consiglio sempre di leggere articoli sul diritto dello Spazio anche solo per espandere gli orizzonti e conoscere una materia che tra qualche anno sarà di grande rilevanza, almeno a livello di consesso internazionale.

Che consiglio daresti a un giovane che vuole intraprendere la carriera di avvocato?

Di pensarci tre volte! Scherzi a parte darei due consigli. Il primo è comprendere bene il mercato di riferimento e restare aggiornati. Il secondo consiglio è quello di evitare il bias cognitivo di dire: sono un avvocato e per tutto il resto ci sono altri professionisti o tecnici. Si tratta di un ragionamento fallace che presuppone l’esistenza di barriere intellettuali e cognitive che in verità non ci sono. Un avvocato che si occupa di information technology deve comprendere come funziona un server, un sistema in cloud, ecc. L’avvocato moderno deve avere una flessibilità nuova e una trasversalità di competenze assolutamente inedita.

×

Iscriviti alla newsletter