Diritto e Intelligenza Artificiale: Quando la norma resta indietro di un secolo

| 26/05/2025

Mi trovo a dover riflettere su due articoli che illustrano perfettamente come il nostro sistema legale si stia contorcendo in modo quasi grottesco per adattare normative anacronistiche a tecnologie che i legislatori del passato non avrebbero potuto nemmeno immaginare.

Macchine imputabili: la nuova frontiera dell’assurdo giuridico

Partiamo dal primo caso: l’articolo accademico sull’imputazione penale e l’intelligenza artificiale nelle auto a guida autonoma. Machina delinquere potest? È quasi comico vedere giuristi impegnarsi in complesse disquisizioni sulla possibilità che una macchina possa “delinquere”. Come se stessimo discutendo di un nuovo soggetto giuridico dotato di coscienza e volontà!

La realtà è molto più semplice e il buon senso suggerisce una soluzione immediata: se le statistiche dimostrano che le auto a guida autonoma riducono significativamente gli incidenti stradali (ricordiamo che il 90% degli incidenti è causato da errori umani), dovremmo accoglierle a braccia aperte, non cercare di capire quale algoritmo processare quando qualcosa va storto!

La soluzione pragmatica è evidente: creare un sistema di certificazione pubblica per questi veicoli e prevedere un’assicurazione obbligatoria, che sarebbe peraltro meno costosa proprio grazie alla riduzione degli incidenti. E gli eventi avversi sarebbero trattati come casi fortuiti, alla stregua di qualsiasi guasto meccanico tradizionale, come il blocco dello sterzo o la rottura dei freni.

Ma no, preferiamo impantanarci in disquisizioni su “decisioni robotiche” e “imputazione della responsabilità penale” a chi sta “alle spalle della macchina”.

Tesi di laurea e AI: una Legge del 1925 incontra l’AI

Il secondo caso è ancora più emblematico. Abbiamo una legge del 1925 (!) che punisce chi presenta come propri lavori altrui. Ottimo principio, per carità. Ma applicarlo all’uso dell’intelligenza artificiale è solo una prova evidente di stupidità naturale.

La contraddizione è lampante: formiamo professionisti che nel mondo reale dovranno utilizzare l’AI come strumento quotidiano per essere competitivi, ma li puniamo se la usano durante il loro percorso formativo. È come se un secolo fa avessimo proibito l’uso della calcolatrice nei corsi di ingegneria perché “non è un calcolo originale dell’allievo”.

L’ironia è che il mondo del lavoro richiederà proprio quelle competenze che stiamo scoraggiando: la capacità di utilizzare efficacemente gli strumenti di intelligenza artificiale, di formulare prompt efficaci, di verificare e integrare le informazioni generate. Invece di adattare i nostri metodi di valutazione a questa nuova realtà, ci aggrappiamo a una legge scritta quando la radio era considerata alta tecnologia.

Un sistema legale in crisi di adattamento

Il problema di fondo è che il diritto, per sua natura conservatore e purtroppo legato a una cultura umanistica, fatica tremendamente ad adattarsi ai cambiamenti rapidi della tecnologia. Le leggi vengono redatte e interpretate guardando al passato, ignorando il presente e negando il futuro. E quando il futuro arriva, spesso più velocemente del previsto, gli strumenti normativi sono assurdamente inadeguati.

A fronte di questa inadeguatezza i giuristi, invece di ammettere che serve un ripensamento radicale, tentano operazioni di contorsionismo interpretativo che rasentano il ridicolo. Ecco quindi che ci si interroga sulla “colpevolezza penale nell’impiego di strumenti prevedibilmente imprevedibili” (un ossimoro che meriterebbe un premio per la creatività giuridica) o si discute se un algoritmo possa essere considerato “l’autore” di una tesi di laurea ai sensi di una legge scritta quando il computer non esisteva ancora.

La verità è che abbiamo bisogno di un approccio completamente nuovo: non possiamo continuare a usare il martello del diritto tradizionale per fissare le viti della rivoluzione digitale. Servono norme pensate specificamente per le nuove tecnologie, che partano dai risultati reali (riduzione degli incidenti, miglioramento dell’efficienza) piuttosto che dall’ossessione di trovare sempre un colpevole umano.

Dobbiamo smettere di chiederci “come puniamo la macchina” o “chi è responsabile dell’algoritmo” e iniziare a chiederci “come regoliamo questo sistema per massimizzare i benefici e minimizzare i rischi”. E soprattutto, dobbiamo riconoscere che vietare l’uso dell’intelligenza artificiale negli ambienti educativi è come vietare i PC nelle scuole: non solo è inutile, ma è anche controproducente.

Il diritto dovrebbe essere uno strumento per governare la realtà, non una reliquia del passato che ostacola il progresso. Altrimenti, continueremo a vedere professori di diritto penale che scrivono dotti trattati sull’imputabilità delle macchine, mentre il mondo reale va avanti senza di loro, lasciando il sistema legale sempre più irrilevante e, a tratti, involontariamente comico.

E poi ci sorprendiamo se la gente guarda ai vincoli normativi con un misto di timore e ironia…

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.