Crisi della Legge o crisi dell’uomo – di Stefano Amore
Nell’esperienza del Novecento e di questo primo scorcio del XXI secolo, la produzione normativa sembra sempre più ridursi all’espressione di una volontà contingente e transeunte, manifestando in modo evidente che «tutto ciò che garantiva unità e verità del diritto, è ormai tramontato» e che ciò che rimane è soltanto «l’incessante produzione e consumo di norme»1. In questa prospettiva, la decodificazione, la conseguente proliferazione di leggi speciali e l’affermarsi di un nuovo tipo di organizzazione del diritto, lungi dal costituire fenomeni in contraddizione tra di loro, appaiono come l’espressione di una medesima tendenza alla decostruzione degli ordinamenti giuridici e al superamento delle tradizionali forme di organizzazione sociale, dominate dal potere dello Stato nazionale e dei ceti borghesi.
La crisi di centralità del codice diviene «l’immagine della crisi dello stato moderno e così dell’emersione storica di gruppi e classi, di categorie economiche ed élites che esigono specifici statuti e tavole di diritto»2, in una dinamica segnata dalla sempre più marcata perdita da parte della legge dei suoi caratteri tradizionali di generalità e astrattezza. Da ciò deriva anche un inevitabile e significativo mutamento dell’assetto delle fonti del diritto, nonché un ruolo del giudice profondamente diverso rispetto al passato. Un giudice chiamato a svolgere una funzione di carattere «creativo», proprio in conseguenza dell’oscurità e della caoticità della produzione normativa.
È in questo contesto che si impone, oggi, una riflessione approfondita sul ruolo che l’intelligenza artificiale può assumere nella produzione normativa, non soltanto come ausilio tecnico, ma come possibile nuovo principio ordinatore del diritto, capace, al tempo stesso, di rafforzarne la razionalità e di incrinarne i presupposti teorici fondamentali3.
Fino a pochi anni fa, l’ideale illuministico di una scienza della legislazione, capace di ricondurre la regolazione normativa a una dimensione di chiarezza, generalità e prevedibilità appariva in uno stato di profonda crisi. Uno dei presupposti epistemologici di tale concezione — quello secondo cui il diritto sarebbe il prodotto di un disegno unitario e intenzionale — era stato ampiamente confutato e si era affermata, di contro, l’idea che anche il diritto dovesse essere inteso come l’esito storico di adattamenti successivi, non pianificati e non interamente prevedibili4.
A fronte di tale situazione, alle regole di tecnica normativa5 veniva, comunque, attribuita una funzione essenziale. Esse erano, infatti, considerate condizioni minime di razionalità dell’azione legislativa e un presupposto irrinunciabile della tutela dei diritti. La stessa giurisprudenza costituzionale aveva riconosciuto che l’oscurità della legge può tradursi nella violazione di principi fondamentali (in particolare del canone di ragionevolezza della legge di cui all’art. 3 Cost.)6.
In questa prospettiva, l’intelligenza artificiale appare, indubbiamente, in grado di superare alcuni dei tradizionali limiti della tecnica legislativa, nella misura in cui consente controlli più estesi e approfonditi sulla coerenza normativa e sulle interazioni delle disposizioni in corso di elaborazione all’interno dell’ordinamento. Ma non mancano, anche in questo specifico ambito, le ambiguità e i rischi. Essa non può, infatti, essere considerata una semplice evoluzione della legimatica7, né un mero strumento di affinamento tecnico delle attività di drafting legislativo. E il suo utilizzo crescente fa emergere, chiaramente, il pericolo che tramite essa vengano riproposte, in forme nuove e più pervasive, quelle pretese costruttivistiche — spesso associate alle ideologie politiche totalitarie — che la critica novecentesca aveva smascherato.
L’IA rende, infatti, possibile, portandola a un livello inedito, una produzione normativa sempre meno fondata sulla costruzione di fattispecie generali e astratte e sempre più orientata all’elaborazione di disposizioni “ottimizzate” rispetto a casi concreti, così spostando ulteriormente l’asse della normazione dalla generalità astratta alla regolazione di fattispecie specifiche.
In altri termini, l’intelligenza artificiale è in grado di perfezionare, come mai accaduto prima, il modello della legge-provvedimento, strutturalmente privo di quei caratteri di generalità e astrattezza che, tradizionalmente, connotavano la legge.
In questo passaggio, in cui il legislatore tende a divenire, sempre più, anche giudice del caso concreto, la legge rischia di perdere la sua stessa dimensione simbolica, trasformandosi in un codice algoritmico, pienamente intelligibile solo dalla macchina.
In un contesto del genere, le regole di tecnica legislativa assumono un valore ulteriore, di argine culturale, potendosi riaffermare, attraverso di esse, il primato del linguaggio e della responsabilità umana nella produzione del diritto.
I testi normativi, per risultare più agevolmente interpretabili ed eseguibili dalle macchine, appaiono, infatti, destinati a convergere verso strutture ripetitive, sintassi standardizzate e categorie uniformi, con il rischio di rendere più opaco il controllo democratico dei processi decisionali e di comprimere la vitalità del diritto, quale espressione della concreta esperienza umana8.
Non solo. La crescente diffusione dei sistemi di intelligenza artificiale, sia sul versante legislativo, che su quello giurisdizionale, rischia di incidere sullo stesso principio di separazione dei poteri e di irrigidire, in modo significativo, l’ordinamento.
Nell’esperienza storica, il giudice è sempre stato chiamato a ricondurre l’individuale al generale, attraverso operazioni di interpretazione, qualificazione, sussunzione e bilanciamento, nel rispetto dei vincoli costituzionali. Se però la legge venisse prodotta da un sistema di intelligenza artificiale, che non si limita a formulare enunciati astratti, ma costruisce modelli regolativi fondati su casi e obiettivi concreti, la funzione giurisdizionale rischierebbe di rimanerne sostanzialmente superata.
In un diritto computazionale di questo tipo, la legge diviene, infatti, un insieme di regole operative, criteri di inferenza e procedure decisionali che troverebbero, evidentemente, nella stessa intelligenza artificiale che li produce, anche il suo esecutore naturale.
Lo stesso processo interpretativo verrebbe meno. Ciò perché l’interpretazione non è, e non può essere, un atto chiuso e autoreferenziale, ma un processo relazionale che si realizza nel passaggio del testo da un individuo a un altro. Essa presuppone la differenza — storica, linguistica, esistenziale — tra soggetti, ed è proprio questa distanza a rendere necessario e possibile l’atto interpretativo. Dove viene meno l’alterità, l’interpretazione si dissolve, lasciando spazio solo all’applicazione meccanica.
È indubbio che, sotto alcuni profili, i sistemi di intelligenza artificiale possano fare meglio del tradizionale giudice umano, aumentando la coerenza delle decisioni, la capacità di trattamento dei dati e la celerità dei giudizi.
Ma la separazione tra legislatore e giudice, che un uso eccessivamente fiducioso dell’intelligenza artificiale rischia di incrinare, assolve negli ordinamenti a una funzione non rinunciabile: garantire che la produzione normativa avvenga in una sede politicamente responsabile, distinta dall’ambito in cui, invece, con una serie di garanzie, si svolge la sua applicazione.
Ma se la stessa intelligenza artificiale, sia pure sotto le sembianze rassicuranti del legislatore e del giudice umano, produce la regola e decide il caso, il circuito di legittimazione si chiude su sé stesso.
Ha scritto Paolo Grossi: «L’unico strumento per togliere al diritto il tradizionale ripugnante smalto potestativo e autoritario era ed è di concepire la normazione come un procedimento che non si compie con la produzione ma che ha un momento susseguente, il momento interpretativo, come interno alla formazione della realtà complessa della norma; insomma, l’interpretazione quale momento essenziale della positività della norma stessa, condizione ineliminabile per il concretarsi della sua positività. Certamente, per arrivare a questo, occorrono altri occhiali sul naso dei giuristi; occhiali che non sminuiscano l’interpretazione a una dimensione meramente conoscitiva, ma la colgano come vita della norma nel tempo e nello spazio, carnalità della norma in quanto esercizio, prassi, uso; occhiali che siano disposti ad accogliere entro il paesaggio giuridico anche la comunità degli utenti in funzione non meramente passiva, che siano disposti ad ammettere non un solo protagonista monocratico (il detentore del potere) ma una pluralità folta di soggetti»9.
Il rischio è, evidentemente, che la tecnica, nuovo detentore del potere nel XXI secolo, assorba in sé anche il diritto, producendo una normativa coerente e globalmente uniforme, ma impoverita nella sua capacità di cogliere la complessità del reale e i valori.
È anche in questa prospettiva che vanno lette le riflessioni del Prof. Damiano Nocilla sulla crisi della legge, che pubblichiamo in questo numero della rivista, e che, elaborate originariamente nel 1992, costituiscono una preziosa testimonianza sulla crisi della legge e sui suoi processi di trasformazione, anticipando molte delle problematiche odierne10.
Nel suo scritto Nocilla rileva, tra l’altro, che: «[il] popolo sente ormai di poter partecipare in prima persona alla formazione della legge; onde le varie misure, imposte dal legislatore, appaiono, ora, ai cittadini come qualcosa che sia ad essi dovuto, che essi si sono conquistato: tardiva risposta alle domande, che emergono in seno alla società civile. La legge perde, quindi, ogni connotato di sacralità, tutto il prestigio, che le derivava dal fatto di costituire l’espressione di un’ipotetica volontà generale, e non della contingente volontà del più forte.» e che «[l]a stessa organizzazione autoritativa non potrà non risentire di questa profonda trasformazione sociale. Il trattamento automatico delle informazioni, tanto per fare un esempio, può determinare il venir meno di alcuni tra i più importanti presupposti giustificativi della democrazia rappresentativa e, nello stesso tempo, mettere in luce le carenze della tradizionale burocrazia statale, riducendone al minimo essenziale la consistenza quantitativa».
Si tratta di una analisi che, in tempi non sospetti, coglie perfettamente i problemi dell’odierno populismo, assistito dall’intelligenza artificiale, e di quella “democrazia algoritmica” che ne potrebbe derivare.
Cercando di liberarsi dai limiti che hanno, sinora, afflitto la sua vita, l’individuo elegge l’intelligenza artificiale a suo nuovo Dio, un Dio, sempre presente, che risolve, almeno nelle aspettative, ogni problema e che supera ogni contraddizione.
Nel XXI secolo l’individuo non eleva più preghiere al cielo, ma si rivolge fiducioso a quanto lui stesso ha creato per liberarsi dalla malattia, dalle sofferenze e dalle difficoltà della vita quotidiana. Ha scritto Alain Supiot: «[il] connubio tra lo scientismo moderno e la credenza occidentale nel progresso dà dunque vita a un’ideologia del non-limite che influenza tutti gli aspetti della vita umana. Sul piano tecnico, quest’ideologia si esprime attraverso una fede incrollabile nelle scoperte future in grado di scongiurare le minacce che la nostra hybris economica c tecnologica fanno pesare sulla sopravvivenza del pianeta. Sul piano giuridico essa induce a considerare la legge non più quale una garanzia dello stato delle persone, ma come un vincolo dal quale emanciparsi. Versione secolarizzata della fine della Legge annunciata da san Paolo, questa emancipazione deriva dalla fede in un essere umano in grado di fondare sé stesso. A quanto pare, dunque, si starebbe profilando un avvenire radioso in cui ciascun uomo sarebbe assoggettato soltanto ai limiti che egli impone a sé stesso. Da cui il rifiuto di ogni limite imposto dall’esterno»11.
La seduzione esercitata dall’intelligenza artificiale è proprio questa.
«Attraverso l’intelligenza artificiale l’individuo crede di poter raggiungere una condizione di quasi onnipotenza, di liberazione delle sue potenzialità, senza però rendersi conto che dietro queste promesse si cela il rischio della definitiva rinuncia alla propria umanità e alla propria unicità. Il tratto distintivo del capitalismo non è la ricerca della ricchezza materiale, ma l’affermazione del predominio della quantità sulla diversità degli uomini e delle cose. Il principio di uguaglianza diviene oggetto di interpretazioni deliranti quando, fuorviati dal concetto di quantità, siamo indotti a dare rilievo all’astrazione del numero indipendentemente dalla qualità degli esseri presi in considerazione. Calcolare non equivale a pensare. La razionalizzazione tramite il calcolo che ha generato il capitalismo diviene puro delirio quando si spinga a non considerare l’incalcolabile. La capacità di calcolo è senza dubbio un attributo fondamentale della ragione, ma la ragione non si riduce certo a essa. É stata la formalizzazione logica di questa capacità dello spirito che ha permesso l’invenzione del computer. Il procedimento consistente nel proiettare lo spirito umano in un oggetto materiale è sempre stato, fin dalla prima pietra intagliata, la molla primaria del progresso tecnico e del dominio umano sulle cose. Tuttavia, il “cognitivismo” assurto oggi per noi a scienza dello spirito procede secondo un movimento inverso, proiettando sullo spirito umano il modello del calcolatore e sperando così, con l’aiuto delle nanotecnologie, di pervenire un giorno al controllo materiale del pensiero.»12.
Nella filosofia di Leibniz13, l’individuo veniva rappresentato come una “monade senza finestre” che riflette l’universo, ma non si apre a esso: ogni monade rappresentava un mondo a sé, perfettamente organizzato, che esiste in uno stato di completa autonomia rispetto agli altri.
Il confronto tra la monade senza finestre e l’individuo plasmato dall’intelligenza artificiale e da internet evidenzia una tensione irrisolta e un paradosso: mentre la monade di Leibniz resta impermeabile all’alterità, l’individuo di oggi è, allo stesso tempo, “senza finestre” ed esposto, nel contempo, a un panorama sconfinato di stimoli e condizionamenti che, però, non sembrano essere in grado di attivare la sua coscienza morale e di fargli raggiungere la dimensione del “Noi”.
In questo scenario, l’intelligenza artificiale gioca un ruolo fondamentale: da un lato amplifica l’egotismo, dall’altro dissolve la coscienza dell’individuo in un mare di dati e relazioni, trasformando la persona, sempre di più, nel mero prodotto di una serie di pratiche di potere e di sorveglianza, in cui il rapporto con “l’altro” è dello stesso genere di quello che intercorre tra lo spettatore di un film e i protagonisti di una pellicola.
Byung-Chul Han coglie perfettamente questo aspetto, quando scrive che “L’io è diventato un progetto permanente, ma senza più un noi che lo vincoli. È l’io dell’auto-esposizione e dell’autottimizzazione”14.
Rifiutare l’evoluzione che ci propongono la scienza e la tecnica non appare concretamente possibile e neppure sarebbe sensato. Ma ancora meno sensato sarebbe percorrere questo cammino senza cogliere le gravi insidie che esso cela. I sistemi di IA tendono, per loro natura, all’opacità: le decisioni che generano si basano su reti neurali e algoritmi, che non sono facilmente interpretabili neppure da chi li sviluppa (il cd. black box problem)15.
E questa opacità può rendere totalmente inadeguati i tradizionali strumenti di controllo democratico e giurisdizionale, rendendo oltremodo opportuna la predisposizione di una serie di vincoli e limiti costituzionali ulteriori rispetto a quelli esistenti, per disciplinare specificamente l’utilizzo dell’IA16.
Le decisioni assunte — o anche solo suggerite — dai sistemi di IA potrebbero, infatti, spostare il baricentro della sovranità dagli organi rappresentativi ai tecnici e ai grandi operatori dell’economia digitale, alterando l’equilibrio tra potere pubblico, controllo democratico e autonomia dei cittadini.
La sempre maggiore innovazione tecnologica sembra, così, suggerire la necessità di una parallela evoluzione concettuale del diritto costituzionale che ne valorizzi, a livello globale, e non solo nella dimensione statuale, la funzione originaria di limitazione dei poteri e di garanzia delle libertà individuali nei confronti dei nuovi poteri.
Il problema non è solo di carattere normativo, ma anche di natura politica: si tratta, infatti, di evitare che la logica tecnico-economica sottesa all’intelligenza artificiale eroda i presupposti delle democrazie costituzionali. Tim Hwang ha rilevato che l’asimmetria informativa creata dagli algoritmi rischia di trasformare le democrazie in democrazie “a sorveglianza”, dove i cittadini sono oggetto, e non soggetto, del potere decisionale17.
La sfida che ne deriva, osserva Hwang, è duplice. Da un lato, occorre impedire che l’infrastruttura algoritmica si trasformi in un sovrano non elettivo, capace di orientare unilateralmente la formazione dell’opinione pubblica e di incidere sui comportamenti collettivi, senza responsabilità politica e senza controllo effettivo. Dall’altro lato, è necessario assicurare che i cittadini, direttamente o attraverso specifiche istituzioni di garanzia, dispongano di adeguati strumenti per conoscere, verificare e contestare le scelte algoritmiche.
In questa prospettiva, l’obiettivo non può che essere preservare la centralità delle decisioni democratiche, sottraendo l’intelligenza artificiale alla dinamica dell’arbitrio tecnocratico e ricollocandola all’interno di un quadro di fini pubblici e di limiti giuridici.
Ma poiché tali sistemi operano su scala transnazionale e producono effetti oltre i confini statali, questa riconduzione entro regole comuni non può essere affidata a discipline nazionali isolate: richiede, invece, strumenti di diritto internazionale e sovranazionale, idonei a configurare una cornice di garanzie “costituzionali” a livello globale, in grado di fissare princìpi, controlli e responsabilità condivise per l’uso dell’IA.
Nella prefazione all’edizione del 1946 di Brave New World, Aldous Huxley ha scritto: «Non vi è, certo, alcuna ragione secondo cui il nuovo totalitarismo debba assomigliare al vecchio. (…) Uno stato totalitario davvero efficiente è quello in cui l’onnipotente esecutivo dei capi politici e i loro eserciti di manager controllano una popolazione di schiavi che non debbono venir costretti perché sono giunti ad amare il loro giogo»18.
Parole che, a distanza di ottant’anni, descrivono, con inquietante precisione, una forma di potere che non si impone più attraverso la coercizione e la violenza, ma che si rende desiderabile, anticipando i tratti essenziali delle odierne tecnologie di governo algoritmico, in grado, senza dubbio, di dare assistenza agli individui, ma anche di sollevarli dal peso della libertà.
Stefano Amore
Magistrato, Direttore della rivista “Nova Itinera”
Note e bibliografia
1Così N. Irti, Nichilismo giuridico, Bari, 2004.
2 Così N. Irti, L’età della decodificazione, Milano, 1979.
3 La riflessione sul rischio che un’eccessiva dipendenza dall’intelligenza artificiale comprometta i valori democratici, è stata affrontata in numerosi studi. Tra i principali contributi in italiano si vedano: F. Pizzetti, Intelligenza artificiale, protezione dei dati e democrazia (Giappichelli, 2021); R. Susskind, Il futuro delle professioni (Feltrinelli, 2017), che discute le trasformazioni del lavoro e del potere decisionale in un contesto tecnologico avanzato. In ambito internazionale, è centrale il saggio di S. Zuboff, The Age of Surveillance Capitalism (PublicAffairs, 2019), che analizza come le tecnologie digitali e l’AI alimentino la concentrazione del potere e la manipolazione delle scelte democratiche. Ulteriori approfondimenti sono presenti in T. Hwang, Subprime Attention Crisis (FSG Originals, 2020), e in M. Moore e altri. (a cura di), The Routledge Handbook of Digital Media and Democracy (Routledge, 2020), che esplorano la tensione tra automazione, AI e processi democratici.
4 Per un’analisi del costruttivismo si vedano: F. A. von Hayek, La presunzione fatale. Gli errori del socialismo, Milano, Rusconi, 1997; Id., Legge, legislazione e libertà, cit.; K. R. Popper, La società aperta e i suoi nemici, 2 voll., Roma, Armando, 1973–1974; Id., Congetture e confutazioni, 2 voll., Bologna, il Mulino, 1972. Con riferimento specifico al tema delle riforme legislative, cfr. S. Amore, Atti normativi (tecniche di redazione), in Digesto delle discipline pubblicistiche, Torino, UTET, vol. 3/1, Aggiornamento 2008.
5 Sulla nozione di tecnica legislativa cfr. S. Amore, Atti normativi (tecniche di redazione), cit.
6 La sentenza della Corte costituzionale n. 364/1988, ha riconosciuto la fondamentale importanza che, ai fini del rispetto dei precetti costituzionali, assume il carattere della formulazione precisa e chiara delle disposizioni di legge. In particolare, nella detta sentenza la Corte ha individuato le ipotesi di ignoranza inevitabile che possono scusare l’ignoranza della legge penale soprattutto sulla base di criteri oggettivi, attribuendo una particolare importanza a quello relativo alla mancanza di riconoscibilità della disposizione normativa, tale da determinare un’oscurità assoluta del testo. D’altronde, il giudice delle leggi aveva già avuto modo di precisare, nella sentenza n. 96/1981, che dal principio di determinatezza della norma penale consegue per il legislatore l’obbligo «di formulare norme concettualmente precise sotto il profilo semantico della chiarezza e della intellegibilità dei termini impiegati». Portando ad ulteriori conseguenze le riflessioni formulate nel 1988, la Corte è successivamente addivenuta, con la sentenza n. 185/1992, a dichiarare l’illegittimità costituzionale di una norma penale nella parte in cui non consentiva di comprendere il significato del precetto, muovendo dalla considerazione che, pur non essendo desumibile dall’ordinamento costituzionale il principio secondo cui le norme penali debbono essere formulate in modo così chiaro ed univoco da non dar luogo a dubbi interpretativi, tuttavia «vi sono requisiti minimi di riconoscibilità e di intelligibilità del precetto penale – che rappresentano anche, peraltro, requisiti minimi di razionalità dell’azione legislativa – in difetto dei quali la libertà e la sicurezza giuridica dei cittadini sarebbero pregiudicate». Recentemente, la sentenza della Corte costituzionale n. 110/2023 ha evidenziato, con un passaggio molto articolato, che: «4.3.2.1.– In materia penale, questa Corte esercita da tempo un controllo sui requisiti minimi di chiarezza e precisione che debbono possedere le norme incriminatrici, in forza – in particolare – del principio di legalità e tassatività di cui all’art. 25, secondo comma, Cost. Già nella sentenza n. 96 del 1981 si è affermato, in proposito, che il legislatore penale «ha l’obbligo di formulare norme concettualmente precise sotto il profilo semantico della chiarezza e della intelleggibilità dei termini impiegati» (punto 2 del Considerato in diritto). Sulla base di tale criterio, la pronuncia ha ritenuto costituzionalmente illegittima la disposizione incriminatrice del plagio (art. 603 del codice penale), che vietava di «sottopo[rre] una persona al proprio potere, in modo da ridurla in totale stato di soggezione»: situazione considerata da questa Corte del tutto oscura nei suoi contorni, e per tale ragione «non verificabile nella sua effettuazione e nel suo risultato non essendo né individuabili né accertabili le attività che potrebbero concretamente esplicarsi per ridurre una persona in totale stato di soggezione» (punto 14 del Considerato in diritto). In un altro caso, questa Corte ha dichiarato costituzionalmente illegittima una disposizione penale che incriminava il fatto dello straniero destinatario di un provvedimento di espulsione «che non si adopera per ottenere dalla competente autorità diplomatica o consolare il rilascio del documento di viaggio occorrente». Nella pronuncia si è osservato che l’indeterminatezza del precetto non solo poneva il suo destinatario «nell’impossibilità di rendersi conto del comportamento doveroso cui attenersi per evitare di soggiacere alle conseguenze della sua inosservanza», ma non consentiva, altresì, «all’interprete di esprimere un giudizio di corrispondenza sorretto da un fondamento controllabile nella operazione ermeneutica di riconduzione della fattispecie concreta alla previsione normativa» (sentenza n. 34 del 1995, punto 2 del Considerato in diritto. Per un’ulteriore e più recente ipotesi in cui la Corte ha dichiarato costituzionalmente illegittimo un precetto penale per l’assoluta indeterminatezza dei suoi contorni, questa volta per contrasto con gli artt. 7 CEDU e 2 del Protocollo n. 4 CEDU, entrambi rilevanti nell’ordinamento italiano in forza dell’art. 117, primo comma, Cost., sentenza n. 25 del 2019). 4.3.2.2.– In materia di misure di prevenzione, criteri analoghi hanno condotto questa Corte a dichiarare l’illegittimità costituzionale, per contrasto con vari altri parametri costituzionali, di disposizioni che enunciavano presupposti eccessivamente vaghi e imprecisi, come tali inidonei ad assicurare al destinatario la riconoscibilità del precetto e la prevedibilità delle sue conseguenze (sentenza n. 24 del 2019, in particolare punto 12.3. del Considerato in diritto), e ancor prima a vincolare ragionevolmente la discrezionalità delle autorità chiamate ad applicarle (sentenza n. 177 del 1980, punto 6 del Considerato in diritto). In una successiva occasione, relativa a un rinvio normativo erroneo contenuto in una disposizione incriminatrice, questa Corte ha affermato che «vi sono requisiti minimi di riconoscibilità e di intellegibilità del precetto penale – che rappresentano anche, peraltro, requisiti minimi di razionalità dell’azione legislativa – in difetto dei quali la libertà e la sicurezza giuridica dei cittadini sarebbero pregiudicate». Il che, ha proseguito la Corte, «è quanto si verifica nel caso in esame, in cui l’errore materiale di redazione del testo legislative […] costituisce per il cittadino una vera e propria insidia, palesemente idonea ad impedirgli la comprensione del precetto penale, o, quanto meno, a fuorviarlo. L’errore stesso, peraltro, introduce nella formulazione letterale della disposizione un elemento certo, pur se involontario, di irrazionalità e di contraddittorietà rispetto al contesto normativo in cui la disposizione è inserita e come tale determina anche una violazione di quel canone di coerenza delle norme che è espressione del principio di uguaglianza di cui all’art. 3 della Costituzione» (sentenza n. 185 del 1992, punto 2 del Considerato in diritto). 4.3.2.3.– Con specifico riferimento a leggi regionali, infine, questa Corte ha avuto occasione di ritenere fondata una questione relativa a una complessa vicenda normativa in materia di installazione di impianti eolici, con la quale il legislatore regionale aveva inteso far rivivere, per un periodo di tempo limitato, una disposizione già abrogata. La Corte ha ritenuto censurabile, al metro dell’allora evocato parametro del buon andamento della pubblica amministrazione di cui all’art. 97 Cost., la tecnica normativa adottata, che rendeva difficilmente ricostruibile da parte dell’amministrazione la disciplina effettivamente vigente, giudicando tale tecnica «“foriera di incertezza”, posto che essa “può tradursi in cattivo esercizio delle funzioni affidate alla cura della pubblica amministrazione” (sentenza n. 364 del 2010)» (sentenza n. 70 del 2013, punto 4 del Considerato in diritto). 4.3.3.– Anche alla luce dei precedenti appena rammentati, deve più in generale ritenersi che disposizioni irrimediabilmente oscure, e pertanto foriere di intollerabile incertezza nella loro applicazione concreta, si pongano in contrasto con il canone di ragionevolezza della legge di cui all’art. 3 Cost. L’esigenza di rispetto di standard minimi di intelligibilità del significato delle proposizioni normative, e conseguentemente di ragionevole prevedibilità della loro applicazione, va certo assicurata con particolare rigore nella materia penale, dove è in gioco la libertà personale del consociato, nonché più in generale allorché la legge conferisca all’autorità pubblica il potere di limitare i suoi diritti fondamentali, come nella materia delle misure di prevenzione. Ma sarebbe errato ritenere che tale esigenza non sussista affatto rispetto alle norme che regolano la generalità dei rapporti tra la pubblica amministrazione e i cittadini, ovvero i rapporti reciproci tra questi ultimi. Anche in questi ambiti, ciascun consociato ha un’ovvia aspettativa a che la legge definisca ex ante, e in maniera ragionevolmente affidabile, i limiti entro i quali i suoi diritti e interessi legittimi potranno trovare tutela, sì da poter compiere su quelle basi le proprie libere scelte d’azione. Una norma radicalmente oscura, d’altra parte, vincola in maniera soltanto apparente il potere amministrativo e giudiziario, in violazione del principio di legalità e della stessa separazione dei poteri; e crea inevitabilmente le condizioni per un’applicazione diseguale della legge, in violazione di quel principio di parità di trattamento tra i consociati, che costituisce il cuore della garanzia consacrata nell’art. 3 Cost. 4.3.4.– Ogni enunciato normativo, beninteso, presenta margini più o meno ampi di incertezza circa il suo ambito di applicazione, senza che ciò comporti la sua illegittimità costituzionale. Compito essenziale della giurisprudenza è quello di dipanare gradualmente, attraverso gli strumenti dell’esegesi normativa, i dubbi interpretativi che ciascuna disposizione inevitabilmente solleva, nel costante confronto con la concretezza dei casi in cui essa è suscettibile di trovare applicazione; ciò che contribuisce a rendere più uniforme e prevedibile la legge per i consociati. Né certamente potrebbe ritenersi contrario all’art. 3 Cost. il ricorso da parte della legge a clausole generali, programmaticamente aperte a «processi di specificazione e di concretizzazione giurisprudenziale» (sentenza n. 8 del 2023, punto 12.1. del Considerato indiritto, con riferimento alla clausola di buona fede di cui all’art. 1337 cod. civ.). Né, ancora, potrebbe ritenersi precluso alla legge utilizzare concetti tecnici o di difficile comprensione per chi non possieda speciali competenze tecniche: la complessità delle materie che il legislatore si trova a regolare spesso esige una disciplina normativa a sua volta complessa. Sempre più frequentemente, del resto, le leggi fanno uso di definizioni normative, collocate in disposizioni di carattere generale, che consentono all’interprete di attribuire significati precisi alle espressioni tecniche, a volte lontane dal linguaggio comune, utilizzate in un dato corpus normativo. Diverso è, però, il caso in cui il significato delle espressioni utilizzate in una disposizione – nonostante ogni sforzo interpretativo, compiuto sulla base di tutti i comuni canoni ermeneutici – rimanga del tutto oscuro, con il risultato di rendere impossibile all’interprete identificare anche solo un nucleo centrale di ipotesi riconducibili con ragionevole certezza alla fattispecie normativa astratta. Una tale disposizione non potrà che ritenersi in contrasto con quei «requisiti minimi di razionalità dell’azione legislativa» che la poc’anzi menzionata sentenza n.185 del 1992 ha, in via generale, evocato in funzione della tutela della «libertà e della sicurezza dei cittadini». 4.3.5.– A identiche conclusioni sono, del resto, pervenute altre giurisdizioni costituzionali affini a quella italiana per tradizioni e premesse culturali. Secondo la costante giurisprudenza del Conseil constitutionnel francese, l’accessibilità e l’intellegibilità della legge rappresentano principi di rango costituzionale, che impongono al legislatore di adottare disposizioni sufficientemente precise al fine di proteggere gli individui dal rischio di applicazioni arbitrarie delle leggi, evitando di addossare alle autorità amministrative e giurisdizionali il compito di stabilire regole che spettano invece al legislatore (decisione 27 luglio 2006, n. 2006-540 DC, considerato n. 9). I principi in questione sono dedotti, tra l’altro, dallo stesso principio di eguaglianza dinanzi alla legge, proclamato dall’art. 6 della Dichiarazione dei diritti dell’uomo e del cittadino, non potendo esservi effettiva eguaglianza – ad avviso del Conseil – se non quando i cittadini abbiano una «conoscenza sufficiente delle norme loro applicabili» (decisione 16 dicembre 1999, n. 99-421 DC, considerato n. 13; per una recente dichiarazione di illegittimità costituzionale di una disposizione di legge in ragione della sua inintelligibilità, decisione 30 luglio 2021, n. 2021-822 DC, paragrafi 29 e 30). Parimenti il Tribunale costituzionale federale tedesco da molti decenni ormai riconosce l’esistenza di un mandato costituzionale di «precisione» e «chiarezza normativa», in base al quale le disposizioni di legge debbono essere formulate in modo tale da: a) consentire ai loro destinatari di comprendere il loro significato e di regolare di conseguenza la loro condotta, b) disciplinare e limitare efficacemente l’attività della pubblica amministrazione, e c) consentire all’autorità giudiziaria di esercitare il proprio potere di controllo sull’attività dell’amministrazione sulla base di criteri giuridici prestabiliti (pronuncia 3 marzo 2004, BVerfGE 110, 33, pagine 53 e 54, e ivi ulteriori riferimenti). Tale mandato, a sua volta derivato dal principio dello Stato di diritto di cui all’art. 20, comma 3, della Legge fondamentale (pronuncia 22 giugno 1977, BVerfGE 45, 400, pagina 420), non osta ovviamente a che la norma possa presentare ambiguità di significato destinate a essere sciolte attraverso i tradizionali metodi interpretativi (pronuncia 27 novembre 1990, BVerfGE 83, 130, pagina 145), ma implica standard minimi di comprensibilità e di non contraddizione dei testi normativi, il cui mancato rispetto determina la loro illegittimità costituzionale (per recenti applicazioni di tale principio, pronuncia 28 settembre 2022, 1 BvR 2354/13, paragrafi 106 e seguenti, nonché pronuncia 20 luglio 2021, BVerfGE 159, 40, pagine 68 e seguenti, entrambe con estese ricostruzioni della giurisprudenza costituzionale in materia). 4.3.6.– La disposizione in questa sede all’esame costituisce esempio paradigmatico di un enunciato normativo affetto da radicale oscurità: un enunciato che, da un lato, condiziona l’ammissibilità di non meglio precisati «interventi» all’interno di altrettanto vaghe «fasce di rispetto» a una procedura identificata con un acronimo incomprensibile, e in effetti oggetto di due diverse letture da parte della stessa difesa regionale; e che, dall’altro, non si collega ad alcun corpo normativo preesistente e rimane, per così dire, sospeso nel vuoto, precludendo così la possibilità di utilizzare il prezioso strumento dell’interpretazione sistematica, che presuppone l’inserimento della singola disposizione in un contesto normativo che si assume connotato da interna coerenza. Una disposizione siffatta, in ragione dell’indeterminatezza dei suoi presupposti applicativi,non rimediabile tramite gli strumenti dell’interpretazione, non fornisce alcun affidabile criterio guida alla pubblica amministrazione nella valutazione se assentire o meno un dato intervento richiesto dal privato, in contrasto con il principio di legalità dell’azione amministrativa e con esigenze minime di eguaglianza di trattamento tra i consociati; e rende arduo al privato lo stesso esercizio del proprio diritto di difesa in giudizio contro l’eventuale provvedimento negativo della pubblica amministrazione, proprio in ragione dell’indeterminatezza dei presupposti della legge che dovrebbe assicurargli tutela contro l’uso arbitrario della discrezionalità amministrativa.»
7 Con riferimento, in particolare, all’applicazione delle tecnologie informatiche al processo di formazione e redazione della legge, la specifica disciplina che se ne occupa, sorta negli anni ottanta, ha assunto il nome di legimatica, termine frutto della crasi tra «legislazione» e «informatica». La legimatica si occupa, in particolare, della «modellizzazione del ragionamento e delle procedure relative alla produzione legislativa, rispetto alla redazione dei testi legislativi, all’attività politico-decisionale, all’analisi di fattibilità, alla verifica d’efficacia. Si rifà alla teoria normativa del diritto, utilizza metodologie logiche, linguistiche e pragmatiche (in particolare le tecniche legislative) per l’analisi dei testi normativi. Ha per scopo l’informatizzazione del processo di produzione normativa. Si propone di offrire conoscenze e strumenti informatici alle assemblee legislative e più in generale a tutti i produttori di norme». Così Losano, Corso d’informatica giuridica, Milano, 1984; Biagioli-Mercatali-Sartor (a cura di), Legimatica: informatica per legiferare, Atti della Giornata di studio Legimatica: informatica per legiferare. L’informatica al servizio degli organismi legislativi in Europa e in Italia, Firenze, 25 novembre 1994.
8 Nel pensiero di Giuseppe Capograssi il diritto non si configura come una mera costruzione dell’autorità statale, ma come forma dell’esperienza umana concreta. Da qui la critica radicale a ogni formalismo e intellettualismo giuridico: il diritto perde senso quando si separa dall’esperienza vissuta che lo genera, così come la scienza giuridica si svuota quando pretende di ridurre il diritto a pura tecnica o a costruzione logica. In questa prospettiva, la fonte originaria del diritto non è lo Stato, ma l’esperienza comune degli uomini, che nello Stato trova una forma di riconoscimento e di compimento, non il proprio fondamento ultimo. In proposito cfr . M. D’Addio, Storia e politica in Giuseppe Capograssi, in F. Mercadante (cur.), Due convegni su Giuseppe Capograssi (Roma-Sulmona 1986). L’individuo, lo stato la storia. G. Capograssi nella storia religiosa e letteraria del Novecento, Milano 1990; G. Capograssi, Riflessioni sull’autorità e la sua crisi, Lanciano 1921, ora in Id., Riflessioni sull’autorità e la sua crisi, con appendice inedita: Lo stato e la storia, a cura di M. D’Addio, Milano 1977; G. Capograssi, Studi sull’esperienza giuridica, Roma 1932, ora in Id., Opere, a cura di M. D’Addio ed E. Vidal, Milano 1959, II; G. Capograssi, Introduzione alla vita etica, Torino 1953, poi in Id., Opere, cit., III, ; V. Frosini, Capograssi: la struttura dell’esperienza giuridica, in «Diritto e società», 4 (1990), pp. 589-596, poi in Id., Saggi su Kelsen e Capograssi, Due interpretazioni del diritto, Milano 1998, pp. 171-179; A. Del Noce, L’autorità come valore costitutivo del mondo umano, in F. Mercadante (cur.), Due convegni su Giuseppe Capograssi, cit., pp. 541-570.
9 Così P. Grossi, Mitologie giuridiche della modernità, Milano, Giuffrè, 2001, p 73-74.
10 Damiano Nocilla, La crisi della legge e i problemi connessi, in Atti del primo corso di aggiornamento per i funzionari della carriera direttiva del Senato della Repubblica, Roma, marzo-aprile 1992.
11 Così Alain Supiot, Homo juridicus. Saggio sulla funzione antropologica del diritto, Paravia Bruno Mondadori editori, 2006, p. 58
12 Così Alain Supiot, op. cit. p. 5.
13 Sul concetto di monade e la sua chiusura metafisica, si legga Gottfried Wilhelm Leibniz, Monadologia trad. it., Roma, Bompiani, 1992. Sull’individuo come prodotto di dispositivi di potere, si rinvia a Michel Foucault, Sorvegliare e punire (Torino, Einaudi, 1976) e Nascita della biopolitica (Corso al Collège de France, 1978-79), Milano, Feltrinelli, 2005. Per un confronto con la concezione interattiva dell’individuo nella sfera pubblica, si veda Jürgen Habermas, Teoria dell’agire comunicativo, Bologna, Il Mulino, 1986 e Storia e critica dell’opinione pubblica, Bari, Laterza, 1962. Sulla trasformazione dell’individuo nell’epoca digitale, in particolare in termini di trasparenza e auto-sorveglianza, cfr. Byung-Chul Han, La società della trasparenza, Roma, Nottetempo, 2014 e Psicopolitica, Roma, Nottetempo, 2016. Infine, per la connessione tra personalizzazione algoritmica e sfruttamento economico, cfr. Shoshana Zuboff, Il capitalismo della sorveglianza, Milano, Luiss University Press, 2019.
14 B.-C. Han, «Das Ich ist zu einem permanenten Projekt geworden, das aber keines bindenden Wir mehr kennt. Es ist das Ich der Selbstentblößung und Selbstoptimierung», in Die Austreibung des Anderen. Gesellschaft, Wahrnehmung und Kommunikation heute, Frankfurt am Main, S. Fischer Verlag, 2016, p. 9; trad. it. L’espulsione dell’altro. Società, percezione e comunicazione oggi, Roma, Nottetempo, 2017, p. 27.
15 L. Lessig, Code and Other Laws of Cyberspace, New York, Basic Books, 1999 formula la celebre tesi secondo cui “code is law”, nel senso che il codice informatico può regolamentare il comportamento umano in modo spesso più efficace della legge stessa. In una prospettiva affine, M. Hildebrandt, Law for Computer Scientists and Other Folk, Oxford University Press, 2020, evidenzia come la tecnologia — in particolare quando incorporata in sistemi di machine learning — generi un diritto “by design”, inscritto in architetture tecniche che selezionano ciò che può essere modellato e misurato. Tale dinamica dà luogo a quella che l’autrice definisce “computational hermeneutics” (il processo attraverso cui l’interpretazione del diritto viene strutturata da meccanismi computazionali, che impongono vincoli e forme proprie del calcolo), con il rischio di irrigidire l’interpretazione giuridica e di ridurre lo spazio della discrezionalità giudiziale. Analogamente, R. Brownsword, Law, Technology and Society: Reimagining the Regulatory Environment, Abingdon–New York, Routledge, 2019, descrive il fenomeno della convergenza normativa indotta dalla tecnologia in termini di “regulatory alignment”: gli ordinamenti, per non restare indietro rispetto all’innovazione, tendono ad adottare soluzioni giuridiche simili, soprattutto in materia di sicurezza, protezione dei dati, responsabilità e standard tecnici. Nella stessa linea critica si colloca F. Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Cambridge (MA), Harvard University Press, 2015, che mette in luce come gli algoritmi predittivi impongano categorie uniformi che non riflettono la pluralità delle tradizioni giuridiche. L’autore evidenzia anche il rischio dell’omologazione delle pratiche giudiziarie e delle tecniche decisorie. Infine, G. Teubner (ed.), Global Law Without a State, Aldershot, Dartmouth, 1997, sottolinea come la tecnologia contribuisca alla formazione di regimi normativi autonomi, transnazionali e funzionali, capaci di sovrapporsi agli ordinamenti statali e di condizionarne l’evoluzione, generando processi di convergenza strutturale.
16 L’opportunità di inserire nuove disposizioni costituzionali o, comunque, di ricorrere ai principi costituzionali esistenti per disciplinare l’uso dell’intelligenza artificiale è sostenuta da vari studiosi. In particolare cfr. C. Decaro,Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, in “Scritti in onore di Franco Casonato”, Giurcost, 2022; F. Pizzetti, Intelligenza artificiale, protezione dei dati e democrazia, Torino, Giappichelli, 2021; A. Simoncini, Il linguaggio dell’Intelligenza Artificiale e la tutela costituzionale dei diritti, in “Rivista AIC”, nr. 4/2020, disponibile su https://www.rivistaaic.it; L. Floridi e altri, The Onlife Manifesto: Being Human in a Hyperconnected Era, Springer, 2015; P. Benanti, Algoretica: l’intelligenza artificiale e il futuro dell’etica, Milano, Mondadori, 2022. Tali contributi condividono la convinzione che la regolamentazione dell’IA non possa limitarsi a leggi ordinarie, ma debba trovare fondamento in principi costituzionali che affermino la dignità umana, la trasparenza algoritmica e la tutela della sovranità democratica.
17 Tim Hwang, in Subprime Attention Crisis, New York, FSG Originals, 2020, analizza la crisi dell’economia dell’attenzione e denuncia il rischio che l’uso pervasivo dell’intelligenza artificiale (AI) nella selezione e diffusione delle informazioni comprometta i valori
democratici, trasformando la democrazia in una “democrazia a sorveglianza” dove i cittadini sono oggetto, non soggetto, del potere decisionale (p. 12). Hwang sottolinea che la sfida è impedire che l’AI diventi un nuovo sovrano non elettivo, rivendicando la centralità delle istituzioni democratiche nella definizione delle regole che ne governano l’uso (p. 15). Visioni analoghe sono sviluppate da S. Zuboff in The Age of Surveillance Capitalism, PublicAffairs, 2019, che esplora la concentrazione del potere nelle mani delle grandi piattaforme tecnologiche, e da F. Pizzetti, Intelligenza artificiale, protezione dei dati e democrazia (Giappichelli, 2021), che approfondisce l’impatto dell’AI sulla rappresentanza e sulla privacy. Una posizione più ottimista, invece, è quella di E. Brynjolfsson e A. McAfee in The Second Machine Age (Norton, 2014), i quali vedono nell’IA una possibilità per aumentare la produttività e la partecipazione, purché regolata da istituzioni democratiche consapevoli.
18«There is, of course, no reason why the new totalitarianism should resemble the old. (…) A really efficient totalitarian state would be one in which the all-powerful executive of political bosses and their army of managers control a population of slaves who do not have to be coerced, because they love their servitude.» A. Huxley, Brave New World, Foreword (1946), in Id., Brave New World, Penguin Books, Harmondsworth, 1955, p. 10 (ed. orig. Brave New World, Chatto & Windus, London, 1932; “first published with a foreword” 1950); A. Huxley, Il mondo nuovo, prefazione all’edizione del 1946 (Foreword to the 1946 edition), trad. it., Milano, Mondadori, 1991, coll. Oscar classici moderni.









