Trump affida all’intelligenza artificiale la penna delle nuove leggi federali

Indice dei Contenuti:
Trump admin reportedly plans to use AI to write federal regulations
AI nei regolamenti federali
Secondo un’inchiesta di ProPublica, l’amministrazione di Donald Trump intende affidare la redazione di parti significative dei regolamenti federali al modello generativo Google Gemini, a partire dal Dipartimento dei Trasporti (DOT). L’esperimento verrebbe lanciato come progetto pilota, con l’obiettivo dichiarato di estendere poi l’uso dell’intelligenza artificiale ad altre agenzie.
In una comunicazione interna, l’avvocato dell’agenzia Daniel Cohen ha parlato del “potenziale di rivoluzionare il modo in cui redigiamo le rulemakings”, sottolineando i benefici in termini di rapidità e produttività. Il consigliere generale del Dipartimento, Gregory Zerzan, avrebbe riferito che il presidente è “molto entusiasta dell’iniziativa” e che il DOT punta a diventare “la prima agenzia pienamente abilitata a usare l’AI per redigere norme”.
Note interne di riunioni visionate da ProPublica mostrano però un approccio aggressivo al tema della qualità normativa. In una sessione con lo staff, Zerzan avrebbe affermato che non serve “la regola perfetta su XYZ” e nemmeno “una regola molto buona”, ma semplicemente “abbastanza buona”, spiegando che l’obiettivo è “inondare il campo” con proposte regolatorie rapide e numerose.
Un funzionario del Dipartimento ha descritto diversi passaggi dei testi regolatori come “insalata di parole”, suggerendo che un modello linguistico avanzato sarebbe più che sufficiente per generare bozze in tempi estremamente ridotti. L’indicazione operativa interna è chiara: “non dovrebbe servirvi più di 20 minuti per ottenere una bozza di regola da Gemini”.
Sicurezza, velocità e rischio di errori
La scelta è particolarmente delicata perché il Dipartimento dei Trasporti sovrintende alla sicurezza di settori critici: standard per l’aviazione commerciale, trasporto di materiali pericolosi, qualifiche dei conducenti professionali e una vasta gamma di regole che toccano l’intero ecosistema dei trasporti. Un’eventuale svista nella formulazione di una norma può tradursi in contenziosi, falle di vigilanza e, nel peggiore dei casi, incidenti gravi.
I modelli generativi come Gemini sono noti per il fenomeno delle “allucinazioni”, ovvero la produzione di informazioni false ma plausibili, già emersa in ambito scientifico con articoli contenenti dati inventati. Ricercatori come quelli guidati da Alex C., citati in un post di Daphne Zohar, hanno persino sviluppato strumenti per rilevare contenuti generati in modo poco affidabile da sistemi di AI. Portare lo stesso tipo di tecnologia nel cuore del processo regolatorio federale estremizza il rischio sistemico.
Un ex responsabile ad interim per l’intelligenza artificiale del DOT, Mike Horton, paragona l’uso di Gemini per la normazione ad avere “uno stagista delle superiori che si occupa delle regole”, sottolineando che i vertici “vogliono andare veloci e rompere cose, ma andare veloci e rompere cose significa che qualcuno si farà male”. La spinta politica di Trump verso l’AI è nota: ha firmato più ordini esecutivi a sostegno del settore e ha persino diffuso un video generato con AI che lo ritrae ai comandi di un jet da combattimento.
Finora le agenzie federali avevano impiegato l’intelligenza artificiale in contesti molto più circoscritti: traduzione di documenti, analisi di grandi moli di dati, classificazione di commenti pubblici. L’uso diretto per scrivere regolamenti rappresenta un salto qualitativo che richiede, secondo molti giuristi, standard di controllo e tracciabilità molto più severi.
Impatto sul lavoro pubblico e sul processo democratico
Dietro la corsa all’automazione normativa c’è anche un fattore di risorse umane. Dall’inizio del secondo mandato di Donald Trump, il Dipartimento dei Trasporti ha perso oltre 4.000 dipendenti netti, tra cui più di 100 avvocati, figure tradizionalmente centrali nella scrittura e nella revisione dei testi regolatori. L’AI viene presentata internamente come uno strumento per compensare questo svuotamento di competenze.
Secondo le ricostruzioni, il Dipartimento avrebbe già testato l’uso di sistemi generativi per redigere una bozza non pubblicata di norma relativa alla Federal Aviation Administration. L’idea è comprimere drasticamente i tempi: da mesi di lavoro umano a minuti di output automatizzato, con successivi passaggi di editing. Ma diversi esperti di diritto amministrativo avvertono che un simile approccio rischia di minare alla base la qualità del processo decisionale pubblico.
La studiosa Bridget Dooling, dell’Ohio State University, osserva che “il fatto che questi strumenti possano produrre molte parole non significa che quelle parole equivalgano a una decisione di governo di alta qualità”. È comprensibile sperimentare, aggiunge, ma occorre farlo “con molta, molta dose di scetticismo”, soprattutto quando in gioco ci sono regole che incidono sulla vita quotidiana di milioni di cittadini.
Ridurre parti delle norme a mera “insalata di parole” da generare in serie con Gemini solleva infine un problema di trasparenza democratica. Se il nucleo dei regolamenti – la logica, le definizioni operative, le eccezioni – viene scritto da un modello proprietario addestrato su dati non completamente noti, il controllo pubblico e parlamentare sul processo regolatorio rischia di diventare opaco, proprio nel momento in cui la fiducia nelle istituzioni è già sotto pressione.
FAQ
D: Quale agenzia federale sperimenterà per prima l’uso dell’AI nelle norme?
R: Il progetto pilota dovrebbe partire dal Dipartimento dei Trasporti, con l’obiettivo di estendersi in seguito ad altre agenzie.
D: Quale modello di intelligenza artificiale verrà utilizzato per redigere le bozze?
R: L’amministrazione punta a impiegare il modello generativo Google Gemini per la prima stesura di testi regolatori complessi.
D: Chi ha rivelato pubblicamente i dettagli del piano governativo?
R: Le informazioni principali provengono da documenti interni e note di riunione ottenuti e pubblicati da ProPublica, citata come fonte giornalistica originale.
D: Perché l’amministrazione vuole usare l’AI nella regolamentazione?
R: L’obiettivo dichiarato è accelerare in modo drastico la redazione delle norme, riducendo mesi di lavoro umano a pochi minuti di generazione automatica.
D: Qual è il ruolo del presidente Donald Trump in questa iniziativa?
R: Secondo funzionari interni, Donald Trump è “molto entusiasta” del progetto e lo considera parte della sua strategia più ampia di sostegno all’intelligenza artificiale.
D: Quali rischi sottolineano gli esperti di diritto amministrativo?
R: Gli esperti avvertono che errori o “allucinazioni” dell’AI nelle norme potrebbero generare cause legali, lacune di sicurezza e danni concreti per i cittadini.
D: In quali ambiti il Dipartimento dei Trasporti usa già l’AI?
R: Finora l’AI è stata impiegata soprattutto per traduzioni, analisi dati e classificazione di commenti, non per scrivere il testo sostanziale dei regolamenti.
D: L’AI sostituirà gli avvocati federali nella stesura delle regole?
R: Formalmente l’AI dovrebbe solo produrre bozze da rivedere, ma il forte calo di personale legale nel Dipartimento alimenta il timore di una sostituzione de facto del lavoro specialistico umano.




