Avvocato usa intelligenza artificiale in causa, presenta precedenti falsi e il giudice lo sanziona severamente

Siracusa, avvocato usa IA e cita sentenze inesistenti: il monito dei giudici
L’episodio è avvenuto al tribunale di Siracusa, dove un avvocato ha depositato un atto difensivo supportato da quattro presunti precedenti di Cassazione, generati da strumenti di intelligenza artificiale e risultati totalmente inesistenti.
Il fatto è emerso nel provvedimento del giudice aretuseo, che ha stigmatizzato l’uso “acritico” dell’IA, qualificandolo come colpa grave e sottolineando l’aggravio di lavoro per magistrato e controparti.
La vicenda, resa nota in questi giorni, solleva interrogativi cruciali per l’avvocatura italiana: perché e come utilizzare l’IA nel processo senza compromettere affidabilità, deontologia e qualità della ricerca giuridica.
In sintesi:
- Avvocato di Siracusa deposita quattro precedenti di Cassazione mai esistiti, generati con IA.
- Il giudice parla di “utilizzazione acritica” e configura una grave responsabilità professionale.
- L’IA è ritenuta solo supporto: resta centrale la verifica del professionista.
- Il caso apre un fronte etico e deontologico sull’uso dell’IA nel diritto.
Il presidente della Camera penale “Pier Luigi Romano” di Siracusa, l’avvocato Giuseppe Gurrieri, interviene invitando alla massima prudenza. «Stiamo attenti a utilizzare strumenti virtuali come l’intelligenza artificiale che, seppur dalle grandi potenzialità, non può sostituire in alcun modo la professionalità di chi deve studiare e fare ricerca», afferma il penalista.
Secondo Gurrieri, l’IA generativa può essere «un valido supporto» solo se l’esito viene successivamente controllato sulle fonti primarie e filtrato dalla competenza umana. Altrimenti, avverte, si rischia di scrivere «banalità sconcertanti» o di «prendere degli abbagli» analoghi a quello sanzionato dal giudice siracusano.
Il provvedimento giudiziario specifica che l’utilizzo non verificato di questi strumenti non è più tollerabile, “allo stato attuale delle conoscenze tecnologiche diffuse”, e impone un salto di qualità nella responsabilità digitale degli operatori del diritto.
Colpa grave e responsabilità digitale per l’avvocatura italiana
Nel suo atto, il giudice del tribunale di Siracusa sottolinea che l’«utilizzazione acritica di tali strumenti» integra gli estremi della colpa grave quando manca la «doverosa verifica dell’attendibilità degli output mediante consultazione delle fonti primarie», quali banche dati giuridiche, repertori ufficiali e CED della Corte di Cassazione.
Gli errori generati dall’IA non vengono quindi considerati semplici refusi: il giudice evidenzia che essi «aggravano significativamente l’attività del giudice e delle controparti», obbligate a controllare ogni singola citazione e a replicare rispetto a precedenti che, in realtà, non esistono.
Il caso rappresenta un precedente culturale importante: la tecnologia è ammessa nei tribunali, ma il controllo di affidabilità rimane un dovere indelegabile del professionista. La mancata verifica espone l’avvocato non solo a rilievi deontologici, ma anche a possibili conseguenze disciplinari e risarcitorie verso il cliente danneggiato da una difesa basata su presupposti fittizi.
Verso linee guida sull’uso dell’intelligenza artificiale nel processo
L’episodio di Siracusa anticipa un tema che il foro italiano dovrà affrontare con urgenza: la definizione di linee guida condivise sull’uso dell’intelligenza artificiale nella redazione degli atti.
Ordini forensi, Camere penali e associazioni specialistiche sono chiamati a chiarire limiti, obblighi di citazione delle fonti e modalità di controllo umano sugli elaborati generati dall’IA, per garantire affidabilità della giurisdizione e tutela effettiva degli assistiti.
In prospettiva, l’evoluzione normativa europea sull’AI Act e le future prassi della Corte di Cassazione influenzeranno profondamente il modo in cui magistrati e avvocati utilizzeranno gli strumenti algoritmici, imponendo trasparenza, tracciabilità delle fonti e formazione tecnica continua.
FAQ
È consentito usare l’intelligenza artificiale nella redazione degli atti giudiziari?
Sì, ma l’utilizzo è ammesso solo come supporto. L’avvocato deve sempre verificare l’esattezza di citazioni, precedenti e dati sulle fonti ufficiali.
Cosa si intende per colpa grave nell’uso dell’intelligenza artificiale forense?
Si intende l’affidamento acritico agli output dell’IA senza controlli sulle fonti primarie, generando errori macroscopici che pregiudicano processo e parti.
Come deve verificare le informazioni un avvocato che usa strumenti di IA?
Deve controllare ogni precedente su banche dati giuridiche certificate, repertori ufficiali e CED della Cassazione, documentando internamente le verifiche svolte.
Quali rischi corre il cliente se la difesa usa precedenti inventati dall’IA?
Rischia una difesa giuridicamente debole, possibili esiti sfavorevoli nel giudizio e, nei casi più gravi, richieste di risarcimento verso il professionista.
Da quali fonti è stata elaborata questa notizia sull’uso dell’intelligenza artificiale?
La notizia è stata elaborata congiuntamente dalle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



