Università di Pisa introduce l’obbligo di competenze di intelligenza artificiale per il superamento degli esami

Università di Pisa, l’esame di programmazione ora richiede l’uso dell’AI
L’intelligenza artificiale entra strutturalmente nella didattica universitaria italiana. All’Università di Pisa, nel corso di Advanced Programming della laurea magistrale in Computer Science, gli studenti sono obbligati a utilizzare sistemi di AI generativa per superare l’esame. La sperimentazione, condotta nel primo semestre dal Dipartimento di Informatica con i professori Antonio Cisternino e Andrea Corradini, mira a formare programmatori capaci di supervisionare e valutare il codice prodotto dalle macchine, non solo di scriverlo. L’iniziativa nasce nel 2025 a Pisa, uno dei principali poli italiani di ricerca informatica, per rispondere alla trasformazione del mercato del lavoro tech, dove l’automazione sta rimpiazzando molte mansioni junior. Obiettivo dichiarato: spostare il baricentro delle competenze da “scrittori di codice” a “architetti critici di sistemi basati su AI”.
In sintesi:
- All’Università di Pisa l’uso dell’AI è requisito obbligatorio per l’esame di Advanced Programming.
- Il corso forma sviluppatori capaci di valutare criticamente il codice generato dall’intelligenza artificiale.
- L’iniziativa risponde ai tagli occupazionali tech e alla crescente automazione delle mansioni junior.
- Esperti come Saverio Puccia vedono nel modello pisano un paradigma destinato a fare scuola.
Come funziona il nuovo modello didattico a Pisa
Il corso di Advanced Programming è stato riprogettato attorno all’idea che, come spiega Antonio Cisternino, “il mestiere del programmatore sta cambiando radicalmente”. Meno enfasi sulla produzione manuale del codice, più attenzione alla capacità di leggerlo, verificarlo, contestualizzarlo.
Un GPT dedicato, addestrato sulle trascrizioni delle lezioni, genera materiale didattico personalizzato e supporti interattivi; in aula l’AI produce simulazioni e casi studio su cui gli studenti esercitano il pensiero critico. La valutazione privilegia la capacità di controllare, spiegare e criticare il lavoro della macchina.
La prova finale rappresenta l’elemento di rottura: ogni studente deve sviluppare un progetto che utilizzi necessariamente l’AI, documentando scelte, limiti, errori individuati e correzioni applicate. Secondo Cisternino, i risultati sono stati “di ottima qualità” quando gli studenti possiedono basi solide e usano l’AI “in modo significativo e non passivo”.
Impatto sul lavoro degli sviluppatori e reazioni dal settore
L’esperimento pisano va letto sullo sfondo di un mercato del lavoro tecnologico sotto pressione: tra il 2025 e il 2026 le Big Tech hanno tagliato decine di migliaia di posizioni, con casi emblematici come Amazon e la riduzione del 40% della forza lavoro annunciata da Jack Dorsey in Block ed ex Twitter. Sono soprattutto i profili junior a risultare esposti all’automazione di compiti ripetitivi di coding.
Antonio Cisternino avverte che “non abbiamo dieci anni per adattare il sistema formativo” e chiede un dibattito nazionale sul ruolo dell’università nel “mondo del lavoro post-AI”.
Chi lavora già con questi strumenti conferma la portata del cambio di paradigma. Il cybersecurity expert Saverio Puccia, ex studente pisano, racconta di aver visto la macchina replicare “almeno il 70/80% delle skill di un programmatore”, passando in pochi giorni dall’entusiasmo allo smarrimento. Solo in seguito ha scelto di “governare la bestia”, cercando i modi più efficaci per indirizzarla.
Per Puccia, la scelta della storica facoltà di Informatica di Pisa è un “atto coraggioso che può e deve fare scuola” e riduce il senso di incertezza di molti professionisti, pur evidenziando che ogni ritardo nell’accettazione dell’AI diventerà “debito” competitivo rispetto alle realtà più veloci nell’adozione.
Verso un modello Pisa per la formazione nell’era post-AI
La sperimentazione dell’Università di Pisa configura un possibile “modello italiano” di coesistenza tra AI e professioni del software: l’intelligenza artificiale non è vietata, ma regolata e resa oggetto stesso dell’apprendimento.
Se replicato in altri atenei e corsi STEM, questo approccio potrebbe ridurre il mismatch tra formazione accademica e competenze richieste dalle imprese, soprattutto in ruoli di supervisione, auditing del codice, cybersecurity e gestione di agenti autonomi. Le prossime sfide riguarderanno la definizione di standard nazionali di valutazione, la trasparenza degli strumenti utilizzati e l’integrazione etica e legale dell’AI nei percorsi di studio, con effetti diretti sull’occupabilità dei neolaureati.
FAQ
Perché l’Università di Pisa rende obbligatorio l’uso dell’intelligenza artificiale?
L’Università di Pisa lo fa per allineare la formazione informatica a un mercato del lavoro dove l’AI genera codice e richiede competenze di supervisione critica.
Che competenze sviluppano gli studenti nel corso Advanced Programming di Pisa?
Gli studenti sviluppano competenze di analisi, verifica, debug e valutazione critica del codice prodotto dall’AI, oltre a solide basi di programmazione tradizionale.
Quali rischi occupazionali affrontano oggi i programmatori junior con l’AI?
I programmatori junior affrontano il rischio di sostituzione nelle attività ripetitive di coding, se non acquisiscono capacità di progettazione, revisione e controllo dei sistemi AI.
L’esperienza di Pisa può essere replicata in altri corsi universitari italiani?
Sì, il modello è replicabile in altri corsi STEM, a condizione di definire regole chiare sull’uso dell’AI e criteri di valutazione trasparenti.
Da quali fonti è stata ricostruita questa analisi sull’Università di Pisa?
L’analisi deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



