L’Italia e il futuro delle IA: Minerva e Llamantino in prima linea
Crescita dei modelli IA italiani
Minerva, Llamantino 3 e i suoi fratelli: crescono i modelli linguistici italiani, nuovi strumenti di Intelligenza Artificiale nati in questi ultimi mesi e fondamentali per il mondo della ricerca italiana. Se ne è parlato in occasione della prima Conferenza generale di Fair – Future AI Research a Napoli.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
«Immagina di vivere solo circondato da americani che parlano in italiano con te, in breve inizierai anche tu a parlare e ragionare come loro». È la metafora usata da Roberto Navigli, dell’Università Sapienza e a capo del progetto Minerva, per spiegare in modo semplice perché e a cosa serva sviluppare Llm (Large Language Model) in italiano. Gli Llm, come Gemini o ChatGpt, sono sistemi che nascono dall’analisi di miliardi di pagine di testi, la gran parte in inglese, su cui si addestrano tanto da sviluppare una capacità di saper conversare con utenti umani.
«Fino a pochi mesi fa non esistevano modelli aperti, ossia modificabili in ambito della ricerca, che funzionassero in italiano. Modelli che al loro interno hanno dei bias, dei preconcetti, legati alla lingua originaria». Questa mancanza ha spinto nel tempo la comunità scientifica italiana a puntare tra due differenti percorsi: sviluppare un Llm da zero e interamente in italiano, come è avvenuto con Minerva di cui verrà presto rilasciata una nuova versione più potente con 7 miliardi di parametri, oppure usare modelli aperti già esistenti e ‘ri-addestrarlo’ nella nostra lingua, come nel caso di Llamantino 3.
«Sono entrambe strade giuste» ha detto Navigli «ma ovviamente entrambi gli approcci hanno dei pro e dei contro. Modelli molto grandi adattati alla nostra lingua hanno ottime prestazioni per molti aspetti, modelli nativi realizzati sulla base di fonti italiane permettono di poter verificare i contenuti usati. Una questione non banale anche per la sicurezza del modello.» Se non hai il controllo dei dati non posso ad esempio non sapere se ci sono eventuali vulnerabilità, delle cosiddette back door.
Nei primi 18 mesi di attività Fair ha messo insieme varie centinaia di ricercatori italiani, di cui circa la metà giovanissimi, che stanno portando come mai prima alla crescita del settore, tra cui il miglioramento degli Llm e l’arrivo di nuovi altri modelli: «quel che è certo» ha concluso Navigli «è che la sana competizione aiuta a migliorare e sarebbe importante ora anche definire dei benchmark condivisi, ossia una sorta di test di valutazione per i vari modelli che certifichi la capacità dei vari modelli per specifici compiti».
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Approcci nello sviluppo di Llm
La fisica e le leggi dell’IA
Cercare le leggi nascoste dell’Intelligenza Artificiale: è una delle frontiere della ricerca che usa nuovi approcci matematici, tra cui alcuni derivati dalla matematica sviluppata dal Nobel italiano Giorgio Parisi per descrivere i sistemi complessi. È stato uno dei temi affrontati nella seconda giornata della prima Conferenza generale di Fair – Future AI Research, a Napoli.
«Le IA sono dei sistemi complessi di cui non conosciamo le basi scientifiche», ha detto Federica Gerace, dell’Università di Bologna. In sostanza, le IA sono macchine realizzate da noi umani e sono in grado di fare cose che non sempre sappiamo spiegare. «Viviamo in una situazione simile a quel che avvenne con le macchine della prima rivoluzione industriale: funzionavano nonostante non avessimo ancora piena comprensione della termodinamica che le governava». Noi oggi vogliamo cercare le leggi della termodinamica nelle IA, ha aggiunto Gerace.
Al centro delle indagini ci sono in particolare i cosiddetti transformer, i ‘mattonicini’ informatici che hanno permesso un incredibile balzo in avanti nel machine learning e arrivare a strumenti come ChatGpt. «Cosa li rende così speciali? Cosa effettivamente imparano dai dati quando vengono addestrate?» Siamo partiti da queste domande, ha proseguito la ricercatrice italiana, «per studiarli e ora stiamo capendo anche che i transformer sono utili strumenti anche per risolvere alcuni problemi della fisica». Lavori al momento ancora lontani dal formulare un insieme di leggi, ma ci sono stati in questi anni alcuni piccoli passi in avanti.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
«Il problema della IA è che nei loro comportamenti contraddicono la teoria, ossia quel che dovrebbero saper fare, e noi lavoriamo per cercare una spiegazione», ha aggiunto il fisico della Sapienza, Matteo Negri. Uno dei modi per farlo è andare a ripescare vecchie teorie per identificare modelli che in qualche modo più si adattano a spiegare quel che si osserva. «Non è tanto differente da quel che avvenne con la meccanica quantistica», ha aggiunto Negri. «Uno dei metodi», ha concluso, «si basa su tecniche matematiche sviluppate da Parisi per spiegare la fisica dei sistemi complessi».
La fisica e le leggi dell’IA
Rischi della coevoluzione uomo-IA
Dai rischi per le democrazia al collasso dei contenuti internet: sono solo due dei tanti possibili pericoli concreti, ma ancora sottovalutati, che potrebbero materializzarsi dalla co-evoluzione tra uomo e Intelligenza Artificiale. È uno dei temi emersi durante la prima Conferenza generale di Fair – Future AI Research a Napoli.
«Ci stiamo abituando all’idea che le IA ci consiglino e ci coccolino, ci affidiamo a loro per scegliere che strada fare o che film vedere», ha detto all’ANSA Dino Pedreschi, esperto di Computer Science all’Università di Pisa. Tendiamo a considerare le IA, da Alexa e ChatGpt a Google Maps, dei semplici strumenti da usare, ma le scelte che noi facciamo, basandoci sulle informazioni che riceviamo, producono nuovi dati che a loro volta influenzano le IA e viceversa.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Un vortice di dati che può prendere, dopo tanti cicli ripetuti, deviazioni inattese. Una di queste è evidente nei navigatori auto: ci consigliano la strada più rapida, ma se tutti seguono lo stesso percorso, si genera un ingorgo senza precedenti. A rischio ora c’è anche il web, che si sta popolando di testi prodotti dalle IA, utilizzati per alimentare nuovi modelli. Questo meccanismo rende i dati sempre meno diversificati, portando, dopo vari cicli, a una produzione di contenuti di scarsa qualità.
«Dobbiamo preoccuparci di questi fenomeni e governarli sin da adesso», ha aggiunto Pedreschi. «Andranno fatte importanti scelte politiche, sviluppando ad esempio dei modelli che siano ‘pubblici’ per poter governare questa coevoluzione ed evitare discriminazioni». Il rischio è che effetti distruttivi, come dimostra il problema delle fake news e della polarizzazione online, possano compromettere la tenuta democratica degli stati.
«Sono problemi che stanno emergendo anche su piattaforme digitali apparentemente scevre da queste dinamiche, ad esempio nell’e-commerce», ha sottolineato Valentina Pansanella, dell’Istituto di Scienza e Tecnologie dell’Informazione del Consiglio Nazionale delle Ricerche. Anche in questo caso, si rischia di consigliare sempre gli stessi prodotti, impoverendo l’esperienza degli utenti. «Come in medicina abbiamo istituito rigorosi trial clinici prima di arrivare a una commercializzazione del farmaco, forse potremmo fare qualcosa di analogo con le IA», ha concluso Pansanella.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Rischi della coevoluzione uomo-IA
Necessità di regole e diversità nei modelli IA
La questione della regolarizzazione e della diversità nei modelli di Intelligenza Artificiale è diventata sempre più urgente man mano che la tecnologia continua a svilupparsi e a permeare ogni aspetto della nostra vita quotidiana. Durante la prima Conferenza generale di Fair – Future AI Research a Napoli, è emersa chiaramente l’importanza di stabilire un quadro normativo che possa garantire non solo l’efficacia degli strumenti IA, ma anche la loro equità.
«Necessitiamo di regole chiare e precise per gestire l’innovazione tecnologica e la distribuzione dei modelli IA», ha avvertito uno degli esperti presenti. È fondamentale, infatti, evitare che poche aziende dominino il mercato con modelli che possono alimentare bias o discriminazioni. La centralizzazione delle tecnologie IA in maniche di pochi attori rischia di generare una mancanza di diversificazione, che potrebbe compromettere la validità delle soluzioni offerte alle sfide sociali.
Va evidenziato che la diversità è un elemento cruciale non solo per garantire un’innovazione equa, ma anche per promuovere un ecosistema di apprendimento sano. «Dobbiamo considerare ogni modello di IA come parte di un sistema più ampio e interconnesso», ha detto uno degli intervenuti. Ognuno di questi modelli deve riflettere una varietà di prospettive e dati, in modo tale da evitare la formazione di “bolle” di contenuti, come già evidenziato con i problemi legati alle fake news e alla polarizzazione dei temi sociali.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Anche in ambito educativo e formativo, c’è bisogno di promuovere un approccio multidisciplinare. «Le competenze necessarie per l’uso degli strumenti IA devono essere diffuse tra le diverse categorie sociali e professionali», hanno sottolineato diversi esperti. La formazione deve includere conoscenze di base in etica, diritto e tecnologia, per affrontare con consapevolezza le sfide future.
In sintesi, la creazione di un ambiente di fiducia e sicurezza per l’uso dell’IA passa necessariamente attraverso la definizione di regole condivise e la promozione della diversità nei modelli utilizzati. «Solo così potremo garantire un’evoluzione positiva e inclusiva della tecnologia».
Necessità di regole e diversità nei modelli IA
La questione della regolarizzazione e della diversità nei modelli di Intelligenza Artificiale è diventata sempre più urgente man mano che la tecnologia continua a svilupparsi e a permeare ogni aspetto della nostra vita quotidiana. Durante la prima Conferenza generale di Fair – Future AI Research a Napoli, è emersa chiaramente l’importanza di stabilire un quadro normativo che possa garantire non solo l’efficacia degli strumenti IA, ma anche la loro equità.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
«Necessitiamo di regole chiare e precise per gestire l’innovazione tecnologica e la distribuzione dei modelli IA», ha avvertito uno degli esperti presenti. È fondamentale, infatti, evitare che poche aziende dominino il mercato con modelli che possono alimentare bias o discriminazioni. La centralizzazione delle tecnologie IA in maniche di pochi attori rischia di generare una mancanza di diversificazione, che potrebbe compromettere la validità delle soluzioni offerte alle sfide sociali.
Va evidenziato che la diversità è un elemento cruciale non solo per garantire un’innovazione equa, ma anche per promuovere un ecosistema di apprendimento sano. «Dobbiamo considerare ogni modello di IA come parte di un sistema più ampio e interconnesso», ha detto uno degli intervenuti. Ognuno di questi modelli deve riflettere una varietà di prospettive e dati, in modo tale da evitare la formazione di “bolle” di contenuti, come già evidenziato con i problemi legati alle fake news e alla polarizzazione dei temi sociali.
Anche in ambito educativo e formativo, c’è bisogno di promuovere un approccio multidisciplinare. «Le competenze necessarie per l’uso degli strumenti IA devono essere diffuse tra le diverse categorie sociali e professionali», hanno sottolineato diversi esperti. La formazione deve includere conoscenze di base in etica, diritto e tecnologia, per affrontare con consapevolezza le sfide future.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
In sintesi, la creazione di un ambiente di fiducia e sicurezza per l’uso dell’IA passa necessariamente attraverso la definizione di regole condivise e la promozione della diversità nei modelli utilizzati. «Solo così potremo garantire un’evoluzione positiva e inclusiva della tecnologia».
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.