Impatto dell’infrastruttura e della sostenibilità
Durante il nostro primo panel, ci siamo concentrati sull’impatto ambientale dei sempre più numerosi data center e dei servizi AI che spesso forniscono. I relatori includevano Jeff Ball, accademico del Steyer-Taylor Center for Energy Policy & Finance presso l’Università di Stanford; Joanna Wong, architetto di soluzioni per AI e storage presso IBM; e il dottor John Timmer, Senior Science Editor di Ars.
Uno dei punti principali emersi dalla discussione era la convinzione di Ball secondo cui “non tutta l’energia è creata allo stesso modo”. Questo concetto riflette come la scelta della posizione fisica dei data center possa influenzare in modo significativo l’impronta di carbonio. Ad esempio, mentre il costo di utilizzo di un data center in Islanda potrebbe essere simile a quello di uno in Cina, i metodi di produzione di energia utilizzati possono variare drasticamente. La probabilità che il data center cinese utilizzi energia da carbone è alta, mentre quello islandese si avvale probabilmente di energia geotermica, molto più sostenibile.
Joanna Wong ha anche sottolineato che l’infrastruttura è spesso afflitta da punti di guasto sconosciuti. Questi sono problemi che, pur non essendo critici al punto da causare un guasto totale, consumano risorse informatiche extra e quindi energia. Wong ha avvertito che dobbiamo sempre essere pronti a identificare questi punti deboli. Pur essendo giusti i timori riguardo ai costi energetici delle nuove tecnologie, è altresì importante riconoscere che stiamo probabilmente già sprecando risorse senza capire a fondo i nostri punti di guasto e le strozzature del sistema.
Panoramica sull’evento di San Jose
La settimana scorsa, il direttore editoriale di Ars Technica, Ken Fisher, e io ci siamo diretti verso la soleggiata San Jose, California, per inaugurare un evento intitolato “Beyond the Buzz: An Infrastructure Future with GenAI and What Comes Next”, organizzato in collaborazione con IBM. È stato fantastico poter salire sul palco e parlare di fronte a una sala affollata di lettori interessati di Ars. Un sentito grazie a tutti coloro che sono stati presenti! Per chi non è riuscito a venire, niente paura: stiamo organizzando un altro evento il prossimo mese a Washington, DC, di cui darò maggiori dettagli alla fine di questo articolo.
L’evento di San Jose si è svolto al Computer History Museum, un luogo assolutamente in linea con il nostro spirito, e vogliamo estendere i nostri ringraziamenti a tutto il personale del CHM per averci accolto in modo così cordiale e disponibile. Durante la sua introduzione al programma, Fisher ha commentato: “La nostra lineup di relatori e argomenti riflette la complessità e l’evoluzione rapida del panorama tecnologico in cui tutti noi operiamo. Discuteremo non solo delle promesse offerte dall’intelligenza artificiale generativa, ma anche delle sfide che essa comporta in termini di domanda di infrastruttura, vulnerabilità di sicurezza e impatti ambientali.”
Le discussioni si sono articolate in vari panel che hanno affrontato questioni cruciali. Sebbene il focus sia stato principalmente sull’impatto ambientale dei data center, ci si è anche addentrati nei temi delle vulnerabilità di sicurezza e della pianificazione strategica delle infrastrutture. I relatori, provenienti da tutti i settori dell’industria tecnologica, hanno condiviso esperienze e visioni, rendendo l’evento un’importante occasione di confronto.
Il programma ha saputo mantenere alto l’interesse del pubblico, offrendo spunti di riflessione sia sui rischi sia sulle opportunità legate all’innovazione tecnologica. Gli organizzatori, insieme ai relatori, hanno creato un’atmosfera stimolante che ha sicuramente arricchito l’intera comunità presente.
Discussione sulle vulnerabilità della sicurezza nell’IA
Successivamente, ci siamo immersi nel mondo in continua evoluzione delle vulnerabilità di sicurezza e del codice generato (o almeno sottoposto a verifica) dall’IA. Per questo panel, mi sono unito a Stephen Goldschmidt, architetto di sicurezza della piattaforma globale di Box; Patrick Gould, direttore del Portafoglio Cyber & Telecom per l’Innovazione della Difesa del Dipartimento della Difesa; e Ram Parasuraman, direttore esecutivo per Dati e Resilienza presso IBM.
Il tema ha suscitato dibattiti accesi in precedenza e come dimostrato nella nostra conferenza virtuale Ars Frontiers nel 2023, molti esperti di cybersecurity hanno manifestato preoccupazioni riguardo l’idea di codice generato dall’IA. Gli attuali modelli di linguaggio (LLMs) tendono a “confabulare” senza alcun preavviso, portando a conseguenze potenzialmente critiche nella scrittura di codice.
Tuttavia, i nostri relatori hanno chiarito che il ruolo più appropriato per l’IA generativa nella programmazione sarà probabilmente quello di supportare gli umani, piuttosto che sostituirli. L’IA può aiutare a identificare errori nei codici che potrebbero potenzialmente causare vulnerabilità, fungendo da uno strumento di pulizia dietro il coder umano. Non siamo ancora pronti a fidarci completamente di un codice generato interamente dall’IA in contesti di produzione, ma il codice verificato dall’IA rappresenta già una realtà presente. Come ha affermato Parasuraman, “La questione di come fidarsi dell’output dell’IA non scomparirà mai. Ciò che cambierà sarà il modo in cui verifichiamo e monitoriamo quell’output.”
Questo approccio critico e collaborativo verso il codice generato dall’IA offre una prospettiva entusiasta sull’interazione tra l’intelligenza artificiale e la programmazione umana, sottolineando l’importanza di mantenere il controllo e la supervisione umana in ogni fase del processo di sviluppo del software.
Giocare il lungo gioco dell’infrastruttura
Il panel finale si è concentrato su “giocare il lungo gioco dell’infrastruttura”, ossia su come pianificare l’infrastruttura per poter anticipare problemi inaspettati. Ho avuto il piacere di moderare una discussione con Ashwin Ballal, Chief Information Officer di Freshworks; Karun Channa, direttore di Product AI di Roblox; e Pete Bray, Global Product Executive di IBM.
Rispondere alla domanda “come anticipare problemi inaspettati” non è affatto semplice, e i relatori, provenienti da contesti che spaziano dal cloud nativo a quello ibrido con una forte presenza di data center on-premises, hanno offerto una varietà di risposte. Un aspetto fondamentale emerso è stato l’importanza di una raccolta dei requisiti intelligente, un grado adeguato di resilienza e la necessità di flessibilità. Avere un chiaro controllo sui requisiti è il primo passo inevitabile; se la pianificazione dei requisiti è eseguita correttamente, la creazione di un’infrastruttura resiliente ne seguirà naturalmente.
Se l’infrastruttura è resiliente e, ancora più importante, se ci si riserva un capitale operativo d’emergenza, si avrà anche la flessibilità necessaria per rispondere a picchi di domanda inaspettati. La capacità di affrontare tali istanti difficili può anche passare attraverso la disponibilità di risorse finanziarie che possano essere temporaneamente allocate nella gestione del carico. Sebbene potrebbe sembrare un concetto semplice, è importante ricordare che anche in contesti complessi, come nel caso di aziende che operano in campo aerospaziale, una pianificazione dei requisiti accurata risulta vincente.
In definitiva, queste visioni multidisciplinari hanno offerto una forte base per capire come non solo affrontare le sfide attuali, ma anche prepararsi per quelle future, garantendo la capacità di rispondere in modo agili e mirato a qualsiasi tipo di situazione imprevista che possa sorgere nel panorama tecnologico in continua evoluzione.
Networking e cocktail: un momento di convivialità
Dopo le intense e stimolanti discussioni del pomeriggio, il momento del networking ha offerto ai partecipanti una preziosa opportunità per incontrarsi e confrontarsi. La serata è stata animata da un’atmosfera di convivialità e collegamento, permettendo a professionisti del settore tecnologico di scambiare idee e approfondire temi emersi durante i panel.
Durante il ricevimento, all’interno del Computer History Museum, era possibile non solo gustare ottimi cocktail, ma anche esplorare la mostra permanente “Revolution: The First 2,000 Years of Computing”. Questa esperienza ha permesso ai partecipanti di riflettere sul passato dell’informatica mentre si proiettavano verso il futuro della tecnologia. Un ringraziamento particolare va a Brian Won, un contribuitore di lunga data di Ars, che ha guidato un gruppo in un tour informale attraverso l’esibizione.
L’energia nella stanza era palpabile. I partecipanti, impegnati in conversazioni animate, si scambiavano contatti e idee su innovazioni e sfide del settore. È interessante notare come la condivisione di esperienze personali e professionali possa arricchire le prospettive e stimolare collaborazioni future. Non è raro che, eventi come questo, fungano da catalizzatori per nuove iniziative e partnership strategiche.
Sebbene il networking possa sembrare un’attività informale, è una componente cruciale per la crescita professionale e lo sviluppo del settore tecnologico. L’abilità di costruire relazioni significative è essenziale in un campo in rapida evoluzione come quello della tecnologia, dove l’innovazione e il cambiamento sono la norma. Gli scambi che avvengono durante questi momenti non solo creano legami, ma possono anche influenzare future decisioni aziendali e opportunità professionali.
In un mondo dove il digitale e l’umanità spesso si sovrappongono, eventi come quello di San Jose dimostrano che il legame personale rimane un aspetto fondamentale della crescita e dell’innovazione nel settore tech.