Chief di Salesforce nel Regno Unito: Regolamentazione AI deve essere equilibrata e differenziata
Regolamentazione dell’AI: Un approccio differenziato
L’amministratore delegato di Salesforce per il Regno Unito e l’Irlanda, Zahra Bahrololoumi, ha espresso l’importanza di una regolamentazione mirata dell’intelligenza artificiale da parte del governo laburista. Durante un’intervista con CNBC a Londra, ha sottolineato che le politiche dovrebbero evitare di trattare tutte le aziende, che operano nel campo dell’IA, allo stesso modo. Bahrololoumi ha affermato che Salesforce prende sul serio tutte le normative, ma ha avvertito che le proposte britanniche per la regolamentazione dell’IA devono essere “proporzionali e personalizzate”.
Secondo Bahrololoumi, esiste una netta distinzione tra le aziende che sviluppano strumenti IA per il consumatore, come OpenAI, e quelle che, come Salesforce, si concentrano su soluzioni IA per le imprese. I prodotti orientati al consumatore, come ChatGPT, sono soggetti a meno restrizioni rispetto a quelli destinati alle aziende, che devono rispettare standard di privacy più elevati e aderenza a linee guida aziendali. Ha spiegato che ciò che si cerca è una legislazione “mirata, proporzionale e personalizzata”, che rispecchi le diverse funzioni delle tecnologie per consumatori e aziende nel panorama digitale odierno.
Un portavoce del Dipartimento della Scienza, Innovazione e Tecnologia del Regno Unito ha confermato che le normative previste per l’IA saranno “altamente mirate” alle aziende che sviluppano i modelli di IA più potenti, piuttosto che a tutte le realtà che utilizzano l’IA. Questo approccio suggerisce che le regole attuate potrebbero non applicarsi a società come Salesforce, che non sono coinvolte nella creazione di modelli fondamentali propri, come quelli di OpenAI.
Bahrololoumi ha evidenziato la necessità di riconoscere il potenziale dell’IA nel stimolare la crescita e migliorare la produttività. Ha enfatizzato l’impegno di Salesforce nel supportare lo sviluppo del settore dell’IA nel Regno Unito, fungendo da attore importante nell’adozione di questa tecnologia attraverso l’intera economia.
Differenze tra AI di consumo e AI aziendale
Zahra Bahrololoumi, amministratore delegato di Salesforce per il Regno Unito e l’Irlanda, ha messo in evidenza con chiarezza le differenze distintive tra le applicazioni di intelligenza artificiale destinate ai consumatori e quelle progettate per le imprese. Durante un’intervista, ha spiegato che mentre le soluzioni di AI orientate al consumatore, come i chatbot sviluppati da OpenAI, possono operare con un framework normativo relativamente più flessibile, le applicazioni di AI aziendale richiedono una conformità a standard di privacy e sicurezza più rigorosi.
I sistemi di AI per le imprese, come quelli offerti da Salesforce, sono concepiti per operare in ambienti altamente regolamentati, dove la protezione dei dati sensibili e la conformità alle normative aziendali sono di fondamentale importanza. Bahrololoumi ha dichiarato: “C’è una netta differenza tra le organizzazioni che operano con tecnologia a consumo e quelle che si dedicano a soluzioni aziendali. Ognuna di noi ha ruoli distintivi nell’ecosistema, ma noi ci posizioniamo come un’organizzazione B2B”.
In particolare, l’amministratore delegato ha sottolineato che Salesforce è impegnata a garantire una legislazione che rifletta le esigenze specifiche di diverse tipologie di utenti. Ha evidenziato come le applicazioni di AI destinate alle aziende siano soggette a requisiti più complessi e responsabilità legali rispetto ai prodotti rivolti direttamente al consumatore. Questa distinzione è cruciale per evitare un eccessivo appesantimento normativo che potrebbe ostacolare l’innovazione nelle tecnologie aziendali.
Bahrololoumi ha anche esposto l’importanza di una regolamentazione che non solo tenga conto delle capacità tecniche delle aziende, ma che riconosca anche le differenze significative nel modo in cui queste tecnologie sono sviluppate e implementate. Per esempio, le applicazioni di AI per le imprese devono confrontarsi con una grande varietà di requisiti di conformità e responsabilità rispetto alla gestione dei dati. Questo aspetto è essenziale per garantire la sicurezza e la fiducia tanto da parte dei clienti quanto da parte degli stakeholder.
Il messaggio di Salesforce è chiaro: le politiche relative all’AI devono essere sviluppate con una comprensione approfondita delle differenze tra i vari segmenti del mercato tecnologico, evitando trattamenti omogenei che potrebbero non solo risultare inadeguati, ma anche limitare il potenziale di crescita del settore enterprise.
Sicurezza dei dati e considerazioni etiche
L’attenzione alla sicurezza dei dati e alle considerazioni etiche è un aspetto centrale per le aziende che sviluppano tecnologie di intelligenza artificiale, come Salesforce. La piattaforma Agentforce di Salesforce, progettata per consentire alle organizzazioni di creare propri “agenti” digitali autonomi, incarna un approccio attento alla gestione dei dati. Un punto cruciale di questo sistema è la funzionalità di “zero retention”, che garantisce che nessun dato dei clienti venga mai memorizzato al di fuori dell’infrastruttura di Salesforce. Questo significa che le richieste e le risposte generate dai modelli di linguaggio non vengono archiviate, offrendo un livello di protezione dei dati che è di fondamentale importanza per le imprese.
Bahrololoumi ha messo in evidenza come la questione della sicurezza dei dati sia particolarmente complicata per i modelli di intelligenza artificiale orientati al consumo, come quelli di OpenAI, dove la trasparenza riguardo ai dati utilizzati per l’addestramento non è sempre chiara. “Per addestrare questi modelli serve un’enorme quantità di dati”, ha affermato, sottolineando la mancanza di chiarezza su quale dati vengano impiegati per preparare tali tecnologie. Questo porta a interrogativi sulla privacy e sull’uso etico delle informazioni sensibili.
I rischi associati ai modelli di intelligenza artificiale non sono limitati solo alle tecnologie di consumo. Anche prodotti come Microsoft Copilot, orientati alle imprese, portano con sé rischi significativi in termini di sicurezza. Bahrololoumi ha citato un rapporto di Gartner che solleva preoccupazioni riguardo ai potenziali pericoli dettati dall’uso dei sistemi di intelligenza artificiale in contesti aziendali. Queste preoccupazioni devono essere esaminate attentamente dalle aziende e dai regolatori per garantire che vengano stabiliti protocolli di compliance adeguati e sicuri.
Come ha suggerito Bola Rotibi, responsabile della ricerca aziendale presso CCS Insight, le preoccupazioni relative alla privacy, al consenso e alla trasparenza non sono esclusive dei modelli orientati al consumatore, ma si estendono a tutte le applicazioni di intelligenza artificiale, sia per il business che per i consumatori. La regolamentazione esistente, come il GDPR, offre già un quadro normativo che deve essere rigorosamente applicato, indipendentemente dal tipo di IA in questione.
In questo contesto, Salesforce si distingue per il suo impegno a integrare pratiche etiche nella progettazione e nello sviluppo delle sue soluzioni di intelligenza artificiale. La necessità di una legislazione che consideri queste differenze, come anche il potenziale dell’IA di stimolare la crescita economica, è un elemento fondamentale del discorso di Bahrololoumi. La sicurezza dei dati non è solo una questione di conformità, ma anche di costruire fiducia tra le aziende e i loro clienti.
Risposte delle autorità e prospettive future
Le autorità britanniche stanno attivamente considerando la regolamentazione dell’intelligenza artificiale, con un focus particolare su una normativa che non sia di tipo generico ma piuttosto mirato alle aziende che sviluppano i modelli di IA più avanzati. Un portavoce del Dipartimento della Scienza, Innovazione e Tecnologia (DSIT) ha chiarito che le regole in fase di sviluppo intendono evitare l’applicazione di disposizioni uniformi a tutte le aziende, sottolineando che il governo sta lavorando su una legge che evidenzi le differenze tra le varie tipologie di operatori nel settore AI.
Questa impostazione differenziata tiene conto delle varie complessità dei modelli di IA, allo scopo di favorire un ambiente che incoraggi l’innovazione, senza trascurare la necessità di proteggere i dati e garantire la sicurezza. Infatti, i firmatari di queste regolamentazioni vogliono assicurarsi che solo le entità più influenti, quelle con un reale impatto sul mercato e sui dati degli utenti, siano soggette a responsabilità specifiche e requisiti di conformità.
Bahrololoumi ha apprezzato questo approccio, affermando che evidenziare tale differenziazione non solo supporta la regolamentazione in un modo più adatto al contesto delle aziende, ma contribuisce anche a stimolare il progresso economico. Ha inoltre sottolineato che la chiave per un’implementazione efficace delle politiche AI risiede nella comprensione della natura varia delle tecnologie, della loro applicazione e dell’effetto potenziale sui consumatori e sul mercato.
Nonostante l’incedere verso una normativa più incisiva, c’è anche una crescente preoccupazione riguardo alla velocità con cui le nuove tecnologie vengono adottate e integrate in vari settori. Le aziende, come Salesforce, sono in prima linea nel mettere in evidenza come queste normative debbano essere accompagnate da misure per incoraggiare l’adozione responsabile dell’IA nella business ecosystem, evitando ostacoli che possano frenare l’innovazione.
Il contesto attuale è caratterizzato anche dall’uscita di dichiarazioni dai vertici governativi, come quelle del Primo Ministro Keir Starmer, che hanno promesso uno sguardo attento e una consultazione approfondita con le aziende del settore prima della stesura finale delle normative. Questo dibattito in corso è visto come un’opportunità per costruire un quadro normativo che non solo protegga i cittadini ma favorisca anche un ecosistema tecnologico fruttuoso.
In tal senso, è evidente che le autorità riconoscono il potenziale dell’intelligenza artificiale di trasformare l’economia britannica, e vogliono implementare un approccio che equilibri le esigenze di sicurezza con quelle di dinamismo del mercato. Con l’accelerazione della digitalizzazione, il dialogo attivo tra le aziende tecnologiche e il governo diventa essenziale per poter delineare regole praticabili che abbraccino efficacemente le sfide e le opportunità offerte dall’intelligenza artificiale.
Commenti finali e reiterazione della posizione di Salesforce
Zahra Bahrololoumi ha ribadito l’importanza di un quadro normativo su misura per le aziende tecnologiche che operano nel campo dell’intelligenza artificiale, in particolare per quelle che sviluppano soluzioni destinate al mondo aziendale. Durante le sue dichiarazioni, ha messo in evidenza che il settore enterprise richiede un approccio più sofisticato rispetto a quello applicato alle soluzioni orientate al consumatore. Questo è dovuto alle diverse esigenze di sicurezza e privacy che circondano i dati aziendali, che possono includere informazioni sensibili e strategiche.
Bahrololoumi ha anche sottolineato come Salesforce non solo accolga gli sviluppi normativi, ma si impegni a lavorare a stretto contatto con i regolatori per garantire che le legislazioni siano fondatamente informate e che riflettano le reali dinamiche del mercato. La posizione di Salesforce è chiara: desiderano una legislazione che non solo protegga i consumatori ma che sia anche in grado di promuovere l’innovazione e l’adozione responsabile delle tecnologie AI.
Secondo Bahrololoumi, una regolamentazione generica, che non tiene conto delle specificità di ciascun segmento di mercato, potrebbe scaturire in effetti controproducenti, ostacolando l’innovazione in un settore che è cruciale per la crescita economica futura. Per questo motivo, la CEO di Salesforce insiste sull’esigenza di un dialogo continuo e costruttivo tra il settore pubblico e quello privato per sviluppare normative efficaci che rispondano alle sfide e alle opportunità presentate dall’intelligenza artificiale.
In questo contesto, la visione di Bahrololoumi per il futuro dell’intelligenza artificiale implica un equilibrio tra regolamentazione e libertà di innovare. Essa sottolinea che l’adozione dell’IA nel panorama aziendale deve avvenire in modo facilitato, promuovendo al contempo la sicurezza e la fiducia tra le organizzazioni e i loro clienti. Questo approccio, secondo lei, non solo soddisferà i requisiti di conformità, ma rafforzerà anche la reputazione delle aziende nel gestire in modo sicuro e etico i dati dei clienti.
Bahrololoumi ha messo in evidenza l’urgenza di una task force dedicata che si occupi di monitorare l’evoluzione dell’IA e delle relative normative, garantendo che queste siano sempre in linea con l’andamento del mercato e le esigenze reali degli utenti. La collaborazione tra le aziende come Salesforce e i soggetti regolatori è fondamentale per garantire un ecosistema in cui l’innovazione possa prosperare in un ambiente sicuro e ben gestito.