• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • AI INTELLIGENZA ARTIFICIALE

California: Newsom respinge il progetto di legge SB 1047 contro i disastri AI

  • Redazione Assodigitale
  • 30 Settembre 2024
California: Newsom respinge il progetto di legge SB 1047 contro i disastri AI

Voto di veto del governatore Newsom su SB 1047

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

Il governatore della California, Gavin Newsom, ha esercitato il suo potere di veto sul disegno di legge SB 1047, che mirava a prevenire l’uso improprio dell’IA e a proteggere i cittadini da potenziali danni critici. La legislazione era stata approvata dall’assemblea statale con un margine di 41 voti favorevoli contro 9 contrari il 28 agosto. Tuttavia, diverse organizzazioni, tra cui la Camera di Commercio, avevano sollecitato Newsom a porre il veto sul progetto di legge.

Indice dei Contenuti:
  • California: Newsom respinge il progetto di legge SB 1047 contro i disastri AI
  • Voto di veto del governatore Newsom su SB 1047
  • Contenuto e obiettivi del disegno di legge
  • Reazioni e opposizioni della comunità tecnologica
  • Implicazioni per lo sviluppo dell’IA in California
  • Prospettive future sulla regolamentazione dell’IA


SCONTO 10% sul PREZZO DI ACQUISTO usando il codice BTCITALY ==> CLICCA QUI

Nella sua comunicazione di veto, datata 29 settembre, Newsom ha riconosciuto che il disegno di legge è “ben intenzionato”, ma ha espresso preoccupazioni significative riguardo alla sua applicabilità. In particolare, il governatore ha sottolineato che SB 1047 “non tiene conto di ambienti ad alto rischio, decisioni critiche o l’uso di dati sensibili”. Newsom ha aggiunto che il disegno di legge impone standard severi anche per le funzioni più basilari, a meno che un sistema di grandi dimensioni non lo utilizzi.

Il disegno di legge avrebbe reso i sviluppatori di modelli di IA responsabili per l’adozione di protocolli di sicurezza in grado di prevenire usi catastrofici della loro tecnologia, imponendo sanzioni significative per le violazioni. Le prime violazioni avrebbero comportato una multa minima di 10 milioni di dollari e di 30 milioni per le infrazioni successive.

Nonostante l’intenzione di destinare risorse e stabilire regole più rigorose, Newsom ha messo in discussione l’efficacia generale del disegno di legge, dichiarando: “Non credo che questo sia il miglior approccio per proteggere il pubblico dalle vere minacce poste dalla tecnologia”. La sua posizione mette in rilievo la necessità di un approccio più calibrato e basato su analisi empiriche nel contesto della regolamentazione dell’IA.

Contenuto e obiettivi del disegno di legge

Il disegno di legge SB 1047 era concepito per affrontare le crescenti preoccupazioni riguardanti l’uso improprio dell’intelligenza artificiale da parte di attori che potrebbero causare danni critici all’umanità. Se approvato, il disegno di legge avrebbe imposto ai sviluppatori di modelli di IA l’obbligo di adottare una serie di protocolli di sicurezza volti a prevenire l’uso catastrofico della loro tecnologia. Tra le misure previste, vi era l’obbligo di testare i modelli e di condurre valutazioni del rischio esterne, nonché l’implementazione di un “interruttore di emergenza” in grado di spegnere completamente il modello di IA in caso di necessità.

LEGGI ANCHE ▷  Svelato il rapporto con la AI da parte degli italiani: ecco cosa emerge dalla ricerca Trend Radar di Samsung.

Secondo quanto stabilito da SB 1047, le violazioni delle norme avrebbero comportato sanzioni finanziarie ingenti: una prima violazione avrebbe potuto costare almeno 10 milioni di dollari, mentre violazioni successive avrebbero comportato multe fino a 30 milioni di dollari. Inoltre, il disegno di legge prevedeva di applicarsi esclusivamente ai modelli di IA che richiedono un investimento minimo di 100 milioni di dollari e che utilizzano almeno 10^26 FLOPS per l’addestramento, rendendo così la legislazione mirata a sistemi di grande scala e costosi.

In una revisione importante, era stato eliminato il potere dell’ufficio del procuratore generale di querelare le aziende di IA per pratiche negligent, a meno che non si verificassero eventi catastrofici. Di conseguenza, le aziende avrebbero potuto essere soggette solo a misure inibitorie ed essere citate in giudizio solo se il loro modello avesse causato danni critici. Le modifiche al disegno di legge, di fatto, avevano smussato le iniziali misure punitive che miravano a garantire un elevato standard di sicurezza nel settore dell’IA.

Il governatore Newsom ha espresso il timore che, focalizzandosi esclusivamente sui modelli di grandi dimensioni e costosa gestione, SB 1047 potesse portare a una percezione errata della sicurezza pubblica, trascurando i rischi posti da modelli più piccoli e specializzati che potrebbero emergere, rivelandosi altrettanto pericolosi o addirittura più insidiosi.

Reazioni e opposizioni della comunità tecnologica

La risposta del settore tecnologico al veto del governatore Newsom su SB 1047 è stata determinata e articolata. Diverse figure di spicco del mondo dell’IA hanno espresso pubblicamente le loro preoccupazioni riguardo a questa legislazione, sottolineando che, sebbene l’intento fosse di garantire la sicurezza, il modo in cui il disegno di legge era strutturato avrebbe potuto ostacolare l’innovazione.

Ricercatori di fama come **Geoffrey Hinton** e **Yoshua Bengio**, sostenendo la necessità di una regolazione dell’IA, avevano inizialmente appoggiato SB 1047. Tuttavia, dopo il veto, Hinton ha posto l’accento sul fatto che è fondamentale trovare un equilibrio tra sicurezza e progresso, avvertendo che misure troppo restrittive possono soffocare le potenzialità di innovazione. **Fei-Fei Li** ha criticato l’approccio del disegno di legge, affermando che potrebbe limitare l’esplorazione di nuove applicazioni dell’IA, un’area cruciale per il progresso tecnologico.

LEGGI ANCHE ▷  OpenAI da laboratorio di ricerca a nuova protagonista tecnologica nel settore

Inoltre, l’opposizione è arrivata anche dai rappresentanti di organizzazioni commerciali come la **California Chamber of Commerce**, che hanno avvertito che SB 1047 avrebbe potuto imporre oneri finanziari eccessivi sulle startup e sulle innovazioni in fase di sviluppo. Secondo i rappresentanti del settore, tali requisiti avrebbero potuto rendere difficile per le nuove aziende competere in un ambiente già complesso e competitivo come quello californiano.

Il **Venture Capital firm Andreessen Horowitz** ha messo in dubbio l’utilità delle sanzioni previste nel disegno di legge, sostenendo che avrebbero potuto scoraggiare gli investimenti nel settore dell’IA. Anche aziende leader del settore, tra cui **Meta**, hanno espresso preoccupazione affinché le regole non limitassero la crescita e l’inventiva, essenziali per il futuro del tech in California. Le modifiche e le revisioni apportate al testo originale di SB 1047 hanno spinto queste entità a rimanere vigili e a richiedere ulteriori discussioni sulle modalità di regolamentazione efficace dell’IA.

Implicazioni per lo sviluppo dell’IA in California

La decisione del governatore Newsom di porre il veto sul disegno di legge SB 1047 solleva interrogativi significativi sulle future traiettorie dello sviluppo dell’intelligenza artificiale (IA) in California. Il veto mette in luce preoccupazioni riguardo a un equilibrio adeguato tra la regolamentazione necessaria per garantire la sicurezza pubblica e la promozione dell’innovazione nel settore tecnologico. La scelta di non adottare misure rigorose come quelle proposte da SB 1047 potrebbe creare un contesto favorevole per le aziende intelligenti, ma evidenzia anche la necessità di misure precise per prevenire potenziali abusi della tecnologia.

In particolare, l’esclusione di un rigido controllo sui modelli di IA più piccoli o meno costosi potrebbe portare a scenari in cui tecnologie emergenti e meno regolamentate sviluppano applicazioni potenzialmente dannose. Newsom ha sottolineato che la normativa esistente potrebbe dare un falso senso di sicurezza al pubblico, in quanto i rischi legati a tecnologie meno costose e di nuova generazione non sarebbero adeguatamente monitorati.

A livello economico, la decisione di bloccare SB 1047 può essere vista come un modo per favorire la crescita di startup e innovatori nel settore dell’IA, permettendo loro di espandere i propri orizzonti senza l’onere di sanzioni severe. Tuttavia, la mancanza di un framework chiaro avrebbe potuto spingere alcune aziende a operare in un contesto di incertezza legale, complicando ulteriormente la loro capacità di pianificare e scalare.

LEGGI ANCHE ▷  Giovani e Intelligenza Artificiale: il Ministro Bernini al centro del dibattito

La scelta del governatore riflette una crescente tensione tra la necessità di garantire la sicurezza e il desiderio di stimolare l’innovazione. Gli attori del settore tecnologico sono ora chiamati a lavorare collaborativamente per sviluppare linee guida e pratiche responsabili che aiutino a prevenire problemi futuri senza soffocare la creatività e la crescita nel campo dell’IA.

Prospettive future sulla regolamentazione dell’IA

Le prospettive future per la regolamentazione dell’intelligenza artificiale in California appaiono complesse e multilaterali, rivelando la necessità di un equilibrio sottile tra sicurezza e innovazione. Dopo il veto del governatore Newsom su SB 1047, i legislatori e i leader del settore tecnologico devono ora ripensare a come affrontare i rischi associati all’IA senza soffocare le opportunità di sviluppo. La mancanza di un quadro normativo rigido potrebbe portare a una corsa all’innovazione, stimolando le startup e affrontando le preoccupazioni relative alla sicurezza pubblica in modo più flessibile.

La comunità tecnologica si trova in una posizione unica di abilità e responsabilità. I leader del settore, supportati dalla crescente pressione pubblica e dalle preoccupazioni etiche, possono promuovere protocolli di sicurezza e responsabilità autonomi, stabilendo standard di best practice per la progettazione e l’implementazione di sistemi di IA. Questo approccio potrebbe evolversi in un’iniziativa che, piuttosto che essere imposta dall’alto, è accettata e adottata volontariamente dagli stessi sviluppatori di tecnologie.

Inoltre, l’idea di una regolamentazione basata sull’analisi empirica di sistemi IA suggerisce che le misure potrebbero evolversi man mano che la tecnologia avanza. Ci sarà un’urgente necessità di monitorare e valutare effetti e rischi emergenti collegati a nuove applicazioni dell’IA, soprattutto in un settore in rapido cambiamento e innovativo come quello tecnologico. Ciò richiederà una costante collaborazione tra legislatori, ricercatori e leader della tecnologia per garantire che misure di sicurezza siano commisurate ai potenziali pericoli, senza rallentare il progresso.

Esiste anche la questione di come attrarre investimenti nel settore dell’IA senza vincolare le aziende in misure punitive che potrebbero disincentivare l’innovazione. Il futuro della regolamentazione dell’IA in California dipenderà dall’efficacia con cui i vari attori possono collaborare per stabilire un framework che bilanci responsabilità e libertà di innovare, garantendo al contempo che la sicurezza pubblica rimanga una priorità assoluta. Le prossime decisioni e azioni legislative potrebbero essere cruciali per delineare il panorama dell’IA, non solo in California, ma a livello nazionale e globale.

 


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Redazione Assodigitale

Articolo editoriale realizzato dalla Redazione di Assodigitale. Per tutte le vostre esigenze editoriali e per proporci progetti speciali di Branded Content oppure per inviare alla redazione prodotti per recensioni e prove tecniche potete contattarci direttamente scrivendo alla redazione : CLICCA QUI

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.