La moratoria sull’uso etico di AI per le esigenze belliche da parte del Pentagono
Il Pentagono afferma che l’intelligenza artificiale aiuterà l’esercito americano a diventare ancora più potente.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Giovedì un gruppo consultivo che includeva dirigenti di Google, Microsoft e Facebook ha proposto linee guida etiche per impedire che l’intelligenza artificiale militare vada fuori dai binari.
Il consiglio è arrivato dal Defense Innovation Board, creato sotto l’amministrazione Obama per aiutare il Pentagono a sfruttare le competenze del settore tecnologico e presieduto da Eric Schmidt, ex CEO e presidente di Google.
L’anno scorso, il dipartimento ha chiesto al gruppo di sviluppare principi etici per i suoi progetti di intelligenza artificiale. Giovedì, il gruppo ha rilasciato una serie di principi proposti in un rapporto che elogia il potere dell’intelligenza artificiale militare avvertendo anche di danni o conflitti non intenzionali.
“Ora è il momento”, afferma il rapporto del consiglio di amministrazione, “di tenere serie discussioni sulle norme di sviluppo e utilizzo dell’IA in un contesto militare, molto prima che si sia verificato un incidente”.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Una sezione che riflette sui potenziali problemi dell’IA cita “impegni involontari” portando all’instabilità internazionale ”, o, più chiaramente, alla guerra.
Il Pentagono ha dichiarato che è una priorità nazionale espandere rapidamente l’uso militare dell’intelligenza artificiale ovunque dal campo di battaglia al back office.
Una strategia di difesa nazionale aggiornata pubblicata lo scorso anno afferma che l’IA è necessaria per stare al passo con i rivali che si appoggiano alle nuove tecnologie per competere con il potere degli Stati Uniti, come la Cina e la Russia.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Un nuovo Centro congiunto di intelligenza artificiale mira ad accelerare i progetti basati sulla tecnologia commerciale dell’IA, espandendo una strategia testata nell’ambito del Progetto Maven , che ha sfruttato Google e altri per applicare l’apprendimento automatico ai filmati di sorveglianza dei droni.
Il rapporto del Defense Innovation Board stabilisce cinque principi etici che afferma dovrebbero governare tali progetti.
Il primo è che gli esseri umani dovrebbero rimanere responsabili dello sviluppo, dell’uso e dei risultati dei sistemi di intelligenza artificiale del dipartimento.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Fa eco a una politica esistente introdotta nel 2012 che afferma che dovrebbe esserci un “essere umano nel giro” quando si dispiega una forza letale.
Altri principi nell’elenco descrivono pratiche che si potrebbero sperare siano già standard per qualsiasi progetto tecnologico del Pentagono.
Uno afferma che i sistemi di intelligenza artificiale dovrebbero essere testati per l’affidabilità, mentre un altro afferma che gli esperti che costruiscono sistemi di intelligenza artificiale dovrebbero capire e documentare ciò che hanno realizzato.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
I restanti principi affermano che il dipartimento dovrebbe adottare misure per evitare distorsioni nei sistemi di intelligenza artificiale che potrebbero danneggiare inavvertitamente le persone e che l’IA del Pentagono dovrebbe essere in grado di rilevare danni involontari e disimpegnarsi automaticamente se si verifica o consentire la disattivazione da parte di un essere umano.
Le raccomandazioni evidenziano come l’IA sia ora vista come centrale nel futuro della guerra e delle altre operazioni del Pentagono, ma anche come la tecnologia si basa ancora sul giudizio e sulla moderazione umana.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
La recente eccitazione per l’IA è in gran parte guidata dai progressi nell’apprendimento automatico.
Ma come mostrano i progressi più lenti di quanto promesso in autonomia di guida , l’IA è la migliore in compiti ben definiti e controllati, e le ricche situazioni del mondo reale possono essere impegnative.
“Esiste un legittimo bisogno di questo tipo di principi principalmente perché molta della tecnologia di intelligenza artificiale e machine learning oggi presenta molti limiti”, afferma Paul Scharre, direttore della tecnologia e del programma di sicurezza nazionale del Center for a New American Security.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
“Ci sono alcune sfide uniche in un contesto militare perché è un ambiente contraddittorio e non conosciamo l’ambiente in cui dovrai combattere.”
Sebbene il Pentagono abbia chiesto al Defence Innovation Board di sviluppare principi di intelligenza artificiale, non si è impegnato ad adottarli. I migliori ottoni militari sembravano incoraggianti, tuttavia.
Il tenente generale Jack Shanahan, direttore del Joint Artificial Intelligence Center, ha dichiarato in una dichiarazione che le raccomandazioni “aiuteranno a rafforzare l’impegno del DoD nel sostenere i più alti standard etici come indicato nella strategia di intelligenza artificiale del DoD, abbracciando al contempo la forte storia dell’esercito americano di applicare rigorosi test e norme sul campo per le innovazioni tecnologiche. ”
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Se accettate, le linee guida potrebbero stimolare una maggiore collaborazione tra l’industria tecnologica e le forze armate statunitensi.
Le relazioni sono state tese dalle proteste dei dipendenti sul lavoro del Pentagono presso aziende come Google e Microsoft .
Google ha deciso di non rinnovare il contratto Maven e ha rilasciato i propri principi di intelligenza artificiale dopo che migliaia di dipendenti hanno protestato contro la sua esistenza.
I principi etici del Pentagono AI potrebbero aiutare i dirigenti a vendere internamente progetti potenzialmente controversi. Microsoft e Google hanno entrambi chiarito che intendono rimanere coinvolti con le forze armate statunitensi ed entrambi hanno dirigenti del Defence Innovation Board.
I principi dell’IA di Google consentono specificamente il lavoro militare .
Microsoft è stata nominata Venerdì come il vincitore a sorpresa di un contratto cloud del Pentagono da $ 10 miliardi noto come JEDI, destinato a alimentare un’ampia modernizzazione della tecnologia militare, inclusa l’IA.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.