Come i chip AI stanno trasformando il mondo dell’informatica radicalmente
![Come i chip AI stanno trasformando il mondo della informatica radicalmente](https://assodigitale.it/wp-content/uploads/2019/10/Come-i-chip-AI-stanno-trasformando-il-mondo-della-informatica-radicalmente-1160x773.jpg)
I chip di intelligenza artificiale sono la nuova moda nel mondo dell’informatica. Sono pronti a trasformare il mondo dell’informatica, con le loro incredibili velocità di elaborazione.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Dal momento che l’IA viene utilizzata in quasi tutte le aree come smartphone, veicoli a guida autonoma, quindi i chip AI sono diventati così preziosi ora.
C’è stato un aumento esponenziale nelle aree delle reti neurali convenzionali. Esiste un massimo di calcoli noti come calcoli di algebra lineare, che è anche chiamato matematica tensoriale.
Alcuni dei dati di input vengono trasformati in un vettore e il vettore viene moltiplicato per le colonne di una matrice di altezze neurali e i prodotti di tutte queste moltiplicazioni sono noti come “circuiti di accumulo multiplo”.
Negli ultimi vent’anni, i big data e la combinazione veloce di AI sono diventati la norma e la ML ha portato al deep learning. Attualmente, ci sono molte startup di chip AI come Graphcore, Effinix, Flex Logix e Cornami, che sono coinvolte nel business delle startup.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Fino al 2017, VC ha triplicato gli investimenti nelle startup di chip AI e fino al 2019 ha raggiunto circa 1 miliardo di dollari. Graphcore ha ricevuto 200 milioni di dollari guidati da Microsoft e BMW, mentre altri come Mythia Inc e Computing hanno raccolto milioni di finanziamenti. Attualmente, anche molte grandi aziende come Qualcomm, Nvidia e AMD sono entrate in questa linea.
Software AI utilizzato per l’esecuzione su chip grafici. Questi chip hanno una capacità molto elevata per l’elaborazione parallela e una capacità molto più grande di quella della CPU. Ma più persone affermano che i microchip progettati per l’apprendimento profondo possono essere molto più potenti.
Un nuovo chip AI Eyeriss, che porta a un grande calcolo e un’efficienza 10–10000 volte superiore. Il chip è flessibile per essere utilizzato per applicazioni adattate. Si basa su array di gate programmabili sul campo (FPGA) e circuiti integrati specifici dell’applicazione (ASIC) e ottimizzati per l’uso.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
I nuovi chip rendono molto veloci le attività di elaborazione ad alte prestazioni come l’analisi predittiva e l’elaborazione delle query. Questi chip sono dotati di una grande quantità di dati come testo, immagini e lingua.
Le reti neurali sono compresse fino al 10% delle loro dimensioni originali e nessun aumento del tasso di errore.
Attualmente, la Cina sta investendo tonnellate di denaro nel campo dei chip per computer AI. Alibaba ha annunciato che un nuovo chip di inferenza AI noto come Ali-NPU nel 2019. Deve essere utilizzato in città intelligenti, logistica e veicoli a guida autonoma.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Nel campo delle auto a guida autonoma, Tesla ha annunciato che i suoi chip saranno installati e saranno retrocompatibili. Il nuovo chip verrà utilizzato per elaborare 2000 immagini della telecamera al secondo.
Quali sono i migliori produttori di AI chip?
Inferenziale è un nuovo chip progettato da Amazon, che viene utilizzato per gestire una grande quantità di dati con una latenza inferiore.
È pienamente in grado di gestire carichi di lavoro energetici, offrendo migliaia di teraflop per istanza Amazon EC2 per più framework. Supporta vari tipi di tipi di dati, come INT-8, FP-16 e bfloat16. Un altro dei framework popolari che supporta è Pytorch, TensorNetetc.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Questi chip sono progettati da Movidius, una società Intel e devono essere utilizzati per applicazioni di intelligenza artificiale, visione e imaging. Questo chip è gestito da una coppia di controller LEON4 gemellati. La famiglia di processori Myriad 2 sta cambiando le capacità dei dispositivi e offrendo prestazioni di livello mondiale.
Huawei ha inaugurato gli ultimi due chip AI, Ascend 910 e Ascend 310. Questi chip sono uno dei più veloci sul mercato e aiutano nelle reti di addestramento, in pochissimo tempo. Ascend 910 è utilizzato per i datacenter e Ascend 310 è applicabile per smartwatch e smartphone.
IBM ha recentemente rilasciato un nuovo chip analogico a 8 bit, che ha precisione per i suoi calcoli digitali e analogici. Questo chip viene utilizzato per testare la rete neurale, che vede numeri con efficienza al 100 percento.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Poiché i dati vanno tra la memoria e l’elaborazione, che richiede tempo ed energia. Questo chip AI si basa sulla memoria a cambiamento di fase. Questa tecnica utilizza il calcolo in memoria che raddoppia la precisione e consuma 33 volte meno energia. È adatto per un ambiente a bassa potenza.
Google ha introdotto un altro chip, Tensor Processing Unit. Il TPU aggiornato va nell’intelligenza artificiale per trasportare un carico di lavoro elevato. Il TPU originale era destinato alla fase di interferenza del deep learning, mentre la nuova versione può gestire anche la formazione.
L’azienda afferma che ci vuole un giorno per addestrare il sistema di traduzione automatica utilizzando 32 delle migliori GPU disponibili e il carico di lavoro impiega sei ore al massimo di otto TPU connesse. Google sta attualmente utilizzando questa macchina all’interno dei suoi data center.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Le tecnologie di immaginazione hanno dichiarato tre nuove GPU PowerVR (Graphics Processing Unit), che sono dirette per varie categorie di prodotti come le reti neurali per i mercati AI. Ha un intervallo di prestazioni da 0,6 a 10 tera di apertura / secondo.
Il punteggio multiplo aumenta di oltre 160 TOP. Questi chip svolgono un ruolo cruciale nel portare nuove funzionalità in smartphone, auto intelligenti, dispositivi loT e fotocamere.
AMD ha dato la prima GPU 7nm al mondo con il nome Radeon Instinct MI60. La società ritiene che la GPU alimenterà il prossimo set di applicazioni di deep learning e AI con applicazioni ad alte prestazioni, rendering grafico e cloud computing. I chip vengono utilizzati per l’elaborazione rapida in virgola mobile.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
Viene utilizzato per la comunicazione da GPU a CPU, che è aumentato. Questo è circa 6 volte più veloce. Questo è abilitato dalla tecnologia AMD Infinity Fabric Link. Questi chip sono progettati per operazioni su larga scala, in cui la tecnologia 7mm di AMD viene utilizzata per migliorare le prestazioni.
Ci sono molti vantaggi dei chip di computer AI.
I principali sono descritti di seguito.
Se non si inviano molti dati nel cloud ogni due secondi, ciò significa che gli utenti saranno in grado di accedere ai servizi offline. Sarai anche in grado di salvare i dati. Se l’analisi viene eseguita su questo particolare dispositivo, impedirà alle persone di eseguire l’app, al fine di pagare i server.
Con hardware dedicato come i chip AI, si riducono le possibilità di perdite di dati degli utenti. Quindi, si traduce in una migliore privacy.
I chip AI applicabili alle reti neurali profonde hanno la latenza più bassa. Ciò significa che le probabilità che vengano nascoste sono le più basse. Le reti sono accennate alla loro applicazione.
Un altro vantaggio dei chip AI è il fatto che ha un consumo energetico molto più basso. Ciò migliora notevolmente la velocità del processore AI.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.