Nel nome dell'intelligenza artificiale: Nvidia può davvero dormire sonni tranquilli nonostante il prezzo delle sue azioni sia alle stelle?

Nel nome dell'intelligenza artificiale: Nvidia può davvero dormire sonni tranquilli nonostante il prezzo delle sue azioni sia alle stelle?

Di recente, il produttore di chip grafici Nvidia ha pubblicato il suo rapporto finanziario che evidenzia il più grande incremento trimestrale dei ricavi in ​​sei anni, che ha fatto schizzare il prezzo delle sue azioni del 14% dopo la borsa, attirando l'attenzione del settore. Inoltre, il suo CEO Huang Renxun ha dichiarato in precedenza che Nvidia è già un'azienda produttrice di chip AI (intelligenza artificiale) (che sembra stia recuperando terreno sulla tendenza dell'AI) e che il settore è ottimista circa le sue prestazioni di mercato nei chip, in particolare quelli AI. È davvero così?

Diamo prima un'occhiata alle performance finanziarie di Nvidia in questo trimestre. Il fatturato totale è stato di 2 miliardi di dollari, con un incremento del 53,6% rispetto all'anno precedente. Tra questi, i ricavi del reparto chip grafici hanno rappresentato l'85% dei ricavi totali, con un incremento del 52,9% su base annua, arrivando a 1,7 miliardi di dollari; il business dei data center è triplicato rispetto all'anno precedente, arrivando a 240 milioni di dollari; e il settore automobilistico è aumentato del 60,8% su base annua, arrivando a 127 milioni di dollari. Dalla composizione dei ricavi, non è difficile vedere che il core business a supporto di NVIDIA è ancora quello dei chip grafici (schede grafiche discrete) nel mercato tradizionale dei PC, mentre i ricavi derivanti da settori correlati all'intelligenza artificiale o da attività strettamente correlate all'intelligenza artificiale (come i data center) rappresentano solo circa 1/10 dei ricavi totali. Quindi, a giudicare solo dai ricavi, Nvidia è ben lungi dall'essere un'azienda produttrice di chip per l'intelligenza artificiale. È un fatto ben noto che l'intelligenza artificiale è attualmente un settore in forte competizione nel settore. Nvidia, che in passato era una scheda grafica (chip di visualizzazione) indipendente nel settore tradizionale dei PC e lo è ancora, si è trasformata in un'azienda di intelligenza artificiale, il che naturalmente attira molta attenzione. In questo senso, non escludiamo che Nvidia stia sfruttando la tendenza dell'intelligenza artificiale per enfatizzare ed esagerare il ruolo dei propri chip.

Naturalmente, non neghiamo che i chip AI (che supportano applicazioni e funzioni AI) saranno la tendenza di sviluppo futura dell'industria dei chip. In particolare, il fatto che il software di intelligenza artificiale AlphaGo di Google abbia utilizzato la tecnologia di apprendimento profondo per sconfiggere il miglior giocatore di Go al mondo, Lee Sedol, indica che l'intelligenza artificiale sarà il prossimo punto caldo della competizione tra l'industria tecnologica e i pezzi grossi. Lo sviluppo dei big data e dell'Internet of Things ha spinto i giganti della tecnologia, tra cui IBM, Google, Facebook, Microsoft e molte grandi aziende di cloud computing che forniscono servizi cloud, a competere per sviluppare tecnologie di intelligenza artificiale allo scopo di utilizzare gli enormi dati (analisi) raccolti dai futuri dispositivi dell'Internet of Things per fornire servizi migliori al mercato e agli utenti. Va notato che, nonostante i diversi produttori lo chiamino in modo diverso (ad esempio, IBM lo chiama cognitive computing, Facebook e Google lo chiamano machine learning o intelligenza artificiale), i chip svolgono comunque un ruolo importante come parte dell'hardware di base dei data center che supportano queste tecnologie e applicazioni.

Sulla base di questa tendenza, secondo statistiche pertinenti, almeno il 10% dei carichi di lavoro attualmente in esecuzione nei data center (server) di giganti come IBM, Google, Facebook, Amazon, Microsoft e aziende di cloud computing sono correlati ad applicazioni di intelligenza artificiale (sia sviluppando autonomamente applicazioni di intelligenza artificiale correlate, sia supportando ed eseguendo lo sviluppo e le applicazioni di intelligenza artificiale dei clienti, ecc.) e, con la domanda di intelligenza artificiale del mercato e degli utenti, questa tendenza si espanderà in futuro. Questa tendenza pone nuove sfide alla potenza di calcolo e al consumo energetico dei chip di base nei data center, e Nvidia si è specializzata in passato nelle GPU (chip grafici), che presentano un vantaggio naturale. Ad esempio, l'enorme potenza di calcolo parallela richiesta per l'intelligenza artificiale; a parità di area, la GPU ha più unità di calcolo (unità di moltiplicazione e addizione di numeri interi, in virgola mobile, unità di calcolo speciali, ecc.); la GPU ha una memoria con larghezza di banda maggiore, quindi avrà buone prestazioni anche nelle applicazioni ad alto rendimento; la richiesta energetica della GPU è molto inferiore a quella della CPU, ecc.

Ciò non significa tuttavia che i data center (server) dei giganti sopra menzionati non abbiano richiesta di CPU. Al contrario, la CPU è ancora una parte indispensabile delle attività di elaborazione. Nelle attività di elaborazione degli algoritmi di apprendimento profondo, è necessaria anche una CPU ad alte prestazioni per eseguire le istruzioni e trasmettere i dati tramite GPU. Allo stesso tempo, è possibile sfruttare la versatilità della CPU e la capacità di elaborazione di attività complesse della GPU per ottenere i risultati migliori. Ecco perché la maggior parte delle aziende utilizza ancora la combinazione "CPU+GPU", ovvero l'elaborazione eterogenea. In questa modalità eterogenea, la parte seriale dell'applicazione viene eseguita sulla CPU, mentre la GPU, in qualità di coprocessore, è principalmente responsabile della parte che richiede più elaborazione. Da questa prospettiva, la mancanza di CPU dovrebbe essere un difetto di Nvidia, che si dichiara un'azienda specializzata in intelligenza artificiale, ora e in futuro.

Quando parliamo di CPU, pensiamo naturalmente a Intel, leader in questo campo. Intel non solo rappresenta un ostacolo che impedisce a Nvidia di diventare un'azienda di chip per l'intelligenza artificiale in tutti i settori delle CPU, ma è anche il più grande concorrente anche nel settore delle GPU, in cui eccelle e può soddisfare le esigenze di intelligenza artificiale dei grandi nomi sopra menzionati.

Questa sfida si riflette per la prima volta nell'innovativa esplorazione da parte di Intel del potenziale della potenza di calcolo delle CPU. Ad esempio, il chip Xeon Phi recentemente lanciato per i server dei data center. Secondo il rapporto pertinente di Intel, la velocità di training del processore Xeon Phi è 2,3 volte più veloce di quella della GPU di Nvidia e la scalabilità del chip Xeon Phi in più nodi è del 38% e può raggiungere fino a 128 nodi, il che è impossibile per le GPU attualmente sul mercato. Allo stesso tempo, un sistema composto da 128 processori Xeon Phi è 50 volte più veloce di un singolo processore Xeon Phi, il che significa che il processore Xeon Phi presenta evidenti vantaggi in termini di scalabilità, fondamentali per soddisfare le esigenze delle applicazioni di intelligenza artificiale.

Tuttavia, Nvidia ha fermamente smentito le affermazioni di Intel, sottolineando che Intel sta utilizzando dati risalenti a 18 mesi fa, confrontando quattro GPU Maxwell e quattro processori Xeon Phi. Se utilizziamo i dati più recenti di Caffe AlexNet, vediamo che quattro GPU Maxwell sono più veloci del 30% rispetto a quattro processori Xeon Phi. Non discutiamo su quale affermazione sia più oggettiva, ma a giudicare dalla guerra di parole tra le due parti sul rapporto, almeno questo dimostra che la CPU, che non è naturalmente vantaggiosa, ha ancora un grande potenziale da sfruttare. Almeno per quanto riguarda la CPU, Intel può colmare il divario con Nvidia o fare pressione su Nvidia.

Inoltre, dal punto di vista della potenza di calcolo e dei metodi di implementazione che soddisfano semplicemente le esigenze delle applicazioni di intelligenza artificiale, nel settore è ancora controverso se la GPU sia la migliore o l'unica soluzione. Alcuni ricercatori hanno dimostrato che, rispetto alla GPU, l'FPGA ha un'architettura più flessibile e prestazioni migliori per unità di consumo energetico. Gli algoritmi di deep learning possono essere eseguiti in modo più rapido ed efficiente, con un consumo energetico inferiore sui FPGA. Ciò sembra spiegare perché Intel abbia precedentemente acquisito il produttore di FPGA Altera per 16,7 miliardi di dollari. Parlando di fusioni e acquisizioni, ce n'è un'altra che il settore ritiene che Intel possa sfruttare per migliorare la propria competitività nei chip di intelligenza artificiale, arrivando persino a superare Nvidia. Si tratta dell'acquisizione di Nervana Systems, azienda specializzata in chip per l'intelligenza artificiale. Si dice che i chip di deep learning studiati da Nervana Systems abbiano un rapporto costi-efficacia più elevato rispetto alle GPU e una velocità di elaborazione 10 volte superiore a quella delle GPU.

Per illustrare la forza di Nervana Systems o la minaccia che rappresenta per Nvidia, presentiamo un episodio in cui Nervana Systems è stata acquisita. Si dice che quando Intel contattò Nervana per discutere di una vendita, Nervana ritenne che Nvidia fosse una delle scelte ragionevoli perché il software di deep learning Neon di Nervana può essere eseguito anche sui chip Nvidia, il che può aiutare Nvidia a compensare le sue carenze. Tuttavia, Nvidia non era interessata a Nervana, ritenendo che la sua tecnologia di deep learning basata su GPU fosse migliore di Nervana. Ma dopo che Nervana ha raggiunto un accordo con Intel, Nvidia sembra aver cambiato idea e ha cercato di riavviare le trattative per l'acquisizione, ma purtroppo l'occasione è stata persa.

A questo proposito, alcuni analisti ritengono che lasciare che Intel acquisisca Nervana sia stato il più grande errore di Nvidia, perché attraverso questa acquisizione, Intel otterrà un prodotto specifico e una proprietà intellettuale per il deep learning, che può essere utilizzato da solo o integrato con la futura tecnologia Intel per produrre chip più competitivi e creativi. Quando si parla di integrazione, Intel è la migliore. Ad esempio, per l'acquisita Nervana Systems, è possibile integrare prodotti correlati in chip o pacchetti multi-chip. Ad esempio, l'aggiunta dell'IP Nervana Engine a una CPU Xeon può fornire un metodo a basso costo per ottenere l'accelerazione delle prestazioni richiesta dall'intelligenza artificiale, commercializzare l'IP Nervana e quindi migliorare la potenza di calcolo della propria CPU per soddisfare le crescenti esigenze di sviluppo e applicazioni di intelligenza artificiale per i chip dei data center.

Riassumendo, crediamo che, dato che l'applicazione dei chip AI è ancora agli inizi (attualmente rappresentano solo circa 1/10 del carico nei data center) e rivaleggia con le fusioni e acquisizioni mirate di Intel in questo campo e con le sue potenziali capacità di sfruttamento e integrazione nelle CPU, l'impennata del prezzo delle azioni di Nvidia in nome dell'AI non è un segno di tranquillità e di un percorso agevole da seguire.

Vincitore del Qingyun Plan di Toutiao e del Bai+ Plan di Baijiahao, del Baidu Digital Author of the Year 2019, del Baijiahao's Most Popular Author in the Technology Field, del Sogou Technology and Culture Author 2019 e del Baijiahao Quarterly Influential Creator 2021, ha vinto numerosi premi, tra cui il Sohu Best Industry Media Person 2013, il China New Media Entrepreneurship Competition Beijing 2015, il Guangmang Experience Award 2015, il China New Media Entrepreneurship Competition Finals 2015 e il Baidu Dynamic Annual Powerful Celebrity 2018.

<<:  Ha trasformato una Ferrari in un'auto elettrica

>>:  Addio al 93#, lo standard nazionale V sarà implementato a livello nazionale dal 1° gennaio del prossimo anno

Consiglia articoli

Nokia può rinascere nel settore della telefonia mobile?

Di recente, Microsoft ha sostituito Nokia con Mic...

Obesità addominale! Maggiore rischio di sindrome metabolica

Con l'arrivo del caldo, le persone per strada...