Google e Microsoft organizzano una battaglia hardware AI con Next
CasaCasa > Blog > Google e Microsoft organizzano una battaglia hardware AI con Next

Google e Microsoft organizzano una battaglia hardware AI con Next

May 24, 2023

Di Agam Shah

20 febbraio 2023

Microsoft e Google stanno guidando un importante cambiamento nel settore informatico portando l’intelligenza artificiale alle persone tramite i motori di ricerca, e una misura del successo potrebbe dipendere dall’hardware e dall’infrastruttura del data center che supporta le applicazioni.

La settimana scorsa, Microsoft e Google hanno annunciato motori di ricerca di prossima generazione basati sull’intelligenza artificiale in grado di ragionare, prevedere e fornire risposte più complete alle domande degli utenti. I motori di ricerca saranno in grado di generare risposte complete a domande complesse, proprio come ChatGPT può fornire risposte dettagliate o compilare saggi.

Microsoft sta inserendo l'intelligenza artificiale in Bing per rispondere alle query di testo e Google ha condiviso i piani per inserire l'intelligenza artificiale nei suoi strumenti di ricerca di testo, immagini e video. Gli annunci sono stati fatti in giorni consecutivi la scorsa settimana.

Le aziende hanno riconosciuto che l’intelligenza artificiale nei motori di ricerca non sarebbe possibile senza una solida infrastruttura hardware. Le aziende non hanno condiviso i dettagli sull’hardware effettivo che guida l’elaborazione dell’intelligenza artificiale.

Per anni, Microsoft e Google hanno coltivato hardware AI progettato per annunci in prima serata come i motori di ricerca AI della scorsa settimana.

Le aziende dispongono di infrastrutture informatiche basate sull’intelligenza artificiale molto diverse e la velocità delle risposte e l’accuratezza dei risultati costituiranno un banco di prova per la fattibilità dei motori di ricerca.

Bard di Google è alimentato dai chip TPU (Tensor Processing Unit) nel suo servizio cloud, come confermato da una fonte che ha familiarità con i piani dell'azienda. Microsoft ha affermato che il suo supercomputer AI in Azure – che probabilmente funziona con GPU – può fornire risultati nell’ordine di millisecondi o alla velocità della latenza di ricerca.

Ciò avvia una battaglia molto pubblica nell’informatica AI tra i TPU di Google contro il leader del mercato AI, Nvidia, le cui GPU dominano il mercato.

"I team stavano lavorando per potenziare e costruire macchine e data center in tutto il mondo. Stavamo orchestrando e configurando attentamente un insieme complesso di risorse distribuite. Abbiamo creato nuove parti della piattaforma progettate per aiutare a bilanciare il carico, ottimizzare le prestazioni e scalare come mai prima d'ora", ha affermato Dena Saunders, product leader per Bing presso Microsoft, durante l'evento di lancio.

Microsoft sta utilizzando una versione più avanzata di ChatGPT di OpenAI. All'evento Microsoft, il CEO di OpenAI Sam Altman ha stimato che ogni giorno venivano effettuate 10 miliardi di query di ricerca.

Il percorso di Microsoft verso Bing con l'intelligenza artificiale è iniziato assicurandosi di avere la capacità di calcolo del suo supercomputer AI, che secondo la società è tra i cinque supercomputer più veloci al mondo. Il computer non è elencato nella classifica Top500.

"Abbiamo fatto riferimento al supercomputer AI, ma quel lavoro ha richiesto anni e molti investimenti per costruire il tipo di scala, il tipo di velocità, il tipo di costo che possiamo portare in ogni livello dello stack. Penso che … è piuttosto differenziata la scala alla quale operiamo," ha affermato Amy Hood, vicepresidente esecutivo e direttore finanziario di Microsoft, durante una chiamata con gli investitori la scorsa settimana.

Il costo dell’elaborazione per l’intelligenza artificiale a livello di supercomputer continuerà a diminuire nel tempo man mano che verranno implementate le scale di utilizzo e le ottimizzazioni, ha affermato Hood.

"Il costo per transazione di ricerca tende a diminuire con la scala, ovviamente, penso che stiamo iniziando con una piattaforma abbastanza solida per essere in grado di farlo," ha detto Hood.

I costi informatici in genere aumentano man mano che vengono implementate più GPU, con i costi di raffreddamento e altre infrastrutture di supporto che si aggiungono alle bollette. Ma le aziende in genere vincolano i ricavi al costo dell’informatica.

Il supercomputer AI di Microsoft è stato costruito in collaborazione con OpenAI e dispone di 285.000 core CPU e 10.000 GPU. Nvidia a novembre ha firmato un accordo per inserire decine di migliaia di GPU A100 e H100 nell'infrastruttura di Azure.

Secondo Statcounter, la quota di ricerca di Microsoft su Bing non si avvicina a quella di Google Search, che a gennaio deteneva una quota di mercato del 93%.

L’intelligenza artificiale è fondamentalmente uno stile diverso di calcolo basato sulla capacità di ragionare e prevedere, mentre il calcolo convenzionale ruota attorno a calcoli logici. L’intelligenza artificiale viene eseguita su hardware in grado di eseguire la moltiplicazione di matrici, mentre l’informatica convenzionale ruota attorno alle CPU, che eccellono nell’elaborazione seriale dei dati.