Qualcomm, il colosso noto nel mercato dei processori per smartphone e per le infrastrutture di rete, ha annunciato ufficialmente una svolta strategica di vasta portata: l’ingresso nel competitivo settore dei data center per l’intelligenza artificiale.
Con il lancio delle nuove piattaforme AI200 e AI250, l’azienda mira a ridefinire gli standard per l’inferenza AI su larga scala, un segmento oggi saldamente controllato da attori come Nvidia e AMD.
Qualcomm entra in competizione diretta con Nvidia sui chip IA

La mossa di Qualcomm non è estemporanea, ma rappresenta un attacco mirato a una fase specifica e cruciale del ciclo vita dell’AI: l’inferenza. Si tratta del processo in cui un modello di intelligenza artificiale già addestrato viene utilizzato per elaborare nuovi dati e generare risultati, come rispondere a una query di un utente o analizzare un’immagine.
È qui che Qualcomm intende giocare le sue carte migliori: efficienza energetica e un costo totale di proprietà (TCO) altamente competitivo.
Le soluzioni annunciate sono piattaforme complete a livello di rack, progettate per offrire un equilibrio ottimale tra potenza di calcolo, capacità di memoria ed efficienza.
La prima ad arrivare sul mercato sarà la Qualcomm AI200, la cui disponibilità commerciale è prevista per il 2026. Questa piattaforma è ottimizzata specificamente per i modelli linguistici e multimodali di grandi dimensioni (LLM e LMM) che alimentano l’attuale ondata di AI generativa.
Il suo punto di forza è l’impressionante capacità di memoria: ogni scheda acceleratrice supporterà fino a 768 GB di memoria LPDDR. Questa configurazione, secondo l’azienda, permette una gestione più estesa dei dati e un costo complessivo inferiore rispetto alle soluzioni concorrenti, migliorando la scalabilità delle implementazioni AI.
Ancora più ambiziosa è la Qualcomm AI250, attesa per il 2027. Questa piattaforma introdurrà un’architettura di memoria radicalmente nuova, basata sul concetto di “near-memory computing” (calcolo vicino alla memoria). L’obiettivo è superare i colli di bottiglia attuali, garantendo un incremento superiore a dieci volte nella larghezza di banda effettiva della memoria e una contemporanea, significativa riduzione dei consumi energetici.
L’AI250 sarà progettata per gestire l’inferenza AI “disaggregata”, permettendo un utilizzo più efficiente e flessibile delle risorse hardware.
Entrambe le soluzioni rack saranno dotate di sistemi di raffreddamento a liquido diretto per gestire l’elevata densità di potenza, connessioni PCIe per l’espansione interna e connettività Ethernet per la scalabilità esterna, con un consumo energetico massimo dichiarato a livello di rack di 160 kW.
La visione di Qualcomm
Qualcomm è consapevole che l’hardware, da solo, non è sufficiente per scalfire il dominio di concorrenti che hanno costruito ecosistemi software decennali. Per questo, l’annuncio include un’infrastruttura software completa di livello “hyperscaler”, progettata per funzionare su larghissima scala.
Lo stack software è ottimizzato per l’inferenza e garantisce la piena compatibilità con i principali framework di machine learning. Include strumenti avanzati e librerie per la gestione dei modelli, come il supporto all’integrazione di soluzioni come Hugging Face tramite la Efficient Transformers Library e la Qualcomm AI Inference Suite. L’obiettivo è garantire ai clienti un “onboarding” fluido dei modelli e funzionalità di deployment rapido.
Durga Malladi, Senior Vice President e General Manager di Qualcomm Technologies, ha sottolineato l’ambizione del progetto:
“Con Qualcomm AI200 e AI250 stiamo ridefinendo ciò che è possibile per l’inferenza AI a livello di rack. Queste soluzioni consentono ai clienti di implementare AI generativa con un costo totale di proprietà senza precedenti, mantenendo al contempo la flessibilità e la sicurezza richieste dai data center moderni”.
L’azienda di San Diego ha confermato l’intenzione di mantenere una roadmap di rilasci annuale per le sue soluzioni AI destinate ai data center, segnalando un impegno a lungo termine.








