DeepSeek, celebre azienda AI cinese, si prepara a lanciare l’inedito modello R2, il suo LLM di nuova generazione, in questa seconda metà di agosto. Questo sviluppo rappresenta una mossa strategica per l’autosufficienza nazionale nell’intelligenza artificiale, riducendo la dipendenza da hardware straniero grazie alla collaborazione con HUAWEI.
DeepSeek-R2 sta arrivando: riuscirà a sorprendere come l’ultima volta?

DeepSeek-R2 adotterà un’architettura Mixture of Experts (MoE) più avanzata e una rete di gating ottimizzata per carichi di inferenza. Previsto con 1.2 trilioni di parametri, quasi il doppio di DeepSeek-R1, vanterà un costo di training 97% inferiore a GPT-4, grazie a hardware e ottimizzazioni locali. Si prevede possa offire accesso API a prezzi ridotti, sconvolgendo il nuovamente il mercato internazionale delle intelligenze artificiali e dei chatbot.
Cruciale per questa autonomia è l’addestramento di DeepSeek-R2 sui chip Huawei Ascend 910B. Il cluster di Huawei (512 PFLOPS FP16) raggiunge il 91% delle prestazioni dell’A100 di Nvidia, un passo critico per ridurre la dipendenza dagli Stati Uniti. Huawei ha anche introdotto Unified Cache Manager (UCM), un framework AI che accelera l’inferenza, mostrando riduzioni di latenza del 90% e aumento di throughput di 22 volte nei test. UCM sarà open-source a settembre e potrà essere utilizzato liberamente.
L’attesa per DeepSeek-R2 sembra aver già influito sul mercato: Cambricon, produttore di chip AI, ha visto le azioni salire del 20%. Insieme, DeepSeek-R2 e UCM di Huawei segnano un cambiamento significativo nelle ambizioni AI della Cina, puntando all’autosufficienza nei sistemi AI ad alte prestazioni.








