Додому Ultime notizie e articoli Il “secondo momento DeepSeek”: l’intelligenza artificiale ad alte prestazioni diventa notevolmente più...

Il “secondo momento DeepSeek”: l’intelligenza artificiale ad alte prestazioni diventa notevolmente più conveniente

Il panorama globale dell’IA è appena cambiato di nuovo. In seguito al massiccio impatto del suo modello R1 all’inizio del 2025, la startup cinese DeepSeek ha rilasciato DeepSeek-V4, un modello da 1,6 trilioni di parametri che porta l’intelligenza di frontiera in una fascia di prezzo molto più bassa.

Disponibile sotto la licenza MIT altamente permissiva, questa versione è stata salutata come un “secondo momento DeepSeek”. Offrendo prestazioni che rivaleggiano con i sistemi closed source più avanzati del mondo a una frazione del costo, DeepSeek sta cambiando radicalmente i conti economici per gli sviluppatori e le imprese di tutto il mondo.

📉 L’economia dell’intelligence: un enorme divario di prezzo

L’aspetto più dirompente di DeepSeek-V4 non è solo la sua intelligenza, ma la sua accessibilità. DeepSeek sta comprimendo in modo aggressivo il costo dell’intelligenza artificiale di fascia alta, costringendo a ripensare il mercato dei modelli “premium” dominato dai giganti statunitensi.

Confrontando il modello DeepSeek-V4-Pro con i suoi principali concorrenti tramite API, la differenza di prezzo è sconcertante:

  • DeepSeek-V4-Pro: ~$5,22 per milione di token (input/output combinato).
  • Claude Opus 4.7: ~$30,00 per milione di token.
  • GPT-5.5: ~$35,00 per milione di token.

In termini semplici, DeepSeek-V4-Pro offre prestazioni quasi all’avanguardia a circa un sesto del costo di Claude Opus 4.7 e un settimo del costo di GPT-5.5. Per gli utenti che sfruttano gli input “memorizzati nella cache”, il divario si allarga ulteriormente, rendendo DeepSeek quasi dieci volte più economico di GPT-5.5.

Per le aziende che gestiscono carichi di lavoro massicci e automatizzati, questo calo dei prezzi trasforma ciò che è economicamente sostenibile. Le attività che in precedenza erano troppo costose da automatizzare utilizzando modelli premium potrebbero ora essere perfettamente realizzabili utilizzando DeepSeek.

🧠 Benchmarking della frontiera: prestazioni vs. prezzo

DeepSeek compete effettivamente con i migliori? La risposta è un “sì” sfumato. Sebbene non abbia completamente detronizzato i leader, ha colmato il divario in modo significativo.

Dove gareggia:

DeepSeek-V4-Pro-Max mostra una forza eccezionale nella navigazione web agente (punteggio dell’83,4% su BrowseComp, quasi equivalente all’84,4% di GPT-5.5%) e rimane altamente competitivo nell’ingegneria del software e nelle attività basate su terminale.

Dove i leader sono ancora in vantaggio:

Nel puro ragionamento accademico e nella logica complessa, i modelli proprietari di OpenAI e Anthropic mantengono ancora un vantaggio:
* GPQA Diamond (Ragionamento): GPT-5.5 e Claude Opus 4.7 ottengono entrambi un punteggio superiore al 93%, mentre DeepSeek si attesta al 90,1%.
* L’ultimo esame dell’umanità: i modelli chiusi continuano a sovraperformare DeepSeek nel ragionamento di alto livello e senza strumenti.

Il punto è: DeepSeek non ha bisogno di conquistare ogni singolo benchmark per conquistare il mercato. Se fornisce il 90% delle prestazioni al 15% del costo, diventa la scelta logica per la stragrande maggioranza delle applicazioni industriali.

🛠️ Innovazione architettonica: come l’hanno fatta

La capacità di DeepSeek di mantenere un’intelligenza elevata riducendo al contempo i costi è radicata in diverse innovazioni tecniche dettagliate nel loro ultimo rapporto, “Verso un’intelligenza contestuale di milioni di token altamente efficiente.”

  1. Contesto enorme con memoria minima: DeepSeek ha introdotto un’architettura di attenzione ibrida. Utilizzando “Attenzione sparsa compressa” e “Attenzione fortemente compressa”, possono gestire una finestra di contesto da un milione di token utilizzando solo il 10% della memoria (cache KV) richiesta dalle generazioni precedenti.
  2. Il “controllore del traffico” (mHC): Per stabilizzare un’enorme rete da 1,6 trilioni di parametri, hanno sviluppato Iperconnessioni vincolate a collettori (mHC). Funziona come un controllore del traffico ad alta tecnologia, consentendo alle informazioni di fluire liberamente attraverso il modello senza rendere instabile il sistema durante l’addestramento.
  3. Ragionamento basato sull’impegno: il modello offre tre modalità distinte: Non-think, Think High e Think Max —che consentono agli utenti di scegliere tra velocità per attività di routine e analisi logica approfondita per problemi complessi, ottimizzando ulteriormente i costi di elaborazione.

🇨🇳 Rompere la morsa dell’hardware

Forse la cosa più significativa per il panorama geopolitico dell’intelligenza artificiale è che DeepSeek ha dimostrato che l’intelligenza artificiale ad alte prestazioni non dipende strettamente dall’hardware occidentale.

L’azienda ha convalidato il suo schema “Expert Parallelism” sulle NPU Huawei Ascend, ottenendo accelerazioni fino a 1,73 volte su piattaforme non Nvidia. Ciò fornisce un modello fondamentale per l’“intelligenza artificiale sovrana”, dimostrando che modelli avanzati possono essere sviluppati e implementati anche a fronte di severi controlli sulle esportazioni di GPU.

Conclusione: DeepSeek-V4 rappresenta un cambiamento di paradigma in cui l’intelligenza di alto livello non è più un bene di lusso. Combinando prestazioni quasi all’avanguardia con un’efficienza dei costi radicale e flessibilità hardware, DeepSeek sta democratizzando l’accesso alle funzionalità di classe AGI.

Exit mobile version