Da settimane sui forum si susseguono discussioni al limite del paradossale, di adolescenziale memoria: sarà nato prima l'uovo o la gallina? Quale delle due schede è effettivamente quella della generazione futura? O quale, capovolgendo la questione, è un semplice riproponimento di quella dell'anno scorso? GK110 è in anticipo su Hawaii, oppure è Hawaii ad essere in ritardo, essendo sempre basata su architettura GCN?

 

 

E' qui che si gioca una partita tra i fanboy delle due case, nei forum e nei chan: “nVidia tira fuori adesso il Full GK110 ma l'ha già pronto da almeno un anno, perché AMD non faceva concorrenza! Prima GK104 bastava ed avanzava!”, tipica frase che si incontra in questi giorni sui forum di ogni nazione in relazione alla commercializzazione delle nuove Radeon R9 290X. Per cercare di risolvere la questione (almeno spero) mi sono deciso a scrivere questo breve editoriale.

Iniziamo, prima di tutto, cercando di capire quando lo sviluppo delle due architetture (Kepler e GCN) è iniziato. Le prime notizie su Kepler ci sono giunte, tramite la stessa nVidia, nel 2010, quindi possiamo supporre che lo sviluppo fosse iniziato almeno (rimanendo ottimisti) tre anni prima. Lo sviluppo di un'architettura complessa come quella di Kepler e GNC oggi porta via, mediamente, circa 5 anni. Questo dato si lega perfettamente alla data di commercializzazione (Marzo 2012) delle schede della serie 600 basate su Kepler. Stesso iter dovrebbe avere seguito GCN, in quanto le schede della serie HD7xxx sono uscite nel primo trimestre del 2012.

Appurato questo, veniamo alla questione monetaria. Oggi non sappiamo quanto a nVidia ed AMD costi lo sviluppo di una nuova architettura grafica, ma possiamo immaginarlo osservando quanto lo sviluppo di Tegra (1, 2 e parte del 3) è costato alla prima: circa 2 mld di dollari in poco meno di due anni e mezzo. Considerando che Tegra utilizza una CPU (ARM) già bella che pronta, ricevuta in licenza, e che la iGPU non è altro che un adattamento di architetture molto rodate (G80 in particolare), può non risultare irrealistico che ogni nuova architettura costi attorno ai 4/5 mld di dollari in R&D, come alcuni analisti (informatici, non di borsa) suppongono.

Siamo quindi giunti ad un primo traguardo in questa analisi: nVidia ed AMD spendono vagonate di dollari, e circa 5 anni di sviluppo, per un'architettura che dovrà rimanere sul mercato circa 2 anni, massimo 3. Logico, quindi, che da questa architettura vogliano spremere il massimo dal punto di vista finanziario.

Torniamo quindi a Kepler e GCN. AMD, nella persona di Eric Demers, con GCN ha creato un'architettura votata al futuro e modulare, in grado di poter resistere per almeno tre generazioni (e forse più) attraverso piccoli aggiornamenti (GCN → GCN 2.0 → GCN x.x), rendendola di fatto molto polivalente. L'introduzione della feature True Audio ne è un esempio. Grazie a questo AMD può permettersi di mitigare le spese in R&D nel comparto GPU, non solo dal punto di vista architetturale: AMD, in questo modo, si trova avvantaggiata nell'adattare GCN a diversi processi produttivi, potendo avvalersi di una strategia Tick-Tock “alla Intel” (GCN 28nm → GCN 20nm).

Se AMD ha scelto una strada molto conservativa (che apre anche ad alcuni punti interrogativi, come ad esempio “Chi realizzerà il dopo GCN adesso che non c'è più Demers?”), nVidia continuerà a puntare su evoluzioni abbastanza spinte nei prossimi anni, prima con Maxwell, poi con Volta. Architetture molto diverse tra loro, non semplici evoluzioni: Maxwell dovrebbe integrare un processore ARMv8, la tecnologia Unified Virtual Memory ed essere prodotta a 20nm, mentre Volta dovrebbe integrare della memoria On-Die (Stacked Dram) così da potenziare notevolmente le capacità di calcolo. Interventi architetturali non semplici e di facile implementazione, e quindi costosi.

Alcuni di voi, a questo punto, si staranno domandando il perché di tutto questo discorso, ed adesso finalmente ve lo spiegherò: né nVidia è in anticipo con GK110, né AMD è in ritardo con Hawaii (GCN 2.0).

La prima non è in anticipo con GK110 perché questo, in versione consumer, sarebbe dovuto uscire un anno prima secondo la roadmap ufficiale, ma i problemi con i 28nm di TSMC ne hanno decretato lo slittamento (e la commercializzazione inizialmente nel solo settore professionale con le schede Tesla). NVidia sarebbe stata ben lieta di commercializzare subito Big Kepler nel mercato consumer, se le rese lo avessero permesso. Avrebbe infatti avuto altri 12 mesi di vendite per cercare di rientrare nei costi di R&D di Kepler. Come ho scritto all'inizio, ogni architettura ha un arco di vita di circa due anni, e perderne uno può risultare deleterio. Da qui, molto probabilmente, l'origine dei prezzi fuori dal mondo di Titan, GTX680 e schede simili. Non potendo puntare sulla quantità, nVidia ha cercato il massimo ricarico.

AMD, d'altra parte, con Hawaii (GCN 2.0) ha semplicemente affinato quanto si è visto con le schede GCN 1.0, rimanendo sui 28nm. Questo rientra nei piani a lungo termine della società (GCN fino a tutto il 2015), quindi non si può dire che Hawaii sia in ritardo, perché secondo questo ragionamento lo saranno tutte le future schede basate su architettura GCN. Ed AMD ha scelto i 28nm non perché Hawaii fosse già pronta dal 2011, ma perché i 20nm di TSMC non sono ancora adatti alle GPU