Pagine

Sembra passato un secolo da quando nVidia presentò Tesla e CUDA, a metà 2007, portatrici di notevoli propositi per il futuro e di idee arrembanti. Proprio come viene fuori in questa intervista di quel periodo, pubblicata da Beyond3D, ad Andy Keane, General Manager della divisione GPU Computing Group, a Ian Buck, Software Manager del progetto CUDA e a Dave Kirk, Chief Scientist presso nVidia: “One of the things we recognised at the very beginning of this project was that we looked at a lot of the old school GPGPU shaders, and they tended to be really long, and it became clear that we would need to do a lot of global optimisation not just within a basic block, or across a basic block”.

 

 

 

Con questi prodotti nVidia ha tentato di mettere ordine in un ambiente di sviluppo eterogeneo, di difficile catalogazione dal punto di vista degli standard ed in un certo senso vi è riuscita. Attraverso CUDA (acronimo di Compute Unified Device Architecture), nVidia ha compiuto un notevole lavoro di semplificazione per gli sviluppatori, permettendo loro di utilizzare i linguaggi più conosciuti (C, Fortran, Python, Java, ecc) per eseguire calcoli, anche paralleli, sulle schede delle famiglie Quadro e Tesla.

Questa novità ha permesso a nVidia di diventare velocemente uno dei punti di riferimento globali in questo ambito, quello del GPGPU (acronimo di General-Purpose computing on Graphics Processing Units), e di riuscire a partecipare alla realizzazione sia di veri e propri colossi dell’elaborazione, come il recente Titan, sia di workstation e server adatte anche ai professionisti ed alle piccole imprese. Questi ultimi, in tal modo, hanno visto crescere esponenzialmente le proprie capacità, con una spesa tutto sommato abbordabile.

 

Titan, nella sua imperiosa bellezza

 

Questa progressiva scalata non è stata compiuta nell’arco di una giornata, ma ha visto la realizzazione e la commercializzazione di diversi step evolutivi, sia software sia hardware: quali sono stati i principali?