Avui tornem els rellotges fins al novembre del 2010 per tornar a visitar la potent GeForce GTX 580, que marca la transició de 55 nm a 40 nm per a les GPU de gamma alta de Nvidia i que va ajudar a l’empresa a centrar-se en Fermi. GeForce GTX 480 sota la catifa.

Si recordeu, els GTX 480 i 470 (GF100) es van llançar el març del 2010 només vuit mesos abans del GTX 580, cosa que va donar als jugadors l’oportunitat de comprar una targeta de vídeo de 500 dòlars que podria duplicar-se com la quadrícula de George Foreman. Amb un TDP de 250 watts, la GTX 480 no aixecava massa les celles i en aquell moment l’AMD era molt més petita Radeon HD 5870 Tot i que tenia una potència de 228 watts, la GPU dual 5970 consumia la majoria de fonts d’alimentació amb 294 watts.

Tot i que el Radeon HD 5870 i el GeForce GTX 480 es van construir amb el mateix procés de fabricació de 40 nm, el GeForce va ser massiu. La seva mort va ser superior al 50%. Nvidia tenia com a objectiu crear una GPU que ofereixi un joc de gran abast i un potent rendiment informàtic, fent que el GF100 mesurés un boig de 529 mm2.

El gegant d’aquest motlle va causar problemes al procés de 40 nm de TSMC que encara estaven madurant en aquell moment, cosa que va provocar ineficiència i transistors amb fuites. Per als jugadors, el GTX 480 era massa calent per manejar-lo (no es podia tocar ni 10 minuts després d’apagar-lo) i estava lluny de ser tranquil.




Fermi va caure com una de les pitjors creacions de la història de Nvidia, i la companyia sabia que tenien una autèntica broma a les mans, de manera que van tornar al tauler de dibuix i van tornar a reiniciar Fermi com a GTX 580. TSMC havia esborrat la confusió a causa del seu procés de 40 nm i vam obtenir un 7% més de nuclis en una matriu una mica més petita. Per descomptat, no només TSMC va resoldre les coses, ja que Nvidia també va solucionar el problema amb el GF100 quan va crear el GF110 (actualització Fermi).




Segons les nostres pròpies proves el 2010, el consum d’energia es va reduir almenys un 5% i les temperatures de càrrega de la targeta de referència van baixar un 15%. El que fa que aquests resultats siguin més impressionants, el GTX 580 va ser un 25% més ràpid que el 480.




Això proporciona un augment significatiu del rendiment el mateix any de llançament i el mateix període, alhora que estalvia energia. El GTX 480 realment va ser un succió. No em va agradar a l'arribada, però fins que el 580 va arribar vuit mesos després em vaig adonar del ridícul que realment era. He acabat el meu abast GTX 580 dient el següent ...




"La GeForce GTX 580 és la targeta gràfica única més ràpida disponible en l'actualitat i representa un valor millor que qualsevol altra targeta gràfica de gamma alta. No obstant això, no és l'única opció per a aquells que vulguin gastar 500 dòlars. El Dual Radeon HD 6870 continua sent molt de 500 dòlars. i ofereix més rendiment que una sola GeForce GTX 580 a la majoria de títols. Tot i això, la tecnologia multi-GPU no està exempta d'esculls i sempre optarem per una única targeta gràfica de gamma alta.

GeForce GTX 580 de Nvidia pot ser l’actual rei del turó, però pot canviar el mes que ve quan AMD llanci la nova sèrie Radeon HD 6900. Originalment, s’esperava que AMD lliurés les targetes gràfiques Radeon HD 6970 i 6950 basades en Cayman XT i Pro alguna vegada al novembre, però van retardar la seva arribada a mitjans de desembre per motius no revelats. Si no us importa endarrerir unes poques setmanes, en funció del que AMD ens hagi reservat, és possible que l’espera valgui una mica d’estalvi o potencialment més rendiment per al mateix estalvi. "




Per als que es preguntin, Radeon HD 6970 Va resultar una mica decebedor, molt per sota de la GTX 580 i com a resultat GTX 570Va permetre a Nvidia mantenir el màxim rendiment durant els propers anys sense debat. Seria interessant veure com s’uneixen aquests dos avui, potser alguna cosa que puguem veure en el futur.

Així, vam trobar que la GTX 580 va ser capaç de salvar la cara de Nvidia el 2010 i que les GPU de 28 nm van mantenir la corona de rendiment i van recuperar la batalla gràfica durant diversos anys abans d’arribar el 2012. El que volem veure ara és el bon rendiment que té la matriu de 520 mm2.




Els nuclis CUDA GTX 580 i 512 poden funcionar a 772 MHz? Per descomptat, hi ha memòria GDDR5 en un bus de 384 bits bastant gran que genera 192 GB impressionants, però almenys la majoria dels models només en tenen 1,5 GB. Hi havia variants de 3 GB flotant, però la majoria de la gent va obtenir la versió original de 1,5 GB.

Per veure com funciona Radeon HD 7950 amb els que acaben de sortir GeForce GTX 1050, 1050 Ti ve Radeon RX 560. Comprovem aquests resultats abans de fer una ullada a un joc real.

Experiments

Battlefield 1, Dawn of War III, DiRT 4, For Honor

En primer lloc, tenim els nostres resultats de Battlefield 1 amb la GTX 580 i la configuració predeterminada d’ultra qualitat, que és una mala opció per a la memòria intermèdia de 1,5 GB. No us preocupeu, mostraré un rendiment del joc amb una configuració més adequada després de revisar tots els gràfics. De moment, veiem que el 580 no el talla aquí i no ofereix el que jo anomeno un rendiment jugable un 30% més lent que el Radeon HD 7950.

A continuació, hem provat Dawn of War III fent servir el preajust predeterminat de qualitat mitjana. Aquí veiem uns 41 fps raonables de mitjana, però, no obstant això, el GTX 580 és obsessionat per aquest buffer VRAM limitat, ja que la velocitat mínima de fotogrames cau a només 23 fps. Això significava que la tartamudesa era un problema.

El Dirt 4 també es va provar amb configuracions de qualitat mitjana i aquí va ser definitivament una experiència bastant bona amb el GTX 580, era absolutament jugable i sobretot molt suau a 1080p.

Seguim endavant per la glòria i aquí hem trobat una experiència sobretot jugable si té sentit. De vegades baixàvem de 30 fps i aquest joc es tornava molt més picant que el RX 560 o l’HD 7950. També és interessant assenyalar que la GTX 1050 va destruir definitivament la part insígnia del 2010.