Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1794 connectés 

 


 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  95  96  97  ..  987  988  989  990  991  992
Auteur Sujet :

[Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)

n°8126514
Coulous
Posté le 22-11-2011 à 21:09:43  profilanswer
 

Reprise du message précédent :
Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus. ==> Peut etre parce que c' est pas le meme GPU?? Je parle de HD6950 1 et 2GB et HD6870 1 et 2GB si cela s' avere exact....
 
@Gein: et toi lis ceux la: http://wd.ch-img.com/1204415-recap.png
 
Source: http://www.pcworld.fr/article/mate [...] go/512017/


---------------
FSP Raider 750w -- MSI B350 Tomahawk -- Ryzen 5 1600 -- EVGA GTX1060 SC 6GB -- 16GB DDR4 -- Samsung Evo 500Go -- NZXT Phantom 410 White -- Logitech G710+ -- Razer Taipan
mood
Publicité
Posté le 22-11-2011 à 21:09:43  profilanswer
 

n°8126517
Gein
Posté le 22-11-2011 à 21:10:57  profilanswer
 

kaiser52 a écrit :


 
C'est de la branlette ça, cas extrême qui représente 0.01% de la pratique du jeu vidéo.
Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus.
 
Pour la majorité des cas (et des gens), une HD6950 1go est plus perf qu'une HD6950 2go.
 
Pour en revenir aux HD7k, espérons que le rebadging soit faux.


 
Je l'ai indiqué plus haut il semblerait que ça soit la gamme inférieure a la 7570 qui soit renommé.
Donc c'est uniquement le bas de gamme.

n°8126521
Gein
Posté le 22-11-2011 à 21:12:31  profilanswer
 

Coulous a écrit :

Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus. ==> Peut etre parce que c' est pas le meme GPU?? Je parle de HD6950 1 et 2GB et HD6870 1 et 2GB si cela s' avere exact....
 
@Gein: et toi lis ceux la: http://wd.ch-img.com/1204415-recap.png
 
Source: http://www.pcworld.fr/article/mate [...] go/512017/


 
+5% de diff en passant de 1Go => 2Go  [:implosion du tibia]

n°8126530
barbare128
pas de koi se rouler par terre
Posté le 22-11-2011 à 21:15:47  profilanswer
 

kaiser52 a écrit :

 

C'est de la branlette ça, cas extrême qui représente 0.01% de la pratique du jeu vidéo.
Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus.

 

Pour la majorité des cas (et des gens), une HD6950 1go est plus perf qu'une HD6950 2go.

 

Pour en revenir aux HD7k, espérons que le rebadging soit faux.

 

Perso je tape pas dans le mono gpu bas de gamme, et si c'est pas un CGN, c'est zéro chance sur une que je me prenne une carte.

 

Donc le renommage, rien à battre, c'est bon pour les oems et pour le buisness d'AMD, celà ne me concerne pas, comme la plus part des gens ici. Le renommage c'est pas nouveau, et c'est très régulier chez nvidia, alors on va pas pleurer si AMD ressort une archi de bonne qualité pour pas trop cher qui consomme pas trop.

 

Et à plus long terme AMD va stopper complètement le développement de carte low low end, pour céder la place à fusion. ( Intel fait de même de son coté ... ).

 

Continuer sur des cycles de 18mois sur du low low end c'est tout bonnement stupide, surtout quand on vois que la concurrence est pas spécialement efficace dessus. Au pire un schrink est largement suffisant.

 

Il est plus intéressant de mettre de l'argent dans le dev de cores hétérogènes.  :jap:

 


Message édité par barbare128 le 22-11-2011 à 21:16:51

---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°8126534
fire du 57
The futur is Fusion
Posté le 22-11-2011 à 21:20:43  profilanswer
 

Gein a écrit :


 
Je l'ai indiqué plus haut il semblerait que ça soit la gamme inférieure a la 7570 qui soit renommé.
Donc c'est uniquement le bas de gamme.


 
 
+1 Arrêté avec vos délire ! A la limite on aura du Cayman surbooster avec de la XDR2 (et il faut espérer quelques core Radeon en plus..)  et qui consomme moins donc un "TDP" Bien moins élevé !  
 
Mais bon ça c'est dans le pire des cas pour les 7850/7870 ! ;)  
 
On aura du GCN pour les 7930 (?) / 7950/7970/7990 avec peut-être de la XDR2 et c'est cette gamme qui interresse les Gamer et les autres !
 
PS : Perso je vois bien des Cayman "v2" avec plus qu'un simple die shrink pour les 78xx ! Surtout si les perf' des 79xx se vérifie ; )


Message édité par fire du 57 le 22-11-2011 à 21:22:55

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8126535
kaiser52
Posté le 22-11-2011 à 21:22:37  profilanswer
 

Coulous a écrit :

Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus. ==> Peut etre parce que c' est pas le meme GPU?? Je parle de HD6950 1 et 2GB et HD6870 1 et 2GB si cela s' avere exact....
 
@Gein: et toi lis ceux la: http://wd.ch-img.com/1204415-recap.png
 
Source: http://www.pcworld.fr/article/mate [...] go/512017/


 
C'était pour imager la chose.
Dans la plus part des cas, on se retrouve certes avec plus de ram mais sous cadencé.
Et ça c'est une réalité, pour imaginer un bon de performance, il vaut mieux parier sur un nouveau GPU qu'un clone avec plus de ram.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°8126540
Coulous
Posté le 22-11-2011 à 21:25:21  profilanswer
 

Je suis d' accord, mais dites pas que le meme GPU avec 1 et 2go ont les memes perfs en toutes circonstances, la preuve....


---------------
FSP Raider 750w -- MSI B350 Tomahawk -- Ryzen 5 1600 -- EVGA GTX1060 SC 6GB -- 16GB DDR4 -- Samsung Evo 500Go -- NZXT Phantom 410 White -- Logitech G710+ -- Razer Taipan
n°8126541
fire du 57
The futur is Fusion
Posté le 22-11-2011 à 21:25:35  profilanswer
 

kaiser52 a écrit :


 
C'était pour imager la chose.
Dans la plus part des cas, on se retrouve certes avec plus de ram mais sous cadencé.
Et ça c'est une réalité, pour imaginer un bon de performance, il vaut mieux parier sur un nouveau GPU qu'un clone avec plus de ram.


 
 
Le seul réel problème c'est quand la RAM te limite tellement que ta des Freeze de la mort ( j'ai vu ça sur certain topic à propos de BF3 et je ne parle même pas du GPU qui permettait d'avoir 50Fps ) Mais bon c'est vrai que dans la majorité des cas c'est le GPU qui limite même si je suis une personne qui préfére 2Go pour être sur de ne pas avoir de problèmes avant mon prochain changement de GPU ;)


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8126578
mightmagic
Posté le 22-11-2011 à 21:53:14  profilanswer
 

Si on tweake à fond skyrim, on peut arriver à 2.5go de ram utilisée pour le gpu donc oui dans ces cas là vaut mieux avoir un gpu de 3go de ram voir plus mais ce sont des cas assez extrêmes.

n°8126599
Fouge
Posté le 22-11-2011 à 22:13:28  profilanswer
 

Coulous a écrit :

"Si la HD7850 est une HD6870" ==> La HD7850 est censée avoir 2Go de GDDR5 je me trompe?? Sa serait donc au minimum mieux qu' une HD6870??

Les cas où les 2Go font la différence sont rares, mais surtout la HD6870 n'est pas taillée pour les très hautes résolutions. Donc...

Gein a écrit :

Source

Citation :

En ce qui concerne l'architecture Graphics Core Next, elle serait représentée par trois GPU, les Cape Verde (XT, Pro, XTX), Pitcairn (Pro et XT) et Tahiti (Pro et XT). Le futur bi-GPU de la marque porterait le nom de code New Zealand.

 

D'après la news HFR on aurait :

7570 Cape Verde Pro GCN
 
7670 Cape Verde XT GCN
 
7770 Cape Verde XTX GCN

 

--------------------------------
 
7850 Pitcairn Pro GCN December 2011
 
7870 Pitcairn XT GCN December 2011
 
7950 Tahiti Pro GCN January 2012
 
7970 Tahiti XT GCN January 2012
 
7990 New Zealand GCN March 2012

 

Donc pour moi, le renommage c'est pour tout ce qui est inférieur à la 7570.

 

Edit : ça va dans ton sens Fouge ;)

 

Edit2 : Correction :O

Ca c'est une news bien plus rassurante puisque les HD77xx/78xx/79xx seraient tous de nouveau GPU, en 28nm et... basé sur l'archi GCN ! Ca change des rumeurs annonçant un GCN présent que sur les 79xx et du VLIW4 pour le reste (avec notamment, une 6870 renommée en 7850, soit un GPU 40nm VLIW5, mais ça tenait pas trop la route comme info).

Message cité 2 fois
Message édité par Fouge le 22-11-2011 à 22:16:40
mood
Publicité
Posté le 22-11-2011 à 22:13:28  profilanswer
 

n°8126602
maerens
Posté le 22-11-2011 à 22:16:27  profilanswer
 

mightmagic a écrit :

Si on tweake à fond skyrim, on peut arriver à 2.5go de ram utilisée pour le gpu donc oui dans ces cas là vaut mieux avoir un gpu de 3go de ram voir plus mais ce sont des cas assez extrêmes.


sérieux des tweaks du genre? ca m'interesse.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8126606
maerens
Posté le 22-11-2011 à 22:18:39  profilanswer
 

Fouge a écrit :

Les cas où les 2Go font la différence sont rares, mais surtout la HD6870 n'est pas taillée pour les très hautes résolutions. Donc...


 

Fouge a écrit :

Ca c'est une news bien plus rassurante puisque les HD77xx/78xx/79xx seraient tous de nouveau GPU, en 28nm et... basé sur l'archi GCN ! Ca change des rumeurs annonçant un GCN présent que sur les 79xx et du VLIW4 pour le reste (avec notamment, une 6870 renommée en 7850, soit un GPU 40nm VLIW5, mais ça tenait pas trop la route comme info).


oui mais non en fait, ce ne seras pas le cas.

Message cité 2 fois
Message édité par maerens le 22-11-2011 à 22:18:52

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8126619
Fouge
Posté le 22-11-2011 à 22:26:50  profilanswer
 

maerens a écrit :

oui mais non en fait, ce ne seras pas le cas.

C'est bien dommage, HFR relaie rarement de telles infos s'ils n'ont rien pour les confirmer.
Donc GCN ne sera pas présente sur Cape Verde, Pitcairn et Tahiti :??:

n°8126627
Zack38
Posté le 22-11-2011 à 22:29:46  profilanswer
 

Je peux concevoir qu'AMD ait réussi à inventer une µArchi trop difficile à décliner pour nécessiter le recours à de plus anciens modèles, cependant dans cette optique les GPU HDG sont GCN. :o


Message édité par Zack38 le 22-11-2011 à 22:30:50
n°8126629
mightmagic
Posté le 22-11-2011 à 22:31:55  profilanswer
 

maerens a écrit :


sérieux des tweaks du genre? ca m'interesse.


Les tweaks du .ini (http://donotargue.com/cfg-makers/skyrim/ et sur les forums) + le tweak du ugridstoload + fxaa injector+ MSAA + enb.
 
J'ai lu pour ceux qui avaient mis tout à fond que ça consommait plus de 2.5go de ram dans la mémoire vidéo.

n°8126674
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-11-2011 à 23:23:25  profilanswer
 

Coulous a écrit :

Dans ce cas-là, pourquoi ne pas dire qu'une HD6950 2go est meilleur qu'une GTX580 1.5go, y'a bien 512 mo de ram de plus. ==> Peut etre parce que c' est pas le meme GPU?? Je parle de HD6950 1 et 2GB et HD6870 1 et 2GB si cela s' avere exact....
 
@Gein: et toi lis ceux la: http://wd.ch-img.com/1204415-recap.png
 
Source: http://www.pcworld.fr/article/mate [...] go/512017/


Sauf que l'écart vient surtout de deux titres avec deux réglages trop poussé pour être jouable
 
http://www.pcworld.fr/article/gefo [...] ad/512029/
AA 8x, on passe de 22 à 30 fps ce qui reste faible donc on jouera avec un moins gros réglage qui fait que l'impact mémoire deviendra nul
 
http://www.pcworld.fr/article/gefo [...] 33/512039/
AA 4x, on passe de 26 à 31 ou de 3 à 22, idem
 
= quantité useless sauf à disposer d'une puissance de traitement double (CrossFire) dans les titres de ce test ;)
 

n°8126677
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-11-2011 à 23:26:55  profilanswer
 

Fouge a écrit :

C'est bien dommage, HFR relaie rarement de telles infos s'ils n'ont rien pour les confirmer.
Donc GCN ne sera pas présente sur Cape Verde, Pitcairn et Tahiti :??:


C'est ce qu'en a deduis Damien sur la base du contenu de pilotes mais rien de plus, wait & see :jap:

n°8126678
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 22-11-2011 à 23:29:56  profilanswer
 

Question rentabilité, lorsqu'il y a changement de finesse de gravure, AMD devrait toujours skrinker les puces de sa dernière gamme pour en faire sa nouvelle gamme, mais en décalant ses puces dans la gamme. Seules les puces haut de gamme (x9xx) devraient être basées sur une nouvelle archi.
 
Un shrink c'est simple et rapide. Y'a pas à se demander si on a mis assez de cache, ou si y'a un bug quelque part. Donc, au final, les puces et les cartes se retrouvent rapidement sur le marché.
 
Le HDG (x9xx) arrive ensuite avec une nouvelle archi, et des perfs de la mort qui tue... si AMD a des couilles.
 
L'idée c'est qu'un acheteur désireux d'obtenir les perfs d'une Radeon x9xx de la génération actuelle peut alors se procurer une Radeon (x+1)9xx et obtenir les perfs désirées, mais avec une conso bien plus basse.
 
Celui qui a déjà une Radeon x9xx de la génération actuelle peut se permettre d'attendre quelques mois de plus pour upgrader avec une Radeon (x+1)9xx et pratiquement doubler ses perfs.
 
Le fait que seul les cartes HDG sont basées sur la nouvelle archi permet de lancer une nouvelle gamme de puces (et de cartes) l'année suivante, en déclinant l'archi HDG au reste de la gamme. En effet, l'année suivante, la finesse de gravure risque fort bien d'être la même, et les nouveaux GPU risquent d'être moins attirants. Mais en insistant sur le fait que ces nouvelles cartes sont basées sur la nouvelle archi des cartes HDG (et offrent donc plein de nouveautés: UVDx, EyeFinityX, ...) cela permet d'augmenter les ventes.
 
Donc au final AMD économise, gagne du temps, augmente l'attrait de ses cartes 2 fois plutôt qu'une, et fait des profits... et finalement c'est ce qui compte le plus.

Message cité 1 fois
Message édité par Wirmish le 22-11-2011 à 23:32:56
n°8126679
seth-01
Posté le 22-11-2011 à 23:31:29  profilanswer
 

Marc a écrit :


C'est ce qu'en a deduis Damien sur la base du contenu de pilotes mais rien de plus, wait & see :jap:


mais finalement y'aura quoi dans ces HD7000 ??? que du pseudo Cayman ?? la nouvelle archi ou c'est le flou total ???  [:stefro:1]

n°8126683
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 22-11-2011 à 23:34:08  profilanswer
 

Une nouvelle archi c'est pas toujours synonyme de perfs en plus...
 
Mais bon, les mec d'AMDTi n'ont pas fait de merde depuis la HD 2900XT, donc on peut espérer un truc de ouff.

Message cité 2 fois
Message édité par Wirmish le 22-11-2011 à 23:35:39
n°8126684
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-11-2011 à 23:34:14  profilanswer
 

Y'aura des infos en temps voulu, comme d'hab ;)

n°8126686
moujet
Chef de Projet
Posté le 22-11-2011 à 23:36:22  profilanswer
 

Fouge a écrit :

Si la HD7850 est une HD6870 alors cela voudrait dire que même certains modèles destinés aux joueurs seraient des anciens GPU 40nm avec les perf/W qui vont avec.
Le minimum c'est que les HD78xx/79xx soient tous de véritable nouveaux GPU en 28nm. Pour les reste de la gamme, même si je trouve l'idée puante, c'est moins gênant pour les gamers puisqu'ils ne se dirigeront pas vers ces modèles.

+3!
quand j'ai pris mon cross de 6870 c'était pour avoir plus perf qu'une 6970 ou qu'une Gtx 580 pour le même prix voir moins cher (quoique pour ma part avc les WB Gpu c'est plus tout à fait pareil...)
Il serait logique qu'il y ait des milieux de gamme en 78xx en 28nm et là ça n'en prend pas le chemin...

n°8126786
fire du 57
The futur is Fusion
Posté le 23-11-2011 à 07:11:11  profilanswer
 

Wirmish a écrit :

Question rentabilité, lorsqu'il y a changement de finesse de gravure, AMD devrait toujours skrinker les puces de sa dernière gamme pour en faire sa nouvelle gamme, mais en décalant ses puces dans la gamme. Seules les puces haut de gamme (x9xx) devraient être basées sur une nouvelle archi.
 
Un shrink c'est simple et rapide. Y'a pas à se demander si on a mis assez de cache, ou si y'a un bug quelque part. Donc, au final, les puces et les cartes se retrouvent rapidement sur le marché.
 
Le HDG (x9xx) arrive ensuite avec une nouvelle archi, et des perfs de la mort qui tue... si AMD a des couilles.
 
L'idée c'est qu'un acheteur désireux d'obtenir les perfs d'une Radeon x9xx de la génération actuelle peut alors se procurer une Radeon (x+1)9xx et obtenir les perfs désirées, mais avec une conso bien plus basse.
 
Celui qui a déjà une Radeon x9xx de la génération actuelle peut se permettre d'attendre quelques mois de plus pour upgrader avec une Radeon (x+1)9xx et pratiquement doubler ses perfs.
 
Le fait que seul les cartes HDG sont basées sur la nouvelle archi permet de lancer une nouvelle gamme de puces (et de cartes) l'année suivante, en déclinant l'archi HDG au reste de la gamme. En effet, l'année suivante, la finesse de gravure risque fort bien d'être la même, et les nouveaux GPU risquent d'être moins attirants. Mais en insistant sur le fait que ces nouvelles cartes sont basées sur la nouvelle archi des cartes HDG (et offrent donc plein de nouveautés: UVDx, EyeFinityX, ...) cela permet d'augmenter les ventes.
 
Donc au final AMD économise, gagne du temps, augmente l'attrait de ses cartes 2 fois plutôt qu'une, et fait des profits... et finalement c'est ce qui compte le plus.


 
Merci Wirmish pour se long post' qui résume bien la situation ;)  
 
PS : A ton avis cette année ATI/AMD tentera la XDR2 ( au minimum pour son HDG ) ?


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8126828
seu
Capt-Fracass ™
Posté le 23-11-2011 à 08:55:55  profilanswer
 

Wirmish a écrit :

Une nouvelle archi c'est pas toujours synonyme de perfs en plus...
 
Mais bon, les mec d'AMDTi n'ont pas fait de merde depuis la HD 2900XT, donc on peut espérer un truc de ouff.


 
 
Tout ce foin pour avoir les perfs d'une GTX 580  [:tim_coucou:1]  
 
 
Trêve de plaisanterie un peu de concurrence c'est toujours positif pour nous pauvre consomateurs,et je fais confiance à ATI AMD pour nous sortir une carte performante  :jap:

n°8126886
ordimans
Posté le 23-11-2011 à 10:19:04  profilanswer
 

Marc a écrit :

Y'aura des infos en temps voulu, comme d'hab ;)


 
Tant qu'il y a des perfs comme à l'époque de la 5870. et que je puisse alimenter mon 5760x1200 ca me va :o

n°8126894
Yoyo_5
Posté le 23-11-2011 à 10:27:11  profilanswer
 

Wirmish a écrit :

Une nouvelle archi c'est pas toujours synonyme de perfs en plus...
 
Mais bon, les mec d'AMDTi n'ont pas fait de merde depuis la HD 2900XT, donc on peut espérer un truc de ouff.


La 6970 était très bof bof quand même...! [:ojap]


---------------
¤ Paix et félicité ¤

n°8127012
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-11-2011 à 12:22:08  profilanswer
 

Yoyo_5 a écrit :

La 6970 était très bof bof quand même...! [:ojap]


Au départ la 6970 était prévue pour le 32nm.
Et en 32nm elle aurait eu 1920 ALUs, et une fréquence un poil plus élevé.
Par contre en 40nm c'était pas évident de conserver le même nombre d'ALU sans faire exploser la conso et la chauffe, d'où la castration qui a fait mal.  [:sophiste:1]  
 
C'est donc pas la fôte des mec d'AMDTi, mais celle de TSMC.

n°8127024
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-11-2011 à 12:35:49  profilanswer
 

fire du 57 a écrit :

Merci Wirmish pour se long post' qui résume bien la situation ;)  
 
PS : A ton avis cette année ATI/AMD tentera la XDR2 ( au minimum pour son HDG ) ?


Y'a 3 possibilités:
1. Nouvelle archi plus économe en bande passante.
2. Nouveaux bus de 192, 320, et 384 bit.
3. Nouvelle mémoire plus rapide: GDDR5+, GDDR6 ?, ou XDR2.
 
1. C'est possible de réduire la conso en bande passante avec de gros caches internes, mais c'est pas une habitude chez d'ATi.
2. AMD ne l'a jamais fait... et on se demande pourquoi.
3. En 2006 AMD avait signé un accord de 5 ans avec RAMBUS pour l'utilisation de ses mémoires.
    Cet accord se terminait en septembre 2010, mais AMD a renouvelé l'entente jusqu'en 2015.
    Rien n'empêche donc AMD d'utiliser la XDR2.
 
Moi, si j'étais le leader de la division GPU, j'opterais pour un mix des trois...  :whistle:

n°8127034
Activation
21:9 kill Surround Gaming
Posté le 23-11-2011 à 12:43:23  profilanswer
 

Wirmish a écrit :


Au départ la 6970 était prévue pour le 32nm.
Et en 32nm elle aurait eu 1920 ALUs, et une fréquence un poil plus élevé.
Par contre en 40nm c'était pas évident de conserver le même nombre d'ALU sans faire exploser la conso et la chauffe, d'où la castration qui a fait mal.  [:sophiste:1]  
 
C'est donc pas la fôte des mec d'AMDTi, mais celle de TSMC.


 
 
et powertune il était là pour faire jolie  :o  
 
alors l'excuse du nb d'ALU car 40nm patati patata
 
en même temps dans le même genre le gros fail des connecteur 6pins coupé au coin car celui qu'a dessiné le ventirad avait pas les yeux devant les trous
 
ça devait bien picoler à la conception des hd6970  [:vince_astuce]  
 
bref, proposer des hd78xx non gcn pour moi ça serait de la pure bétise ... ça va être beau la gamme firepro pour un AMD qui veut pousser l'opencl, tranche de rire quand ils vont vendre (balancer) les sdk sasn aucun accompagnement comme d'hab
 
"bon alors si ton soft utilise tel matos faut faire comme ça pour l archi vec4 si ton soft utilise tel matos, c'est l'autre sdk pour le gcn ... et sinon t as aussi le sdk pour le vec 5"
 
sans rire amd il pige vraiment pas pourquoi il est toujours derrière NV sur le marché pro vu le suivi de guignol comparé à la grosse machine quaddro/tesla/cuda de nvidia

Message cité 1 fois
Message édité par Activation le 23-11-2011 à 12:44:23
n°8127078
Gein
Posté le 23-11-2011 à 13:21:51  profilanswer
 

Wirmish a écrit :


Y'a 3 possibilités:
1. Nouvelle archi plus économe en bande passante.
2. Nouveaux bus de 192, 320, et 384 bit.
3. Nouvelle mémoire plus rapide: GDDR5+, GDDR6 ?, ou XDR2.
 
1. C'est possible de réduire la conso en bande passante avec de gros caches internes, mais c'est pas une habitude chez d'ATi.
2. AMD ne l'a jamais fait... et on se demande pourquoi.
3. En 2006 AMD avait signé un accord de 5 ans avec RAMBUS pour l'utilisation de ses mémoires.
    Cet accord se terminait en septembre 2010, mais AMD a renouvelé l'entente jusqu'en 2015.
    Rien n'empêche donc AMD d'utiliser la XDR2.
 
Moi, si j'étais le leader de la division GPU, j'opterais pour un mix des trois...  :whistle:


 
Mais arrête avec ces bus, tu nous l'annonce à chaque fois depuis les HD5000...
Et au final le bus ne change pas.

n°8127112
fire du 57
The futur is Fusion
Posté le 23-11-2011 à 13:53:10  profilanswer
 

Activation a écrit :


 
 
sans rire amd il pige vraiment pas pourquoi il est toujours derrière NV sur le marché pro vu le suivi de guignol comparé à la grosse machine quaddro/tesla/cuda de nvidia


 
 
Le GCN n'arrive justement pas pour faire concurence pour le marché pro ?  :??:  
 
Et puis en dessous de la 6950 ,AMD est bien plus compétitif voir largement devant Nvidia ;) ! Donc c'est bien de raller pour la 6970 mais c'est pas la seul et unique carte d'AMD  !  ;)

Message cité 1 fois
Message édité par fire du 57 le 23-11-2011 à 14:03:02

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8127120
Fouge
Posté le 23-11-2011 à 13:59:30  profilanswer
 

fire du 57 a écrit :

Le GCN n'arrive justement pas pour faire concurence pour le marché pro ? :??:

Le problème c'est que le hardware ne suffit pas, loins de là. Et la partie software (lib, API, outils de dev, R&D) ainsi que la relation avec les dev est un point faible d'AMD, comparé à nVidia en tout cas.
Les gamers s'en foutent un peu mais sur le marché pro, ça fait clairement la différence.

n°8127123
fire du 57
The futur is Fusion
Posté le 23-11-2011 à 14:04:51  profilanswer
 

Fouge a écrit :

Le problème c'est que le hardware ne suffit pas, loins de là. Et la partie software (lib, API, outils de dev, R&D) ainsi que la relation avec les dev est un point faible d'AMD, comparé à nVidia en tout cas.
Les gamers s'en foutent un peu mais sur le marché pro, ça fait clairement la différence.


 
 
Ah ok, c'est vrai que vu comme ça... il faut espérer que l'équipe qui s'occupe de tout se qui est Software soit un peu meilleur que d'habitude !  :sarcastic:


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8127129
maerens
Posté le 23-11-2011 à 14:08:24  profilanswer
 

fire du 57 a écrit :


 
 
Ah ok, c'est vrai que vu comme ça... il faut espérer que l'équipe qui s'occupe de tout se qui est Software soit un peu meilleur que d'habitude !  :sarcastic:


 
ben c'est déja le cas, faut pas en demander trop non plus depuis les 11.5 je trouve qu'amd gère bien pour les drivers

n°8127139
fire du 57
The futur is Fusion
Posté le 23-11-2011 à 14:16:06  profilanswer
 

maerens a écrit :


 
ben c'est déja le cas, faut pas en demander trop non plus depuis les 11.5 je trouve qu'amd gère bien pour les drivers


 
 
Pour ma part j'ai jamais eu d'AMD en GPU donc je ne peux pas juger...mais les gens ralle beaucoup plus que les gens de chez Nvidia ( Perso je trouve que ses derniers temps les driver Nvidia sont horrible ! Toujours en retard par rapport aux sorties sauf pour Skyrim , toujours buguer ! Toujours des problèmes en tout genre ! Et ça depuis que la beta BF3 est sortie. ) Mais bon je suis peut-être le seul ;) Bref je vais d'ailleur réinstaller mes pilotes qui ont planté pendant leur installation :(

Message cité 1 fois
Message édité par fire du 57 le 23-11-2011 à 14:17:49

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8127145
aliss
Rhyme the Rhyme Well
Posté le 23-11-2011 à 14:19:18  profilanswer
 

D'assurer un support +/- identique au concurrent ce n'est pas trop en demander.  :D  
 
En fait depuis le départ de Terry Makedon, je trouve que ça s'est dégradé, à présent il faut presque systématiquement attendre 1-2 mois un hotfix après la sortie d'un "hit" afin de profiter du multi-gpu.
 
C'était bien plus réactif avec l'ancien "Catalyst Maker".
 

n°8127239
seu
Capt-Fracass ™
Posté le 23-11-2011 à 15:36:29  profilanswer
 

Au niveau driver en mono GPU c'est kif kif chez les deux concurrents. Ca reste du très bon.  
 
Par contre niveau multi GPU c'est pas encore au point... :/
 
Ca serait bien qu'AMD nous fasse un petit coup de trafalgar comme à l'époque de la 9700 Pro, ça relancerait la concurrence  :love:

n°8127335
Gigathlon
Quad-neurones natif
Posté le 23-11-2011 à 17:01:43  profilanswer
 

seu a écrit :

Par contre niveau multi GPU c'est pas encore au point... :/


En même temps, le multi-GPU, c'est quelle part du marché?
 
Du coup, les studios ne vont pas forcément s'en préoccuper quand bien même il faudrait une puissance équivalente à un tri-GPU pour faire tourner un jeu toutafond (Crysis?)...
 
La plupart du temps, les soucis liés au multi-GPU viennent de méthodes de rendu particulières et le seul moyen de corriger ça est d'en utiliser d'autres, quand c'est pas une particularité du moteur.
 
Note que le même problème existe en stéréoscopie, et ça aussi bien chez nVidia que pour DDD/iZ3D.

n°8127497
hyksos_sow​o
Posté le 23-11-2011 à 19:13:35  profilanswer
 

Gigathlon a écrit :


Du coup, les studios ne vont pas forcément s'en préoccuper quand bien même il faudrait une puissance équivalente à un tri-GPU pour faire tourner un jeu toutafond (Crysis?)...


Sans même le multi GPU c'est déjà le cas, les studios mettent un effort minimale dans l'optimisation de leur engin, ce disant que AMD et NVidia vont de toute façon optimiser leurs pilotes pour le jeux et ce dire que la carte la plus haut de gamme est assez puissante pour rouler tout à fond donc les joueurs n'ont qu'à upgrader leur machine...
 
Si on aurait le genre d'optimisation que les console de jeux ont, sur PC, on pourrait rouler toute les jeux tout a fond sur des carte milieu de gamme.

n°8127504
bab55
I am the Night Rider
Posté le 23-11-2011 à 19:19:38  profilanswer
 

Perso j'appelle pas ça des optimisation mais des magouilles.

n°8127512
hyksos_sow​o
Posté le 23-11-2011 à 19:26:27  profilanswer
 

Tant que la qualité visuel n'est pas impacté au point de s'en rendre compte, ça reste des optimisations

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  95  96  97  ..  987  988  989  990  991  992

Aller à :
Ajouter une réponse
 

Sujets relatifs
AMD 6850 ou Nvidia gtx 460 ?Une question rapide pour l'achat d'un ssd+chip7 AMD
Choix alimentation (i5 760 et AMD HD6870) ?Radeon HD6870 vs Geforce 460 GTX vs GTX 470
Quel Radeon HD pour un 32" ?[Topic unique] LanBoy Air
radeon 6850Home Cinema : AMD / nVidia
ventilateur AMD Phenom II X2 555 Black...SSD sur contrôleur AMD, AHCI ou IDE, et quels pilotes ?
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR