Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1614 connectés 

 



 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  12  13  14  ..  16  17  18  19  20  21
Auteur Sujet :

[HFR] Dossier : Preview : AMD RX Vega64 et RX Vega56

n°10211687
havoc_28
Posté le 16-08-2017 à 23:20:50  profilanswer
0Votes positifs
 

Reprise du message précédent :

ravenloft a écrit :


Peut être parce que les drivers amd sont moins optimisés et que forcément dx12 apporte à chaque fois.
Qui te dit qu'un driver dx11 très optimisé ne peut pas faire mieux que l'opti dx12 actuelle? Je n'en serais aps si certain et si je me rappelle bien, c'était ce qu'HFr suggérait dans un de ses articles.


 
Les résultats sont trop incohérents d'un bench à l'autre et d'une puce à l'autre pour pouvoir parler d'un manque d'optimisation global du coté driver ... c'est de l'optimisation au cas par cas. Pascal que ce soit GP102/104/106/107/108 c'est exactement la même architecture.
 
Bref je ne pense pas que ce soit un problème de drivers, mais bien du coté du fonctionnement même de l'architecture qui est bien plus efficace niveau utilisation de ces unités, HFR a du également en parlé  :whistle:.

Message cité 1 fois
Message édité par havoc_28 le 16-08-2017 à 23:21:54
mood
Publicité
Posté le 16-08-2017 à 23:20:50  profilanswer
 

n°10211689
PouicoPoui​c
Posté le 16-08-2017 à 23:24:24  profilanswer
0Votes positifs
 

Omegabit a écrit :

@ Vinz787 le 14-08-2017 à 15:16:01  "Heureusement que le panel de jeu est très fortement favorable AMD... "  
 
Ah bon? C'est quand la dernière fois que vous avez vu un jeu "très fortement favorable" à AMD vous? Vous pouvez en citer un? Avec les Physix et les GameWorks c'est quoi un jeu "très fortement favorable" à AMD? Vous n'avez pas l'impression d'inverser les réalités là? Je veut bien que Nvidia ait de meilleures perfs mais faut arrêter de mentir comme ça pour rien. C'est quoi cette histoire de "très favorable" à AMD, vous pouvez détailler? Vu comment les perfs. des 1080 Ti n'arrêtent pas de grimper entre deux benchmarks ont voit plutôt que les devs consacrent beaucoup plus de temps et de ressources à Nvidia. Donc d'où vous sortez un panel "très fortement favorable" à AMD? Faut arrêter d'inventer n'importe quoi comme ça... Y'en a qui ont une faculté pour inventer des arguments bidons et mélanger le vrai et le faux, c'est dingue.
 
Par contre depuis la sortie de l'archi Pascal de Nvidia les jeux sont optimisés pour tirer parti de la fréquence d'horloge GPU et mémoire plutôt que des IPC et du traitement en parallèle, donc énorme avantage pour Nvidia et merci les devs! La grosse pile que se prend AMD c'est sur les fréquences d'horloge. Il faudrait les tester en OC watercoolé pour voir mais niveau conso ils seront à la rue... Les GeForce ont un max de mémoire vidéo et cadencée très haut donc les résultats sont normaux. Le 4K + Antialialsing (inutile on est d'accord) favorise la grande quantité de mémoire et sa vitesse c'est tout.
 
La grosse différence entre AMD et Nvidia c'est que quand les cartes Nvidia sortent les devs ont déjà bossé dessus et les jeux sont déjà optimisés (on arrive souvent pile poil au dessus des 60 fps en 4K avec les détails à toute ce qui veut dire optimisé aux petits oignons), alors que pour AMD ils attendent que les cartes sortent avant d'éventuellement d'optimiser le code pour les nouvelles Radeon mais le plus souvent c'est AMD qui adapte ses drivers aux jeux autant que faire se peut.
 
D'ailleurs au bout de quelques mois les cartes AMD prennent généralement 15 à 25% de perfs en plus uniquement par optimisation des drivers, donc les tests matos AMD (CPU comme GPU) le jour de leur sortie c'est toujours "décevant" pour certains qui lisent en diagonale et n'ont jamais testé eux-mêmes.
 
Le problème c'est qu'il y a trop de code propriétarisé Nvidia. AMD n'a aucun moyen de savoir comment développer ses cartes pour traiter au mieux le code des jeux et sans trop consommer sachant qu'une bonne partie du code est dans les API Nvidia. Microsoft s'est pris des procès anti-trust pour 3 fois moins que ça. Perso moi je boycotte les jeux qui sont pro-Nvidia genre The Witcher. Leurs effets sont moches (motion blur affreux que même les Nvidiens désactivent) et ultra-gourmands. Tomb Raider était nickel avec les TressFX qu'AMD a fait implémenter en open-source directement dans DirectX afin que Nvidia aussi puisse l'utiliser et optimiser ses drivers. De même que DirectX 12 et Vulkan sont directement issus du Mantle d'AMD pour nettoyer et moderniser DirectX et OpenGL, le tout en open-source. Qu'Est-ce que Nvidia a fait en retour? Les TressWorks qui évidemment sont propriétaires et non implémentés dans DirectX, uniquement dans GameWorks et donc AMD ne peut pas optimiser ses drivers pour les TressWorks. C'est purement délibéré, déloyal et c'est une réaction de pure jalousie de la part de Nvidia.
 
À ce compte là je préfère le "perdant" honnête que le "gagnant" malhonnête et mon choix se porte sur AMD par éthique. Par ce que je constate de leur travail et de leur conception de l'informatique et du standard PC x86. Nvidia au contraire j'aimerai les voir pénalisés par les consommateurs par rapport à leur façon de propriétariser le code à leur unique profit et qui est dangereuse pour l'avenir du gaming PC. Idem au niveau CPU où l'Hyperthreading d'Intel est une arnaque (qu'il faut désactiver pour faire du VRAI multicoeur) qui met le bazar dans les compilateurs et est globalement de la triche déloyale, déjà sanctionnée par le passé. Y'en a trop qui se rangent systématiquement du côté du "plus fort" sans se soucier de l'éthique. Vive AMD, c'est eux qui font le job tel qu'il doit être fait. Si une appli ne tourne pas bien sur un CPU ou un GPU standard sans être optimisé pour une plateforme particulière, je considère que c'est le programme qui est merdique.


 C'est clair et l' ami Vinz doit sûrement regarder les benchs avec de la fumette .

Riseoflegends a écrit :

Omegabit -> Euh lol? Tu trolles ou tu sais juste pas de quoi tu parles? Il y a 99% de conneries dans ton pavé. Et non désolé mais tu ne m'auras pas, je vais pas écrire un pavé pour te répondre...


 C' est sûr que tu ne vas pas écrire un pavé vu que ce qu' il dit est une réalité . Maintenant si tu persistes à te faire 99% d' illusions , libre à toi .

havoc_28 a écrit :


 
L'hyperthreading c'est mal maintenant ? Ouais non ...C'est pour ça qu'AMD l'a aussi inclu dans Zen ? :o.


 En fait on s' en tape de l' HT, AMD aussi , et si tu en parles , ça permet de souligner et rappeller que c'est un concept intel pour enfumer le consommateur avec une trouvaille à 2 balles ( 20% ?) qu' ils devaient amortir après le P4 et ils disent merci M$ . Donc oui , l' HT c 'est mal et ce même sur de l' amd .

Message cité 2 fois
Message édité par PouicoPouic le 16-08-2017 à 23:25:55
n°10211690
lulunico06
Posté le 16-08-2017 à 23:25:14  profilanswer
1Votes positifs
 

https://tpucdn.com/reviews/AMD/Rade [...] 0_2160.png
Au lancement c'était la 980 ti qui était devant de 5 % d'après hfr maintenant elle est derrière de 10 %.
Amd semble mieux vieillir que nvidia.

n°10211692
havoc_28
Posté le 16-08-2017 à 23:26:36  profilanswer
3Votes positifs
 

PouicoPouic a écrit :


 En fait on s' en tape de l' HT, AMD aussi , et si tu en parles , ça permet de souligner et rappeller que c'est un concept intel pour enfumer le consommateur avec une trouvaille à 2 balles ( 20% ?) qu' ils devaient amortir après le P4 et ils disent merci M$ . Donc oui , l' HT c 'est mal et ce même sur de l' amd .


 
C'est peu coûteux en transistors et ça permet d'avoir sur pas mal d'application MT des gains de 15 à 20% voir un peu plus, en quoi c'est un soucis ?  

n°10211693
ravenloft
Meilleur jeu du 20ème siècle
Posté le 16-08-2017 à 23:27:31  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
Les résultats sont trop incohérents d'un bench à l'autre et d'une puce à l'autre pour pouvoir parler de drivers ... c'est de l'optimisation au cas par cas. Pascal que ce soit GP102/104/106/107/108 c'est exactement la même architecture.  


Même archi mais pas même puce donc ça peut jouer. Le GP102 c'est différent du GP104 même si c'est la même archi, le comportement peut être différent.  


---------------
Ravenloft
n°10211696
havoc_28
Posté le 16-08-2017 à 23:29:51  profilanswer
0Votes positifs
 

ravenloft a écrit :


Même archi mais pas même puce donc ça peut jouer. Le GP102 c'est différent du GP104 même si c'est la même archi, le comportement peut être différent.  


 
Plus tu as d'unités, plus il devient difficile de les alimentés au mieux. Mais bon ça fait quand même 2 ans que DX12 est arrivé, ça commence à devenir long, l'optimisation "DX12" coté pilote de nvidia, donc je reste sur l'idée d'une architecture à haute efficacité bénéficiant peu d'un ordonnanceur de files de commandes ...


Message édité par havoc_28 le 16-08-2017 à 23:30:45
n°10211697
k4520
C'est légal !
Posté le 16-08-2017 à 23:34:04  profilanswer
3Votes positifs
 

PouicoPouic a écrit :


 En fait on s' en tape de l' HT, AMD aussi , et si tu en parles , ça permet de souligner et rappeller que c'est un concept intel pour enfumer le consommateur avec une trouvaille à 2 balles ( 20% ?) qu' ils devaient amortir après le P4 et ils disent merci M$ . Donc oui , l' HT c 'est mal et ce même sur de l' amd .


 
Purée mais y'a pas que les jeux dans la vie xD
Le SMT c'est pas une invention de chez intel, ça se retrouve dans beaucoup de CPU serveur. Ça apporte des gains en multitâche pour quasiment aucun transistor en plus, on va pas cracher dessus :o
 
C'est exactement le même principe pour le multi engine sur GPU, mis en avant par AMD, ça permet de combler les "bulles" dans les unités d’exécution, et d'augmenter le rendement du GPU. Je vois pas en quoi c'est une mauvaise chose  :sarcastic:
C'est d'ailleurs certainement ça qui leur permet de sauver les meuble en DX12/Vulkan


Message édité par k4520 le 16-08-2017 à 23:35:10
n°10211698
sagittaire
Posté le 16-08-2017 à 23:36:07  profilanswer
1Votes positifs
 

Citation :

En fait on s' en tape de l' HT, AMD aussi , et si tu en parles , ça permet de souligner et rappeller que c'est un concept intel pour enfumer le consommateur avec une trouvaille à 2 balles ( 20% ?) qu' ils devaient amortir après le P4 et ils disent merci M$ . Donc oui , l' HT c 'est mal et ce même sur de l' amd .


 
et beh, ce qu'il faut pas lire des fois: bon déjà le SMT est une technique qui a été inventé dans les années 60, avant même la fondation d'Intel.
 
Et concernant son efficacité, c'est une fonctionnalité majeur. Tu n'as qu'a voir les différence de perf à fréquence égale entre un i5-7600K et un i7-7700K. Le SMT, c'est 25% de perf en plus, ce qui est une augmentation majeur de performance.


Message édité par sagittaire le 16-08-2017 à 23:37:22
n°10211699
alffir
Posté le 16-08-2017 à 23:36:20  profilanswer
2Votes positifs
 

Merci pour le test, excellente initiative de faire des tests DX11, des tests DX12 et de faire un score qui prend la meilleure performance, je crois qu'on ne peut pas faire plus objectif (et tout le monde retiendra le score qu'il veut).

 

Par contre je suis du même avis que sagittaire, il faudrait mettre 100 à Fuji en DX11 plutôt que de recalculer son score dans chaque mode, ça permettrait pour chaque carte de voir rapidement les gains à espérer en DX12.

 

Sinon, vous pensez faire un test à fréquence équivalente avec Fuji à la rentrée ? On parle de performances inférieures dans ces conditions, mais j'attends vos investigations, comme vous avez pu le faire à chaque nouvel génération de CGN (et après tout, ce n'est que du CGN 5). A part la gestion de la mémoire de nouvelle, je ne vois pas ce qui peut faire baisser l'efficacité, qui avait légèrement augmenté pour Polaris.


Message édité par alffir le 16-08-2017 à 23:39:13

---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10211701
sasuke87
Posté le 16-08-2017 à 23:37:11  profilanswer
0Votes positifs
 

petit-tigre a écrit :


Ce serait exactement pareil avec AMD, faut vraiment arrêter de se voiler la face...

Non ça ne serait pas pareil. Il ne faut pas croire que le comportement d'une entreprise en quasi monopole est le même d'une compagnie à l'autre.
 
Du temps où ATI était leader sur le marché, on ne peut pas vraiment dire qu'on les a vu tenter d'imposer des tech proprio. Ils se contentent généralement d'augmenter les prix et "ralentissent" l'évolution. Un peu comme Intel en fait... Alors que nvidia s'implique auprès des devs, créer de nouvelles barrières à l'entrée du marché, augmente les prix ect. Les deux concurrents ne sont pas interchangeables. L'une des deux boîtes est nettement plus entreprenante voire carrément agressive.

mood
Publicité
Posté le 16-08-2017 à 23:37:11  profilanswer
 

n°10211703
PouicoPoui​c
Posté le 16-08-2017 à 23:42:41  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
C'est peu coûteux en transistors et ça permet d'avoir sur pas mal d'application MT des gains de 15 à 20% voir un peu plus, en quoi c'est un soucis ?  


Réveil mon grand . En quoi c'est couteux en transistors le marketing quand on a la monopole logiciel ( merci m$ aussi ) . Effectivement ça fait fait gagner 15 à 20 % mais à qui à ton avis ?

k4520 a écrit :


 
Purée mais y'a pas que les jeux dans la vie xD
Le SMT c'est pas une invention de chez intel, ça se retrouve dans beaucoup de CPU serveur. Ça apporte des gains en multitâche pour quasiment aucun transistor en plus, on va pas cracher dessus :o
 
C'est exactement le même principe pour le multi engine sur GPU,mis en avant par AMD, ça permet de combler les "bulles" dans les unités d'exécution, et d'augmenter le rendement du GPU. Je vois pas en quoi c'est une mauvaise chose  :sarcastic:


 C'est sûr , mais la trouvaille intel , c'est bien celle de t' enfumer pour que tu sortes un tel commentaire . Ils te font croire que l' HT c'est " de la balle " , pendant ce temps les consommateurs se tapent encore des logiciels qui sont encore à l' heure des core duos de 2006 .

Message cité 2 fois
Message édité par PouicoPouic le 16-08-2017 à 23:43:11
n°10211704
PouicoPoui​c
Posté le 16-08-2017 à 23:46:25  profilanswer
0Votes positifs
 

sagittaire a écrit :

Citation :

En fait on s' en tape de l' HT, AMD aussi , et si tu en parles , ça permet de souligner et rappeller que c'est un concept intel pour enfumer le consommateur avec une trouvaille à 2 balles ( 20% ?) qu' ils devaient amortir après le P4 et ils disent merci M$ . Donc oui , l' HT c 'est mal et ce même sur de l' amd .


 
et beh, ce qu'il faut pas lire des fois: bon déjà le SMT est une technique qui a été inventé dans les années 60, avant même la fondation d'Intel.
 
Et concernant son efficacité, c'est une fonctionnalité majeur. Tu n'as qu'a voir les différence de perf à fréquence égale entre un i5-7600K et un i7-7700K. Le SMT, c'est 25% de perf en plus, ce qui est une augmentation majeur de performance.


Et béh, il vaut mieux lire ça que d' être aveugle , de quoi tu parles ? Tu me cites les benchs ? Oui et ? C'est quoi l' intérêt ? On le sait déjà . Quant à l' " efficacité " dont tu parles , ça ne concerne que celui qui y croit .


Message édité par PouicoPouic le 16-08-2017 à 23:47:48
n°10211708
Riseoflege​nds
Posté le 16-08-2017 à 23:49:34  profilanswer
3Votes positifs
 

PouicoPouic a écrit :


Et béh, il vaut mieux lire ça que d' être aveugle , de quoi tu parles ? Tu me cites les benchs ? Oui et ? C'est quoi l' intérêt ? On le sait déjà . Quant à l' " efficacité " dont tu parles , ça ne concerne que celui qui y croit .


 
Ah ouais t'es un religieux toi, les bench aucune importance ce qui compte c'est la croyance :o
Aucun intérêt de discuter avec toi t'es juste là pour rager. Que fait la modération!!

Message cité 1 fois
Message édité par Riseoflegends le 16-08-2017 à 23:50:35
n°10211709
havoc_28
Posté le 16-08-2017 à 23:49:55  profilanswer
0Votes positifs
 

PouicoPouic a écrit :


Réveil mon grand . En quoi c'est couteux en transistors le marketing quand on a la monopole logiciel ( merci m$ aussi ) . Effectivement ça fait fait gagner 15 à 20 % mais à qui à ton avis ?


 
Ouais et sur Ryzen le gain du SMT il donne pas aussi 15 à 20 % ? Voir une efficacité même légèrement supérieur que chez Intel ?  
 
http://www.hardware.fr/articles/95 [...] mt-ht.html
 

Citation :

L'autre point à noter est que si l'on met de côté le cas particulier de 7-Zip et WinRAR (nous reviendrons sur leur cas !), en règle générale l'activation du SMT apporte de plus gros gains chez AMD que chez Intel. Sur la moyenne, on note que l'on gagne 22.47% chez Intel, et 25.6% chez AMD ce qui est appréciable (on monte à 28% avec le Core Parking désactivé).


 
http://www.hardware.fr/getgraphimg.php?id=437&n=1
 
C'est la faute d'intel peut être si AMD n'avait pas jusqu'à présent utilisé le SMT/HT ?


Message édité par havoc_28 le 16-08-2017 à 23:50:58
n°10211710
k4520
C'est légal !
Posté le 16-08-2017 à 23:51:20  profilanswer
1Votes positifs
 

PouicoPouic a écrit :


Réveil mon grand . En quoi c'est couteux en transistors le marketing quand on a la monopole logiciel ( merci m$ aussi ) . Effectivement ça fait fait gagner 15 à 20 % mais à qui à ton avis ?

 

Mais qu'est-ce que tu racontes ?!

 
PouicoPouic a écrit :


 C'est sûr , mais la trouvaille intel , c'est bien celle de t' enfumer pour que tu sortes un tel commentaire . Ils te font croire que l' HT c'est " de la balle " , pendant ce temps les consommateurs se tapent encore des logiciels qui sont encore à l' heure des core duos de 2006 .

 

Prend moi pour un demeuré tant que tu y es... Je tourne sur un Amd en ce moment pour ta gouverne
En quoi l'HT d’Intel est il si pourri ? Explique toi je comprend pas...
En quoi l'HT d'intel est il plus pourri que le CMT de bulldozer par exemple ?


Message édité par k4520 le 16-08-2017 à 23:52:30
n°10211711
Neji Hyuga
Modérateur
:grut:
Posté le 16-08-2017 à 23:53:13  profilanswer
0Votes positifs
 

Riseoflegends a écrit :


 
Ah ouais t'es un religieux toi, les bench aucune importance ce qui compte c'est la croyance :o
Aucun intérêt de discuter avec toi t'es juste là pour rager. Que fait la modération!!


 
Son casque en papier d'alu est sûrement un peu trop serré, 'faut pas y faire attention [:el frog:4]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°10211713
havoc_28
Posté le 16-08-2017 à 23:54:56  profilanswer
1Votes positifs
 

Quand tu vois son profil tu as la certitude qu'il est la pour troller  :whistle: .

Message cité 1 fois
Message édité par havoc_28 le 16-08-2017 à 23:55:28
n°10211714
k4520
C'est légal !
Posté le 16-08-2017 à 23:57:07  profilanswer
0Votes positifs
 

Ouais, je ferais mieux d'aller me coucher...

n°10211715
PouicoPoui​c
Posté le 16-08-2017 à 23:58:05  profilanswer
0Votes positifs
 

Riseoflegends a écrit :


 
Ah ouais t'es un religieux toi, les bench aucune importance ce qui compte c'est la croyance :o
Aucun intérêt de discuter avec toi t'es juste là pour rager. Que fait la modération!!


Religieux moi ? Sûrement pas autant que toi pour croire à des benchs tout foireux que même les sites d' info n' arrivent même pas à expliquer .
 
 

havoc_28 a écrit :


 
Ouais et sur Ryzen le gain du SMT il donne pas aussi 15 à 20 % ? Voir une efficacité même légèrement supérieur que chez Intel ?  
 
http://www.hardware.fr/articles/95 [...] mt-ht.html
 

Citation :

L'autre point à noter est que si l'on met de côté le cas particulier de 7-Zip et WinRAR (nous reviendrons sur leur cas !), en règle générale l'activation du SMT apporte de plus gros gains chez AMD que chez Intel. Sur la moyenne, on note que l'on gagne 22.47% chez Intel, et 25.6% chez AMD ce qui est appréciable (on monte à 28% avec le Core Parking désactivé).


 
http://www.hardware.fr/getgraphimg.php?id=437&n=1
 
C'est la faute d'intel peut être si AMD n'avait pas jusqu'à présent utilisé le SMT/HT ?


Sans déc. vous allez ressortir à l' infini cet argument des 20% même sur AMD et que même AMD n' a pas eu l' idée de sortir cette techno qui troue de la balle ? Essayez de trouver la réponse par vous même, à croire que vous achetez sans réfléchir .

k4520 a écrit :


 
Prend moi pour un demeuré tant que tu y es... Je tourne sur un Amd en ce moment pour ta gouverne  
En quoi l'HT d'Intel est il si pourri ? Explique toi je comprend pas...
En quoi l'HT d'intel est il plus pourri que le CMT de bulldozer par exemple ?


Alors le CMT , c'est la tentative numéro 1 d' AMD de se rapprocher des logiciels faits pour intel . Et autant pour moi , bravo tu ne te fais pas enfumer .


Message édité par PouicoPouic le 16-08-2017 à 23:59:29
n°10211716
the_pdf
Posté le 16-08-2017 à 23:59:22  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
Ouais et sur Ryzen le gain du SMT il donne pas aussi 15 à 20 % ? Voir une efficacité même légèrement supérieur que chez Intel ?  
 
http://www.hardware.fr/articles/95 [...] mt-ht.html
 

Citation :

L'autre point à noter est que si l'on met de côté le cas particulier de 7-Zip et WinRAR (nous reviendrons sur leur cas !), en règle générale l'activation du SMT apporte de plus gros gains chez AMD que chez Intel. Sur la moyenne, on note que l'on gagne 22.47% chez Intel, et 25.6% chez AMD ce qui est appréciable (on monte à 28% avec le Core Parking désactivé).


 
http://www.hardware.fr/getgraphimg.php?id=437&n=1
 
C'est la faute d'intel peut être si AMD n'avait pas jusqu'à présent utilisé le SMT/HT ?


Si AMD veut survivre, ils doivent innover à fond. Si le CMT avait été utilisé,  buldo aurait certainement été meilleur. Mais pas possible avec un marché truqué  (et peu de part de marché ).
Pareil pour les cartes graphique.
Pas sûr de voir rapidement des applis optimisées pour Ryzen  (ni pour vega)

n°10211718
Neji Hyuga
Modérateur
:grut:
Posté le 17-08-2017 à 00:02:45  profilanswer
1Votes positifs
 

havoc_28 a écrit :

Quand tu vois son profil tu as la certitude qu'il est la pour troller  :whistle: .


 
Ah oui je vois, un anti AMD déguisé en plusieurs multis Pro AMD ridicules, une sorte d'inception du fanatisme [:mr mala:1]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°10211720
Riseoflege​nds
Posté le 17-08-2017 à 00:04:40  profilanswer
2Votes positifs
 

PouicoPouic a écrit :


Religieux moi ? Sûrement pas autant que toi pour croire à des benchs tout foireux que même les sites d' info n' arrivent même pas à expliquer .


 
Non mais moi je crois rien. J'attend tes propres bench et explications :o


Message édité par Riseoflegends le 17-08-2017 à 00:05:04
n°10211723
petit-tigr​e
miaou
Posté le 17-08-2017 à 00:10:03  profilanswer
1Votes positifs
 

sagittaire a écrit :


Oui sinon tout à fait pour les GTX 1070/1080 custom, mais ton argumentaire est quand même totalement hors sujet. Si HFR avait choisi de mettre des GTX 1070/1080 custom avec un OC extrême dans son comparatif, la conclusion aurait été strictement la même. Le sujet est de savoir si les GPU AMD vieillissent mieux que les GPU nVidia? Une R9 Fury X (custom ou pas) rattrapera une partie de son retard en passant d'un test entièrement DX11 à un test mixte DX11/DX12, et dans les même proportions que cela soit en face de GTX 1070/1080 custom, ou pas. Et c'est aussi vrai pour la GTX 980 Ti (custom ou pas), qui est sa concurrente historique. Donc la réponse réponse reste la même: c'est oui.
 
D'ailleurs pour répondre à ton argumentaire sur l'OC, je pense qu'une 7970 3GB (ou une R9 280X) ça te poutre facilement aujourd'hui une GTX 770 4GB (qui est une GTX 680 avec OC) en test mixte DX11/DX12. Ce n'était pas vraiment le cas dans un test GTX 680 vs Radeon 7970 en 2012 dans un test exclusivement DX11.  


Peut-être bien... ou peut-être pas. Par exemple sur un jeu DX12 tel que Forza Horizon 3 (version 4G) : http://gamegpu.com/images/stories/ [...] 1920_h.png
Bah la 7970 est loin derrière la 770 en plus d'être injouable (moins de 30 fps)... Note par ailleurs la GTX 960 qui se permet d'allumer une 780 Ti. Quand on regarde les résultats, tout ce qui n'a pas 4G de VRAM est à genoux. Preuve que ça peut avoir un impact certain, surtout à une époque où les besoins en VRAM ont explosé.
 
Sur Forza 6, lui aussi DX12, c'est l'inverse (version 2G) : http://gamegpu.com/images/stories/ [...] a_1920.jpg
 
Bref, encore une fois, il ne faut pas tirer de conclusions rapides, même avec le protocole de HFR. Ce qui peut fonctionner pour un/des jeu(x) ne fonctionnera pas forcément avec un/d' autre(s). Ca dépend des jeux et ça dépend aussi de la façon dont les cartes sont équipées. Encore une fois, la 7970 GE fait figure d'exception, pas de récurrence (comme les 8800 en leur temps). D'autant que maintenant, toutes les cartes sont à 8G si ce n'est que les Radeon roulent en HBM et les GeForce "seulement" en GDDR5. DX12 va juste permettre à AMD de suivre Nvidia, pas de le dépasser car ça reste performant chez Nvidia, quelle que soit l'API et DX12 est encore loin d'être une généralité...


---------------
mIaOuUuUuUuUuUu
n°10211725
PouicoPoui​c
Posté le 17-08-2017 à 00:12:11  profilanswer
0Votes positifs
 

Riseoflegends a écrit :


 
Non mais moi je crois rien. J'attend tes propres bench et explications :o


Sur quoi ? Le 8350 ? ,Le Ryzen 1800 x avec 32 Go 3200 Mhz que je vais recevoir ? Le 1090 T ? Avec la " chier " de benchs sorties de puis 2006 tu n' as pas besoin de mes tests pour te faire une idée de ce qui se passe dans le PC, encore faut-il les analyser un minimum .

Message cité 2 fois
Message édité par PouicoPouic le 17-08-2017 à 00:13:39
n°10211727
k4520
C'est légal !
Posté le 17-08-2017 à 00:14:21  profilanswer
1Votes positifs
 

PouicoPouic a écrit :


Le Ryzen 1800 x avec 32 Go 3200 Mhz que je vais recevoir ?


 
J'imagine que tu désactiveras le smt sur ton Ryzen  :o  
Bon aller bonne nuit, faut se reposer :o


Message édité par k4520 le 17-08-2017 à 00:14:39
n°10211729
PouicoPoui​c
Posté le 17-08-2017 à 00:16:26  profilanswer
0Votes positifs
 

k4520 a écrit :


 
J'imagine que tu désactiveras le smt sur ton Ryzen  :o  
Bon aller bonne nuit, faut se reposer


J' y ai déjà pensé et je pense le faire effectivement .

Message cité 1 fois
Message édité par PouicoPouic le 17-08-2017 à 00:16:38
n°10211730
Z Machine
Fusion is future
Posté le 17-08-2017 à 00:19:43  profilanswer
0Votes positifs
 

petit-tigre a écrit :


Ce serait exactement pareil avec AMD, faut vraiment arrêter de se voiler la face...


Tu n'en sais rien, ça s'appelle un procès d'intention  :o  
 
Je rejoins Sasuke87 sur le sujet.
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
n°10211736
petit-tigr​e
miaou
Posté le 17-08-2017 à 00:39:15  profilanswer
0Votes positifs
 

sasuke87 a écrit :

Non ça ne serait pas pareil. Il ne faut pas croire que le comportement d'une entreprise en quasi monopole est le même d'une compagnie à l'autre.
 
Du temps où ATI était leader sur le marché, on ne peut pas vraiment dire qu'on les a vu tenter d'imposer des tech proprio. Ils se contentent généralement d'augmenter les prix et "ralentissent" l'évolution. Un peu comme Intel en fait... Alors que nvidia s'implique auprès des devs, créer de nouvelles barrières à l'entrée du marché, augmente les prix ect. Les deux concurrents ne sont pas interchangeables. L'une des deux boîtes est nettement plus entreprenante voire carrément agressive.


Citation :

Tu n'en sais rien, ça s'appelle un procès d'intention  :o  
 
Je rejoins Sasuke87 sur le sujet.


Vous êtes bien naïfs.
 
Pourquoi AMD n'est pas agressif ? Parce qu'il ne le peut pas tout simplement. Eviter au maximum les barrières, jouer sur les standards, s'investir auprès des développeurs pour introduire un programme propriétaire (Gameworks)... c'est louable mais AMD le fait parce qu'ils n'ont pas le choix. Vous comparez aussi la situation actuelle avec une époque qui n'avait pour ainsi dire rien à voir. ATI n'existe plus, Orton est parti depuis un bail... bref.
 
Trouvez-moi une seule boite en situation de monopole qui n'abuse pas de sa position et joue les bons Samaritains en pensant avant tout à la tête du client. J'aide : ça n'existe pas et ça n'existera jamais. AMD serait exactement pareil qu'Nvidia si les situations étaient inverses. Quand les $$$ rentrent, t'as aucune raison de ne pas en profiter. Ils sont là pour faire de l'argent, absolument rien d'autre.


---------------
mIaOuUuUuUuUuUu
n°10211737
Z Machine
Fusion is future
Posté le 17-08-2017 à 00:45:27  profilanswer
1Votes positifs
 

Je m'interroge, comme beaucoup, sur ce que Amd a voulu faire avec Vega.
 
Un Fiji capable de prendre 1600MHz ? (La débauche de transistors en plus servirait à la montée en fréquence ? Je ne vois pas comment on accélère une archi en rajoutant quelque chose)
 
L'hypothèse la plus plausible serait une carte douée en mining, deep learning, etc (en calcul, quoi). A voir si ça va se concrétiser avec de nouveaux drivers/sdk. Pourquoi pas ? A défaut de vendre des cartes aux gamers, on en vend aux mineurs. Vu qu'ils ont nettoyé les stocks de Polaris, pourquoi pas.
 
Mais bon, comme dit plus haut, je suis perplexe devant la bête et ses performances bof, en regard de la débauche de transistors.
La comparaison avec Fiji saute aux yeux, qui se mettent à piquer, et le dos à frissonner, lors de la fugace impression d'un double Tonga + HBM en 14 nm....
Le coté positif de la montée en fréquence est estompé par le scaling assez moyen.
 
Raja, il va falloir que tu nous expliques, on ne comprend pas tout.

Spoiler :


Heureusement, on a un agent double chez Amd, maintenant [:tt_theseb_tt]


Message édité par Z Machine le 17-08-2017 à 00:46:22

---------------
http://fr.wikipedia.org/wiki/Z_machine
n°10211738
CardinalFu​neste
Posté le 17-08-2017 à 00:47:53  profilanswer
0Votes positifs
 

petit-tigre a écrit :


Peut-être bien... ou peut-être pas. Par exemple sur un jeu DX12 tel que Forza Horizon 3 (version 4G) : http://gamegpu.com/images/stories/ [...] 1920_h.png
Bah la 7970 est loin derrière la 770 en plus d'être injouable (moins de 30 fps)... Note par ailleurs la GTX 960 qui se permet d'allumer une 780 Ti. Quand on regarde les résultats, tout ce qui n'a pas 4G de VRAM est à genoux. Preuve que ça peut avoir un impact certain, surtout à une époque où les besoins en VRAM ont explosé.
 


 
C'est probablement un gros bug du jeu, il me semble d’ailleurs que cela a été corrigé depuis avec une hausse des perfs sur les vieilles carte GCN.
Y a qu'a voir les perfs de la 380x qui est un quasi une 280X/7970 pour s'en convaincre   :o


Message édité par CardinalFuneste le 17-08-2017 à 00:48:07
n°10211740
sasuke87
Posté le 17-08-2017 à 00:51:12  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
Hum, non, ce n'est qu'un aspect parmi tant d'autres de dx12, le principal atout de celui ci c'est que contrairement à DX11 c'est un API bas niveau, une des choses qui avait été mise en avant par exemple, c'était une charge CPU réduite à travers une diminution drastique des draws calls, une meilleur utilisation du CF/SLI (sauf qu'actuellement le support du multi GPU semble de plus en plus délaissé) et un meilleur contrôle sur le matériel (mais demandant bien plus de travail aux développeurs...).
 
Entre les promesses de DX12 et le résultat 2 ans après c'est pas spécialement reluisant.


Ok pour le drawcall, c'était La nouveauté apportée par DX12 qui a pu rapidement être mis en place. Mais ça c'est coté optimisation de l'utilisation CPU, coté GPU on a du attendre longtemps avant qu'on nous annonce quelque chose. Et aujourd'hui il semblerait que ce soit le multi engine qui monopolise les débats. Alors est-ce que finalement le multi engine n'est qu'un détail parmi d'autres dans l'apport de DX12 et qui n'est qu'une petite faveur de Microsoft accordé à AMD (faut pas oublier qu'il y a du AMD dans les Xbox) ou est-ce que c'est une véritable demande des devs qui comptent dans l'avenir l'utiliser de plus en plus? Si c'est la dernière hypothèse qui est vraie alors il y a des chances que la prochaine archi de nvidia fasse table rase avec Maxwell et cie, tant pis pour la pérennité des Geforce 10x0.

n°10211743
Z Machine
Fusion is future
Posté le 17-08-2017 à 00:56:08  profilanswer
1Votes positifs
 

petit-tigre a écrit :

Trouvez-moi une seule boite en situation de monopole qui n'abuse pas de sa position et joue les bons Samaritains en pensant avant tout à la tête du client. J'aide : ça n'existe pas et ça n'existera jamais. AMD serait exactement pareil qu'Nvidia si les situations étaient inverses. Quand les $$$ rentrent, t'as aucune raison de ne pas en profiter. Ils sont là pour faire de l'argent, absolument rien d'autre.


Il y a abus et abus.
J'aurais quelques exemples sur lesquels débattre mais on va s'enfoncer dans la digression un peu trop profondément.
 
Ah oui aussi, il faudrait arrêter de traiter les gens de naïfs lorsqu'ils sont allergiques aux comportements de merde.  :jap:  
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
n°10211746
havoc_28
Posté le 17-08-2017 à 01:07:48  profilanswer
0Votes positifs
 

sasuke87 a écrit :


Ok pour le drawcall, c'était La nouveauté apportée par DX12 qui a pu rapidement être mis en place. Mais ça c'est coté optimisation de l'utilisation CPU, coté GPU on a du attendre longtemps avant qu'on nous annonce quelque chose. Et aujourd'hui il semblerait que ce soit le multi engine qui monopolise les débats. Alors est-ce que finalement le multi engine n'est qu'un détail parmi d'autres dans l'apport de DX12 et qui n'est qu'une petite faveur de Microsoft accordé à AMD (faut pas oublier qu'il y a du AMD dans les Xbox) ou est-ce que c'est une véritable demande des devs qui comptent dans l'avenir l'utiliser de plus en plus? Si c'est la dernière hypothèse qui est vraie alors il y a des chances que la prochaine archi de nvidia fasse table rase avec Maxwell et cie, tant pis pour la pérennité des Geforce 10x0.


 
Contrairement aux autres fonctions de DX12, le multi engine peut être pénalisant sur les puces nvidia vu qu'elle n'en dispose pas vraiment, maxwell y a pas, et Pascal si y en a un c'est un semblant de "multi engine". C'est la contre performance des puces nvidia ce niveau qui fait débats.  
 
http://www.hardware.fr/news/14350/ [...] tx-12.html
 
http://www.hardware.fr/news/14558/ [...] vidia.html
 
http://www.hardware.fr/articles/94 [...] mieux.html
 

Citation :

Ceci étant dit, nous estimons que notre précédente analyse reste d'actualité. Le principe de base sur lequel repose la tentative d'exécution concomitante des tâches est que le GPU n'exploite pas à 100% ses différents types d'unités. Le gain potentiel est donc lié au taux d'utilisation de chaque unité. Plus il est élevé, moins le gain peut être important, d'autant plus qu'avoir recours à l'exécution concomitante implique de mettre en place de coûteuses barrières de synchronisation. Si les GeForce ont de base un meilleur taux d'utilisation de leurs unités que les Radeon, il y a moins de raison de chercher une synergie entre les exécutions de différentes tâches.


 
Personnellement je ne pense pas que Volta sera radicalement différent de Maxwell/Pascal, peut être qu'ils feront au moins en sorte que le multi engine ne soit jamais pénalisant, car en l'état actuel il me semble bien que Nvidia est obligé de corriger au cas par cas les files de commandes via ses drivers ou en discutant avec les divers studios.
 
Si avec Volta ils arrivent à faire du +25/30% à nomenclature égale avec une conso similaire ou à peine légèrement plus élevée, même si l'architecture ne progresse pas ou très peu niveau multi engine, si les performances suivent peu importe pour nvidia le multi engine au final.


Message édité par havoc_28 le 17-08-2017 à 02:48:06
n°10211747
svenos
Posté le 17-08-2017 à 01:10:21  profilanswer
0Votes positifs
 

Vulkan est plus prometteur. DX12 c'est prometteur que si on rêve d'un écosystème fermé et que le P (pour personnel), de PC soit remplacé par un W nous forçant à suivre les moindres désirs de Microsoft.


Message édité par svenos le 17-08-2017 à 01:10:50
n°10211756
sasuke87
Posté le 17-08-2017 à 01:47:28  profilanswer
1Votes positifs
 

petit-tigre a écrit :


Citation :

Tu n'en sais rien, ça s'appelle un procès d'intention  :o  
 
Je rejoins Sasuke87 sur le sujet.


Vous êtes bien naïfs.
 
Pourquoi AMD n'est pas agressif ? Parce qu'il ne le peut pas tout simplement. Eviter au maximum les barrières, jouer sur les standards, s'investir auprès des développeurs pour introduire un programme propriétaire (Gameworks)... c'est louable mais AMD le fait parce qu'ils n'ont pas le choix. Vous comparez aussi la situation actuelle avec une époque qui n'avait pour ainsi dire rien à voir. ATI n'existe plus, Orton est parti depuis un bail... bref.
 
Trouvez-moi une seule boite en situation de monopole qui n'abuse pas de sa position et joue les bons Samaritains en pensant avant tout à la tête du client. J'aide : ça n'existe pas et ça n'existera jamais. AMD serait exactement pareil qu'Nvidia si les situations étaient inverses. Quand les $$$ rentrent, t'as aucune raison de ne pas en profiter. Ils sont là pour faire de l'argent, absolument rien d'autre.

Euh je ne sais pas si je suis naïf mais moi je me base sur des faits. Les hommes et donc les entreprises (composées d'hommes) n'adoptent pas systématiquement le même comportement dans une situation donnée.  
 
Par exemple, vouloir investir massivement dans le software quand t'es déjà leader sur un marché où faire du bon hardware est largement suffisant, ce n'est pas tout le monde qui le ferai (y a des risques que ça foire). Avant Gameworks, il y avait le "the way it's meant to be played", demain il il y aura sûrement autre chose pour continuer de peser sur le développement des jeux. Et je ne dis pas que c'est une mauvaise chose en soi, du moins tant que l'objectif n'est pas pourrir les perfs de la concurrence.  
 
Nvidia, dans son histoire est très rapidement devenu "agressif" et pro-actif sur le marché en éliminant en l'espace de quelques années tous les "petits artisans" de la carte graphique. ATI/AMD est parvenu à s'accrocher grâce aux prouesses de leurs ingénieurs qui ont pondu d'excellentes archi mais quand l'archi ne suit plus il faut autre chose. Et ça nvidia l'a compris très tôt. Aujourd'hui ils peuvent te sortir du G-sync hors de prix dans le plus grand des calmes, simplement parce qu'ils sont leaders. Les rôles inversés, je ne sais pas si AMD l'aurait fait. Je les vois plutôt comme des potentiels "leader passif", c'est en tout cas cette image qu'ils ont montrer jusqu'à présent. Mais bon, on ne sait jamais...

n°10211758
sasuke87
Posté le 17-08-2017 à 01:56:57  profilanswer
0Votes positifs
 

@Havoc_28
 
D'où ma question: "Alors est-ce que finalement le multi engine n'est qu'un détail parmi d'autres dans l'apport de DX12 et qui n'est qu'une petite faveur de Microsoft accordé à AMD (faut pas oublier qu'il y a du AMD dans les Xbox) ou est-ce que c'est une véritable demande des devs qui comptent dans l'avenir l'utiliser de plus en plus? "
 
Si le multi Engine n'est qu'une astuce technique demandée uniquement par AMD alors on perd notre temps à en parler et nvidia a totalement raison de minimiser son importance. Par contre si c'est une demande des devs, là j'en connais un qui devra arrêter de se défiler...
 
Si un dev de jeux passe par là, ça serai sympa d'avoir un avis.  [:quaniais:2]

Message cité 1 fois
Message édité par sasuke87 le 17-08-2017 à 01:59:51
n°10211760
havoc_28
Posté le 17-08-2017 à 02:43:25  profilanswer
0Votes positifs
 

sasuke87 a écrit :

@Havoc_28
 
D'où ma question: "Alors est-ce que finalement le multi engine n'est qu'un détail parmi d'autres dans l'apport de DX12 et qui n'est qu'une petite faveur de Microsoft accordé à AMD (faut pas oublier qu'il y a du AMD dans les Xbox) ou est-ce que c'est une véritable demande des devs qui comptent dans l'avenir l'utiliser de plus en plus? "
 
Si le multi Engine n'est qu'une astuce technique demandée uniquement par AMD alors on perd notre temps à en parler et nvidia a totalement raison de minimiser son importance. Par contre si c'est une demande des devs, là j'en connais un qui devra arrêter de se défiler...


 
Dans l'un des 3 articles de tridam je pense que tu as une partie de la réponse, le multi engine chez AMD existe depuis G.C.N. 1er du nom, Tahiti toute fin 2011/début 2012.
 
http://www.hardware.fr/news/14350/ [...] tx-12.html (edit hum j'avais oublié de mettre celui la en lien)
 

Citation :

Microsoft, dans son rôle d'arbitre, a essayé de prendre en compte les demandes de chacun tout en veillant bien entendu à ses propres intérêts


 

Citation :

Grossièrement le Multi Engine permet aux développeurs de prendre le contrôle sur la synchronisation entre différentes tâches et dans certains cas d'exécuter ces tâches simultanément ou en concomitance. Et sur ce point Microsoft a repris exactement la structure qu'AMD avait mise en place avec son API Mantle. Une victoire cette fois pour AMD qui a dessiné le Multi Engine en suivant les contours de l'architecture de ses GPU.


 
DX12 c'est un paquets de fonctionnalités, libre aux développeurs de les utiliser en totalité, ou en partie etc.


Message édité par havoc_28 le 17-08-2017 à 02:49:57
n°10211762
sasuke87
Posté le 17-08-2017 à 02:50:23  profilanswer
0Votes positifs
 

Oui ça on le savait depuis le début que ça faisait les affaires d'AMD. Mais est-ce qu'il n'y que AMD et quelques devs par ci par là qui en profitent ou est-ce une demande globale et unanime des devs pour plus de multi Engine dans le futur. Perso, j'ai pas l'impression que c'est ce vers quoi toute l'industrie du jeux video s'oriente m'enfin bon j'en sais rien en fait  :o

n°10211765
havoc_28
Posté le 17-08-2017 à 02:52:53  profilanswer
0Votes positifs
 

sasuke87 a écrit :

Oui ça on le savait depuis le début que ça faisait les affaires d'AMD. Mais est-ce qu'il n'y que AMD et quelques devs par ci par là qui en profitent ou est-ce une demande globale et unanime des devs pour plus de multi Engine dans le futur. Perso, j'ai pas l'impression que c'est ce vers quoi toute l'industrie du jeux video s'oriente m'enfin bon j'en sais rien en fait  :o


 
Les développeurs ils font avec ce que leurs proposent les APIs libre à eux de choisir d'utiliser des fonctions ou d'autres. Le multi engine est un choix donné aux développeurs, certains l'exploitent d'autres non.
 
Pour l'instant y a pas vraiment de tendance lourdes vers une utilisation total de toutes les fonctionnalités de DX12 ou même de DX12 en lui même ...
 
Windows 7 c'est facilement encore 35 à 40% des OS sur les machines de joueurs (en se basant sur steam histoire d'avoir une idée de la chose, même si le stats steams ne donnent qu'une partie du problème).


Message édité par havoc_28 le 17-08-2017 à 02:56:11
n°10211771
sasuke87
Posté le 17-08-2017 à 03:32:57  profilanswer
0Votes positifs
 

Ok mais je suppose que dans la conception de DX12, Vulkan et même Mantle les devs ont été consultés, eux aussi font part de leurs besoins. J'ignore quel est le poids de chaque partie dans l'élaboration d'un(e?) API, mais que pour un mastodonte comme EA puisse s'associer à AMD pour sortir Mantle sur BF cela signifie qu'ils ont quand même de gros intérêts là dedans.
 
Alors le multi Engine ça parle aux devs ou pas?

Message cité 1 fois
Message édité par sasuke87 le 17-08-2017 à 07:35:20
n°10211782
the_pdf
Posté le 17-08-2017 à 06:35:54  profilanswer
0Votes positifs
 

Le multi engine c'est surtout le fait que toutes les unités (de différents types) ne sont pas utilisées en même temps, d'ou la parallélisation.
L'archi AMD est en ce sens flexible,  celle de Nvidia beaucoup moins. Ils compensent donc par le soft. Soft qui leur permet par ailleurs de piper les dés, mais c'est rarement dénoncé  (comme pour intel), les "aides" indirectes sont trop importantes.
Ensuite, il y a la magie de la com et des fanboys

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  12  13  14  ..  16  17  18  19  20  21

Aller à :
 

Sujets relatifs
[HFR] Actu : Core i3-8350K et i3-8100 : 4 coeurs ?AMD Radeon sapphire R7 260x en fin de vie ?
[HFR] Dossier : AMD Threadripper 1950X et 1920X en test : Quelque chose d'Epyc…Kit évolution AMD Ryzen
[HFR] Actu : Intel détaille ses autres Core i9 ![HFR] Actu : Quels chipsets pour Cannon Lake ?
Nouvelle config base AMD/Nvidia 
Plus de sujets relatifs à : [HFR] Dossier : Preview : AMD RX Vega64 et RX Vega56


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR