Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
657 connectés 

 



 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !

n°9810733
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 23:36:08  profilanswer
1Votes positifs
 

Reprise du message précédent :
Yep les benchs en OC sont repartis :)

mood
Publicité
Posté le 18-05-2016 à 23:36:08  profilanswer
 

n°9810734
Cockroach
2,21 Gigowatts
Posté le 18-05-2016 à 23:39:16  profilanswer
1Votes positifs
 

tridam a écrit :

Yep les benchs en OC sont repartis :)

 


Joli :jap:

 

Respect pour le boulot abattu pour ce test (et en général)

n°9810786
Profil sup​primé
Posté le 19-05-2016 à 00:46:20  answer
2Votes positifs
 

Marc a écrit :

Elle remplace bien la 980 Ti sur le plan tarifaire.
 
Pour ce qui est des fréquences... Les autres GPU à ces fréquences ne fonctionnent pas, à quoi bon donc ?


 
En meme tps c'est pas la peine de le faire noter a chaque fois, si nvidia monte en frequence faut aussi l'assumer et bien gerer cette frequence.
 
C'est bien, d'un point de vue marketing, mais si je me souviens bien vous étiez les premier a tenir compte des fréquences max stables liées a la conso/T°, en soulignant bien que ces fréquences max n'étaient toujours pas au rendez vous, surtout chez ati.
 
Autre chose, c'est pas la peine de le prendre mal si certain des commentaires affirment que le test est un peu décevant, ça marche bien avec les noobs,mais pour les autres c'est limite.
Si je viens ici lire un test, c'est que je sais que j'y trouve un des meilleurs test sur le net.
Donc oui mémé si ça te fais chier marc, le test est pas top, pas à la hauteur comparé a ceux que vous faites habituellement.
 
Pas de test avec la carte OC, pas de vue thermique, pas de Sli, et je peux en rajouter...

Message cité 1 fois
Message édité par le 19-05-2016 à 00:48:41
n°9810832
Louvano
Posté le 19-05-2016 à 02:54:28  profilanswer
6Votes positifs
 

Une belle vitrine technologique pour encore améliorer son image de marque mais en pratique pour le gamer lambda, elle n'a aucun intérêt et Nvidia se moque du monde avec ces prix exorbitants à la Apple...
Faute de concurrence certainement, bien que Polaris aura sûrement un meilleur rapport perf/prix pour jouer dans de très bonnes conditions à moindre coût...
 
Pour conclure, le test est comme toujours excellent mais bien trop sympathique sur les pratiques tarifaires d'Nvidia qui empirent d'années en années ce qui peut laisser penser que c'est une Titan déguisée ou bien pire que la Titan coûtera encore le double...Pour un petit GPU c'est tout simplement abusif!
Bref, prions pour qu'AMD revienne au plus vite dans la course pour notre intérêt à tous...


Message édité par Louvano le 19-05-2016 à 02:57:29
n°9810859
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-05-2016 à 08:18:49  profilanswer
0Votes positifs
 

tridam a écrit :

Je touche du bois mais je compte compléter tout sauf la 4K en fin de soirée (ou début de matinée à voir :p).


 

tridam a écrit :

Bon l'alim Corsair vient de griller, ça complique quelque peu les choses :o


Ne jamais annoncé de date ! :o

n°9810866
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-05-2016 à 08:30:17  profilanswer
3Votes positifs
 

 

Rien compris. La discussion portait sur le fait de faire des tests à fréquence égales, quel rapport avec ce que tu dis ?

  

C'est toujours le cas sinon Damien ne s'ennuierait pas à attendre la stabilisation de la fréquence pour bencher. Et ce point comme la variabilité du Turbo Boost a été abordé en long, large et en travers depuis Kepler chez Nvidia, donc le surtout chez ATI (AMD :o ) ...

  

Je ne vais pas faire le béni oui-oui devant des critiques mal amenées et/ou injustifiées. Les captures thermiques sont faites il faut les ajouter, l'oc est en cours, comme déjà précisé ça n'a pas été possible à date du NDA le timing était trop tendu, c'est pas comme si on (moi dès le premier post et un peu plus loin Damien) n'avait pas dis qu'on était désolés pour l'état du papier qui était encore en work in progress. Pour le SLI, je suis en train de fabriquer une seconde carte en bois :o

 

Message cité 1 fois
Message édité par Marc le 19-05-2016 à 08:50:58
n°9810869
Ys
ex UL
Posté le 19-05-2016 à 08:35:41  profilanswer
1Votes positifs
 

Marc a écrit :

Pour le SLI, je suis en train de fabriquer une seconde carte en bois :o


http://vignette4.wikia.nocookie.net/en.futurama/images/9/99/Bender-obsoletely-_fabulous.jpg/revision/latest?cb=20061026040717

n°9810874
neurotoxic
Posté le 19-05-2016 à 08:54:43  profilanswer
3Votes positifs
 

Pas mal, mais c'est très cher payé pour un si petit GPU ! Nvidia reste fidèle à son image qui visiblement est tout sauf surannée !

n°9810887
Zurkum
Posté le 19-05-2016 à 09:23:56  profilanswer
3Votes positifs
 

@Marc pour la carte demande à Huang, on le dit bon ébéniste :o

n°9810891
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-05-2016 à 09:29:32  profilanswer
4Votes positifs
 

Zurkum a écrit :

@Marc pour la carte demande à Huang, on le dit bon ébéniste :o


http://reho.st/self/39945d4d78763a8a5c9525484d815f191d0a0fd5.jpg

mood
Publicité
Posté le 19-05-2016 à 09:29:32  profilanswer
 

n°9810937
KrisKross
Posté le 19-05-2016 à 10:23:24  profilanswer
1Votes positifs
 

ravenloft a écrit :


Ce sont les slides officiels donc rien de cartomancie (regarde les autres slides fourni par videocardz elles se sont avérées bonnes)


Effectivement donc pour le 12 bits:
http://i.imgur.com/zAXoCHT.jpg
Reste qu'à l'heure actuelle, absolument aucune API grand public (que ce soit sous Android, Windows ou Linux) ne permette d'exploiter ce format. De toute façon, l'intérêt est plutôt pro...
 
Le test de computerbase.de rapporte que la GTX 1080 a effectivement le décodeur HEVC le plus rapide à l'heure actuelle (y compris devant SKL), en ligne avec leur 2x4K@120Hz (puisque ça atteint 250fps sur une séquence 4K seule). Les GTX 9[56]0 restent moins énergivores (81W contre 106W) mais en plafonnant à 110fps.
 
Dommage tout de même que ce test soit a priori en 8bits et pas 10 (vu le score des Nano/Fury).


Message édité par KrisKross le 19-05-2016 à 10:24:14
n°9810947
KrisKross
Posté le 19-05-2016 à 10:36:54  profilanswer
0Votes positifs
 

Aussi, un vieux dxvachecker sur cette GTX 1080, de notebookcheck:
http://www.notebookcheck.net/fileadmin/Notebooks/Sonstiges/Grafikkarten/NVidia/GTX1000/dxvachecker.png
 
OK pour HEVC 8&10 bits, mais aussi VP9 8 bits (comme attendu). Par contre, pas VP9_VLD_10bit_Profile2. La GTX 1080 est ce qu'il y a de mieux en terme de décodage mais n'est pas "future-proof".


Message édité par KrisKross le 19-05-2016 à 10:37:38
n°9810948
PitOnForum
thèse - antithèse - synthèse
Posté le 19-05-2016 à 10:36:56  profilanswer
0Votes positifs
 

Salut!  :hello:  
 
J'ai quelques interrogations:
 

PitOnForum a écrit :

le résultat à l'écran dépend de la source, du lecteur, de la carte graphique, de la connectique et de l'écran, sans parler des logiciels
 
bon,  
- je vois concernant la profondeur des couleurs que  
  l'encodage (= p.ex. l'enregistement vidéo et le streaming) serait limité à 10bit  
  et le décodage (= lecture vidéo) à 12bit

  quid p.ex. du traitement photo dans p.ex. une future version du logiciel Lightroom?  :??:  
- j'ai vu entrte-temps sur un slide de nVidia que le HDR sera de 1000 nit
- puis, concernant le spectre des couleurs, le gamut ITU-R BT.2020 ou REC.2020,  
  j'ai trouvé cet article qui en parle un peu:
  Nvidia GeForce GTX 1080 review - Pascal GPU Architecture  
  by Hilbert Hagedoorn on: 05/17/2016 02:46 PM
  http://www.guru3d.com/articles-pag [...] iew,2.html

Citation :

http://www.guru3d.com/index.php?ct=articles&action=file&id=21784
With Ultra HD Blu-ray just being released in Q1 2016 there will be a much welcomed feature, HDR. HDR will increase the strength of light in terms of brightness. High-dynamic-range rendering (HDRR or HDR rendering), also known as high-dynamic-range lighting, is the rendering of computer graphics scenes by using lighting calculations done in a larger dynamic range. This allows preservation of details that may be lost due to limiting contrast ratios. Video games and computer-generated movies and special effects benefit from this as it creates more realistic scenes than with the more simplistic lighting models used. With HDR you should remember three things: bright things can be really bright, dark things can be really dark, and details can be seen in both. High-dynamic-range will reproduce a greater dynamic range of luminosity than is possible with digital imaging. We measure this in Nits, and the number of Nits for UHD screens and monitors is going up. What's a nit? Candle brightness measured over one meter is 1 nits, the sun is 1.6000.000.000 nits, typical objects have 1~250 nits, current PC displays have 1 to 250 nits, and excellent HDTVs have 350 to 400 nits. A HDR OLED screen is capable of 500 nits and here it’ll get more important, new screens in 2016 will go to 1,000 nits. HDR offers high nits values to be used.  
 
We think HDR will be implemented in 2016 for PC gaming, Hollywood has already got end-to-end access content ready of course. As consumers start to demand higher-quality monitors, HDR technology is emerging to set an excitingly high bar for overall display quality. HDR panels are characterized by: Brightness between 600-1200 cd/m2 of luminance, with an industry goal to reach 2,000 contrast ratios that closely mirror human visual sensitivity to contrast (SMPTE 2084) And the Rec.2020 color gamut that can produce over 1 billion colors at 10 bits per color HDR can represent a greater range of luminance levels than can be achieved using more "traditional" methods, such as many real-world scenes containing very bright, direct sunlight to extreme shade, or very faint nebulae. HDR displays can be designed with the deep black depth of OLED (black is zero, the pixel is disabled), or the vivid brightness of local dimming LCD.

          apparemment, nVidia parle du gamut en terme de HDR
          pour nVidia BT.2020 ou REC.2020 et HDR c'est pareil
          or nous distinguons les deux notions: spectre des couleurs BT.2020 ou REC.2020 d'une part et HDR d'autre part
 
- quant aux spécificités de la connectique HDMI 2.0b:  
  http://www.hdfever.fr/wp-content/uploads/2013/11/HDMI-2.0.jpg
  http://www.hdfever.fr/2013/11/14/t [...] hdmi-2-0b/
 
 
alors quoi, cette nouvelle cartes nVidia Geforce GTX 1080 serait:
- dotée de connectique HDMI 2.0b, n'offrant pas plus de bande passante que le HDMI 2.0a?!  :??:
- dotée de connectique Display Port 1.2, "upgradable" ou "déverrouillable" par voie logicielle au niveau DP1.4?  :??:  
- à l'aise dans la définition UHD 4K
- capable d'afficher le spectre des couleurs super étendu BT.2020/REC.2020 (réellement 100%?)  :??:  
- capable d'encoder et décoder les couleurs sur une profondeur en 10bit et de les décoder en 12bit
  quid de la retouche photo dans p.ex. une future version de Lightroom, serait-elle de toute façon limitée à 10bit? :??:  
- capable d'atteindre un chroma 4:2:2, mais quid du 4:4:4?  :??:  
- HDR 1000nit, ce qui est très lumineux
- HFR 120i/s, mais pas en toutes circonstances, seulement en max. UHD 4K, max. 10bit et chroma < à 4:2:2?  :??:
 
=> donc, tout combiné, la carte pourrait:  
     - en écriture (enregistrement et streaming) atteindre:
       de l'UHD 4K, en Rec.2020 (quel spectre: sRGB ou Adobe RGB?), 10bit, 4:2:2 (pas en 4:4:4? :??:), à HDR 1000nit et 60i/s (pas en 120i/s? :??:)  
       tout cela via HDMI 2.0  :??:  
     - en écriture (enregistrement et streaming) atteindre:
       de l'UHD 4K, en Rec.2020, 10bit, 4:2:2 (pas en 4:4:4? :??:), à HDR 1000nit et 60i/s (pas en 120i/s? :??:)  
       tout cela uniquement via DP1.3 ou DP1.4  :??:  
     - en lecture seule atteindre:
       de l'UHD 4K, en Rec.2020, 12bit, 4:4:4, à HDR 1000nit et 60i/s
       tout cela uniquement via DP1.3 ou DP1.4  :??:  
     pour moi, ce n'est pas encore parfaitement clair  [:chewyy]  
     je voudrais être fixé là-dessus, à coup sûr, pas avec des "peut-être", "potentiellement"...
     si par exemple Hardware pouvait éclaircir tout cela sans équivoque, ce serait top  :jap:

          http://forum.hardware.fr/forum2.ph [...] =0#t881273
 
D'avance merci!  :jap:


Message édité par PitOnForum le 19-05-2016 à 10:52:48
n°9810950
phil758
Posté le 19-05-2016 à 10:37:09  profilanswer
0Votes positifs
 

jeanbon 2004 a écrit :

[quotemsg=9810575,235,51826]
 
Autre possibilité pour du CUDA pur par contre. Tenter un rendu GPU Iray avec la même scène sur les différentes cartes Nvidia dont la GTX 1080 à partir du logiciel gratuit téléchargeable DAZ3D avec moteur Iray inclu. J'avoue ne pas savoir me servir de ce logiciel mais il est gratuit et fait la même chose que d'autres logiciels pro.
 
A priori, dans aucune de ces situations, le test ne devrait poser problème (contrairement à DXO qui allie performances avec instabilité).


 
Les versions actuelles d'Iray ne supportent pas l'architecture Pascal apparemment. Une nouvelle version ajoutant le support de Pascal devrait sortir sous peu, surement vers la fin mai début juin lors du lancement commercial de la 1080.

n°9810958
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-05-2016 à 10:50:42  profilanswer
0Votes positifs
 

PitOnForum, c'est pas très clair ton message :o
 
Perso pour le HDR j'en sais rien, par contre tu confonds HDMI 2.0 Level B et HDMI 2.0b, et pour le DisplayPort si ce n'est pas certifié au-delà du 1.2 mais seulement "ready" c'est peut-être parce qu'il n'existe pas encore de certification DP 1.3/1.4 :??:

n°9810968
jeanbon 20​04
IPV4 rulz toujours
Posté le 19-05-2016 à 11:03:50  profilanswer
2Votes positifs
 

phil758 a écrit :


 
Les versions actuelles d'Iray ne supportent pas l'architecture Pascal apparemment. Une nouvelle version ajoutant le support de Pascal devrait sortir sous peu, surement vers la fin mai début juin lors du lancement commercial de la 1080.


Ah oui c'est vrai. Ils avaient déjà fait le coup pour Maxwell.
Donc un produit existant utilisant Iray devra être renouvelé entièrement, ou même on découvrira que le produit complètement compatible ne sortira que l'année prochaine. C'est idiot de la part de Nvidia de ne pas s'en tenir à un standard stable ou au moins avec une certaine rétrocompatibilité. Quand on met en concurrence Cuda et OpenCl il faudra bien se souvenir de cet aspect de Cuda.
Le parcours du combattant pour avoir des logiciels avec leur hardware, à jour compatibles entre eux, alors qu'ils supportent des solutions propriétaires, est un véritable calvaire au niveau professionnel. On dépense à tour de bras, continuellement, sans jamais avoir de solution satisfaisante.
 
Pour le test Luxmark 3.0 et/ou 3.1 ils sont déjà dispo ici (Luxmark 3.1):
http://hothardware.com/reviews/nvi [...] iew?page=5
 
Alors très grosse déception. La GTX 1080 est derrière la GTX 980 TI et la Titan X et ce malgré l'usage du test Luxmark 3.1 qui ne demande même pas des résultats ISO aux cartes Nvidia, et alors que les Fury X sont suivant le modèle utilisé, complexe à simple, sensiblement devant ou légèrement derrière probablement du fait de la mémoire réduite à 4Go de la Fury X. Or Luxmark 3.1 contrairement à 3.0 remet les cartes Nvidia en course en utilisant des résultats de calcul non conforme ISO (donc avec une précision au choix de la marque). Autrement, sous ISO, il faut diviser leur performance par 1.5 par rapport aux AMD.
 
On peut estimer qu'une GTX 1080 est sous OpenCL très proche d'une R9 390X si elle n'utilise pas de calculs ISO, en dessous sinon.
En gros la GTX 1080 ne vaut pas le coup pour un usage calcul parallèle !!! Une Titan X avec ses 12Go reste une largement meilleure affaire, même plus chère. Chez AMD la R9 390x 8Go conserve la palme de la rentabilité.
Les références des R9 390X se trouvent sur le site de tests Luxmark.


Message édité par jeanbon 2004 le 19-05-2016 à 12:20:05
n°9810974
PitOnForum
thèse - antithèse - synthèse
Posté le 19-05-2016 à 11:09:44  profilanswer
0Votes positifs
 

Marc a écrit :

PitOnForum, c'est pas très clair ton message :o

 

Perso pour le HDR j'en sais rien, par contre tu confonds HDMI 2.0 Level B et HDMI 2.0b, et pour le DisplayPort si ce n'est pas certifié au-delà du 1.2 mais seulement "ready" c'est peut-être parce qu'il n'existe pas encore de certification DP 1.3/1.4 :??:

 

Salut Marc :hello:

 

Oui, c'est encore confus et c'est un extrait d'une autre conversation. :sweat:

 

Je cherche à savoir et comprendre:
- qu'est-ce exactement que ce HDMI 2.0b et quelles différences avec HDM 2.0a?
- que sont les DisplayPort 1.3 et 1.4, et quelles sont les différences entre-eux?
- de quoi est capable cette nouvelle carte graphique:
  peut-elle atteindre combiné simultanément: UHD 4K, en 100% BT.2020, 12bit, 4:4:4, HDR 1000nit et HFR 120i/s?

 

D'avance merci :jap:


Message édité par PitOnForum le 19-05-2016 à 15:49:14
n°9811055
Ozar21
Posté le 19-05-2016 à 12:45:36  profilanswer
6Votes positifs
 

En tant que leadder du marché HDG des cartes graphiques, Nvidia se devait de faire beaucoup mieux qu'une simple augmentation de la fréquence (rendu possible grâce au 16 nm => sans aucun effort particulier d'optimisation) donnant l'illusion d'une amélioration des performances avec une nouvelle archi.
 
Nvidia marque un coup d'arrêt des futurs hits AAA développés en DX12 puisqu'ils sont pour la plupart développés en partenariat avec eux.
 
Les développeurs devront sous exploiter les possibilités offertes par DX12 afin de ne pas favoriser son concurrent direct : AMD.
 
C'est vraiment regrettable quand on voit DX12 capable d'améliorer les performances de 30% sans optimisation particulière et voir LE leadder du marché passer complétement à côté de ça !!!
 
En tant que gamer, on va se retrouver avec des jeux DX12 optimisés aux petits oignons pour AMD et trouver des performances un peu supérieur aux cartes d'NVidia et de l'autre des jeux "badgés" DX12 mais non optimisés DX12 pour favoriser les cartes Nvidia.
Et le joueur dans tout ça ? Est-ce que les fabricants/éditeurs y pensent réellement ?
 
C'est à n'y rien comprendre sauf peut être à chercher du côté du SLI qu'Nvidia ne veut pas perdre à cause de DX12 trop difficile à maintenir pour les dévs.
 
Nvidia se réjouit d'avance de voir des joueurs monter un SLI de GTX1080 (1600€ quand même) quand une simple prise en charge optimisé de DX12 aurait pu suffire à faire tourner des jeux AAA au moins en 1440p qui est maintenant la norme des "gros" gamers.
 
On est très loin de la 8800GTX qui avait révolutionné en son temps le monde des jeux vidéos avec sa prise en charge complète de directx 9.0c !

n°9811070
babaorum
Posté le 19-05-2016 à 13:04:22  profilanswer
6Votes positifs
 

Ozar21 a écrit :

En tant que leadder du marché HDG des cartes graphiques, Nvidia se devait de faire beaucoup mieux qu'une simple augmentation de la fréquence (rendu possible grâce au 16 nm => sans aucun effort particulier d'optimisation) donnant l'illusion d'une amélioration des performances avec une nouvelle archi.
 
Nvidia marque un coup d'arrêt des futurs hits AAA développés en DX12 puisqu'ils sont pour la plupart développés en partenariat avec eux.
 
Les développeurs devront sous exploiter les possibilités offertes par DX12 afin de ne pas favoriser son concurrent direct : AMD.
 
C'est vraiment regrettable quand on voit DX12 capable d'améliorer les performances de 30% sans optimisation particulière et voir LE leadder du marché passer complétement à côté de ça !!!
 
En tant que gamer, on va se retrouver avec des jeux DX12 optimisés aux petits oignons pour AMD et trouver des performances un peu supérieur aux cartes d'NVidia et de l'autre des jeux "badgés" DX12 mais non optimisés DX12 pour favoriser les cartes Nvidia.
Et le joueur dans tout ça ? Est-ce que les fabricants/éditeurs y pensent réellement ?
 
C'est à n'y rien comprendre sauf peut être à chercher du côté du SLI qu'Nvidia ne veut pas perdre à cause de DX12 trop difficile à maintenir pour les dévs.
 
Nvidia se réjouit d'avance de voir des joueurs monter un SLI de GTX1080 (1600€ quand même) quand une simple prise en charge optimisé de DX12 aurait pu suffire à faire tourner des jeux AAA au moins en 1440p qui est maintenant la norme des "gros" gamers.
 
On est très loin de la 8800GTX qui avait révolutionné en son temps le monde des jeux vidéos avec sa prise en charge complète de directx 9.0c !


 
Post pertinent, je plussoie [:inek:5]

n°9811151
everwind
Posté le 19-05-2016 à 14:10:51  profilanswer
3Votes positifs
 

En tant que joueur je serai ravi que DX12 passe aux oubliettes de l'histoire et que Vulkan le supplante.
 
Et il se trouve que Nvidia est le plus gros soutien de Vulkan.
 
Beaucoup détestaient microsoft parce qu'ils trouvaient que c'était lent ou alors gros mastodonte et préfèrent maintenant parce que microsoft est plus dynamique et community friendly, mais personnellement je déteste l'orientation vers plus de cloisonnement que prend Microsoft et DX12 semble prendre cette route à toute vitesse. Encore heureux qu'ils ne sont pas capable de vendre des consoles sinon qui sait ce que serait arrivé.
 
Et je dis ca alors que je suis le seul à mon boulot à avoir un PC Windows (que des macs autour de moi :( ).

n°9811155
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-05-2016 à 14:17:03  profilanswer
4Votes positifs
 

Oui enfin c'est un peu facile
 
- De mettre uniquement la montée en fréquence au bénéfice du 16nm, en excluant toute optimisation de NV en ce sens. On verra ce que la concurrence fait en 14nm de ce côté.
- De parler de gains de 30% sans optimisation particulière pour DX12 alors qu'il l'implémentation du Multi Engine doit être faite par les devs, que sous AotS c'est 15% sur Radeon et non 30%, et qu'on ne peu de toute façon pas savoir si les GMxxx / GPxxx en tireraient autant partis (ce n'est pas le cas si le taux d'utilisation des différents blocs est supérieur sans Multi Engine).
 
Il y a des points qui sont critiquables sans pour autant tomber dans la caricature.

n°9811162
ockiller
Posté le 19-05-2016 à 14:23:02  profilanswer
5Votes positifs
 

@Ozar21: Fondamentalement l'architecture des GPU n'a pas connu de véritable révolution depuis le G80, que des remaniements/ajouts. Le rendement par unité de calcul par exemple n'a pas beaucoup évolué non plus, le G92 avait déjà des unités qui moulinaient à plus de 1.8 GHz, et le rendement était bon car les groupes d'unités étaient petits et faciles à exploiter (ça coûte plus cher, mais on y revient avec le GP100). Fermi et Kepler étaient un peu moins efficaces côté rendement par unité de calcul, mais nVidia a peut-être anticipé sa nouvelle archi en 28 nm avec Maxwell pour occuper le terrain en attendant, et Maxwell revient au top question efficacité. En voyant le GP100 et le surcoût de ses features pas très utiles au jeu j'espérais que les Geforce Pascal seraient plus proches des Maxwell en terme d'archi, et je trouve que c'est une bonne chose que ça soit le cas. À part des features pour accélérer certains algos de rendu je ne vois pas quoi rajouter à cette archi (Maxwell en avait justement ajouté pas mal).
 
Le topo sur DX12 tu es un peu à côté de la plaque par contre. AMD profite beaucoup de DX12 pour deux raisons : le coût des draw call en baisse permet de relever significativement la limite CPU, et AMD en souffrait particulièrement face à nVidia qui avait des pilotes très optimisés, mais nVidia en profite aussi, moins vu qu'il y avait moins à gagner.
 
Et l'autre point c'est de pouvoir exécuter en même temps plusieurs files de commandes pour mieux remplir le GPU, et là encore ça permet probablement d'aider plus les Radeon que les Geforce car les Radeon semblaient être moins efficaces que les Geforce en vrai vu leurs chiffres théoriques. Mais on ne le saura pas car les Geforce sont moins flexibles de ce côté là et n'en tirent pas un avantage particulier.
 
Par contre, ça n'empêche en rien les développeurs d'exploiter DX12 comme ils veulent (ou comme ils peuvent... tous ne s'en sortent pas aussi bien qu'avec DX11...), c'est complètement indépendant, du coup je ne vois pas ce que ça pose comme problème.

n°9811169
Jehu
Posté le 19-05-2016 à 14:37:08  profilanswer
1Votes positifs
 

Marc a écrit :

Oui enfin c'est un peu facile
 
- De mettre uniquement la montée en fréquence au bénéfice du 16nm, en excluant toute optimisation de NV en ce sens. On verra ce que la concurrence fait en 14nm de ce côté.
- De parler de gains de 30% sans optimisation particulière pour DX12 alors qu'il l'implémentation du Multi Engine doit être faite par les devs, que sous AotS c'est 15% sur Radeon et non 30%, et qu'on ne peu de toute façon pas savoir si les GMxxx / GPxxx en tireraient autant partis (ce n'est pas le cas si le taux d'utilisation des différents blocs est supérieur sans Multi Engine).
 
Il y a des points qui sont critiquables sans pour autant tomber dans la caricature.


+1
Je pense que pas mal de personne voit la montée en fréquence comme une pédale sur laquelle on appuie avec juste des limites qui viennent de la chaleur, de la consommation, du process, du voltage ...
Alors que fréquence et architecture sont profondément liés.
Nvidia a conçu une architecture capable de monter en fréquence.

n°9811172
Jehu
Posté le 19-05-2016 à 14:38:37  profilanswer
0Votes positifs
 

Oups je corrige mes fautes

Jehu a écrit :

Marc a écrit :

Oui enfin c'est un peu facile
 
- De mettre uniquement la montée en fréquence au bénéfice du 16nm, en excluant toute optimisation de NV en ce sens. On verra ce que la concurrence fait en 14nm de ce côté.
- De parler de gains de 30% sans optimisation particulière pour DX12 alors qu'il l'implémentation du Multi Engine doit être faite par les devs, que sous AotS c'est 15% sur Radeon et non 30%, et qu'on ne peu de toute façon pas savoir si les GMxxx / GPxxx en tireraient autant partis (ce n'est pas le cas si le taux d'utilisation des différents blocs est supérieur sans Multi Engine).
 
Il y a des points qui sont critiquables sans pour autant tomber dans la caricature.


+1
Je pense que pas mal de personnes voient la montée en fréquence comme une pédale sur laquelle on appuie avec juste des limites qui viennent de la chaleur, de la consommation, du process, du voltage ...
Alors que fréquence et architecture sont profondément liées.
Nvidia a conçu une architecture capable de monter en fréquence.

n°9811179
saruhada
Legendary X58
Posté le 19-05-2016 à 14:43:42  profilanswer
2Votes positifs
 

D'un point de vue concret, quand on voit ce dont est capable un Skyrim bien moddé en terme de rendu (DirectX 9.0C) on se demande a quoi sert DX11 dans l'histoire...
Le problème c'est qu’apparemment DX12 semble fournir un niveau de qualité/rendu équivalent mais en consommant moins de ressource graphique.

 

En gros c'est de l'optimisation ?

 

Faudrait peut être que DX12 permette de mettre à genoux toutes les archis actuel, comme l'ont fait Farcry et Doom 3 à leur époque.
Là il y aurait un vrai challenge hardware et non pas juste une optimisation part la gravure.

 

C'est vrai que tout l’intérêt d'une 1080 repose sur le Display Port 1.4 et la VR (chose que seulement... 2% des Gamers utilisent ?).

 

En gros j'ai plus l'impression qu'NVIDIA a déjà un coup d'avance et vend les 1080 maintenant alors qu'elle auraient été parfaite il y a 2 ans...
Il ont suffisamment baratiné pour que la norme soit a peine 20% de gain dans l'absolue, attention, faut pas trop se fouler les gars !

 

Plus sa va plus je trouve qu'AMD prend de vrais risques pour faire bouger les choses.

Message cité 1 fois
Message édité par saruhada le 19-05-2016 à 14:48:08

---------------
Achats & Ventes
n°9811207
B00lay Ier
Posté le 19-05-2016 à 15:03:08  profilanswer
0Votes positifs
 

saruhada a écrit :

D'un point de vue concret, quand on voit ce dont est capable un Skyrim bien moddé en terme de rendu (DirectX 9.0C) on se demande a quoi sert DX11 dans l'histoire...
Le problème c'est qu’apparemment DX12 semble fournir un niveau de qualité/rendu équivalent mais en consommant moins de ressource graphique.


Ca fait depuis DX9 que le point recherché n'est plus la qualité de rendu mais sa "propreté"... du coup, beaucoup de tricks ont été remplacés par des shaders plus rapides à mettre en oeuvre et plus réalistes (-> moins de bugs), mais aussi beaucoup plus coûteux à l'exécution que du travail artistique.


Message édité par B00lay Ier le 19-05-2016 à 18:01:53
n°9811255
ockiller
Posté le 19-05-2016 à 15:38:39  profilanswer
0Votes positifs
 

saruhada a écrit :

D'un point de vue concret, quand on voit ce dont est capable un Skyrim bien moddé en terme de rendu (DirectX 9.0C) on se demande a quoi sert DX11 dans l'histoire...
Le problème c'est qu'apparemment DX12 semble fournir un niveau de qualité/rendu équivalent mais en consommant moins de ressource graphique.
 
En gros c'est de l'optimisation ?


On peut voir ça comme ça. Les API ne sont là que pour exposer les possibilités des GPU, il fallait une bonne couche d'abstraction dans les années 90 pour donner du sens aux affreuses machines à état qu'étaient les GPU, mais depuis qu'ils sont devenus très programmables et génériques, ces abstractions étaient devenues trop rigides et déconnectées du fonctionnement des GPU modernes. On peut probablement arriver au même rendu avec DX11 qu'avec DX12, et en revenant à DX10, DX9c on se coupe quand même de certaines features avancées (tessellation, écritures aléatoires dans des textures/buffers, ...), ça peut faire des différences ça et là mais on peut très bien faire du physically based rendering, de l'ambient occlusion, etc. avec DX9c. Jusqu'à DX11 on a juste ajouté de nouvelles choses et des opportunités d'en faire certaines autres différemment, et avec DX12 on change surtout la manière de commander le GPU.


Message édité par ockiller le 19-05-2016 à 15:40:44
n°9811958
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2016 à 00:18:51  profilanswer
3Votes positifs
 

Nous avons apporté progressivement dans la journée de nombreuses mises à jour à notre dossier :
 
- page Async Compute : analyse plus poussée et des détails sur la préemption
- page SLI / fast sync / vidéo complète
- page protocole complète (avec remerciements à EA pour son aide lors de la réalisation de ce dossier)
- ajout des photos IR avec et sans backplate
- une page massive pour réexpliquer GPU Boost
- une page dédiée à l'overclocking avec des performances sur l'ensemble des jeux testés et une analyse des fréquences
 
Voilà c'est le dossier tel que j'aurai bien aimé pouvoir le publier mardi après-midi :) mais malheureusement le timing était vraiment trop serré pour publier dans les temps quelque chose d'aussi complet.
 
La 4K ne devrait plus tarder et sera en principe la dernière mise à jour.

Message cité 1 fois
Message édité par tridam le 20-05-2016 à 00:19:12
n°9811975
Le Profana​teur
Passéiste désincarné
Posté le 20-05-2016 à 00:37:07  profilanswer
0Votes positifs
 

Merci Damien :jap:


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9811982
Profil sup​primé
Posté le 20-05-2016 à 01:04:21  answer
0Votes positifs
 


 
Je te reposte ça, pitetre je lis mal!!!!
Donc comme toujours pour la personne qui n'OC/Mod pas ça carte les fréquences promises et attendues, c'est pitetre pas la mème chose!!!
 
http://www.hardware.fr/articles/91 [...] ilite.html
 
Du reste c'est pas la peine de mal le prendre je répète!!!!!!!
 
De deux, qu'est que j'en sais que vous avez pas se deuxième carte, faut pitetre l'écrire quelque part!!!!!

n°9811987
bgx
reviens brunette!
Posté le 20-05-2016 à 01:14:51  profilanswer
1Votes positifs
 

"il doit donc rester sous les 37 °C. Ensuite, tous les 5 °C, il redescend d'un cran supplémentaire. Avec un système de refroidissement calibré pour stabiliser la fréquence GPU à 82 °C, notre échantillon de GTX 180 Founders Edition ne pourra donc jamais profiter de sa fréquence maximale de 1886 MHz et sera toujours limité au mieux à 1797 ou 1785 MHz."
 
donc en gros, or "OC" (qui est pas vraiment de l'OC mais plutot un changement des regles de management), les 1866 est juste du pipo.
1785 est honnete, mais ou est l'interet d'annoncé des frequences qui ne seront jamais atteintes, sauf sur les premieres 2secondes d'un bench? Ca me fait penser au frequence des SOC des telephones portables qui n'atteingent jamais ces frequences la...

n°9811991
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2016 à 01:18:35  profilanswer
1Votes positifs
 

Nvidia annonce 1733 MHz comme fréquence turbo ! Le reste c'est en fait du bonus, il ne faut pas l'oublier non plus.

n°9811995
bgx
reviens brunette!
Posté le 20-05-2016 à 01:27:39  profilanswer
1Votes positifs
 

ok, m'enfin "2Ghz a porté de click",  vous avez reussi a stabiliser à 1962 Mhz, donc c'est pas vraiment a porté de click.
 
Les cartes customs risquent d'etre moins cher (parcequ'elle coute la peau du cul, meme si elle est objectivement tres puissante) et plus rapide (car mieux refroidies) que la founder edition. J'avoue ne pas comprendre l'interet de la carte, a part pour l'avoir 2 semaines plus tot qur les AIB...

n°9812002
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2016 à 01:55:18  profilanswer
2Votes positifs
 

Y a un moment où il faut arrêter la mauvaise foi... On l'a stabilisée à 2070 MHz. Après chauffe de qqs minutes dans les jeux la fréquence maintenue dans le jeu le moins lourd était de 1974 MHz.

n°9812011
PitOnForum
thèse - antithèse - synthèse
Posté le 20-05-2016 à 02:37:01  profilanswer
1Votes positifs
 

tridam a écrit :

Nous avons apporté progressivement dans la journée de nombreuses mises à jour à notre dossier :

 

- page Async Compute : analyse plus poussée et des détails sur la préemption
- page SLI / fast sync / vidéo complète
- page protocole complète (avec remerciements à EA pour son aide lors de la réalisation de ce dossier)
- ajout des photos IR avec et sans backplate
- une page massive pour réexpliquer GPU Boost
- une page dédiée à l'overclocking avec des performances sur l'ensemble des jeux testés et une analyse des fréquences

 

Voilà c'est le dossier tel que j'aurai bien aimé pouvoir le publier mardi après-midi :) mais malheureusement le timing était vraiment trop serré pour publier dans les temps quelque chose d'aussi complet.

 

La 4K ne devrait plus tarder et sera en principe la dernière mise à jour.


j'espère que vous parlerai aussi des capacités de la carte en matière de couleurs
et qu'on sache à coup sûr si la carte est bien capable de fournir de l'UHD 4K, 100% BT.2020, 12bit, 4:4:4, HDR 1000nit, HFR 120i/s

 

:jap:

Message cité 1 fois
Message édité par PitOnForum le 20-05-2016 à 02:38:39
n°9812015
bgx
reviens brunette!
Posté le 20-05-2016 à 03:03:50  profilanswer
1Votes positifs
 

je comprends pas trop. vous faites un super boulot pour montrer le comportement exacte de la carte, faut en etre fier.
 
1962 Mhz soutenable reste globalement excellent et avec des perfs de haut vol, c'est juste pas 2Ghz easy.

n°9812024
le mougeon
Posté le 20-05-2016 à 06:10:26  profilanswer
0Votes positifs
 

bgx a écrit :

je comprends pas trop. vous faites un super boulot pour montrer le comportement exacte de la carte, faut en etre fier.
 
1962 Mhz soutenable reste globalement excellent et avec des perfs de haut vol, c'est juste pas 2Ghz easy.


 
Certes, mais sur certains modèles, on parle d'une fréquence pouvant tenir 2.4ghz  :love:  
Est-ce vrai après ?

n°9812055
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-05-2016 à 08:26:32  profilanswer
1Votes positifs
 

PitOnForum a écrit :


j'espère que vous parlerai aussi des capacités de la carte en matière de couleurs
et qu'on sache à coup sûr si la carte est bien capable de fournir de l'UHD 4K, 100% BT.2020, 12bit, 4:4:4, HDR 1000nit, HFR 120i/s

 

:jap:

Je ne pense pas qu'il y aura plus de détail que sur la page dédiée, d'autant que le support logiciel n'est pas encore là.

 
bgx a écrit :

je comprends pas trop. vous faites un super boulot pour montrer le comportement exacte de la carte, faut en etre fier.

 

1962 Mhz soutenable reste globalement excellent et avec des perfs de haut vol, c'est juste pas 2Ghz easy.

 

1974 MHz, en arrondi arithmétique ça fait 2 GHz :D
En Vsync On ça doit dépasser les 2000 MHz maintenus :o Après ce n'est qu'un titre, ce n'est pas marqué maintenus sur la durée quelle que soit la T° dedans non plus ;)

 
le mougeon a écrit :

 

Certes, mais sur certains modèles, on parle d'une fréquence pouvant tenir 2.4ghz  :love:
Est-ce vrai après ?

 

Dans tes rêves seulement, désolé :D

 

Beaucoup de ! :o Je ne vois toujours pas le rapport avec la conversation qui précédait et ou tu veux en venir exactement. Pour la seconde carte, il suffit de demander plutôt que de se plaindre de son absence ;) Enfin dans tous les cas vu le timing serré c'était plutôt une bonne chose de ne pas avoir à traiter le SLI en plus du reste.


Message édité par Marc le 20-05-2016 à 08:27:34
n°9812093
Rayaki
Posté le 20-05-2016 à 09:32:31  profilanswer
0Votes positifs
 

De toutes façons, on sait très bien que tu n'aimes pas le sli :o :p
 
*sors d'un sli de 970 et attend le sli de 1070*

n°9812106
Jehu
Posté le 20-05-2016 à 09:46:14  profilanswer
0Votes positifs
 

tridam a écrit :

Nous avons apporté progressivement dans la journée de nombreuses mises à jour à notre dossier :
 
- page Async Compute : analyse plus poussée et des détails sur la préemption
- page SLI / fast sync / vidéo complète
- page protocole complète (avec remerciements à EA pour son aide lors de la réalisation de ce dossier)
- ajout des photos IR avec et sans backplate
- une page massive pour réexpliquer GPU Boost
- une page dédiée à l'overclocking avec des performances sur l'ensemble des jeux testés et une analyse des fréquences
 
Voilà c'est le dossier tel que j'aurai bien aimé pouvoir le publier mardi après-midi :) mais malheureusement le timing était vraiment trop serré pour publier dans les temps quelque chose d'aussi complet.
 
La 4K ne devrait plus tarder et sera en principe la dernière mise à jour.


Superbe complément sur gpu boost, la variabilité des échantillons et l'overclocking : très complet et clair, je n'ai pas trouvé aussi bien dans les tests anglophones. Bravo!


Message édité par Jehu le 20-05-2016 à 09:47:54
n°9812109
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-05-2016 à 09:47:41  profilanswer
2Votes positifs
 

Rayaki a écrit :

De toutes façons, on sait très bien que tu n'aimes pas le sli :o :p


 
J'avoue que c'est pas mon truc, entre la frame de latence supplémentaire et l'exploitation plus ou moins bonne selon les jeux :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
La GTX 965M est elle suffisante pour faire du montage vidéo?Une 1080 ou une 1070 avec cette config ?
[HFR] Actu : Concours : réponses et gagnants !Carte graphique nvidia GTX 460
[HFR] Actu : Le rachat de SanDisk par WD finaliséNvidia shield tv problème geforce now jeux fr
GTX 970 avec cette vieille config?[HFR] Actu : X99A Gaming Pro Carbon chez MSI
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR