Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1754 connectés 

 



 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  52  53  54  ..  1033  1034  1035  1036  1037  1038
Auteur Sujet :

[Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)

n°9783511
Neji Hyuga
Modérateur
:grut:
Posté le 15-04-2016 à 16:15:50  profilanswer
 

Reprise du message précédent :
Loin de moi l'idée de relancer le débat stérile de la conso, mais de la génération GTX 2XX/HD 48XX à Hawaii/Big Kepler, ça donne ceci :
 
http://reho.st/thumb/self/4563a07d [...] f58815.jpg
 
Pas de manipulation de données: une simple épuration par graphe pour ne garder que les HDG (hors bi GPUs) en face à face.
 
Évidemment ça ne tient pas compte du rapport perf/watt puisque ce sont juste les données de conso brute, mais on voit bien quand même que jusqu'à Kepler les HDG ATI/AMD étaient moins énergivores (je n'ai pas dit plus efficaces, même si c'est vrai dans certains cas).
 
Pour retrouver un grand écart de conso du type 980 vs 390X en défaveur d'ATI, il faut probablement remonter à la 2900XT (voir XTX, qui de mémoire n'est jamais officiellement sortie).


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
mood
Publicité
Posté le 15-04-2016 à 16:15:50  profilanswer
 

n°9783523
Badmacks
Posté le 15-04-2016 à 16:36:25  profilanswer
 

Oui je me souvient bien de ces graphiques... Faut se souvenir aussi, que nvidia avait un gros retard a rattrapper... Lorsqu il a pû sortir la 480, il faut savoir que le HdG amd, enfin ati a cette epoque, c'etait la 5970... et elle elle dépotait nivo perf... Pour la conso chauffe c'était normal car 2 gpu... Mais nvidia n'avait pas d'autre choix que de sortir un modele mono gpu ultra perf... Idem lors de la sortie de la 580... Le probleme de la conso/chauffe ne se posait pas vraiment car on était habitué :D Et c'etait aussi un "gage" de perf, si on peut dire :whistle:  :sol:  
 
Amd n'a pas dû savoir reagir (il s'est reposé sur ses lauriers), car il a juste sorti des 6850/6870/6970 sur la continuité de leur archi, contrairement a nvidia qui proposait des changement d'archi plus en profondeur... Et lorsque nvidia a sorti la 680, il est rester sur un gain de perf, et a eu le temps de travailler sur la conso/chauffe...

Message cité 1 fois
Message édité par Badmacks le 15-04-2016 à 17:16:30
n°9783562
Activation
21:9 kill Surround Gaming
Posté le 15-04-2016 à 17:20:10  profilanswer
 

ssx99harlock a écrit :


 
C'est 'dredi c'est permis  ;)  
 
 


 

ssx99harlock a écrit :


 
Je troll oui et de toute bonne fois car je n'ai plus eu d'AMD depuis ma 5870. Celà dis je ne me souviens pas de problèmes de drivers en particulier à cette époque.  
Juste que le rapport prix/perf de la 5870 me semblait très bon à l'époque.

 


 
Ça c'est car t as pas du comme moi t essayer au eyefinity mon enfant  :o
 
Avec la connexion displayport au petit bonheur la chance
Le pb avec les adaptateur actif
Les pbs de non baisse de frequence en idle du fait que t etais en eyefinity
Le reglage de bezel qu'à du facile être dispo que 4mois apres la sortie des cartes
Les bugs de reglage de reso en multiscreen
Le cross à chier
 
Mon dieu qu est ce que je m en suit mordu les doigts à l epoque de payer une fortune 2 hd5870eye6
 
Plus jamais  [:farf_13:2]

Message cité 1 fois
Message édité par Activation le 15-04-2016 à 17:21:40
n°9783564
Zurkum
Posté le 15-04-2016 à 17:23:05  profilanswer
 

Un Cross et eyefinity c'est du masochisme  :O
Sinon il me semble que le surround ça ne soit soit pas la panacée non plus  :D

n°9783566
Neji Hyuga
Modérateur
:grut:
Posté le 15-04-2016 à 17:24:16  profilanswer
 

Badmacks a écrit :

Le probleme de la conso/chauffe ne se posait pas vraiment car on était habitué :D


 
Le GF100 s'est quand même un peu fait plomber à cause du bruit induit par sa conso et les 580 qui consomment encore plus doivent en partie leur salut à une grosse chambre à vapeur qui limitait un peu les dégâts à ce niveau.
 

Badmacks a écrit :


Amd n'a pas dû savoir reagir (il s'est reposé sur ses lauriers), car il a juste sorti des 6850/6870/6970 sur la continuité de leur archi, contrairement a nvidia qui proposait des changement d'archi plus en profondeur... Et lorsque nvidia a sorti la 680, il est rester sur un gain de perf, et a eu le temps de travailler sur la conso/chauffe...


 
Le concurrent direct de Cayman c'était le GF110, pas Kepler, question remaniement d'archi c'était aussi fichtrement minimaliste (en gros ce que les 480 auraient dû être dès le départ) :o
 
La vraie refonte d'architecture (Kepler, donc) est née de ce "mur thermique" des 300W et c'est bien Nvidia qui se l'est mangé le premier (en mono GPU, j'entends).
 
Enfin, c'est un peu HS tout ça, désolé :o


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9783573
Activation
21:9 kill Surround Gaming
Posté le 15-04-2016 à 17:31:39  profilanswer
 

Zurkum a écrit :

Un Cross et eyefinity c'est du masochisme  :O  
Sinon il me semble que le surround ça ne soit soit pas la panacée non plus  :D


 
je venais d'un boitier matrox triplehead2go
AMD te vendait ça comme une réalitié au lancement des HD5xxx
 
belle enculade car ça n'a vraiment marché que sur la serie 6xxx merci à tout les mougeons alpha testeur payant de la serie HD5xxx
 
ma derniere carte a été chez amd une chtit hd6870 (qui servait dans mon htpc à une époque)
 
et longtemps galéré avec mon cross hd5870 avec tout son ramassi d'emmerde, qu'à un moment j'ai remplacé par une seul gtx580 custom
la monogpu gtx580 faisait tout mieux que le cross de dauve hd5870
le cross plus jamais
 
le sli jamais testé, ... le sli actuel pas envie, par contre si jamais y a une annonce d'un changement majeur du multi gpu dans les jeux sur pascal, serait pret à tenter juste histoire de voir ce que fait le concurren (NV hein :o  pas le crossmerde, même si le sli actuel ça doit être autant de la merde)

Message cité 1 fois
Message édité par Activation le 15-04-2016 à 17:32:39
n°9783577
Zurkum
Posté le 15-04-2016 à 17:37:18  profilanswer
 

Le scaling est moins bon mais avec DX12 de toutes manières tu utilises deux GPU différents, pas de problèmes  :O

n°9783591
Badmacks
Posté le 15-04-2016 à 18:02:10  profilanswer
 

Activation a écrit :


...
Plus jamais  [:farf_13:2]


 

Zurkum a écrit :

Un Cross et eyefinity c'est du masochisme  :O  
....


PTDR ^^ J'ai bien ris mais le pire c'est que c'est vrai :lol:
 
 
@Neji Hyuga
Toutafay ;) Meme si je n'etais pas trop concerné :ange: J'avais suffisamment a faire avec mon cf5850 :D
 
J'ai gouté au sli de 2x8800GTSv2, et a un cf de 2x5850, j'ai eu la chance de tomber que sur des jeux compatible...  
Ce que je retiens c'est que nvidia est plus compatible avec tous les genre de materiels, mais maintenant je prefere une seule cg bien costaude... C'est compatible avec tout, et tu n'as pas trop a te casser la tete


Message édité par Badmacks le 15-04-2016 à 18:10:37
n°9783639
nicolas_ya​d
Spoons made me fat
Posté le 15-04-2016 à 19:17:43  profilanswer
 

Activation a écrit :

...
le sli jamais testé, ... le sli actuel pas envie, par contre si jamais y a une annonce d'un changement majeur du multi gpu dans les jeux sur pascal, serait pret à tenter juste histoire de voir ce que fait le concurren (NV hein :o  pas le crossmerde, même si le sli actuel ça doit être autant de la merde)


 
J'ai l'impression que la grande époque du sli est passée.
 
Testé avec deux 8800gt ça marchait pas mal, puis j'ai eu une gtx 295, il m'a jamais semblé galérer avec à l'époque.  
Après, SLI de gtx 670, c'est là que j'ai découvert que des titres AAA pouvaient ne pas exploiter le multi gpu, et que 2*2Go de vram c'était pas assez pour du 1080p.
'ai fait un bref passage par un sli de gtx 970, pour me rétracter et utiliser un combo gtx 970 + écran gsync 1080p. C'est plus fiable et plus confortable au final :o
 
Je crois que "l'avenir" est plus dans un gros mono gpu et un écran adaptive sync, plutôt que dans le multi gpu (hormis résolutions énormes).  

n°9783661
Badmacks
Posté le 15-04-2016 à 19:42:38  profilanswer
 

Maintenant c'est programmé a la va-comme-jte-pousse faut dire aussi :/
 
Genre, pour aider un pov gars embété avec son portable dans le fofo, j'ai decouvert que le dernier 3dmou beuguait chez moi... apres maintes recherches sur gogol, j entreprend de zieuter dans mon bios, et active 1 ou 2 option d'eco d energie de mon cpu... le test fire strike passe enfin ^^ super... je go faire les 2 autres, rien a faire ca deconne... 1 fini en black screen , l'autre me retourne des score 2x + faible que les autres testeurs...  
re recherche sur gogol, et me souvenant entre temps que javais eu aucun prob avec la 1ere version du dernier 3d mou, je go la DL...
 
MIRACLE, des vrais scores sans bug.... :pt1cable:  
 

mood
Publicité
Posté le 15-04-2016 à 19:42:38  profilanswer
 

n°9783696
Le Profana​teur
Passéiste désincarné
Posté le 15-04-2016 à 20:20:48  profilanswer
 

Vendredi + vacances, ça ne pardonne pas [:tinostar]


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9783865
Activation
21:9 kill Surround Gaming
Posté le 15-04-2016 à 23:17:22  profilanswer
 

nicolas_yad a écrit :


 
J'ai l'impression que la grande époque du sli est passée.
 
Testé avec deux 8800gt ça marchait pas mal, puis j'ai eu une gtx 295, il m'a jamais semblé galérer avec à l'époque.  
Après, SLI de gtx 670, c'est là que j'ai découvert que des titres AAA pouvaient ne pas exploiter le multi gpu, et que 2*2Go de vram c'était pas assez pour du 1080p.
'ai fait un bref passage par un sli de gtx 970, pour me rétracter et utiliser un combo gtx 970 + écran gsync 1080p. C'est plus fiable et plus confortable au final :o
 
Je crois que "l'avenir" est plus dans un gros mono gpu et un écran adaptive sync, plutôt que dans le multi gpu (hormis résolutions énormes).  


 
Moueh l adaptative sync l idée était bonne mais la realité pas du tout
 
Des ecran qui coute 2 à 3 fois plus cher alors que sur le papier ça devait occasionné ptet un surcout de 150 euros
 
Et après au lieu que l ecran devait se synchro sur une frequence basse, on se retrouve à l'inverse sur des ecrans qui veulent se synchro sur drs frequence sup à u0hz alors qu on avait justement du mal à atteindre les 60hz
 
Bref d une idée genial sur le papier on marche sur la tête sur le produit commercialisé ou au final ça te revient moins cher d acheter un gpu 2x plus puissant pour un ecran sans gsync ou freesync
Alors que c'était supposé te resoudre des pbs pour justement en cas de gpu pas assé veloce
 
Sinon un truc que j'aimerais voir débouler sur les jeux PC c'est la "resolution adaptative"
Bref pour conserver un framerate de 60fps si la scene du jeu devient trop charger pour la reso en cours, le temps de cette surcharge le jeu reduit en temps reel la reso juste le temps de passer ce pique de charge et après revient à la reso par defaut quand la charge se reduit

Message cité 2 fois
Message édité par Activation le 15-04-2016 à 23:18:22
n°9783882
booker59
Posté le 15-04-2016 à 23:56:28  profilanswer
 

Activation a écrit :

 

Moueh l adaptative sync l idée était bonne mais la realité pas du tout

 

Des ecran qui coute 2 à 3 fois plus cher alors que sur le papier ça devait occasionné ptet un surcout de 150 euros

 

Et après au lieu que l ecran devait se synchro sur une frequence basse, on se retrouve à l'inverse sur des ecrans qui veulent se synchro sur drs frequence sup à u0hz alors qu on avait justement du mal à atteindre les 60hz

 

Bref d une idée genial sur le papier on marche sur la tête sur le produit commercialisé ou au final ça te revient moins cher d acheter un gpu 2x plus puissant pour un ecran sans gsync ou freesync
Alors que c'était supposé te resoudre des pbs pour justement en cas de gpu pas assé veloce

 

Sinon un truc que j'aimerais voir débouler sur les jeux PC c'est la "resolution adaptative"
Bref pour conserver un framerate de 60fps si la scene du jeu devient trop charger pour la reso en cours, le temps de cette surcharge le jeu reduit en temps reel la reso juste le temps de passer ce pique de charge et après revient à la reso par defaut quand la charge se reduit

 

La résoltion adaptative c'est pas mal utilisé sur console, sur the division sur xbox one les objets qui ne sont pas dans le champ direct du perso sont rendus dans des réso bien plus basses, même technique sur quantum break, last of us à l'époque de la ps3, digital foundry font de très bonnes vidéos là dessus.

 

Avec DX12 et amd sur xbox one, on peut réver d'une optimisation hardware poussé avec les jeux sur DX12, si Pascal s'y met vraiment pourquoi pas (aucune news sur les api bas niveau par Nvidia) on verra ce que ça donne et la différence de perf en jeux va peut être se jouer grâce aux api bas niveau


Message édité par booker59 le 16-04-2016 à 00:01:12

---------------
VENTE HARDWARE: http://forum.hardware.fr/hfr/Achat [...] 8755_1.htm
n°9783886
nicolas_ya​d
Spoons made me fat
Posté le 16-04-2016 à 00:09:33  profilanswer
 

Activation a écrit :


 
Moueh l adaptative sync l idée était bonne mais la realité pas du tout
 
Des ecran qui coute 2 à 3 fois plus cher alors que sur le papier ça devait occasionné ptet un surcout de 150 euros
 
 
Bref d une idée genial sur le papier on marche sur la tête sur le produit commercialisé ou au final ça te revient moins cher d acheter un gpu 2x plus puissant pour un ecran sans gsync ou freesync
Alors que c'était supposé te resoudre des pbs pour justement en cas de gpu pas assé veloce


 
C'est chaud pour comprendre ce que tu dis avec les fautes :o  
 
Mais au contraire je trouve que ça permet d'utiliser un gpu moins puissant pour avoir un confort de haut de gamme.  
 
Grâce à la synchro adaptative on ressent beaucoup moins les baisses de framerate tant que on reste au dessus de 30 fps.  
Donc au lieu d'acheter un gpu en visant 80-90 fps de moyenne pour rester à 60 lors des chutes de framerate, on peut acheter un gpu et jouer à 60-65 fps et avoir beaucoup moins de désagréments si on a une baisse à 35 fps.
 
Après oui les écrans sont plus cher,  mais tu changes d'écran aussi souvent que de cg? :??:
Personnellement j'ai eu 4 écrans depuis mon passage au tft en 2003. Question cartes graphiques, c'est une autre histoire...  

n°9783946
clarkenthd
Posté le 16-04-2016 à 08:26:47  profilanswer
 

Badmacks a écrit :


Genre, pour aider un pov gars embété avec son portable dans le fofo, j'ai decouvert que le dernier 3dmou beuguait chez moi... apres maintes recherches sur gogol, j entreprend de zieuter dans mon bios, et active 1 ou 2 option d'eco d energie de mon cpu... le test fire strike passe enfin ^^ super... je go faire les 2 autres, rien a faire ca deconne... 1 fini en black screen , l'autre me retourne des score 2x + faible que les autres testeurs...  
re recherche sur gogol, et me souvenant entre temps que javais eu aucun prob avec la 1ere version du dernier 3d mou, je go la DL...


 
Rien compris   [:mammago:3]  
Du coup je vais te dire : "C'est pas faux"  [:lefab:5]  

n°9783982
Activation
21:9 kill Surround Gaming
Posté le 16-04-2016 à 10:17:58  profilanswer
 

clarkenthd a écrit :


 
Rien compris   [:mammago:3]  
Du coup je vais te dire : "C'est pas faux"  [:lefab:5]  


 
 
https://www.youtube.com/watch?v=C0k5ljAjiUI
 
désolé  [:iryngael]
 
 
:D enfin si j'ai compris que les gens qui bench bench avec la version du benchmark qui les arrange pour dire "j ai la plus grosse que toi" :o


Message édité par Activation le 16-04-2016 à 10:20:40
n°9784344
Badmacks
Posté le 16-04-2016 à 19:33:53  profilanswer
 

je constate surtout quil ne faut pas en demander trop a certains niveau lecture :o  
bref comme ca cause plutot pour pas dire grand chose je repasserai dans 1 mois ou 2


Message édité par Badmacks le 16-04-2016 à 19:34:49
n°9784346
Le Profana​teur
Passéiste désincarné
Posté le 16-04-2016 à 19:35:22  profilanswer
 

Comme pour ton écriture toujours approximative ? :d


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9784398
Activation
21:9 kill Surround Gaming
Posté le 16-04-2016 à 21:19:02  profilanswer
 

Ravenloft tu m explique en quoi ton super ecran genial à besoin de gsync si c est pour juste te caler sur du 30Hz
 
Y a un truc genial qui existe sans que t ai un ecran gqync peau du fion... Ça s appelle le vsync adaptatif si ça tiend pas le choc en 60fps ça se calera en 30fps
 
Si ton super ecran gsync est pas foutu de se synchro en 31 - 32 - 33.... 59
C'est du pipo alors
 
Et sinon tu me la montre l option genial qui apparemment existe depuis 20 ans sur PC  
Un jeu n a pas une charge constante
Donc selon ta logique je dois allez toute les 10 secondes dans le menu option pour augmenter les options quand la cg est à peine à 80 %  de charge par exemple
Pareil allez y baisser les options dès que la cg est dans une scene ou le gpu meme à 100 %  de charge ne peut pas faire tout le taff
 
Te parle d'un truc automatique qui s adapte seul en fonction du besoin et délivre le meilleur à chaque instant par rapport au maintient d un framerate imposé de 60fps
 
Bref conserver la fluidité qui a rogner sur la définition
 
Tu la vois ou la limitation d une console là
 
Donc ton pc est si puissant qu il est foutu de proposer le même automatisme que certains jeux sur consoles
Donc si j ai pigé qui peut le plus peut pas le moins ... Wouah
J ai donc obligation de toujours mettre les options un cran en dessous en considérant le pis aller
Et ta solution c'est :  achete un ecran gsync
Sauf que ton ecran gsync ça résout pas ma volonté de conserver 60fps
Ça resout juste tes pb de dechirement d image car perte de synchro
 
J en conviens que tu prefere toujours être en reso native qui a rogner sur le framerate et ton gsync fera le taff (avec des pallié  :o )
Moi préfère rogner sur la resolution "seulement quand necessaire" mais pas sur le framerate
 
Ton gsync me sert à rien


Message édité par Activation le 16-04-2016 à 21:31:13
n°9784426
tigrou0007
Posté le 16-04-2016 à 22:29:54  profilanswer
 

Bonjour. Est ce que ca vaut encore la peine d'acheter une 970 sachant que Pascal montre le bout de son nez pour la fin de cette année ?

n°9784428
- gab
Posté le 16-04-2016 à 22:33:45  profilanswer
 

C'est plutôt prévu pour cet été. Donc non, inutile de se précipiter sur Maxwell.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9784459
Zurkum
Posté le 16-04-2016 à 23:48:24  profilanswer
 

C'est marrant ce topal, tout ce HS ça me rapelle un certains topal Fiji ( sans vouloir faire l'oiseau de malheur  :O )

n°9784470
nicolas_ya​d
Spoons made me fat
Posté le 17-04-2016 à 00:20:42  profilanswer
 

@activation: Tu n'as visiblement pas du tout compris comment fonctionne gsync, tu devrais lire les articles faits sur ce site pour en savoir plus. :spamafote:  
 
@zurkum: C'est vrai, désolé pour le hs, mais c'est une période de disette :d  
 

n°9784488
everwind
Posté le 17-04-2016 à 01:30:19  profilanswer
 

Zurkum a écrit :

C'est marrant ce topal, tout ce HS ça me rapelle un certains topal Fiji ( sans vouloir faire l'oiseau de malheur  :O )


Je me souviens, des centaines de pages de spéculation pour ce qui devait être le grand retour d'AMD et à la fin 2 cartes au rapport qualité prix complètement inadapté, et quelques rares acheteurs qui se battent en duel (et renvoient leurs cartes à cause du bruit) :(
 
C'était triste franchement, j'espère que ça ne sera pas le cas ici ^^

n°9784553
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-04-2016 à 10:03:27  profilanswer
 

ravenloft a écrit :


 :lol:  
Sais tu seulement de quoi tu parles? Non. Gsync ça permet de profiter des avantages de la vsync sans les inconvénients donc venir comparer au vsync adaptatif qui n'a rien à voir, c'est osé.
 
Qui t'a parlé de ta caler à 30ips? Personne. Gsync te cale pas à 30 ips mais fonctionne à partir de 30.
 
Lis des articles sur l'adaptive sync car visiblement tu ne sais, pas de quoi tu parles.

Citation :

t sinon tu me la montre l option genial qui apparemment existe depuis 20 ans sur PC  
Un jeu n a pas une charge constante
Donc selon ta logique je dois allez toute les 10 secondes dans le menu option pour augmenter les options quand la cg est à peine à 80 %  de charge


T'as besoin d'être toujours à charge constante? Je ne pense pas.
 

Citation :


 par exemple
Pareil allez y baisser les options dès que la cg est dans une scene ou le gpu meme à 100 %  de charge ne peut pas faire tout le taff
 
Te parle d'un truc automatique qui s adapte seul en fonction du besoin et délivre le meilleur à chaque instant par rapport au maintient d un framerate imposé de 60fps
 
Bref conserver la fluidité qui a rogner sur la définition


Achète toi un écran gsync ou freesync, tu n'auras plus à te soucier de ça et si tu descend trop bas à ton gout, désactive certains options graphiques, tu n'en mourras pas. Si tu veux pas, change de config ou achète une console.
 
Quand on voit la gueule de rage qui adaptait en temps réel le niveau d"e détail sur Pc pour rester à 60ips, non merci, je veux pas conneries des limitations des consoles sur PC. Les trucs dynamiques, c'est la plaie visuelle. Suffit de voir les quelques jeux pcs à proposer cela pour le voir.
A la rigueur sur un CRT, ça pouvait passer inaperçu, sur une tv avec les filtre de correction aussi mais sur un lcd de bureau, clairement non.
 
Si les trucs dynamiques te branchent, pourquoi ne pas envisager le jeu sur console? Vu que les jeux gourmand qui ont besoin de ça sont à quasi 100% de nos jours des jeux développés pour la console avant tout, cela ne devrait pas être gênant d'y jouer sur console si tu veux des trucs comme ça.
 
Après en option pourquoi pas mais je préfère que els développeurs passent leur temps à optimiser leur jeu qu'à programmer de telles options inutiles alors qu'on a déjà sur pc tout ce qu'il faut pour adapter un jeu aux configs.


une fois qu'on y goute au g sync , dur de s'en passer , surtout quand on a l'occasion de retester un écran classique auquel on remets la syncro et qu'on dit whaou c'est quoi ce lag dans la souris car ça fait un genre d'input lag merdique


---------------
FeedBack
n°9784570
jo_rel
Posté le 17-04-2016 à 11:07:23  profilanswer
 

Du coup j'achèterai jamais un  g sync pour pas ressentir ça si je doit changer :pt1cable:

n°9784645
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-04-2016 à 12:35:58  profilanswer
 

moi je peux plus m'en passer , g sync forever :D


---------------
FeedBack
n°9784665
NeCrOm3nT
Posté le 17-04-2016 à 12:57:55  profilanswer
 

Quelle plaie cet Activation.. toujours sa science à sortir sans aucune vérité ou faisabilité derrière...
Et ce depuis des années sur hfr. Toujours les memes discours "si y'avait ça, ce serait mieux",  

 

Sans deconner, tu penses vraiment que mettre en place une techno qui modifierait la resolution sur PC a la volée serait envisageable ? Tu as deja vu un ecran 1080p natif réglé en 720p ? C'est horrible.

n°9784690
@chewie
Posté le 17-04-2016 à 13:34:30  profilanswer
 

NeCrOm3nT a écrit :


Sans deconner, tu penses vraiment que mettre en place une techno qui modifierait la resolution sur PC a la volée serait envisageable ? Tu as deja vu un ecran 1080p natif réglé en 720p ? C'est horrible.


 
Ca par contre, ca risque d'être une très bonne innovation si c'est bien implémenté avec eye tracking et tout le tintouin:
 
http://www.hardware.fr/news/14573/ [...] ue-vr.html
 
Ce n'est pas tout l'écran qui passe en low résolution mais uniquement les zones en périphérie.

n°9784707
clarkenthd
Posté le 17-04-2016 à 13:49:27  profilanswer
 

@chewie a écrit :

 

Ca par contre, ca risque d'être une très bonne innovation si c'est bien implémenté avec eye tracking et tout le tintouin:

 

http://www.hardware.fr/news/14573/ [...] ue-vr.html

 

Ce n'est pas tout l'écran qui passe en low résolution mais uniquement les zones en périphérie.


Il me semble que ca c'est surtout destiné à la VR, pas aux écrans normaux. En effet, sur un écran normal je pense pas que la surface de l'écran soit assez grande pour que la vision périphérique soit impliquer, à contrario de la VR qui est censée couvrir ~110° il me semble  :)

Message cité 2 fois
Message édité par clarkenthd le 17-04-2016 à 13:49:54
n°9784760
robin4002
Posté le 17-04-2016 à 14:46:57  profilanswer
 

Le seul truc qui ne me plaît pas avec G-Sync c'est qu'il te bloques chez Nvidia.
Si par la suite tu veux prendre une carte graphique chez AMD tu es bon pour changer d'écran avec (ou ne plus profiter de G-Sync)
 
AMD eux au moins ont décidés d'ouvrir FreeSync et d'en faire un standard et non une technologie propriétaire. (en même temps vu leur pdm ils auraient du mal à imposer une technologie propriétaire)
Sauf qu'il y a toujours un problème. En fait c'est exactement le même, seuls les cartes AMD supportent FreeSync, donc acheter un écran FreeSync t'obliges à acheter chez AMD x)
Et malheureusement il y a peu de chance que les cartes Nvidia supportent un jour FreeSync (et l'inverse ne peut tout simplement pas arriver car G-Sync est propriétaire).


Message édité par robin4002 le 17-04-2016 à 14:47:55
n°9784765
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-04-2016 à 14:50:42  profilanswer
 

a la base freesync c'était gratos et au final a l'achat de l'écran , tu te fais anfler aussi donc bon , je sais que je resterais chez nvidia quoi qu'il arrive même si amd font légèrement mieux , je veux plus de rouge dans le pc , a chaque tentative , catastrophe , seul la 5870 a été sympa , ensuite 7970 asus qui m'a fait que des merdes avec leur pilote de trisomique , je pensais même que la carte était foutu , j'avais fait un sav alors que c'était leur pilote daubé :D , dégagé une fois la 680 sorti et la :love: , même taux de fps , bah je trouvais le jeu plus fluide sur la 680 :lol: oué ça parait con mais je sentais la différence

Message cité 1 fois
Message édité par B1LouTouF le 17-04-2016 à 14:51:42

---------------
FeedBack
n°9784771
- gab
Posté le 17-04-2016 à 14:58:31  profilanswer
 

B1LouTouF a écrit :

a la base freesync c'était gratos et au final a l'achat de l'écran


Il n'y a pas de royalties ou de frais pour l'implementation de Freesync, c'est en ce sens que c'est "gratos". Par contre ça n'empêche pas les fabricants d'écrans de gonfler la note comme pour l'ajout de n'importe quelle autre fonctionnalité.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9784802
@chewie
Posté le 17-04-2016 à 15:37:07  profilanswer
 

clarkenthd a écrit :


Il me semble que ca c'est surtout destiné à la VR, pas aux écrans normaux. En effet, sur un écran normal je pense pas que la surface de l'écran soit assez grande pour que la vision périphérique soit impliquer, à contrario de la VR qui est censée couvrir ~110° il me semble :)


Sur un tri-screen ou un écran 21:9 ça commence à devenir intéressant. Surtout avec des rési >= 4k :o

n°9784944
nicolas_ya​d
Spoons made me fat
Posté le 17-04-2016 à 19:06:46  profilanswer
 

Corrigez moi si je me gourre, mais comme marques qui vont sans doute sortir les nouvelles cartes graphiques avec un waterblock de série,  je vois:
Evga avec l'hydrocopper
Galax avec la hof watercooled
Asus avec son hybride poseidon
Zotac avec son hybride artic storm

 

Vous en voyez d'autres comme ça ?

Message cité 1 fois
Message édité par nicolas_yad le 17-04-2016 à 19:07:54
n°9784946
- gab
Posté le 17-04-2016 à 19:08:24  profilanswer
 

Non mais attends, on a déjà assez de spéculations à propos des GPU, va pas nous relancer un vortex juste sur les variations des modèles custom  [:faman:1]


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9784947
cyberfred
Posté le 17-04-2016 à 19:08:49  profilanswer
 

@nicolas_yad : il me semble qu'il y a Gigabyte aussi avec son waterforce ;)
 
@-Gab : excellent le coup du vortex  :lol:


Message édité par cyberfred le 17-04-2016 à 19:09:32
n°9784962
albatar197​6
Posté le 17-04-2016 à 19:19:25  profilanswer
 

@chewie a écrit :


 
Ca par contre, ca risque d'être une très bonne innovation si c'est bien implémenté avec eye tracking et tout le tintouin:
 
http://www.hardware.fr/news/14573/ [...] ue-vr.html
 
Ce n'est pas tout l'écran qui passe en low résolution mais uniquement les zones en périphérie.


 

Citation :

ou encore pour faciliter le passage à la 4K


 
C'est vraiment pas une bonne nouvelle pour les perfs de Pascal  [:alph-one]


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°9784984
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-04-2016 à 19:33:24  profilanswer
 

nicolas_yad a écrit :

Corrigez moi si je me gourre, mais comme marques qui vont sans doute sortir les nouvelles cartes graphiques avec un waterblock de série,  je vois:
Evga avec l'hydrocopper
Galax avec la hof watercooled

Asus avec son hybride poseidon
Zotac avec son hybride artic storm

 

Vous en voyez d'autres comme ça ?


y a la evga hybrid aussi a la sortie des customs mais la galax sort longtemps après " pas aio , que carte + wb " , Y a aussi gigabyte avec sa waterforce aussi mais pareil ça sort longtemps après


Message édité par B1LouTouF le 17-04-2016 à 19:34:44

---------------
FeedBack
n°9785051
loubar22
Posté le 17-04-2016 à 20:59:16  profilanswer
 

Drap, j'attends avec impatience la gtx 1080 pour mon nouveau projet... Vivement juin ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  52  53  54  ..  1033  1034  1035  1036  1037  1038

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Rise of the Tomb Raider offert par Nvidia[HFR] Actu : CES: Drive PX 2: Tegra et Pascal au pilotage
Comment reconnaitre le lecteur E:\ "Nvidia Geforce Experience"Nvidia comme pilote
Windows 10: Code 43 sur CG Nvidia 750mLunette 3D nvidia vision 2
nvidia shield proInstallation carte graphique NVIDIA NVS 510 sur PC tour HP Pavilion P6
[HFR] Actu : Pilotes Nvidia 361.43 WHQLNvidia GTX (960 ou 760 ou 660)?
Plus de sujets relatifs à : [Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR