Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1255 connectés 

 



 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

n°8995117
tridam
Profil : Equipe HardWare.fr
Posté le 31-12-2013 à 15:01:46  profilanswer
2Votes positifs
 

Reprise du message précédent :
Il n'y a pas de raison que G-SYNC use les dalles. Si quelque chose devait user l'écran prématurément ce serait plutôt les éclairages Lightboost/ULMB.

mood
Publicité
Posté le 31-12-2013 à 15:01:46  profilanswer
 

n°8995172
aresias
Posté le 31-12-2013 à 15:44:28  profilanswer
4Votes positifs
 

Citation :


pures spéculations de soit disant nvidia qui pratique des prix chères.


 
Non c'est bien connu elles ont toujours été données les cartes Nvidia. 650€ la GTX 780 avant qu'AMD lance aussi sa nouvelle gamme.
 
Edit: sauf que là bien sûr il y aura pas de concurrence pour faire baisser les prix pour la G-sync

Message cité 1 fois
Message édité par aresias le 31-12-2013 à 16:09:23
n°8995215
diwa7
Bring it Back
Posté le 31-12-2013 à 16:25:11  profilanswer
2Votes positifs
 

aresias a écrit :

Citation :


pures spéculations de soit disant nvidia qui pratique des prix chères.


 
Non c'est bien connu elles ont toujours été données les cartes Nvidia. 650€ la GTX 780 avant qu'AMD lance aussi sa nouvelle gamme.


+1
 

Citation :

De "en l'état" on s'en branle comme de l'an quarante. L'article précise bien que c'est qu'un protype et que gsync sort qu'en 2014. Nvidia l'a toujours dit. Vouloir conclure sur l'intérêt de gsync en jugeant que le prototype, c'est assez ridicule.


Dans ce cas, si c'est ridicule de commenter et donner son avis sur quelque chose qui n'est pas encore sorti (ce qui n'est vrai qu'a moitié, puisqu'il est disponible a l'achat) quel est l'intérêt de se palucher sur un truc hypothétiquement implanté en série (la aussi on en sait rien de si oui ou non çà va se faire) et carrément jouir sur des tests basés sur du "ressenti" parce qu'entre nous ce qui est mesuré ici c'est "l'impression de fluidité" qui n'est pas ressenti pareil par tout le monde.  
 
Ce que je dis, c'est que c'est cher aujourd'hui et inutile pour moi puisque je n'aurais pas de baisse de fps sur les jeux auxquels je joue. Peut être que dans deux ans ce sera le cas sur de nouveaux jeux, mais je ne vais surement pas acheter un truc qui me donne l'impression d'avoir un jeu fluide lorsque que les fps ne suivent plus, je préfère directement acheter une carte qui fera tourner le jeux a 60fps ou foutre une deuxieme GTX780, puisque apparemment çà ne choque personne de voir qu'on a besoin systématiquement d'acheter une carte plus puissante au lieu d'avoir des jeux optimisés autrement qu'avec les pieds.

n°8995239
Singman
The Exiled
Posté le 31-12-2013 à 16:47:44  profilanswer
3Votes positifs
 

Marc a écrit :

Singman a écrit :

Une fois les écrans sortis en masse, rien n'empêche AMD de venir se greffer dessus

Et qu'est ce qui te permet d'affirmer ça ?


L'intérêt de NVidia est d'avoir un maximum d'écrans compatibles. Pour ça, soit ils veulent jouer solo et le pari est risqué, soit ils laissent la porte ouverte à AMD (contre finance évidement). Vois tu d'autres solutions ?

n°8995252
Singman
The Exiled
Posté le 31-12-2013 à 16:58:56  profilanswer
4Votes positifs
 

aresias a écrit :

Il y en a qui croit vraiment que le surcoût va être divisé par 2 dans quelques mois/1 an. Je suis prêt à parier le contraire et ce serait vraiment une première chez Nvidia de baisser autant les prix.
Même admettons les surcoût se stabilise à 150€ dans 2/3 ans. Ben désolé je trouve que c'est encore bien chère payé pour ce que c'est.


Soit tu fais exprès de ne pas comprendre, soit tu n'as pas lu l'article. NVidia n'a pas vraiment l'intention de refaire l'électronique de chaque fabricant d'écran pour les rendre compatibles G-Sync. Les protos sont là pour le "proof-of-concept" et les tests.
Les fabricants qui vont suivre le mouvement vont fondre leurs propres ASIC et l'intégrer dans le circuit de contrôle de chaque modèle. Et rajouter une plus value tarifaire pour coller l'autocollant "G-Sync compatible", mais qui sera loin du prix actuel.

n°8995254
aresias
Posté le 31-12-2013 à 17:00:45  profilanswer
3Votes positifs
 

Citation :


Tiens je m'en doutais de ça, c'était évident qu'un tel exemple pas représentatif allait être utilisé. C'est bien connu que les radeons ont toujours été données quand elles n'avaient pas de concurrence.
Me rappelle ma radeon 9700pro achetée 500 euros.


 
Je n'ai jamais dit que les radeons n'ont jamais été chère. De plus tu me cites une carte sortie en 2002. Moi je te parle d'une carte sortie il y a quelques mois et qui a de la concurrence et des prix qui nous affectent aujourd'hui.
 

Singman a écrit :

aresias a écrit :

Il y en a qui croit vraiment que le surcoût va être divisé par 2 dans quelques mois/1 an. Je suis prêt à parier le contraire et ce serait vraiment une première chez Nvidia de baisser autant les prix.
Même admettons les surcoût se stabilise à 150€ dans 2/3 ans. Ben désolé je trouve que c'est encore bien chère payé pour ce que c'est.


Soit tu fais exprès de ne pas comprendre, soit tu n'as pas lu l'article. NVidia n'a pas vraiment l'intention de refaire l'électronique de chaque fabricant d'écran pour les rendre compatibles G-Sync. Les protos sont là pour le "proof-of-concept" et les tests.
Les fabricants qui vont suivre le mouvement vont fondre leurs propres ASIC et l'intégrer dans le circuit de contrôle de chaque modèle. Et rajouter une plus value tarifaire pour coller l'autocollant "G-Sync compatible", mais qui sera loin du prix actuel.


Je sais très bien que c'est des prototypes et même une fois directement intégré à la fabrication en série si tu crois qu'Nvidia va pas te faire ça à un prix raisonnable tu risques d'être extrêmement déçu.


Message édité par aresias le 31-12-2013 à 17:06:43
n°8995261
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-12-2013 à 17:06:35  profilanswer
5Votes positifs
 

Singman a écrit :

L'intérêt de NVidia est d'avoir un maximum d'écrans compatibles. Pour ça, soit ils veulent jouer solo et le pari est risqué, soit ils laissent la porte ouverte à AMD (contre finance évidement). Vois tu d'autres solutions ?

Ok donc rien ne te permet d'affirmer ça, c'est tout ce que je voulais savoir...
 
Tu ne sais rien des intentions finales de Nvidia, qui peut très bien avoir envie de tirer du G-SYNC le maximum d'avantage concurrentiel possible par rapport à AMD, quitte à faire un pari risqué, sans avoir donc l'intention de le licencier côté GPU à un tarif autre qu'exorbitant.

n°8995300
aresias
Posté le 31-12-2013 à 17:39:52  profilanswer
4Votes positifs
 

ravenloft a écrit :

aresias a écrit :

Citation :


Tiens je m'en doutais de ça, c'était évident qu'un tel exemple pas représentatif allait être utilisé. C'est bien connu que les radeons ont toujours été données quand elles n'avaient pas de concurrence.
Me rappelle ma radeon 9700pro achetée 500 euros.


 
Je n'ai jamais dit que les radeons n'ont jamais été chère. De plus tu me cites une carte sortie en 2002. Moi je te parle d'une carte sortie il y a quelques mois et qui a de la concurrence et des prix qui nous affectent aujourd'hui.
 


Si les radeons ont été chères, il n'y a pas de problème. C'est tout ce que je voulais dire.
Vu tes commentaires sur soit disant une politique d'nvidia qui fait des produits chères, je voulais apporter une précision.
 
Concernant la 780, il n'y avait pas de concurrence donc ils se sont fait des marges supérieures, rien d'anormal, toute entreprise fait la même chose. La grosse différence avec gsync est que là ils vont devoir imposer gsync et donc le surplus de coût devra être le plus faible possible et évidemment ça ne coutera pas 200 euros de plus. C'est juste pour le prototype que c'est le cas.


 
Il y avait pas de concurrence ? la GTX 770 elle coûtait combien déjà alors qu'une 7970 ou 7970Ghz était déjà moins 100€ moins chère pour des performances similaires. Ce n'est pas parce qu'Nvidia a sortie sa nouvelle gamme en premier qu'il n'y avait pas de concurrence.
Et ne parlons pas de la GTX 760 la plus grosse arnaque, 250€ pour 170€ il y avait équivalent coté AMD.
 
Les produits Nvidia sont chère, c'est un fait qui se vérifie à presque toutes les générations et ce sur l'intégralité de la gamme !


Message édité par aresias le 31-12-2013 à 17:43:58
n°8995319
aresias
Posté le 31-12-2013 à 17:51:16  profilanswer
5Votes positifs
 

Laisses-moi deviner, ça c'est pas un troll ?


Message édité par aresias le 31-12-2013 à 17:58:58
n°8995326
alex38350
Posté le 31-12-2013 à 17:54:38  profilanswer
3Votes positifs
 

Une chose est sure c'est que Nvidia peut se faire pas mal de fric avec cette techno bienvenue :)
 
Merci pour l'article !

mood
Publicité
Posté le 31-12-2013 à 17:54:38  profilanswer
 

n°8995329
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-12-2013 à 17:56:29  profilanswer
6Votes positifs
 

Vous pourriez arrêter votre bataille inintéressante au possible pour parler du G-SYNC et du FRV ou tout simplement vous taire ? Merci.

n°8995360
ju3ei
Je vais là ou le vent me porte
Posté le 31-12-2013 à 18:15:08  profilanswer
0Votes positifs
 

Pour ma part, heureux possesseur d'un Asus VG278H payé au prix fort lors de sa sortie (presque 600€) et qui m'offre pleine satisfaction, je me demande si Nvidia ne proposera pas des solutions d'appoint comme ils l'ont fait pour les journalistes spécialisé lors de leurs phases de testes.
Je veux dire par là que j'aurai en travers de la gorge de devoir racheter un nouvel écran pour profiter de cette avancée technique. J'aimerais bien qu'il existe un produit dérivé estampillé G-Sync sous forme d'un boitier additionnel qui viendrait s'interfacer entre mon écran et ma carte graphique pour un prix raisonnable (jusqu'à 200€ cela resterait intéressant).
 
Alors monsieur le journaliste, pensez-vous qu'il y ait un espoir que ce genre de produit dérivé voit le jour?
 
D'avance merci pour cette réponse.
 
Bon réveillon à tous!

n°8995408
Mysterieus​eX
Chieuse
Posté le 31-12-2013 à 18:38:36  profilanswer
4Votes positifs
 

Très honnêtement, j'obtiens les mêmes résultats que Nvidia en mode icelock avec un couple genlock + DVI adapt de chez RPA, et ce peut importe le fabriquant, directX ou openGL, Windows, Linux, *BSD et même MacOS.
 
http://www.rpaelectronics.com/Genl [...] ducts.html
 
Pro tips : genlock to vblank (unatached device) + icelock sur le buffer principal de la carte vidéo. Vsync Off sur la CG bien sur. C'est grosso modo se qu'ont fait nvidia dans un FPGA custom développé par ... RPA pour leurs G-Sync.
 
Mais bon, on aime dire que c'est nouveau, le G-Sync, ici, alors que ça c'est clairement du troll (et doublé d'un patent trolling de la part de nvidia puisque la technique existe et est intégré depuis hmmm wait ... Flicker fixer + scan doubler + AGA dans l'amiga 1200/3000/4000 depuis 95/96 nan ?)

n°8995510
TRUQUE
Posté le 31-12-2013 à 20:38:02  profilanswer
0Votes positifs
 

y a t'il un intérêt face aux écran 120hz ? je possède actuellement  un écran lcd 120hz et franchement niveau fluidité c'est niquel et je n'active jamais le v-synch pour le coup ...

n°8995511
tukothecat
Posté le 31-12-2013 à 20:38:38  profilanswer
0Votes positifs
 

Salut
Je possède un pc avec I7 4770 K  et GTX 780 et un écran Asus VG248 QE  Si je comprend bien l'article, j'ai mieux de régler le rafraichissement sur 60 Hz et activer le V-sync que de régler sur 144 Hz et v-sync off ?
Si oui, cela ne me sert à rien d'avoir un écran 144 Hz ?

n°8995521
tukothecat
Posté le 31-12-2013 à 20:54:32  profilanswer
0Votes positifs
 

Pourquoi Asus (à moins que ce ne soit du pur marketing) dit que l'image est plus fluide en 2D 144 HZ qu'en 60 HZ ?
voir http://www.asus.com/fr/Monitors_Projectors/VG248QE

n°8995526
Giulietta2​6
Avanti!!!
Posté le 31-12-2013 à 21:05:38  profilanswer
4Votes positifs
 

ravenloft a écrit :

Giulietta26 a écrit :

Bon article, mais la conclusion semble être pleine de parti pris, non?


Tu serais pro amd par hasard? :whistle:  
 
 

d@nz a écrit :

Le surcoût lié au module G-SYNC rend le tarif du moniteur final prohibitif. Ça plus le fait qu'on soit cantonné à un unique constructeur - en l'occurrence les verts - en terme de GPU c'est beaucoup trop limitant pour être viable. Ça part d'une bonne intention, c'est ingénieux mais je ne pense pas que ça puisse marcher avec ces restrictions. Au final on peut très bien choisir de s'en passer & de privilégier la puissance brute du GPU pour contrebalancer le problème de fluidité.  
 
525€ pour jouer en FHD en 2013 - 2014 d'ici peu - ça fait un peu mal au derrière je trouve.  :D


 
La techno est pas encore sortit et le prix c'est un prix d'annonce. Il est évident que ça va baisser et que la différence sera de plus en plus ténue  au fil des adoptions.
 

marcaurel15 a écrit :

Pas compris grand chose à cet article tres technique; pour résumer qu'est ce que ca va apporter de mieux pour les joueurs ? est ce que la différence en vaut vraiment le prix ??


Oui et oui d'après l'article si tu es un joueur.
 


Ce troll. :ouch:  
Tu essais de dire quoi? Qu'amd fait la même chose en mieux? Tu veux troller nvidia?
Pénible de voir encore des fanboy amd troller sur chaque topic nvidia.


Le chevalier fanboy pro NVidia à la rescousse de la moindre supposition, c'est beau, mais réveilles toi tout le monde se marre...

n°8995660
aurel32
Posté le 01-01-2014 à 02:17:58  profilanswer
0Votes positifs
 

Ça semble être une solution qui sera intéressante si elle arrive sur les laptops, si ça peut permettre d'avoir une carte graphique qui n'est pas toujours à 100%, ça fera économiser de la batterie.
 
D'ailleurs les modifications à faire au niveau de l'écran ne doivent pas être très loin de ce qui est fait avec le mode self pannel refresh de l'embedded Display Port 1.3 (eDP 1.3).

n°8995675
amigosan
Posté le 01-01-2014 à 02:51:57  profilanswer
2Votes positifs
 

J'achèterai un de ces écran G-SYNC, qui sont tellement prometteur !
NVIDIA sont vraiment bon, toujours des petits plus très sympa et ce qui est fait est mieux fait que AMD


Message édité par amigosan le 01-01-2014 à 02:52:44
n°8995698
diwa7
Bring it Back
Posté le 01-01-2014 à 06:08:58  profilanswer
2Votes positifs
 

MysterieuseX a écrit :

Très honnêtement, j'obtiens les mêmes résultats que Nvidia en mode icelock avec un couple genlock + DVI adapt de chez RPA, et ce peut importe le fabriquant, directX ou openGL, Windows, Linux, *BSD et même MacOS.
 
http://www.rpaelectronics.com/Genl [...] ducts.html
 
Pro tips : genlock to vblank (unatached device) + icelock sur le buffer principal de la carte vidéo. Vsync Off sur la CG bien sur. C'est grosso modo se qu'ont fait nvidia dans un FPGA custom développé par ... RPA pour leurs G-Sync.
 
Mais bon, on aime dire que c'est nouveau, le G-Sync, ici, alors que ça c'est clairement du troll (et doublé d'un patent trolling de la part de nvidia puisque la technique existe et est intégré depuis hmmm wait ... Flicker fixer + scan doubler + AGA dans l'amiga 1200/3000/4000 depuis 95/96 nan ?)


 
ah ben voila, je me disais...  
En gros on nous pond du réchauffé a prix d'or et on devrait s'en contenter. Et bizarrement on commente pas ton post.
Saluer l'initiative de Nvidia oui...mais ne perdons pas de vue que l'unique objectif de Nvidia est de vérrouiller le marché et la techno avec des brevets pour s'en mettre plein les poches.


---------------
[Rech/Ach] Mon Topic: ach Ryzen/cm Am4/ ddr4 etc...
n°8995704
madcat
Posté le 01-01-2014 à 07:25:22  profilanswer
3Votes positifs
 

Non mais n'importe qui avec un peu de jugeote comprend que nvidia n'a rien inventé et que oui ils vont essayer d'en tirer un max. Techniquement ça aurait pu (dû, même) être fait il y a bien longtemps sauf que personne ne l'a fait et là nvidia le fait, c'est tout. Maintenant c'est au consommateur de ne pas être idiot et ne pas accepter n'importe quel prix pour ça. Perso je ne mettrai pas plus de 100€ de surcoût par écran, et ce grand max. Une fois démocratisé j'espère que ça sera plutôt de l'ordre de 50€ de surcoût par écran.  
 
Maintenant ce dont parle MysterieuseX j'aimerais bien savoir comment ça peut faire une fréquence de rafraichissement d'écran dynamique si ça n'attaque pas directement la dalle. Et bon, s'il faut genlock + DVI adapt ça fait donc 600$ en single link et 675$ en dual, alors que là même en phase proof of concept / bricolage pour early adopters le gsync est déjà nettement moins cher que ça.
 
Bien sûr c'est chiant au possible que l'initiative ne soit pas venue des fabricants d'écrans qui auraient ainsi pu proposer un système compatible avec n'importe quelle marque de CG mais le fait est qu'ils ne l'ont pas fait et donc s'il n'y avait pas ce gsync il n'y aurait rien. Au final on se retrouve avec un système contraignant mais qui a le mérite d'ouvrir la porte à cette idée que la fréquence de rafraichissement d'écran doit être commandée par la cadence d'i/s que peut sortir la CG, en plus d'être dispo de suite pour ceux qui en accepteraient les contraintes actuelles. C'est quand même mieux que de ne rien avoir du tout.


---------------
" Mais putaaain... Mais les gars qu'est-ce qu'ils font quoi, ils développent un jeu quoi ils essayent leur truc là ? ils essayent ? ils s'voyent voyent pas qu'c'est d'la merde !? "
n°8995708
diwa7
Bring it Back
Posté le 01-01-2014 à 08:23:49  profilanswer
1Votes positifs
 

madcat a écrit :

C'est quand même mieux que de ne rien avoir du tout.


Clair et c'est bien ce que je disais plus en avant, mais pas a ce prix et pas sur ce mode là d'intégration.

n°8995709
olioops
Si jeune et déjà mabuse.
Posté le 01-01-2014 à 08:25:32  profilanswer
3Votes positifs
 

diwa7 a écrit :


 
ah ben voila, je me disais... Oui tu te disais quoi !? ...raconte  :p ...ha ben non finalement je viens de lire les pages précédentes....laisse ...raconte pas  [:minusplus]  
En gros on nous pond du réchauffé a prix d'or et on devrait s'en contenter Ouiii voilà ça fait 20 ans que la concurrence propose la même chose pour une bouchée de pain ....  :sweat: ......t'es  infatiguable question mauvaise foi toi hein !? . Et bizarrement on commente pas ton post. Oui bizarrement [:gordon shumway] un peu comme si ça coutaît beaucoup plus cher sans obtenir le même résultat ... ou alors c'est un complot , stro bizarre [:sombrero67]
Saluer l'initiative de Nvidia oui...mais ne perdons pas de vue que l'unique objectif de Nvidia est de vérrouiller le marché et la techno avec des brevets pour s'en mettre plein les poches. Heureusement que tu nous préviens [:chaleur intempestive:1] ...j'ai même ouïe dire que BMW allait sortir une nouvelle Berline encore plus puissante et confortable, mais qu'ils n'allaient pas offrir gratuitement leur techno à Renault pour que ça soit appliquer en série sur les Clio .... les salauds [:nozdormu]


Je vois que la liste de tes trollounets à deux balles augmente ! bientôt une compil pour les fans ? [:ixam:3]
 
Si encore les critiques étaient fondées sur des points honnêtes intellectuellements et techniquements valables  [:airforceone] on pourrait discuter ! mais ce n'est pas le cas.

Message cité 1 fois
Message édité par olioops le 01-01-2014 à 08:35:39

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°8995727
Lykomax
Posté le 01-01-2014 à 10:05:39  profilanswer
1Votes positifs
 

tukothecat a écrit :

Salut
Je possède un pc avec I7 4770 K  et GTX 780 et un écran Asus VG248 QE  Si je comprend bien l'article, j'ai mieux de régler le rafraichissement sur 60 Hz et activer le V-sync que de régler sur 144 Hz et v-sync off ?
Si oui, cela ne me sert à rien d'avoir un écran 144 Hz ?

 


J'ai bien fait de ne pas acquerir d'écran 120hz jusqu'à maintenant vu que l'on dans le tableau du confort de jeu (page 10) je m'aperçois qu'avec ma carte HDG et mon écran 60hz je suis le mieux placé pour le rapport prix/confort fluidité.

 

En fait tout dépend si on arrive à tenir le Vsync à tel fréquence (et aussi du ressenti). Avec un Sli de 780 tu joueras en super confort sur ton écran 144hz.

 

Le système idéal pour moi qui aime un taux img/s constant serait de pouvoir régler la fréquence de mon écran suivant un profil de jeu dans les pilotes.
Par exemple 30hz,40hz,50hz,60hz,70hz,120hz,...hz voir à l'unité près. Mais cela n'est pas possible avec mon écran actuel.
Comme ça il y a aura toujours un réglage basé sur le fps min ou moyen/fréquence qui me permettra de tenir le vsync à coup sûr en évitant les inconvénients.
Enfin heureusement pour le moment ma config s'en sort très bien et je me débrouille avec les réglages et le fps limiter, mais dans de rares jeu bloqué la fréquence à 50hz serait un compromis intéressant.

 



Message édité par Lykomax le 01-01-2014 à 10:21:15
n°8995733
diwa7
Bring it Back
Posté le 01-01-2014 à 10:29:25  profilanswer
1Votes positifs
 

olioops a écrit :


Je vois que la liste de tes trollounets à deux balles augmente ! bientôt une compil pour les fans ? [:ixam:3]
 
Si encore les critiques étaient fondées sur des points honnêtes intellectuellements et techniquements valables  [:airforceone] on pourrait discuter ! mais ce n'est pas le cas.


 
En fait si je ne mouille pas le bout a Huang et ses collègues, je suis un troll? [:ash ray cure:5]  
Mouai


Message édité par diwa7 le 01-01-2014 à 10:30:11

---------------
[Rech/Ach] Mon Topic: ach Ryzen/cm Am4/ ddr4 etc...
n°8995735
ledesillus​ionniste
Posté le 01-01-2014 à 10:32:17  profilanswer
1Votes positifs
 

Singman a écrit :

Marc a écrit :

[quotemsg=8994810,75,517179]Une fois les écrans sortis en masse, rien n'empêche AMD de venir se greffer dessus

Et qu'est ce qui te permet d'affirmer ça ?


L'intérêt de NVidia est d'avoir un maximum d'écrans compatibles. Pour ça, soit ils veulent jouer solo et le pari est risqué, soit ils laissent la porte ouverte à AMD (contre finance évidement). Vois tu d'autres solutions ?[/quotemsg]
Oui, un consortium des fabricants d'écran avec amd/nvidia/intel met au point un système universel.
 
Mais bon avec nvidia on peut toujours rêver haha
 
proprio proprio et proprio, tout ce qu'il y a à tirer d'nvidia.


Message édité par ledesillusionniste le 01-01-2014 à 10:43:18
n°8995742
Fealith
Posté le 01-01-2014 à 10:49:05  profilanswer
0Votes positifs
 

Les quotes ratés du post ci-dessus donnent l'impression d'inverser les réponses Marc/Singman.
C'est assez comique ;)

n°8995753
Singman
The Exiled
Posté le 01-01-2014 à 11:28:06  profilanswer
1Votes positifs
 

Marc a écrit :

Singman a écrit :

L'intérêt de NVidia est d'avoir un maximum d'écrans compatibles. Pour ça, soit ils veulent jouer solo et le pari est risqué, soit ils laissent la porte ouverte à AMD (contre finance évidement). Vois tu d'autres solutions ?

Ok donc rien ne te permet d'affirmer ça, c'est tout ce que je voulais savoir...
 
Tu ne sais rien des intentions finales de Nvidia, qui peut très bien avoir envie de tirer du G-SYNC le maximum d'avantage concurrentiel possible par rapport à AMD, quitte à faire un pari risqué, sans avoir donc l'intention de le licencier côté GPU à un tarif autre qu'exorbitant.


 
Je te présente les deux solutions probables et possibles, en mettant en avant la plus probable. Si tu as mieux en réserve, n'hésites pas.
Pour approfondir un peu plus, NVidia ne pourra tirer de bénéfices (financiers ou en notoriété ) du G-Sync s'il n'est pas largement adopté.


Message édité par Singman le 01-01-2014 à 11:52:58
n°8995768
Singman
The Exiled
Posté le 01-01-2014 à 11:48:22  profilanswer
2Votes positifs
 

Ce qui est amusant, c'est que dans un précédent article annonçant celui-ci, une belle brochette de personne avançait des arguments sans comprendre le principe du G-Sync.
Maintenant que cet article est paru, on retrouve les mêmes personnes avec les mêmes arguments. A croire ça ne sert a rien. Comme par exemple MisterieuseX et son genlock, un nostalgique de l'Amiga surement :)

n°8995849
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 01-01-2014 à 13:52:39  profilanswer
3Votes positifs
 

MysterieuseX a écrit :

Très honnêtement, j'obtiens les mêmes résultats que Nvidia en mode icelock avec un couple genlock + DVI adapt de chez RPA, et ce peut importe le fabriquant, directX ou openGL, Windows, Linux, *BSD et même MacOS.

 

http://www.rpaelectronics.com/Genl [...] ducts.html

 

Pro tips : genlock to vblank (unatached device) + icelock sur le buffer principal de la carte vidéo. Vsync Off sur la CG bien sur. C'est grosso modo se qu'ont fait nvidia dans un FPGA custom développé par ... RPA pour leurs G-Sync.

 

Il va falloir que tu expliques en quoi tu arrives à piloter la dalle de ton écran pour avoir un rafraîchissement variable et égal au framerate avec ta technique. A ma connaissance Genlock permet de synchroniser plusieurs sources vidéos, rien d'autre. De même, qu'est ce qui te permet de dire que c'est RPA qui a développé le FPGA ?

 
MysterieuseX a écrit :

Mais bon, on aime dire que c'est nouveau, le G-Sync, ici, alors que ça c'est clairement du troll (et doublé d'un patent trolling de la part de nvidia puisque la technique existe et est intégré depuis hmmm wait ... Flicker fixer + scan doubler + AGA dans l'amiga 1200/3000/4000 depuis 95/96 nan ?)

 

http://en.wikipedia.org/wiki/Flicker_fixer

 
Citation :

A flicker fixer or scan doubler is a piece of computer hardware that de-interlaces an output video signal. The flicker fixer accomplishes this by adjusting the timing of the natively interlaced video signal to suite the needs of a progressive display Ex: CRT computer monitor. Flicker fixers in essence create a progressive frame of video from two interlaced fields of video.

 

Mais quel est le rapport :??:


Message édité par Marc le 01-01-2014 à 13:53:14
n°8995942
Dtox QQ
Posté le 01-01-2014 à 15:06:02  profilanswer
2Votes positifs
 

Ouais enfin bref, vue le bordel autant prendre simplement une plus grosse carte graphique avec un écran moindre. c'est des détails tout ça !
 
Perso j'ai pas de problème in-game avec des microfreeze wtf sur des jeux Oo'. ça va chercher loin pour au final un résultat minime. j'attends de voir des vidéos m'enfin bon je sens juste une belle quenelle arrivé ! pour être objectif je testerai ça. même si je sais déjà que ça changera rien.

n°8995979
mosie
GEEK PRO POWER !
Posté le 01-01-2014 à 15:36:17  profilanswer
2Votes positifs
 

Yop
 
alors:
 
Déjà gros bravo pour l'arclicle, cool d'avoir fait un recap du fonctionnement d'affichage, et d'etre aller aussi loin dans les explications.
  Sujet aussi très casse gueule tant a cause du manque d'info sur le fonctionnement réel du bouzin, la variabilité des spec des jeux, de la mesure de la fluidité ….
 
 
 
 

Citation :

''Comme nous l'indiquions dans les quelques petits rappels sur la technologie LCD, il y a une limite de temps d'affichage au-delà de laquelle la dalle pourrait ne pas arriver à maintenir la couleur du pixel dans un état parfaitement figé. Pour éviter les défauts que cela pourrait entraîner, quand le temps d'affichage atteint 33.3ms (ce qui correspond à une fréquence instantanée de 30 Hz ou 30 fps), G-SYNC affiche une seconde fois la même image. Au final, G-SYNC accepte donc des temps d'affichages variables compris entre la limite de l'écran et 33.3ms.''


 
La limite base de l'intervalle correspondant  donc à la Hz min de rafraichissement de l'ecran + une petite marge ? ou ca peut temporairement dessandre plus bas en temps que els spec (Hz) de base.
 

Citation :

''Il n'y a pas de limite au niveau de cette variation qui peut être aussi bien graduée que très brusque, cas qui n'est cependant pas idéal en terme de régularité des mouvements à l'écran. Rappelons que rien ne permet à l'heure actuelle au moteur du jeu de connaître le temps d'affichage réel des images, G-SYNC ne change rien à cela. Il reste donc important que les pilotes et la carte graphique n'ignorent pas la régularité de l'affichage''


 
Donc pour ne pas perdre de temps de feedback d'info, (temps d'affichage réel écran vers CG)ils ont donc préféré foutre un intervalle min max selon les spec de l'écran, en ''espérant ''que le débit d'image tombe dans cette intervalle, et sans trop de variation d'amplitude rapide. non ?
 
Selon toi :
-A tu constater de grosse variation de ''vitesse'' d'afichage selon les variation de debit FPS de CG.
-Y a-t-il aussi au niveau des driver, une limitation virtuel identique à l'intervalle de temps min max d'affichage de l'écran, imposé au débit gpu ? qui limiterai l'amplitude de ces variation.
 
 
 

Citation :

'' il y a bien un petit coût en termes de performances lié au fait que le GPU doit sonder régulièrement le contrôleur de l'écran pour connaître son statut.''


CAD, il y aurait donc un feedback du contrôleur vers CG pour connaitre le statu d'affichage ? Temps ''réel'' ?
 
J'ai un peu de mal à piger à quoi et due le surcout de consso gpu, alors qu'au contraire ce system permet d'éviter les calculs de buffering.
 
Dans le cas du G-sync, cela fait quoi si le buffering et toujours actif ? C'est pris en comtpe ? ''Pour les cas de sortie des limite de l'intervalle de rafraîchissement écran peut etre ?  
 
 
Dans tous les ca ce system permet de corriger les problèmes de tearing/sutering est c'est déjà énorme.
Pour la latence entre l'image calculée et l'affichage réel de cette image, j'ai quand même des doutes.  
Même si on gagne du temps en ''resserrant '' les Hz réel d'affichage de l'écran, je m'interoge sur la consso en cycle d'affichage du modul G-sync.
 
 
 
Hhhmm pour la mesure des FPS réel afficher, des sonde permette bien de relever cette donner et d'en tiré des graph non ?  
Une fois caler sur le graph des FPS de la CG cela pourrai donner une bonne comparaison.
La latence d'affichage réel/sortie CG ne serait pas prise en compte mais bon, osef pour mesure de fluidité.
 
 
J'ai aussi un peut de mal a compendre pourquoi le resenti est aussi ''mauvais'' en 144hz en V sync on.
 
Le G-sync a t'il un impact (gomage) du shutering du au multi GPU ?
 
Le module HW G-sync a t'il son propre buffer d'image ...
 
 
bref, désoler de toutes ces question, mais ce truc m'interesse pas mal.
Encore merci pour le super article.

Message cité 1 fois
Message édité par mosie le 01-01-2014 à 15:43:22
n°8996529
Mysterieus​eX
Chieuse
Posté le 01-01-2014 à 22:30:05  profilanswer
2Votes positifs
 

@Marc : tu ne pilote pas la dalle, mais tu n'envoie que les images complètes, si image pas complête, tu drop le buffer, t'envoie l'image précédente, en gros avec un icelock (qui est une technique de genlocking) ta carte fonctionne, rend, compose, ou fait se que tu veux a sa vitesse max, mais n'affiche que les images complètes sur l'écran, sans pour autant afficher de "noir" (vblank). Elle pilote donc bien indirectement la dalle (et pour éviter de modifier l'électronique on met un buffer qui stock uniquement les images "pleines" )
La viennent deux questions : savez vous pourquoi il y a de la mémoire sur le module G-Sync, et avez vous penser a brancher une sonde sur les led de l'écran ? Mais a mon avis si vous faites une analyse de signal sérieuse, vous verrez que l'écran tourne a 144Hz et fait exactement la même chose qu'un icelock : il n'affiche que des images "pleines" (avec très certainement une détection du jitter qui correspond a un affichage stutteré et donc un déchirement d'écran)
 
Pour le rapport avec l'AGA et le flicker fixer/scan doubler (important la phrase là hein, tu prend que la moitier du système, donc forcément ...)
 
http://www.ianstedman.co.uk/downlo [...] iagram.png
 
Un scandoubler va inexorablement provoquer du stutering > flicker fixer est fait pour l'éviter.
Et parce que justement on reste sur une technologie de pilotage "compatible" CRT, on doit faire avec le mode progressif a fréquence fixe. Wait, c'est pas se que doit être censé éviter le flicker fixer par essence ? Ben si.
 
Moralité : Oui Nvidia propose une "avancée" dans le monde grand publique, mais ils ne prennent qu'une partie du problème avec une solution existante castrée (parce que oui, ils n'ont pas forcément a traiter toutes les synchros possibles) mais ça reste vieux et du patent trolling leurs solution. (d'ailleurs leurs cartes genlock chez nvidia s'appellent pas g-sync II ? a mon avis le liens peut être rapidement fait)

n°8996546
Nono0000
Posté le 01-01-2014 à 22:43:34  profilanswer
0Votes positifs
 

mosie a écrit :


 
Le G-sync a t'il un impact (gomage) du shutering du au multi GPU ?
 


 
Je me pose la meme question :)
Tridam, as-tu eu le temps de tester un ou deux jeux connus pour avoir des problemes de fluidite en SLI avec le G-sync?
 

mosie a écrit :


CAD, il y aurait donc un feedback du contrôleur vers CG pour connaitre le statu d'affichage ? Temps ''réel'' ?


 
En fait, la carte fait du "pulling" en permanence pour connaitre l'etat de l'ecran. Suivant la frequence de ce pulling, l'impact peut ne pas etre negligeable.
Comme dit dans l'article, Nvidia travaille a ameliorer cela (mais pas sur que ces prototypes en beneficient un jour car on ne peut pas les mettre a jour)
Il y a bien sur d'autres elements, mais j'ai lu dans un autre article que cela represente la plus grosse part de cet impact sur les performances.
 
 

n°8996610
Singman
The Exiled
Posté le 01-01-2014 à 23:51:12  profilanswer
1Votes positifs
 

Tu ne démords pas de ton genlock...

MysterieuseX a écrit :

La viennent deux questions : savez vous pourquoi il y a de la mémoire sur le module G-Sync


C'est marqué dans le test : non nécessaire au fonctionnement (donc ton principe de "simple genlock renommé" s'effondre), mais peut être nécessaire pour piloter l'overdrive, qui consiste a booster l'impulsion de tension, suivant si ton écran le supporte et si l'image précédente stockée en mémoire et l'image actuellement prête a s'afficher sont compatibles.
 

MysterieuseX a écrit :

et avez vous penser a brancher une sonde sur les led de l'écran ? Mais a mon avis si vous faites une analyse de signal sérieuse, vous verrez que l'écran tourne a 144Hz et fait exactement la même chose qu'un icelock : il n'affiche que des images "pleines" (avec très certainement une détection du jitter qui correspond a un affichage stutteré et donc un déchirement d'écran)


... ça en devient ridicule...

n°8996631
tridam
Profil : Equipe HardWare.fr
Posté le 02-01-2014 à 00:28:57  profilanswer
2Votes positifs
 

MysterieuseX a écrit :

@Marc : tu ne pilote pas la dalle, mais tu n'envoie que les images complètes, si image pas complête, tu drop le buffer, t'envoie l'image précédente, en gros avec un icelock (qui est une technique de genlocking) ta carte fonctionne, rend, compose, ou fait se que tu veux a sa vitesse max, mais n'affiche que les images complètes sur l'écran, sans pour autant afficher de "noir" (vblank). Elle pilote donc bien indirectement la dalle (et pour éviter de modifier l'électronique on met un buffer qui stock uniquement les images "pleines" )
La viennent deux questions : savez vous pourquoi il y a de la mémoire sur le module G-Sync, et avez vous penser a brancher une sonde sur les led de l'écran ? Mais a mon avis si vous faites une analyse de signal sérieuse, vous verrez que l'écran tourne a 144Hz et fait exactement la même chose qu'un icelock : il n'affiche que des images "pleines" (avec très certainement une détection du jitter qui correspond a un affichage stutteré et donc un déchirement d'écran)
 
Pour le rapport avec l'AGA et le flicker fixer/scan doubler (important la phrase là hein, tu prend que la moitier du système, donc forcément ...)
 
http://www.ianstedman.co.uk/downlo [...] iagram.png
 
Un scandoubler va inexorablement provoquer du stutering > flicker fixer est fait pour l'éviter.
Et parce que justement on reste sur une technologie de pilotage "compatible" CRT, on doit faire avec le mode progressif a fréquence fixe. Wait, c'est pas se que doit être censé éviter le flicker fixer par essence ? Ben si.
 
Moralité : Oui Nvidia propose une "avancée" dans le monde grand publique, mais ils ne prennent qu'une partie du problème avec une solution existante castrée (parce que oui, ils n'ont pas forcément a traiter toutes les synchros possibles) mais ça reste vieux et du patent trolling leurs solution. (d'ailleurs leurs cartes genlock chez nvidia s'appellent pas g-sync II ? a mon avis le liens peut être rapidement fait)


 
Je pense que tu n'as pas compris les bases ds G-SYNC "grand public" qui n'a rien avoir avec G-SYNC I/II "pro". Même non commercial pour deux choses qui sont très différentes l'une de l'autre (tu peux remercier Nvidia pour ça ;) ). Sur un écran 144 Hz avec G-SYNC "grand public" tu peux afficher une image pleine au temps 0 et une seconde image pleine au temps 7.3ms. Je pense que sur base de ce principe, si tu fais un petit effort tu devrais comprendre ;)

n°8996712
sChPoUnZzz
mangeur de hardware.
Posté le 02-01-2014 à 05:35:28  profilanswer
0Votes positifs
 

Bonne année à tous!
 
Une petite question que j'avais posé il me semble, mais que je ne vois pas!!!
 
G-sync et le micro stuttering des config SLI? Sa changerais rien? Vu que dans certains cas l'activation ou non de la v-sync, ou le fait de limiter le nombre de FPS Max supprimais cet effet désagréable, je me dis que peut être la g-sync résoudrais en partie ce phénomène ou du moins pourrais l'atténuer!
 
Voili, voilou pour ma part, sa m'intéresse!

Message cité 1 fois
Message édité par sChPoUnZzz le 02-01-2014 à 05:37:59
n°8997510
sagittaire
Posté le 02-01-2014 à 18:09:13  profilanswer
1Votes positifs
 

sChPoUnZzz a écrit :

Bonne année à tous!
 
Une petite question que j'avais posé il me semble, mais que je ne vois pas!!!
 
G-sync et le micro stuttering des config SLI? Sa changerais rien? Vu que dans certains cas l'activation ou non de la v-sync, ou le fait de limiter le nombre de FPS Max supprimais cet effet désagréable, je me dis que peut être la g-sync résoudrais en partie ce phénomène ou du moins pourrais l'atténuer!
 
Voili, voilou pour ma part, sa m'intéresse!


 
Gsync n'est pas fait pour corriger les défauts des systèmes multi-GPU. GSync permet en gros d'afficher quasi-immédiatement (dans la limite de la fréquence de l'écran) les images générées par le système graphique.  
 

n°8997778
Nono0000
Posté le 02-01-2014 à 19:32:20  profilanswer
1Votes positifs
 

sagittaire a écrit :

 

Gsync n'est pas fait pour corriger les défauts des systèmes multi-GPU. GSync permet en gros d'afficher quasi-immédiatement (dans la limite de la fréquence de l'écran) les images générées par le système graphique.

 


 

Vu que les contraintes sur les buffers de sortie sont totalement changees, il se peut qu'indirectement certaines micro-saccades du au SLI soient corrigees.
Il n'est pas idiot de poser la question...
Egalement, est-ce qu'en theorie cela permettrait de se passer de la frame de latence en AFR?

Message cité 1 fois
Message édité par Nono0000 le 02-01-2014 à 19:36:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faible score 3D Marks et jeux (et oui, encore un)Problème Nvidia Geforce 315
Petite configuration Virtualisation & Jeux légers[HFR] Actu : Intel baisse le prix des Haswell ''R''
Aide pour une C.GUpgrade montage video/Jeux
Carte reseau deconnectée pendant les jeuxMa télé sony bravia affiche 'Pas de sync"
Demande conseils : upgrade config pour montage vidéo et jeux 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR