Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
920 connectés 

 



 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Auteur Sujet :

[HFR] Actu : CES: AMD FreeSync : du G-SYNC gratuit !

n°9005154
C_Wiz
Profil : Equipe HardWare.fr
Posté le 07-01-2014 à 21:57:50  profilanswer
2Votes positifs
 

Reprise du message précédent :

ravenloft a écrit :

D'après hardware.fr ATI ne destinait même pas cette techno à ce que veut faire nvidia mais plus à l'économie d'énergie.

Non, on n'a jamais écrit ca. On a rapporté que VESA aurait développé cette techno avant tout pour l'économie d'énergie dans les portables. L'idée d'updates isosynchrones des écrans n'est pas nouvelle, mais son intérêt se limitait cependant historiquement a un public réduit (les joueurs PC ne représentent qu'une petite partie du marché, qui intéresse certes les marques et le marketing mais font rarement bouger les standards). Il n'est pas très surprenant que ce soit sur la mobilité (ou il y a un marché plus large) qu'il y ait du développement, si les joueurs en profitent au final c'est tant mieux.  
 
Il faut arrêter de tout mélanger, y compris des brevets qui n'ont rien a voir avec ce dont on parle. Nous n'avons pas dit que cette techno VESA était liée à un quelconque brevet d'ATI mentionné par un lecteur en commentaire.  
 
Ce qu'on a rapporté, c'est qu'AMD annonce que ses GPU sont déjà compatibles avec ce futur standard (auquel nous n'avons pas encore eu accès), même s'il n'est pas vraiment déployé. Rien ne dit que les GPU actuels Nvidia, Intel ou autre puissent supporter cette technologie, c'est peut être le cas. Quand on aura une vraie réponse on en reparlera.  
 
VESA propose des standards royalty free, l'implémenter à terme dans de futurs GPU est possible pour tous mais comme pour tous les standards, c'est à la discretion des constructeurs de les utiliser ou pas.

mood
Publicité
Posté le 07-01-2014 à 21:57:50  profilanswer
 

n°9005178
Elpriser
Posté le 07-01-2014 à 22:12:20  profilanswer
3Votes positifs
 

Je suis très tatillon sur les effets qui apportent du réalisme dans les jeux justement après je te l'accorde c'est très subjectif certains joueront même en 640p en low à ce jeu et s'éclateront toujours.
C'est un peu comme l'histoire des fréquences certains se contentent de 30FPS d'autres 144fps ou rien.(j'extrapole un peu)
Si je ne me trompe pas Tress FX ne plombe "plus" les perfs des cartes Nvidia(à la sortie du jeu seulement),on pourrait en faire un topic...j'arrête.
 
En tous cas, pour en revenir au sujet je suis hyper content de cette nouvelle et j'aimerais savoir si FreeSync parait aussi bon que G-Sync à première vue ?(c'est le cas de le dire :D)
J'espère simplement que FreeSynch ne tardera pas trop, c'est cette faille qu'exploite malicieusement Nvidia en ce moment ; on croise les doigts.

Message cité 1 fois
Message édité par Elpriser le 07-01-2014 à 22:31:32
n°9005184
wnorton
Je suis néerlandophone
Posté le 07-01-2014 à 22:17:16  profilanswer
1Votes positifs
 

Invite_Surprise a écrit :


Bien sûr que c'est de bonne guerre. C'est le jeu de la concurrence.
On peut également penser que G-Sync est la réponse de nVidia à Mantle et que c'est une carte qu'ils avaient sous la manche au cas où.
AMD et nVidia se connaissent très bien et s'influencent énormément.
Je serai pas surpris d'ailleurs de voir AMD s'essayer au monde des smartphones et embêter nVidia de nouveau, ne serait-ce qu'en licenciant ses technos GPU pour l'embarqué.


 
Pas oublier il y a quelque temps AMD était comme ça avec Intel mais il a ramasser une méchante claque avec sont FX de feu (chauffe) vs i3  :D  
 
Donc maintenant, il lui reste plus que Nvidia pour s'éclater pour le moment :whistle:  
 
Après il ira emmerdé les fondeurs ARM etc...
 
ont auras droit à de belle vidéos de manga genre à la Intel vs AMD avec les ARM du troll a la sauce AMD.  :o


---------------
Je suis néerlandophone une fois
n°9005189
Le Profana​teur
Passéiste désincarné
Posté le 07-01-2014 à 22:24:05  profilanswer
2Votes positifs
 

Elpriser a écrit :

Je suis très tatillon sur les effets qui apportent du réalisme dans les jeux justement après je te l'accorde c'est très subjectif certains joueront même en 640p en low à ce jeu et s'éclateront toujours.
C'est un peu comme l'histoire des fréquences certains se contentent de 30FPS d'autres 144fps ou rien.(j'extrapole un peu)
Si je ne me trompe pas Tress FX ne plombe "plus" les perfs des cartes Nvidia(à la sortie du jeu seulement),on pourrait en faire un topic...j'arrête.
 
En tous cas, pour en revenir au sujet je suis hyper content de cette nouvelle et j'aimerais savoir si FreeSync parait aussi bon que G-Synch à première vue ?(c'est le cas de le dire :D)


Va chez nvidia si tu peux pas jouer sans PHYSX alors.
 
Si tu cherche une technologie breveté utilisé uniquement dans les moteurs de la marque XX tu ne vas va pas chouiner parce que t'y a pas droit sur une autre marque ? Non ???
 
Ban là c'est pareil. Nv ne va pas se tire dans les pieds en développant et faisant le suivi d'une tech pour tout les fabricants de puces DirectX :spamafote:


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9005203
Elpriser
Posté le 07-01-2014 à 22:30:56  profilanswer
2Votes positifs
 

Souvent ce sont les petits détails qui font la différence.:D
Il ne faut pas mal interpréter cette phrase attention ! :D
Même si parfois on est bien loin du détail dans JC2...
Pour répondre, pourquoi faire des concessions avec son AMD et ne jamais en faire avec son Nvidia ? çà ne dérange personne.
Changer de cartes graphiques à chaque jeu c'est très pratique aussi.
J'ai résolu ce problème en ayant 2 configs distinctes.
 
Sinon FreeSync enterra-il G-Sync d'après toi ravenloft ou les 2 cohabiteront-ils ?
Qui risquera de se lancer dans l'aventure G-Sync sachant que FreeSync approche ?
Et la question qui a déjà été posée, les écrans G-Sync seront compatibles FreeSync ?
L'avenir nous le dira je reste informé et en haleine.;)


Message édité par Elpriser le 07-01-2014 à 22:54:04
n°9005216
Corleone_6​8
Posté le 07-01-2014 à 22:38:37  profilanswer
5Votes positifs
 

Fouge a écrit :

Ils pourront, s'ils le souhaitent, profiter de GSYNC avant les autres. Et au pire, ils profiteront de FreeSync comme les autres. J'vois pas bien où est le problème.
 
Le truc rigolo ce serait que GSYNC soit un draft de FreeSync. Ca ferait surtout marrer les membres du consortium VESA qui aujourd'hui doivent se poser pas mal de questions.


 
Vois tu, ce n'est que mon avis, mais connaissant nVidia, ils ne vont pas supporter le standard VESA (Ils ne sont pas obligé) et tenir en otage les utilisateurs. Tu me diras il ce tire une balle dans le pieds ? Pourtant on a quelques exemples, PhysX (la physique gratuite existe), à l'époque directX 10 (?) fin prêt chez ATI et pas chez nVidia (en gros quoi) et donc MS qui a du revoir la chose pour eux.  
 
Pour parler du sujet plus haut, désolé mais ça fait un moment qu'ils ce la jouent à la Apple et oui je comprends parfaitement que l'on peut porter une haine pour ce genre de marque (que je porte à moitié) car elles sont un frein à l'avancée technologique, en monopolisent la chose ou en rendant ces technologie hors de prix.
 
Heureusement que la concurrence est là, mais tant qu'il y aura des pigeons ces pratiques ne cesseront jamais...


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9005389
sChPoUnZzz
mangeur de hardware.
Posté le 08-01-2014 à 02:00:35  profilanswer
4Votes positifs
 

Bon, je me suis pas tapé les 18 pages de commentaire. J'ai survolé et on peu voir les fanboy amd s'en donner à cœur joie.  
 
Étant neutre dans le domaine car chacun voit midi à sa porte, mon avis perso c'est qu'amd même si tout est "gratuit", il n'en demeure pas moins que même à l'heure actuelle, certains problèmes pilotes subsiste, le crossfire est bon pour la poubelle, (faut peaufiner les réglages), la 3D concurrente "gratuite" et libre est un vrai calvaire en terme de compatibilité chez eux, que mantle n'est toujours pas la et qu'ils n'en parle même pas au CES, leur turbine d'avion pour la 290x de ref date d'un autre temps! J'en passe sûrement!
 
Dire simplement: on a free sync, nvidia veut vous faire cracher alors que sa coûte rien, si c'était vraiment le cas, ni de asus et Philips et AOC n'investirait dans g-sync!  
 
AMD niveau innovation, on se rappellera eyefinity mais depuis ils suivent nvidia en copiant!
 
Nvidia quand à lui sort de la techno propriétaire, certe, trop même, mais fonctionnelle!  En terme de puissance brut AMD est bien présent, mais pour les tatillons du détails, de la 3D etc... (Et surtout de plus d'emmerder à paramétrer sa CG) nvidia se pose comme le plus efficace! La qualité et la ludicité sa se paye.  
 
Perso j'étais pro amd, j'ai un portable sous nvidia optimums super bien géré tandis que le système amd est très désagréable à gérer (que j'ai sur le portable de ma femme)! Mon 1er fixe sous nvidia me régale en 3D et son FXAA intégré au pilote (aussi nvidia expérience efficace) qui consomme rien alors que mon second fixe en crossfire 7870xt  et 3D passive payante iz3d est un vrai calvaire, il faut configurer chacun des jeux car plein de problème du au crossfire, sans compter l'auto para métrage version AMD qui je m'excuse mais ne vaut rien face à la concurrence!
 
AMD mérite plus d'attention à sa partie logiciele, une 3D plus simple, une meilleure gestion des profils de jeux, changer le morphological AA qui bave, car au final c'est moins cher certe mais je reste sur une sensation de pas fini!
 
Alors le freeSync, je l'attend mais j'ai des doute car AMD cumule pas mal de "pas fini"  
Sa sent le pet foireux à mon avis! J'espère que non car nvidia à besoin d'un pied de nez, ce qui les remettrais à leur place car trop de technologie propriétaire tue la technologie propriétaire (que ce soit bien fait ou pas)

n°9005435
blastm
Nullus anxietas
Posté le 08-01-2014 à 08:08:04  profilanswer
3Votes positifs
 

MetalDestroyer a écrit :

Je préfère largement une techno fermé mais avec des pilotes en bétons qu'une techno ouverte mais avec des pilotes pourris ou qui ne sont plus maintenu dès qu'un GPU prend l'âge.
Coucou toi ATI, je cherche toujours des pilotes pour Windows 7/8/8.1 pour une Radeon X700 Mobility. Je fais comment ? je l'ai dans le cul.
Alors que sur nVidia, étant donné que les pilotes sont unifiés, j'ai de grand chance de trouvé des drivers pour du matos assez vieux (du genre les pilotes pour GeForce FX sont dispo aussi sur Win 8 alors qu'elles sont plus vieilles que la série Radeon X800/X700 ).
ET malgré une demande sur le forum AMD pour avoir des pilotes pour les Nouveaux OS, AMD ne réagit pas.


Genre Nvidia supporte toutes ses vielles CG pour win7/8/8.1..
cherche sur leur site les pilotes pour une geforce 4 Ti pour ces OS par exemple, même dans la section legacy... yep, dans l'cul lulu.
Et ce sont même pas des CG pour portables, pour lequel on est jamais a l'abris de surprises avec les drivers officiels :o
 

Corleone_68 a écrit :

Vois tu, ce n'est que mon avis, mais connaissant nVidia, ils ne vont pas supporter le standard VESA (Ils ne sont pas obligé) et tenir en otage les utilisateurs. Tu me diras il ce tire une balle dans le pieds ? Pourtant on a quelques exemples, PhysX (la physique gratuite existe), à l'époque directX 10 (?) fin prêt chez ATI et pas chez nVidia (en gros quoi) et donc MS qui a du revoir la chose pour eux. (...)


Il le supporteront si ca devient une norme, il n'y a pas de raison...
en attendant il peuvent suivre la même voie qu'ils ont prise avec CUDA vs Opencl, faire vivre le gsync tant qu'il leur permet de vendre des puces, et ne supporter le standard ouvert qu'une fois qu'ATI l'aura finalisé et déverminé de son côté :o
la question sera évidement de savoir si gsync et ce freesync, quelque soit la forme qu'il prendra, seront compatible/interopérables :o

Message cité 1 fois
Message édité par blastm le 08-01-2014 à 08:21:29
n°9005450
Fouge
Posté le 08-01-2014 à 08:50:12  profilanswer
3Votes positifs
 

sChPoUnZzz a écrit :

Dire simplement: on a free sync, nvidia veut vous faire cracher alors que sa coûte rien, si c'était vraiment le cas, ni de asus et Philips et AOC n'investirait dans g-sync!

Ca ne veut absolument rien dire. Avoir un écran qui supporte une fréquence variable le rend peut-être à la fois compatible avec GSYNC et avec FreeSync. L'investissement serait le même, et les constructeurs auraient donc tout intérêt à sortir leurs modèles le plus tôt possible pour griller leur concurrents.

sChPoUnZzz a écrit :

[...]
Alors le freeSync, je l'attend mais j'ai des doute car AMD cumule pas mal de "pas fini"  
Sa sent le pet foireux à mon avis! J'espère que non car nvidia à besoin d'un pied de nez, ce qui les remettrais à leur place car trop de technologie propriétaire tue la technologie propriétaire (que ce soit bien fait ou pas)

Ce n'est pas AMD qui est derrière FreeSync (bien que ce soit eux qui en ont parlé en premier pour couper l'herbe sous le pied d'nVidia) mais tout le consortium VESA (liste), cad AMD, nVidia, Intel, Matrox, ASUS, etc.
Il y a fort à parier que GSYNC soit là pour profiter du fait que FreeSync soit pas prévu pour tout de suite, certains ont donc tous intérêt à prendre leur part du gâteau dès aujourd'hui. Mais à terme on se doute bien que tout le monde ou presque supportera FreeSync y compris nVidia, le contraire serait étonnant.
La qualité des driver AMD me parait hors sujet, FreeSync n'est pas une techno faite par AMD pour AMD et c'est pas comme si c'était une techno hyper évoluée qui nécessitait une partie logicielle très complexe.

n°9005516
Neji Hyuga
Modérateur
:grut:
Posté le 08-01-2014 à 10:02:46  profilanswer
5Votes positifs
 

En gros l'utilisateur a le choix : soit il veut la techno avant tout le monde quitte à payer et raque pour un écran G-Sync, soit il attend patiemment la sortie du standard FreeSync.
 
Pas vraiment de quoi passer cinq pages à se vomir mutuellement dessus en maudissant une marque X ou Y pour finalement partir en HS complet...


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
mood
Publicité
Posté le 08-01-2014 à 10:02:46  profilanswer
 

n°9005592
EpinardsHa​chés
Posté le 08-01-2014 à 10:58:34  profilanswer
3Votes positifs
 

ravenloft a écrit :


Je pense que toi, mystereX, abw, guiiletta et quelques autres ont besoin de refréner leur haine contre nvidia. Je ne sais pas si un gars de chez nvidia vous a menacé ou qu'une geforce a essayé de vous tuer mais faut pas avoir toute cette haine envers eux. Cela ne rendra pas amd plus performant, je t'assure. Cela n'aide pas AMd dans leur comm avec ce type de commentaire caricaturaux haineux. On peut vous aider à vous en sortir. ;)  
 
Sans nvidia, le marché du gpu serait mort et tu paieras pas les gpus amd à ce prix. Idem sans AMd. Au lieu de vomir sur telle ou telle marque, le mieux est de rester critique mais respectueux de chacune et d'espérer qu'ils se concurrencent pour le bien des consommateurs.
 
Si la sortie de gsync a permis à AMd de se reveiller et de se rappeller que leur techno qu'ils disent posséder depuis des années (un mec au dessus a dit qu'amd/ati avait déposé un brevet en 2006 mais visiblement il n'est pas revenu nous le confirmer), peut servir de standard, c'est une bonne chose. Gsync servira pour ceux qui ne veulent pas attendre un standard, je ne vois pas ce qu'il y a de gênant dans ça à moins que tu as peur que ça fasse de l'ombre à AMD mais je ne vois pas en quoi ça pourrait le faire. AMd a mantle en face donc pas de quoi.


 
 
mais qu'est ce que tu racontes punaise je ne ne suis pas un fanboy de telle ou telle marque, arrête de raconter n'importe quoi ok. J'ai ma préférence pour AMD mais ça ne m'empêche pas d'apprécier les autres marques d'ailleurs j'ai des gpu nvidia depuis les GTX 580 et avant, pareil pour les cpu où je "roule" en Intel depuis quelques temps. Devoir se justifier ainsi ça m'agace. Désolé mais tu racontes de la meyrde... T'as rien compris à ce que je disais. Et si tu me connaissais tu ne dirais pas de telles conneries. Relis mon poste.
En plus je ne trollais même pas sur nvidia c'est ça le pire, je ne faisait que remettre en cause le poste d'un hférien qui selon moi critiquait injustement et avec un peu trop de véhémence certains projets de AMD rien de plus, et toi tu me sors le couplet du trolleur nvidia, mais c'est lourd.
Si à chaque fois qu'on critique telle ou telle marque ou ses projets, et qu'il faut sortir un gros pavé pour se justifier et ben.... [:panzani gino]


Message édité par EpinardsHachés le 08-01-2014 à 11:03:23

---------------
Ventes
n°9005662
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2014 à 11:51:07  profilanswer
2Votes positifs
 


C'est pour PSR qu'il faut eDP 1.3, après c'est effectivement possible vu l'objectif initial (économies d'énergies) qu'à la base ça ait été développé pour eDP 1.4, difficile vu le peu d'infos à l'heure actuelle de savoir. Mais le fait que la demo ai été faite sur un portable je ne pense pas que ce soit que pour des raisons d'encombrement :o

n°9005754
Singman
The Exiled
Posté le 08-01-2014 à 13:02:45  profilanswer
1Votes positifs
 

Deux faits sont certains :AMD avait pensé à un taux de rafraichissement variable pour réduire la consommation, alors que NVidia a pensé son système pour améliorer la fluidité. En partant de là, que le Freesync soit implémenté sur leurs plate-formes mobiles depuis des années par AMD ne parait pas impossible et que le G-Sync soit un système permettant de piloter une dalle externe via les connecteurs existants (ce que ne permettrait peut être pas Freesync) est aussi très logique. La différence est peut être simplement là.
Quand le G-Sync a été annoncé, cela a du être un choc pour AMD et les autres de voir qu'on pouvait aussi améliorer la fluidité. C'est toujours les idées les plus simples qui sont les plus géniales. D'ou leur surprise, et la mise en place d'une comm en urgence pour dire que eux aussi peuvent le faire (mais qu'ils n'y avait pas pensé avant). Cela me parait le scénario le plus logique.

n°9005766
Singman
The Exiled
Posté le 08-01-2014 à 13:10:59  profilanswer
1Votes positifs
 

EpinardsHachés a écrit :

J'ai ma préférence pour AMD mais ça ne m'empêche pas d'apprécier les autres marques d'ailleurs j'ai des gpu nvidia depuis les GTX 580 et avant, pareil pour les cpu où je "roule" en Intel depuis quelques temps.

EpinardsHachés a écrit :


En plus je ne trollais même pas sur nvidia c'est ça le pire, je ne faisait que remettre en cause le poste d'un hférien qui selon moi critiquait injustement et avec un peu trop de véhémence certains projets de AMD rien de plus, et toi tu me sors le couplet du trolleur nvidia, mais c'est lourd.
Si à chaque fois qu'on critique telle ou telle marque ou ses projets, et qu'il faut sortir un gros pavé pour se justifier et ben.... [:panzani gino]


J'ai aussi des cartes AMD chez moi, plus que de cartes NVidia (normales, je les revends une fois achetée une autre). Pourtant je préfère nettement NVidia pour d'autres raisons, professionnelles en grande partie. Mais j'évite de dire "AMD c'est de la merde" ou "tu es un con". Mon message mettait en avant le fait que Freesync n'est qu'une annonce avec une démo truquée en réaction à un test réel du G-Sync, et que Mantle, très prometteur et performant (j'en suis convaincu) n'est toujours pas sorti (date annoncée  Décembre, maintenant Janvier).
Ça n'enlève rien à la valeur de ces produits, mais dans l'informatique, il faut se méfier des "vaporware", ces projets très intéressant mais jamais sortis, ou trop tard... Petit jeu, qui se souvient des Bitboys ? :) :) :)


Message édité par Singman le 08-01-2014 à 13:12:01
n°9005776
Nono0000
Posté le 08-01-2014 à 13:16:35  profilanswer
0Votes positifs
 

Comme il fallait s'y attendre voila la response de NVidia:

 

http://www.guru3d.com/news_story/n [...] esync.html

Message cité 1 fois
Message édité par Nono0000 le 08-01-2014 à 13:17:43
n°9005779
C_Wiz
Profil : Equipe HardWare.fr
Posté le 08-01-2014 à 13:18:27  profilanswer
1Votes positifs
 


Je rajoute pour être très précis que eDP (embedded Display Port) et LVDS sont deux technos pour portables pour relier le panneau au GPU. eDP a été développé pour remplacer LVDS. Y'a pas de connectique spécifique ou de futur usage externe de eDP, eDP c'est de l'interne.  
 
eDP 1.4 rajoute des updates partielles d'écrans (n'envoyer que les zones qui changent) a PSR (qui était dans 1.3, PSR = framebuffer côté panneau) et quelques autres trucs, la norme avait été annoncée en septembre 2012. On essaye d'en savoir un peu plus.


Message édité par C_Wiz le 08-01-2014 à 13:23:20
n°9005787
blastm
Nullus anxietas
Posté le 08-01-2014 à 13:28:21  profilanswer
2Votes positifs
 

Nono0000 a écrit :

Comme il fallait s'y attendre voila la response de NVidia:
http://www.guru3d.com/news_story/n [...] esync.html


mouais, sont a peine plus clair:
c'est possible sur portable parceque ca marche en edp/lvsd et que ca fait des trucs que le hdmi et le displayport ne peuvent pas.
et plus loin ils concèdent que le displayport a déjà tout ce qu'il faut, et qu'il tiens qu'au vesa de rajouter la brique qui va bien, même s'ils feront rien pour les encourager :o

n°9005802
Nono0000
Posté le 08-01-2014 à 13:36:40  profilanswer
0Votes positifs
 

blastm a écrit :


mouais, sont a peine plus clair:
c'est possible sur portable parceque ca marche en edp/lvsd et que ca fait des trucs que le hdmi et le displayport ne peuvent pas.
et plus loin ils concèdent que le displayport a déjà tout ce qu'il faut, et qu'il tiens qu'au vesa de rajouter la brique qui va bien, même s'ils feront rien pour les encourager :o


 
Le point (difficilement verifiable) c'est qu’actuellement aucun scaler sur le marche ne supporte cette possibilite (contrairement a ce que laissait entendre AMD)
Qui dit vrai?....
 
Il y a aussi le fait que la solution de Nvidia semble extremement flexible (quand on a les bons outils) :
 
Exemple d’un mod fait sur un ecran 4k :
http://www.pcper.com/news/Graphics [...] tor-G-Sync

n°9005836
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2014 à 14:01:05  profilanswer
2Votes positifs
 

ravenloft a écrit :


Donc en gros:
- le standard n'est pas très utile car le DP intègre déjà ça de base


Oui mais non, c'est pas parce que tu utilises les mêmes câbles que tu suis la norme derrière.

 

Si ce dont parle AMD fait partie de ce qui a été intégré via l'eDP 1.2 en 2010 via les canaux auxiliaires, alors a priori c'est prévu pour le DP 1.3 qui est a priori prévu pour Q2 2014. Donc côté écran desktop il faudrait attendre des écrans DP 1.3 le supportant, si c'est ça.

Message cité 1 fois
Message édité par Marc le 08-01-2014 à 14:15:34
n°9005843
Neji Hyuga
Modérateur
:grut:
Posté le 08-01-2014 à 14:06:01  profilanswer
0Votes positifs
 

Du coup ni G-Sync ni FreeSync ne sont possibles sans changer d'écran à l'heure actuelle (sauf sur laptop, donc) ?


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9005863
Charles K
Posté le 08-01-2014 à 14:19:48  profilanswer
3Votes positifs
 

OK, c'est assez prometteur, d'ici fin 2014/début 2015 on pourrait donc peut être profiter de la fréquence synchronisé sur des écrans de hautes résolutions (QHD/UHD/ultrawide) Dell/asus/LG ... qui ne sont pas marqueté gamer et n'intégreraient certainement pas un composant aussi cher (et limité en autres fonctions) que G-Sync. Sachant que comme l'article d'HFR le montre, moins on a d'images par seconde, plus la syncro est bénéfique pour la fluidité et la latence, d'où le grand intérêt de la chose pour le jeu UHD. Vivement plus de détails  :)


Message édité par Charles K le 08-01-2014 à 14:26:09
n°9005866
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2014 à 14:22:47  profilanswer
3Votes positifs
 

Et la suite "That's why, he noted, G-Sync works with existing cables without the need for any new standards."

 

Encore une fois c'est pas parce que tu utilise les mêmes câbles que c'est normé et standard.

 

Regarde, bientôt avec DockPort il va y'avoir de l'USB 3.0 qui passe par le câble DisplayPort. Quelqu'un aurait pu le faire avant via une implémentation perso, et dire après coup qu'il n'y avait du coup pas besoin de standard puisque lui aussi utilise un câble DisplayPort... et bien si il y'a besoin d'un standard justement pour que tout soit compatible quelque soit le fabricant.


Message édité par Marc le 08-01-2014 à 14:23:05
n°9005873
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2014 à 14:27:44  profilanswer
5Votes positifs
 

Neji Hyuga a écrit :

Du coup ni G-Sync ni FreeSync ne sont possibles sans changer d'écran à l'heure actuelle (sauf sur laptop, donc) ?


La seule possibilité côté "FreeSync" serait une MAJ du firmware pour certains écrans, mais on ne sait pas encore si c'est bien le cas, si oui lesquels, et si une maj de firmware sera bien disponible.

n°9005963
Nono0000
Posté le 08-01-2014 à 15:18:13  profilanswer
2Votes positifs
 

Marc a écrit :


Oui mais non, c'est pas parce que tu utilises les mêmes câbles que tu suis la norme derrière.

 

Si ce dont parle AMD fait partie de ce qui a été intégré via l'eDP 1.2 en 2010 via les canaux auxiliaires, alors a priori c'est prévu pour le DP 1.3 qui est a priori prévu pour Q2 2014. Donc côté écran desktop il faudrait attendre des écrans DP 1.3 le supportant, si c'est ça.

 

Donc comme vous le dites souvent, il est urgent d'attendre...
Les premiers ecrans G-sync sont prevus grosso modo pour le 2Q egalement.
Suivant ce que vous pouvez glaner comme information dans les mois qui viennent sur cette future specification DP,  une news recapitulative serait des plus interessante.

 

Il y a quand meme de fortes chances que si DP1.3 contient un passage sur le VRR, il fasse partie des options et non des mandatory features pour avoir la certification DP1.3 (et le casse tete commencera :))


Message édité par Nono0000 le 08-01-2014 à 15:22:47
n°9005968
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-01-2014 à 15:24:44  profilanswer
0Votes positifs
 

Tout à fait pour les options :/

n°9005994
steven67
Posté le 08-01-2014 à 15:37:39  profilanswer
0Votes positifs
 

En termes de produits 'desktop', en dehors des écrans Gsync, j'imagine que les premiers produits qui implémenteront la bonne connectique et le bon traitement de l'image seront des 'all in one'. Qu'en pensez-vous ?

n°9006009
steven67
Posté le 08-01-2014 à 15:45:00  profilanswer
0Votes positifs
 

Flickering c'est le scintillement non ? J'imagine que quand on peut vendre du Gsync ou du Freesync, on ne joue pas sur les mots, mais comme je ne travaille pas à MSI ...
 


Message édité par steven67 le 08-01-2014 à 15:51:18
n°9006014
Charles K
Posté le 08-01-2014 à 15:48:17  profilanswer
1Votes positifs
 

Non anti-flickering, c'est un terme pour dire que le rétro-éclairage à LED ne clignote pas a une fréquence relativement faible (ou pas du tout) comme c'est le cas sur la plupart des écrans à rétro éclairage LED (même si ça commence à changer). le but est de réduire la fatigue oculaire pour ceux qui y sont sensibles, donc rien à voir  :D .


Message édité par Charles K le 08-01-2014 à 15:48:44
n°9006020
steven67
Posté le 08-01-2014 à 15:51:25  profilanswer
2Votes positifs
 

Oui, rien à voir, mais je n'ai pas vos connaissances techniques.
Mais ce que je voulais dire, c'est que cette nouvelle fonctionnalité, qui a coûté du temps de développement selon Nvidia,
ne sera pas donnée, et que l'alternative aux écrans Gsync, dans un premier temps, ce serait l'achat d'un système complet
que ce soit un portable ou un desktop.
 :(


Message édité par steven67 le 08-01-2014 à 15:53:44
n°9006033
blastm
Nullus anxietas
Posté le 08-01-2014 à 15:57:25  profilanswer
0Votes positifs
 

en même temps les all in one, de un ca me semble pas très répandu, de deux c'est rarement des systèmes de gamer, et c'est cette population là que le g/free sync est susceptible d'intéresser :/

n°9006038
Fouge
Posté le 08-01-2014 à 15:59:28  profilanswer
2Votes positifs
 


Citation :

According to medical research, the average flickering rate of conventional monitors is 200 times/sec. This means that your eyes will suffer from over 5 million flicker times in a standard 8 hour working day, which can result in computer vision syndrome.
 
The Anti-Flicker technology integrated into the AG2712A display stabilizes the power current and prevents flickering invisible to the naked eye under normal conditions. When used for extended periods of time, it effectively reduces eyestrain while also improving productivity.


Sans anti-flicker : http://www.msi.com/pic/image/aio/a [...] nitor1.jpg
Avec anti-flicker : http://www.msi.com/pic/image/aio/a [...] nitor2.jpg
 
J'vois pas trop de quoi ils parlent (et les effets supposés m'ont l'air pipo) mais ça a l'air d'être lié au rétro-éclairage.
 

n°9006061
steven67
Posté le 08-01-2014 à 16:09:57  profilanswer
1Votes positifs
 

Oui, ah mais finalement non ! Avec une citation devant.
Ca commence toujours comme cela.
Ce n'est pas parce que les 'all in one' que vous connaissez ne sont pas faits pour les gamers
que ça ne pourrait pas changer, dans l'avenir.
 
J'attire juste l'attention sur le fait qu'il va falloir payer cette nouvelle fonctionnalité,
d'une manière ou d'une autre, à un constructeur ou à un autre.


Message édité par steven67 le 08-01-2014 à 16:22:25
n°9006071
C_Wiz
Profil : Equipe HardWare.fr
Posté le 08-01-2014 à 16:15:07  profilanswer
2Votes positifs
 

Fouge a écrit :

J'vois pas trop de quoi ils parlent (et les effets supposés m'ont l'air pipo) mais ça a l'air d'être lié au rétro-éclairage.


 
J'avais linké ce très bon papier sur le clignottement des backlights un peu plus tôt dans le thread : http://www.tftcentral.co.uk/articl [...] lation.htm  
 
Ca répond aux questions, en gros les constructeurs utilisent généralement un PWM (comme pour les ventilos) pour gérer le dimming de l'écran (la baisse de la luminosité (qui revient a faire baisser l'intensité de la source lumineuse derrière l'écran). Ca n'est pas systématique, la fréquence est variable et l'effet est plus ou moins perceptible. En général en luminosité max = pas de clignottement.

n°9006077
steven67
Posté le 08-01-2014 à 16:19:24  profilanswer
1Votes positifs
 

Oui, et il y a sur votre forum en section "écrans" d'intéressantes discussions sur l'inconfort que peut générer le PWM pour certaines personnes.

n°9006082
Giulietta2​6
Avanti!!!
Posté le 08-01-2014 à 16:21:42  profilanswer
3Votes positifs
 

blastm a écrit :


mouais, sont a peine plus clair:
c'est possible sur portable parceque ca marche en edp/lvsd et que ca fait des trucs que le hdmi et le displayport ne peuvent pas.
et plus loin ils concèdent que le displayport a déjà tout ce qu'il faut, et qu'il tiens qu'au vesa de rajouter la brique qui va bien, même s'ils feront rien pour les encourager :o


 
C'est aussi ce que je comprends.
Au final Nvidia en accord avec certains fabricants d'écrans souhaite vendre une techno proprio poussant à l'achat d'un nouvel écran et par la même occasion rendant quelque part un captif sa clientèle qui paye déjà assez. Nvidia freine des 4 fers pour se faire encore plus de beurre sur ses clients.
 
Et à côté y a AMD qui dit qu'au final le même usage sera possible gratuitement dès la mise en place de la future norme VESA et de son application industrielle, et ça ce n'est pas clairement contredit par Nvidia dans ce que je vois.
 
Dans l'histoire, AMD en tant que membre du VESA ne fait pas d'effet d'annonce mais alerte les consommateurs sur le piège à fric tendu par Nvidia. Connaisant un peu la politique tarifaire de Nvidia y a rien de surprenant in fine.


---------------
Demain c'est loin
n°9006087
steven67
Posté le 08-01-2014 à 16:27:56  profilanswer
2Votes positifs
 

Comme le dit Marc plus haut, je comprends plutôt que la norme VESA supportera le passage du signal nécessaire à la synchronisation, mais cela ne règle pas la question du traitement de ce signal pour améliorer la fluidité.
C'est aussi ce que je comprends du post suivant de Marc qui dit "Freesync possible peut-être avec une simple maj du firmware écran".  
Je ne prétends pas être un expert du traitement graphique, donc je quitte cette discussion technique.
 
Je pense que le terme de "Freesync" est avant tout du marketing, parce que même  
si en termes de marketing (bien compris) Nvidia est actuellement le "leader" et Amd le "challenger",  
ce n'est pas pour autant que Nvidia paie ses développeurs avec des barres d'or et Amd avec des cacahuètes.
 :jap:

Message cité 1 fois
Message édité par steven67 le 08-01-2014 à 16:33:31
n°9006171
Boubou169
Posté le 08-01-2014 à 17:09:10  profilanswer
2Votes positifs
 

blastm a écrit :

en même temps les all in one, de un ca me semble pas très répandu, de deux c'est rarement des systèmes de gamer, et c'est cette population là que le g/free sync est susceptible d'intéresser :/

les choses changes vites, les pc fixes ce vendent moins bien, avant il fallait un gros i5 et un grille pain une CG puissante pour espérer avoir un jeu fluide, maintenant un i3 commence a s'en sortir de mieux en mieux, AMD propose des APU de plus en plus intéressant... au train ou vont les choses les AiO gamers existeront bientôt...

n°9006174
Giulietta2​6
Avanti!!!
Posté le 08-01-2014 à 17:09:36  profilanswer
5Votes positifs
 

La MAJ du FW sera à faire pour les écrans plus anciens et pas les nouveaux lorsque le standard sera appliqué dans les productions, et ce sans surcoût matériel.
 


---------------
Demain c'est loin
n°9006190
t3ddy
Posté le 08-01-2014 à 17:18:51  profilanswer
2Votes positifs
 

Giulietta26 a écrit :

La MAJ du FW sera à faire pour les écrans plus anciens et pas les nouveaux lorsque le standard sera appliqué dans les productions, et ce sans surcoût matériel.


Comme on n'est pas chez bisounoursland, dis-toi que le firmware ne sera peut-être pas une solution viable pour les écrans anciens/actuels, ce n'est qu'une supposition à cette date. Pense aussi que les industriels de l'écran n'ont aucun intérêt à balancer des firmware gratos mais seront probablement intéressé à pousser à l'achat d'un nouvel écran en trainant des pieds pour sortir des firmware ou en sous entendant que cela n'est pas possible.  
Le résultat sera fort probablement le même, c'est-à-dire passer par la case achat d'un nouvel écran, le surcoût du module Gsync (que personne ne peut encore évaluer actuellement de manière fiable, comprendre sans fanboyisme balançant des valeurs au hasard dans les plusieurs centaines d'euros à la louche ) en moins. Cela sera probablement juste un prétexte pour maintenir les prix sans baisse.
 
Edit : je précise que parle des écrans fixe, pas portables pour lesquels cela serait déjà possible, l'électronique de contrôle et la connectique semblant déjà adaptée.

Message cité 1 fois
Message édité par t3ddy le 08-01-2014 à 17:39:36
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6

Aller à :
Ajouter une réponse
 

Sujets relatifs
Changement de C-G[HFR] Focus : Nvidia Tegra K1 et son GPU Kepler : les details
[HFR] Actu : CES: Les écrans G-SYNC pour le printemps[HFR] Actu : CES: Nvidia annonce Tegra K1, avec Denver en option
PC Gamer AMD[HFR] Actu : Radeon R9 290 et 290X customs, nos 1ers tests !
Plus de sujets relatifs à : [HFR] Actu : CES: AMD FreeSync : du G-SYNC gratuit !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR