Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1746 connectés 

 


 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  805  806  807  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°7160419
safe
Attends, .... je t'explique !
Posté le 13-10-2009 à 13:31:45  profilanswer
 

Reprise du message précédent :
Acheté, je teste ce soir. par contre j'ai juste une question, il y a trois prises sur la carte  
- 1 pour le ventilateur : dois je raccorder cette prise ou est ce que le ventilo va fonctionner sans ?
- 2 pour la carte ( molex 6 pins ) : dois je reaccorder les deux ou une seule ?
 
Merci d'avance.


Message édité par safe le 13-10-2009 à 13:45:06

---------------
Visitez mon nouveau site de photos
mood
Publicité
Posté le 13-10-2009 à 13:31:45  profilanswer
 

n°7160450
hidetoo
J'ai mis un chapeau !
Posté le 13-10-2009 à 14:01:00  profilanswer
 

Une prise pour ventilo ? :o
Sinon, il faut brancher les 2 prises d'alimentation.


---------------
ACH/VDS Pornographie pour Geek !!! FEED
n°7160613
0b1
There's good in him
Posté le 13-10-2009 à 15:36:01  profilanswer
 

alexreunion a écrit :


Viens pas te plaindre si ta CG rend l'âme prématurément dans quelques temps  :o


Oui papa ... !
 
Nan mais qu'est-ce qu'il faut pas lire ici  :pfff:

n°7160616
xvince1
Ma question préférée
Posté le 13-10-2009 à 15:39:51  profilanswer
 

0b1 a écrit :


Oui papa ... !
 
Nan mais qu'est-ce qu'il faut pas lire ici  :pfff:


 
 
 :lol:


Message édité par xvince1 le 13-10-2009 à 15:40:04

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7160674
chicco77
Posté le 13-10-2009 à 16:20:00  profilanswer
 

Bon j ai pas eu de réponse. Est-ce qqn qui a la gtx 295 peut m aider svp...
 
Le ventilo est réglé par défaut pour ne jamais dépasser les 41% même en grosse appli 3d style jeu etc. Résultat la carte monte vite à 90 degrés si on touche pas l option ventilo. Par conter avec le ventilo qui tourne à 70 ou 80%, s'il fait certe du bruit désormais, les températures ne dépassent pas 80 degrés.
 
Donc comment modifier de facon propre les ventilos de la gtx 295 ? Sous rivatuner, je peux que changer , en passant de auto control a direct control, le paramètre appli 3d, et ca me change après directement sans que je demande rien les 3 vitesses, soit 2d, low 3d et full 3d, je peux pas mettre des valeurs différentes. Or c est chiant d avoir un ventilo à 70% sous windows. Pourtant avec les vieilles versions de riva et mes autres cg je pouvais modifier les paramètres individuellement.
 
Aussi qui sait la différence entre modifier là dans cette onglet FAN avec les 3 paramètres 2d 3d low et 3d full et sous enable low level fan ?
 
Car si on change sous low level fan ca fait la même chose, on peut régler le % qu on veut, et donc je comprends pas la différence entre les 2.

n°7161706
noobzed
Where is Brian ? DTC !
Posté le 14-10-2009 à 08:48:48  profilanswer
 

review fake ou pas de fermi :
http://www.youtube.com/watch?v=10xKBSEEvwQ


---------------
FEEDBACK HFR  
n°7161740
xvince1
Ma question préférée
Posté le 14-10-2009 à 09:54:31  profilanswer
 


 
Et bé !!! En tout cas, les chiffres sont crédibles...  reste à savoir le prix et la date de disponibilité réelle.


---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7162902
safe
Attends, .... je t'explique !
Posté le 14-10-2009 à 22:41:13  profilanswer
 

Ma nouvelle carte marche du tonnère. ou puis je récupérer les bons paramétrage de l'interface Nvidia pour jouer correctement a NFS Shift par exemple ?


---------------
Visitez mon nouveau site de photos
n°7163251
_imothep_
Posté le 15-10-2009 à 09:44:45  profilanswer
 

Salut les jeunes,
 
Je vous soumet mon petit problème du moment.
 
J'ai fait mienne une msi gtx 275 lightning (1792mo ram, toussa).
Je l'installe tranquillement sur ma p5n-d (dans mon antec sonata 3, donc avec 500W derrière).
Je branche les deux petits cable d'alim à 6 broches, en prenant soin de les prendre sur deux cables différents.
 
Je relance mon win 7 RC avec les derniers drivers nvidia, puis un petit 3dmark vantage, histoire d'admirer les perfs, et paf pasteque, 7000 points pour le GPU.
C'est a peu pret ce que j'avais avec ma 8800gt...
 
A coté, j'ai un c2d 8500, 3gb de ddr2 @ 800mhz, 3 sataII en raid 5, et un graveur dvd.
 
Je me dis que peut-être c'est l'alim qui suit pas, alors je débranche les 3 disques en raid, je met un autre sata2 et je réinstall win7 RC dessus, les drivers de la p5n-d et de la carte graphiques.
Et j'obtiens un joli 8500 points pour le GPU.
 
Je change aussi la cg de port pcie 16x (la p5n-d est SLI), mais c'est pareil.
 
La config par défaut dans mon bios donne le même résultat...
 
Y'a comme un problème: si je me fie au test de guru3 dhttp://www.guru3d.com/article [...] ew-test/19, je suis censé avoir quelque chose dans les 12000.
 
Possesseurs de msi 275 lightning, vous avez combien à 3dmark vantage?
Les autres, vous avez des pistes d'investigation?
 
 
 

n°7163255
damy_59
Posté le 15-10-2009 à 09:55:33  profilanswer
 

Bonjour à tous,
 
Je possède une alimentation Corsair HX 520W ; cette carte graphique fonctionnera t-elle correctement sur mon PC ?
http://www.gigabyte.fr/Products/VG [...] uctID=3176
 
J'ai comparé cette même carte avec la version O/C ; pour celle-ci, ils préconisent une alimentation de 550W minimum tandis que pour la O/C, c'est une alimentation de 500W minimum. A votre avis ? ;)


---------------
Damien.
mood
Publicité
Posté le 15-10-2009 à 09:55:33  profilanswer
 

n°7163306
jesaipacki
Posté le 15-10-2009 à 10:50:55  profilanswer
 

Ton alim est amplement suffisant, les préconisations sont bidons comme la plupart du temps.

n°7163413
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-10-2009 à 13:02:39  profilanswer
 

damy_59 a écrit :

Bonjour à tous,
 
Je possède une alimentation Corsair HX 520W ; cette carte graphique fonctionnera t-elle correctement sur mon PC ?
http://www.gigabyte.fr/Products/VG [...] uctID=3176
 
J'ai comparé cette même carte avec la version O/C ; pour celle-ci, ils préconisent une alimentation de 550W minimum tandis que pour la O/C, c'est une alimentation de 500W minimum. A votre avis ? ;)


 
biensur :) ils disent une 550w mini car la plupart des gens qui ne connaissent rien achete les alim no name avec du watt alors qu'en faite le 550 ca équivaut a du 300 juste assez en gros et encore ^^ ca peut merder


---------------
FeedBack
n°7163960
foksa37
Posté le 15-10-2009 à 17:57:37  profilanswer
 

Salut, je voulais poser cette question sur le topic GT300 à sa réouverture mais j'ai même pas eu le temps.

 

C'est plutôt une question technique je pense, qui concerne les perfs de la asus mars,
http://www.techpowerup.com/reviews [...] _285_MARS/

 

En 2560AA4X sous crysis ( :D ), comparé à la GTX295 normale, elle fait un pouième de % mieux, alors qu'elle dispose d'une part d'une bande passante plus élevée (bus 512 vs bus 448 et ram 1152 Mhz vs ram 999 Mhz) et d'autre part d'une quantité de mémoire embarquée plus importante (2 Go par GPU au lieu de 896 Mo). Il me semble qu'en très haute résolution avec filtre, les paramètres limitants sont la bande passante et la quantité de mémoire video donc je pige pas ce si faible écart.

 

PS : je n'envisage pas l'achat d'une mars :jap:

 

Edit : Sur stalker CS un observe un comportement "conforme à celui attendu" : en 2560, la gtx295 est à 12 fps, bridée par sa bp ou ses 896 Mo, tandis que la mars atteint les 28 fps.


Message édité par foksa37 le 15-10-2009 à 18:15:31
n°7163982
manut2500
Posté le 15-10-2009 à 18:06:15  profilanswer
 

ce que l'on remarque aussi c'est que sur ce dernier test en 2560 aa4x sous crisis bizarrement la 4870X2 lachée jusqu'alors revient ce qui me ferait penser à une CPU limited dans ce cas la, dans cette resolution trop d'objets a calculer (des trinagles trop petits dans les plus basses resolution deviennent peut etre visibles dans cette resolution) ou alors une mauvaise gestion des 2 x 2 Go.

n°7163996
foksa37
Posté le 15-10-2009 à 18:13:55  profilanswer
 

manut2500 a écrit :

ce que l'on remarque aussi c'est que sur ce dernier test en 2560 aa4x sous crisis bizarrement la 4870X2 lachée jusqu'alors revient ce qui me ferait penser à une CPU limited dans ce cas la, dans cette resolution trop d'objets a calculer (des trinagles trop petits dans les plus basses resolution deviennent peut etre visibles dans cette resolution) ou alors une mauvaise gestion des 2 x 2 Go.


 
CPU limited ça fait bizarre à crysis en 2560 AA4x avec un i7@3,8. La x2 remonte, mais il me semble que c'est parce que l'architecture ATi souffre moins du manque de mémoire video, on observe souvent ce comportement d'un rapproché de la x2 en condition extrême  :p  
 
Après comme tu le dis les pilotes sont peut être pas au point pour gérer les 2 Go par GPU. Ca existe les gtx285 avec 2 Go ?
 
Ou bien Crysis dans ces conditions est tellement gourmand que l'augmentation bp et mémoire video reste trop faible pour observer un gain ?  :ouch:  

n°7164090
zack-fr-64
Posté le 15-10-2009 à 18:57:48  profilanswer
 

J'aurais voulu savoir car je ne trouve pas de test sur le net
 
entre la dual-pcb et la mono-pcb sur la gtx295
 
quels améliorations?
 
J'entend par la pas performances graphiques, mais niveau température, nuisance sonore. (sauf si y a une diff graphique mais j'en doute)
 
Merci


---------------
Mon feed back /<-->/ Mon topic achat, vente
n°7164307
ftp381
ça fûme!
Posté le 15-10-2009 à 21:04:52  profilanswer
 

de ce que l'on lit dans les topic :
- moins de bruit,
- moins de chauffe,
- plus grande aptitude à l'o/c,
- perf identique à fréq égale.


---------------
"Bite my shiny metal ass."
n°7164333
Dyphen
Pull the trigger
Posté le 15-10-2009 à 21:17:15  profilanswer
 

zack-fr-64 a écrit :

J'aurais voulu savoir car je ne trouve pas de test sur le net
 
entre la dual-pcb et la mono-pcb sur la gtx295
 
quels améliorations?
 
J'entend par la pas performances graphiques, mais niveau température, nuisance sonore. (sauf si y a une diff graphique mais j'en doute)
 
Merci


 
j'ai une Gainward 295 mono pcb
franchement en idle c'est un frigo. 38°C, in game je dépasse jamais 60°C
fait aussi largement moins de bruit.
sinon les perf sont identiques a fréquence égale comme dit ftp381

n°7164347
zack-fr-64
Posté le 15-10-2009 à 21:24:46  profilanswer
 

si c'est plus frais, moins de bruit et plus de monter en oc (logique si plus frais) alors je vais chercher une mono-pcb


---------------
Mon feed back /<-->/ Mon topic achat, vente
n°7164658
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-10-2009 à 01:20:00  profilanswer
 

 
         NVIDIA's Bumpy Ride: A Q4 2009 Update
 
http://images.anandtech.com/reviews/video/NVIDIA/Q409Update/cypressvsgt200b.png

Citation :

NVIDIA told me two things. One, that they have shared with some OEMs that they will no longer be making GT200b based products. That’s the GTX 260 all the way up to the GTX 285. The EOL (end of life) notices went out recently and they request that the OEMs submit their allocation requests asap otherwise they risk not getting any cards.

Citation :

Regardless of how you want to phrase it, there will be lower than normal supplies of GT200 cards in the market this quarter. With higher costs than AMD per card and better performance from AMD’s DX11 parts, would you expect things to be any different?


La production du GT200b est bel et bien terminée.
Il ne reste que des stocks de GTX260/275/285, et de GTX295.
Ces stocks devraient s'être vidés d'ici le mois de février prochain.
 
 :jap:


Message édité par Wirmish le 16-10-2009 à 01:20:58
n°7164703
chicco77
Posté le 16-10-2009 à 03:04:14  profilanswer
 

Marrant cette Asus Mars, et hyper bien l article.
 
Par contre faut vraiment être con pour s acheter ca à 1200 usd alors qu elle prend moins genre 8% à une gtx 295.  
 
Un SLI de 295 est bien bien plus puissant et moins cher...
 
D'ailleurs justement, ce test montre bien la puissance de la gtx 295, c est impressionant je trouve sur l ensemble des jeux. Surtout les différences énormes avec la 275 ou surtout 285. Impressionant franchement cette carte, pas prêt de lâcher le morceau !

n°7164837
Alis_70
Posté le 16-10-2009 à 10:39:49  profilanswer
 

zack-fr-64 a écrit :

si c'est plus frais, moins de bruit et plus de monter en oc (logique si plus frais) alors je vais chercher une mono-pcb


je viens de recup une gainward mono pcb aussi et j'en suis vraiment content, surtout pour le bruit, je pensais que ça serais pire que ma gtx280 et pas du tout, tu ne l'entends pas en idle et en full ça s'emballe vraiment pas beaucoup. Et effectivement niveau température en full ça monte pas non plus ... niveau OC ça a l'air de bien monter aussi, genre gpu/ram 680/1200 sans soucis ... je vois même pas le besoin de la WCoolée  :o à mon avis je ne l'overclockerais pas plus avec un WB.


Message édité par Alis_70 le 16-10-2009 à 10:41:40
n°7164858
Gigathlon
Quad-neurones natif
Posté le 16-10-2009 à 10:57:58  profilanswer
 

chicco77 a écrit :

Un SLI de 295 est bien bien plus puissant et moins cher...
 
D'ailleurs justement, ce test montre bien la puissance de la gtx 295, c est impressionant je trouve sur l ensemble des jeux. Surtout les différences énormes avec la 275 ou surtout 285. Impressionant franchement cette carte, pas prêt de lâcher le morceau !


Oui enfin... faut déjà que le jeu ait un profil, car sinon c'est tout simplement la cata:
 
http://www.hardware.fr/medias/photos_news/00/27/IMG0027097.gif
 
Aucune info sur ce jeu pourtant gourmand dans la dernière mise à jour des profils SLI...
 
 
Alors si en plus tu considères le problème du quad-GPU (pas spécifique à nVidia d'ailleurs), ça ramène la solution du SLI de GTX295 à une machine de bench tant les perfs sont aléatoires (entre une GTX260+ et mieux qu'un tri-SLI de GTX285...)

n°7164931
Alis_70
Posté le 16-10-2009 à 11:51:05  profilanswer
 

la 4870x2 annonce des perfs au dessus de la moyenne avec ce jeu, ben moi je l'ai testé avec une X2 justement, c'était la cata (avec les 3 derniers catalyst dont le 9.10beta) ... donc niveau instabilité il n'y a pas que chez nvidia ... je n'ai pas encore essayé depuis que j'ai la 295.
en tout cas avec une GTX280 OC je le faisait tourner sans soucis ... (avec les détails au max), je n'ai jamais vu de signe de rallentissements, donc bon les benchs ... (par contre en 1680*1050 hein)


Message édité par Alis_70 le 16-10-2009 à 11:53:52
n°7164972
Gigathlon
Quad-neurones natif
Posté le 16-10-2009 à 12:21:50  profilanswer
 

La présence des 4870X2 et autres 5800 n'a rien à voir avec le sujet, contente toi de lire les 2 dernières lignes: la GTX295 fait déjà moins bien qu'une GTX285, et ça n'est pas un cas isolé même si globalement nVidia suit assez bien avec ses profils SLI.
 
On trouve strictement le même problème en face et, honnêtement, c'est très représentatif de la réelle utilité de ces solutions multi-GPU: jouer à kikalaplugrosse sans que le client n'ait réellement d'assurance quant aux perfs. D'ailleurs dans le même article on a le même scénario avec la HD4870X2 sous Anno1404 1.1.

n°7164978
Alis_70
Posté le 16-10-2009 à 12:26:44  profilanswer
 

comme tu l'as dit : nvidia suit assez bien avec ses profils sli, les jeux qui ne le prenne pas en compte sont quand même marginaux, mais si on regarde la globalité des jeux sur le marché, le gain est présent ce n'est pas que du marketing ... alors après si tu te focalises sur les quelques jeux qui foirent et que tu en fait une généralité, c'est clair on va pas s'en sortir.  
En plus la majorité des acheteurs achètent du bi-gpu en connaissance de cause ...  
 
C'est pas possible de le créer soit même le profil SLI ? (question totalement innocente)

Message cité 1 fois
Message édité par Alis_70 le 16-10-2009 à 12:28:46
n°7164979
Turk182
Strike Again !!!
Posté le 16-10-2009 à 12:28:22  profilanswer
 

J'ai ce jeu et je tourne avec les options tout a fond en 1280 X 1024 avec une GTX295

 

Au fait comment ont crée un Profil SLI ¿?

Message cité 1 fois
Message édité par Turk182 le 16-10-2009 à 12:29:45

---------------
Mes mémoires de Retrogamer - Le Retroblog de Turk182! en livres - Suivez le blog sur Facebook
n°7164982
Alis_70
Posté le 16-10-2009 à 12:29:51  profilanswer
 

toi par contre c'est ta résolution qui fait que tu n'as jamais de soucis, je pense même que la carte est disproportionnée pour la résolution à laquelle tu joue [:biboo_]

Message cité 1 fois
Message édité par Alis_70 le 16-10-2009 à 12:30:41
n°7164986
Turk182
Strike Again !!!
Posté le 16-10-2009 à 12:30:22  profilanswer
 

Alis_70 a écrit :

toi par contre c'est ta résolution qui fait que tu n'as jamais de soucis, je pense même que la carte est disproportionnée pour la résolution à laquelle tu joue


 
ecran 19'' :-/


---------------
Mes mémoires de Retrogamer - Le Retroblog de Turk182! en livres - Suivez le blog sur Facebook
n°7164989
dll_75
Posté le 16-10-2009 à 12:33:36  profilanswer
 

Gigathlon a écrit :

La présence des 4870X2 et autres 5800 n'a rien à voir avec le sujet, contente toi de lire les 2 dernières lignes: la GTX295 fait déjà moins bien qu'une GTX285, et ça n'est pas un cas isolé même si globalement nVidia suit assez bien avec ses profils SLI.
 
On trouve strictement le même problème en face et, honnêtement, c'est très représentatif de la réelle utilité de ces solutions multi-GPU: jouer à kikalaplugrosse sans que le client n'ait réellement d'assurance quant aux perfs. D'ailleurs dans le même article on a le même scénario avec la HD4870X2 sous Anno1404 1.1.


 
tout a fait d'accord.
Dans ce cas precis on voit bien qu'il n'y a qu'un seul GPU d'utilisé sur la 295.
Ca sera corrigé au max dans 1 mois avec avec des nouveaux drivers ou avant avec des drivers Beta. C'est effectivement le probleme recurent des Multi-Gpu : la dépendance des drivers.
Maintenant, le monde des monogpu n'est pas parfait non plus, surtout les tous derniers modeles ou il faut patienter qq mois pour que tous les bugs et problemes soient résolus dans les jeux les plus courant

n°7165000
Gigathlon
Quad-neurones natif
Posté le 16-10-2009 à 12:40:00  profilanswer
 

Alis_70 a écrit :

si on regarde la globalité des jeux sur le marché, le gain est présent ce n'est pas que du marketing ... alors après si tu te focalises sur les quelques jeux qui foirent et que tu en fait une généralité, c'est clair on va pas s'en sortir.  
En plus la majorité des acheteurs achètent du bi-gpu en connaissance de cause ...


Je n'en fais pas une généralité, je souligne un problème récurrent de la solution depuis qu'elle existe. Le problème ne se pose pas pour quelqu'un qui ne joue qu'à des jeux supportés, mais peut se poser au fil du temps avec la sortie de nouveaux jeux ou même patchs (genre le cas Anno1404, CF fonctionnel en 1.0 mais bugs graphiques et CF out en 1.1).
 
Et détrompes toi, la "majorité" est très souvent ignare, avec un nombre incalculable de raisonnements à la "2x plus c'est 2x mieux" alors que globalement c'est loin d'être vrai, en particulier avec la GTX295 et le problème que nVidia traine depuis toujours avec le dépassement de la capacité RAM des cartes (observable également sur 8800GTS 320Mo et 8800GT 256Mo), ce qui enlève même l'argument des réglages extrêmes type 2560x1600 AA 4x.

n°7165013
Alis_70
Posté le 16-10-2009 à 12:49:28  profilanswer
 

sans parler des problèmes causés par la techno bi-gpu, je pense quand même que les gens qui sont près à acheter une carte de ce style (et donc à mettre aussi cher dans une carte graphique) sont les mêmes qui lisent les tests (il n'y a pas besoin d'avoir bac+10 n'y de connaitre la technologie employée pour comprendre un graphique) et qui se rendent compte que la carte n'est pas 2 x plus puissante qu'une gtx260/280.  
 
Et si ils sont très souvent ignarent comme tu le penses, ça veut dire qu'ils n'y connaisse rien et qu'ils ont juste lu la brochure du site de vente, et je tiens à te faire remarquer que dans beaucoup, ce n'est même pas marqué que la 295 est une bi-gpu !
 
Pour le reste je suis évidemment d'accord  :jap:
 
EDIT : Génial j'ai voulu réinstaller Red faction pour le tester avec ma 295, cette saloperie de windows live trouve bien mes saves sauf qu'il me dit qu'elle sont illisibles (j'ai réinstallé windows entre temps). Ca m'avait déjà fait ça avec Batman  :fou:


Message édité par Alis_70 le 16-10-2009 à 13:53:42
n°7165508
CrestG
YEEAAH! CRESTSIDE FOE SHOW
Posté le 16-10-2009 à 18:49:59  profilanswer
 

salut a tous,
j'ai poster ici:
http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
au cas où
a+


---------------
mon feed => http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7165511
manut2500
Posté le 16-10-2009 à 18:51:23  profilanswer
 

Turk182 a écrit :

J'ai ce jeu et je tourne avec les options tout a fond en 1280 X 1024 avec une GTX295
 
Au fait comment ont crée un Profil SLI ¿?


 
tu ne crois pas que tu devrais investir dans un autre ecran ? la c'est du gachi

n°7165523
damy_59
Posté le 16-10-2009 à 18:57:10  profilanswer
 

Bonsoir à tous,
 
Je suis passé il y a quelques mois d'une GeForce 9800 GT 512MB à une ATI Radeon HD 4870 1 GB car j'avais, entre autres, des saccades dans certains jeux dont Bioshock. :fou: Ce fut le jour et la nuit entre ces deux cartes graphiques ! Plus du tout de saccades (ou alors très minimes) dans Bioshock avec la nouvelle carte ! Aujourd'hui, suite à un problème que je rencontre avec la HD 4870, j'ai acheté une GeForce GTX 260 SO 869MB. Certes je n'ai plus de plantages dans les applications mais j'ai de nouveau pas mal de saccades dans Bioshock, en particulier lorsque les portes s'ouvrent dans le jeu (diaporama de quelques secondes). J'avais joué le même passage avec la HD 4870 et aucune saccade. :ouch:  
 
J'ai remis les paramètres de la carte graphique par défaut, au cas où, en vain ...
 
Avez-vous une solution car d'après un benchmark que j'ai pu voir sur ce jeu, ma nouvelle carte graphique est plus performante que la HD 4870, or, j'ai l'impression que c'est plutôt l'inverse.
 
Je n'ai pas de problème avec les autres jeux ...
 
Je suis content et déçu à la fois. Content car je n'ai plus de plantages causés par des pilotes Catalyst discutables mais déçu car j'ai des saccades dans les jeux.


---------------
Damien.
n°7165527
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 16-10-2009 à 19:01:37  profilanswer
 

damy_59 a écrit :

Bonsoir à tous,
 
Je suis passé il y a quelques mois d'une GeForce 9800 GT 512MB à une ATI Radeon HD 4870 1 GB car j'avais, entre autres, des saccades dans certains jeux dont Bioshock. :fou: Ce fut le jour et la nuit entre ces deux cartes graphiques ! Plus du tout de saccades (ou alors très minimes) dans Bioshock avec la nouvelle carte ! Aujourd'hui, suite à un problème que je rencontre avec la HD 4870, j'ai acheté une GeForce GTX 260 SO 869MB. Certes je n'ai plus de plantages dans les applications mais j'ai de nouveau pas mal de saccades dans Bioshock, en particulier lorsque les portes s'ouvrent dans le jeu (diaporama de quelques secondes). J'avais joué le même passage avec la HD 4870 et aucune saccade. :ouch:  
 
J'ai remis les paramètres de la carte graphique par défaut, au cas où, en vain ...
 
Avez-vous une solution car d'après un benchmark que j'ai pu voir sur ce jeu, ma nouvelle carte graphique est plus performante que la HD 4870, or, j'ai l'impression que c'est plutôt l'inverse.
 
Je n'ai pas de problème avec les autres jeux ...
 
Je suis content et déçu à la fois. Content car je n'ai plus de plantages causés par des pilotes Catalyst discutables mais déçu car j'ai des saccades dans les jeux.


 
deja avoir des souçis , c'est vraiment pas normal ^^ format c:


---------------
FeedBack
n°7165532
damy_59
Posté le 16-10-2009 à 19:04:54  profilanswer
 

Vu que je vais recevoir Windows 7 dans une dizaine de jours, je n'ai pas vraiment envie de réinstaller Windows XP ...
Et puis ce matin, Bioshock fonctionnait correctement avec ma HD 4870 donc je ne pense pas que ce soit logiciel ...


Message édité par damy_59 le 16-10-2009 à 19:05:39

---------------
Damien.
n°7165534
slipknot13​666
In medio stat virtus
Posté le 16-10-2009 à 19:06:19  profilanswer
 

Moi aussi avec ma gtx 260, sa saccade sur des passages qui demandent pas beaucoup de ressources à la CG alors que ingame y'a pas de problème. Par exemple dans race driver grid au début d'une course quand on voit l'ensemble des voitures.


---------------
=======>  http://yumix-project.blogspot.com/ <========                             =======>  http://www.flickr.com/photos/sgask <========
n°7165535
manut2500
Posté le 16-10-2009 à 19:06:42  profilanswer
 

si tu changes de carte souvent comme ca c'est que tu as les deux drivers present et ca peut poser probleme

n°7165537
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 16-10-2009 à 19:07:41  profilanswer
 

slipknot13666 a écrit :

Moi aussi avec ma gtx 260, sa saccade sur des passages qui demandent pas beaucoup de ressources à la CG alors que ingame y'a pas de problème. Par exemple dans race driver grid au début d'une course quand on voit l'ensemble des voitures.


 
moi ca ne le faisait deja pas sur une 8800ultra ^^ donc y'a du soucis :p cpu éssouflé ?


---------------
FeedBack
n°7165540
manut2500
Posté le 16-10-2009 à 19:09:29  profilanswer
 

sur race driver grid il y avait des moments ca me le faisait, d'autres non sur le meme circuit au meme moment, jamais compris purquoi, comme des ralentis en pleine action

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  805  806  807  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR