Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1449 connectés 

 



Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  433  434  435  ..  509  510  511  512  513  514
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11210280
Miky 2001
N'y pense même pas !!!
Posté le 13-01-2023 à 08:06:41  profilanswer
 

Reprise du message précédent :

Halfsup a écrit :

Oui enfin quand je dis idiot c'est : est ce que j'aurais une perte de perfs de 5% ou de 15% quoi ?
:o


 
J’avais pas vu ton « ? »  :jap:  
 
Non c’est pas idiot pour jouer en 4K haute fréquences !
 
Ton CPU tient encore largement la route.  
 
Tu n’auras pas dans les benchs les meilleurs scores voilà tout… à l’origine du saint Bootleneck générateur de vente de CPU , saint graal chez Intel et AMD pour vendre leurs derniers gros processeur…
 

mood
Publicité
Posté le 13-01-2023 à 08:06:41  profilanswer
 

n°11210286
arkeod
Lurkeur since '01
Posté le 13-01-2023 à 08:33:10  profilanswer
 

Halfsup a écrit :

Oui enfin quand je dis idiot c'est : est ce que j'aurais une perte de perfs de 5% ou de 15% quoi ?
:o


Fais une recherche sur le topic, on a déjà parlé du bottleneck des 9900.


---------------
"While the whole world was having a big old party, a few outsiders and weirdos [...] saw the giant lie at the heart of the economy, and they saw it by doing something the rest of the suckers never thought to do: They looked."
n°11210300
arkeod
Lurkeur since '01
Posté le 13-01-2023 à 09:12:17  profilanswer
 

Désactiver le multi thread est une solution dans certains cas mais avec des compromis.


---------------
"While the whole world was having a big old party, a few outsiders and weirdos [...] saw the giant lie at the heart of the economy, and they saw it by doing something the rest of the suckers never thought to do: They looked."
n°11210307
imarune
Posté le 13-01-2023 à 09:30:34  profilanswer
 

olioops a écrit :


La 4090 ne prend pas sa puissance sur le port PCIe de la CM, seulement 15w~ sur 75w dispo.


75W en Pcie 3, 300W en Pcie4. J'ai googlé pour les 15W maxi sur la CM, je n'ai rien trouvé. Tu as vu ça où  :??: (vraie question).

titof3 a écrit :

Les 4090 gainward classiques ont que 3 connecteurs, je suis monté jusqu'à 570w.


Son alimentation délivre à priori 150W par port Pcie, pas 300W (Corsair RM1000x 80 PLUS Gold 1000 Watts).
Sa CG tire donc 450W max directement de l'alim. Et d'après toi, 15W max de la CM. Je veux bien avoir ton explication sur la provenance des 120W supplémentaires que sa CG consomme (570-450).

Message cité 1 fois
Message édité par imarune le 13-01-2023 à 09:32:08
n°11210309
drdrake
Pourfendeur d'atmo
Posté le 13-01-2023 à 09:34:09  profilanswer
 

nikoft a écrit :

 

C'est pas "idiot" parceque t'aura forcément un gains en perfs.
Par contre il faut voir si tu a prévu dans un court/moyen termes de changer de proc, parceque tu exploitera pas toute les possibilités avec ta config actuel effectivement

 

Qu'est ce que ca peut faire si il utilise pas 100% de la CG si ca convient ? au moins s'il utilise 100% du proc? Sinon, apres avoir changer de proc, il faudra changer la CG pour exploiter 100% du proc? ainsi de suite, ...Logique douteuse la...

Message cité 2 fois
Message édité par drdrake le 13-01-2023 à 09:35:01
n°11210311
nikoft
Posté le 13-01-2023 à 09:38:38  profilanswer
 

drdrake a écrit :


 
Qu'est ce que ca peut faire si il utilise pas 100% de la CG si ca convient ? au moins s'il utilise 100% du proc? Sinon, apres avoir changer de proc, il faudra changer la CG pour exploiter 100% du proc? ainsi de suite, ...Logique douteuse la...


Je pense avoir été suffisamment neutre et cordial dans ma réponse pour ne pas mériter ta réponse, un poil agressive...
Dans ma réponse je dis quelque part la même chose que toi sur une partie, et je dis juste qu'il n'exploitera pas a 100% sa cg avec cette config, sans méchanceté

Message cité 1 fois
Message édité par nikoft le 13-01-2023 à 09:54:43
n°11210320
FoX_LorrY
Posté le 13-01-2023 à 09:58:17  profilanswer
 

nikoft a écrit :


 
Les 4070ti pour une bonne partie de certaines refs sont en rupture de stock,
La 4090 FE ne tiens jamais 24h en stock
Je sais pas d'où tu sors tes infos mais en dehors de la 4080, cette gen se vend très très bien


J'ai jamais dit que la 4090 ne se vendait pas, au contraire c'est la seule qui vaut son prix donc elle s'écoule sans problème.
Quand tu fais un tour sur LDLC&co, Caseking, PCComponentes et Newegg il y a quantités de 4070ti dont un paquet d'entrée de gamme style Zotac ou Gigabyte Eagle à moins de 1000€.
Et les vendeurs physiques aux US comme Microcenter en ont un paquet sur les bras aussi.
Idem pour les 7900XT d'ailleurs.
 
Alors que les 7900XTX et les 4090 sont en rupture à peu près partout.
 
On va attendre les chiffres de vente officiels à voir les sondages sortie des urnes j'ai du mal à dire que cette génération "se vend très très bien".
 
 

nikoft a écrit :


 
C'est marrant, beaucoup ici on la mémoire courte, et personne ne parle de la 2080 ti qui ne se trouvait pas en dessous de 1200


 
La 2080ti était un flagship qui avait personne en face donc placement tarifaire un peu libre. D'ailleurs la 3080ti était pas trop loin en termes de prix.
Et ça m'étonnerait beaucoup que la 4080ti sortent à moins de 1200€...

n°11210370
drdrake
Pourfendeur d'atmo
Posté le 13-01-2023 à 10:59:30  profilanswer
 

nikoft a écrit :


Je pense avoir été suffisamment neutre et cordial dans ma réponse pour ne pas mériter ta réponse, un poil agressive...
Dans ma réponse je dis quelque part la même chose que toi sur une partie, et je dis juste qu'il n'exploitera pas a 100% sa cg avec cette config, sans méchanceté


J'ai pas voulu être agressif, toutes mes excuses pour la formulation.  
Je poussais juste le raisonnement que je vois trop souvent sur "l'exploitation a fond" d'un truc qui finalement justifie le prochain achat inutile.

n°11210384
nikoft
Posté le 13-01-2023 à 11:15:56  profilanswer
 

drdrake a écrit :


J'ai pas voulu être agressif, toutes mes excuses pour la formulation.  
Je poussais juste le raisonnement que je vois trop souvent sur "l'exploitation a fond" d'un truc qui finalement justifie le prochain achat inutile.


 
On est d'accord, mais dans certains cas l'upgrade peut être intéressantte, dans mon cas en novembre j'avais troqué mon 5600x contre un 5800x3d, pour un coup très raisonnable, et un gain niveau perf non négligeables.
 
Maintenant, objectivement, le gains ne m'a apporté que des "chiffres" tant j'étais déjà très confortable sur tous les jeux...

n°11210388
Miky 2001
N'y pense même pas !!!
Posté le 13-01-2023 à 11:18:20  profilanswer
 

drdrake a écrit :


J'ai pas voulu être agressif, toutes mes excuses pour la formulation.  
Je poussais juste le raisonnement que je vois trop souvent sur "l'exploitation a fond" d'un truc qui finalement justifie le prochain achat inutile.


Je rejoins ton raisonnement  :jap:  
 
One entend trop cette logique qui consiste à dire qu'il faut pas de bottleneck... mais si c'est pas le CPU qui limite alors se sera le GPU, ou sera la limite ? Simple : avoir le plus gros CPU avec le plus gros GPU et ovck le tout... sans bénéfice concret et palpable en jeux avec pour seule gratification un score dans les Benchmark plus haut ! Mais l'experience de jeux elle restera identique... Cout supplémentaire, conso supplémentaire...
 
Après on est sur un forum de passionné donc parfois le choix n'est pas celui de la raison mais de la passion, mais il est bon de temps en temps de voir le bénéfice réel et d'oublier les paillettes du marketing...

mood
Publicité
Posté le 13-01-2023 à 11:18:20  profilanswer
 

n°11210391
mimieseb
Posté le 13-01-2023 à 11:18:53  profilanswer
 

Ma 4080 tourne entre 92 et 98 % avec un 9900k sur rdr2 cyberpunk 77  
Alors certainement que dans les Benchmarks je ferais pas le max de point mais en jeu ça passe  
Sûrement que que mes fps mini doivent être plus bas


---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°11210406
vegetaleb
Un jour je serai riche!
Posté le 13-01-2023 à 11:38:37  profilanswer
 

mimieseb a écrit :

Ma 4080 tourne entre 92 et 98 % avec un 9900k sur rdr2 cyberpunk 77  
Alors certainement que dans les Benchmarks je ferais pas le max de point mais en jeu ça passe  
Sûrement que que mes fps mini doivent être plus bas


 
Ils ont sorti la MAJ pour DLSS 3 ?


---------------
Mon blog pour photographie: https://fujiandstuff.wordpress.com/
n°11210408
Halfsup
Posté le 13-01-2023 à 11:42:30  profilanswer
 

Merci pour vos retours concernant mon interrogation... :)

n°11210410
mimieseb
Posté le 13-01-2023 à 11:44:20  profilanswer
 

vegetaleb a écrit :


 
Ils ont sorti la MAJ pour DLSS 3 ?


 
Sur rdr2 non et je sais pas si c’est au programme  
Ça serait pas mal car actuellement l’image me semble bizarre en l’activant
 
Après je cache pas que j’ai dans l’optique de changer de cm / cpu sur les prochaines générations ou générations actuelles si les tarif explosent


Message édité par mimieseb le 13-01-2023 à 11:49:29

---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°11210438
Mick461
Posté le 13-01-2023 à 12:10:28  profilanswer
 

Perso avec un 9900k en 3440 1440p,  réglages ultra partout,  ça passe bien sans être brider,  j ai un écran 120hz aussi donc ça aide un peu

n°11210446
titof3
Posté le 13-01-2023 à 12:22:09  profilanswer
 

imarune a écrit :


75W en Pcie 3, 300W en Pcie4. J'ai googlé pour les 15W maxi sur la CM, je n'ai rien trouvé. Tu as vu ça où  :??: (vraie question).


 

imarune a écrit :


Son alimentation délivre à priori 150W par port Pcie, pas 300W (Corsair RM1000x 80 PLUS Gold 1000 Watts).
Sa CG tire donc 450W max directement de l'alim. Et d'après toi, 15W max de la CM. Je veux bien avoir ton explication sur la provenance des 120W supplémentaires que sa CG consomme (570-450).


 
C'est un mystère ces consommations.  
Je suppose que chaque connecteur PCIe peut donner un peu plus que 150w.
J'ai un +150mhz sur le GPU et un +500mhz sur la Ram.
Conso max sur 3dMark : 571w.
Il faudrait que je trouve un connecteur d'alimentation à 4 sorties comme la Gainward GS.

Message cité 3 fois
Message édité par titof3 le 13-01-2023 à 12:40:24
n°11210455
cyberfred
Posté le 13-01-2023 à 12:41:06  profilanswer
 

@titof3 : sur du Timespy Extreme tu tapes 571W max ? je pensais pas que les Gainward pouvait prendre autant , c'est laquelle ta 4090 de chez Gainward ?

Message cité 2 fois
Message édité par cyberfred le 13-01-2023 à 12:41:35
n°11210486
imarune
Posté le 13-01-2023 à 13:28:12  profilanswer
 

cyberfred a écrit :

@titof3 : sur du Timespy Extreme tu tapes 571W max ? je pensais pas que les Gainward pouvait prendre autant , c'est laquelle ta 4090 de chez Gainward ?


Gainward non plus, probablement :o Vu qu'ils ne filent qu'un adaptateur 12 broches/3 pcie avec cette carte :D


Message édité par imarune le 13-01-2023 à 13:38:00
n°11210491
imarune
Posté le 13-01-2023 à 13:33:42  profilanswer
 

titof3 a écrit :


Il faudrait que je trouve un connecteur d'alimentation à 4 sorties comme la Gainward GS.


Je pense que ça serait plus sage, en effet. Et faire de l'UV.

n°11210506
titof3
Posté le 13-01-2023 à 14:10:22  profilanswer
 

cyberfred a écrit :

@titof3 : sur du Timespy Extreme tu tapes 571W max ? je pensais pas que les Gainward pouvait prendre autant , c'est laquelle ta 4090 de chez Gainward ?


 
Sur time SPY extrême : 14270 - graphics 19814.
La Gainward non GS sur alim de 1000w, petit overclock +150 gpu +500 ram.

n°11210526
ax123
Posté le 13-01-2023 à 14:43:13  profilanswer
 

vegetaleb a écrit :


 
Ils ont sorti la MAJ pour DLSS 3 ?


 
 
Pour CP2077, à ce jour, il n'y a pas de version DLSS3 publique (juste la version "journaleux" peut l'activer).
 
Y'a des rumeurs pour une sortie vers février/mars mais rien de précis...
 

n°11210531
cyberfred
Posté le 13-01-2023 à 14:49:50  profilanswer
 

titof3 a écrit :


 
Sur time SPY extrême : 14270 - graphics 19814.
La Gainward non GS sur alim de 1000w, petit overclock +150 gpu +500 ram.


 
oki , merci pour les infos :jap:
 

n°11210553
muaddib696​9
Posté le 13-01-2023 à 15:24:33  profilanswer
 

titof3 a écrit :


 
Sur time SPY extrême : 14270 - graphics 19814.
La Gainward non GS sur alim de 1000w, petit overclock +150 gpu +500 ram.


 
perso stock ma 4090 ltourne a 2745-2730mhz quasi tout le temps en gaming. Toi avec ton OC elle tourne encore au dessus?

n°11210563
ddlabrague​tte
Posté le 13-01-2023 à 15:57:53  profilanswer
 

davinelv13 a écrit :


 
Oh les bonnes alims tiennent sans problème à ce niveau dans une utilisation normale.  
 
Faut vraiment tout OC à mort pour avoir des problèmes.  :jap:


Et encore, sur une bonne monorail 750 ça doit passer  ( au chausse pied peut être mais ça doit passer  [:skaine:1]  
C'est une bi rail par contre c'est moins sûr  [:ex-floodeur:5]

n°11210571
titof3
Posté le 13-01-2023 à 16:10:52  profilanswer
 

muaddib6969 a écrit :


 
perso stock ma 4090 ltourne a 2745-2730mhz quasi tout le temps en gaming. Toi avec ton OC elle tourne encore au dessus?


 
En max HWinfo indique 2940mhz.
 

n°11210580
Scrabble
Posté le 13-01-2023 à 16:47:41  profilanswer
 

drdrake a écrit :


 
Qu'est ce que ca peut faire si il utilise pas 100% de la CG si ca convient ? au moins s'il utilise 100% du proc? Sinon, apres avoir changer de proc, il faudra changer la CG pour exploiter 100% du proc? ainsi de suite, ...Logique douteuse la...


+1
Surtout que bien souvent, si un jeu est limité par le CPU et n'utilise pas à fond le GPU, c'est tout simplement qu'il a été mal conçu
Pourquoi alors acheter un nouveau CPU, juste pour pallier à la déficience d'un jeu ?

n°11210581
muaddib696​9
Posté le 13-01-2023 à 16:52:55  profilanswer
 

titof3 a écrit :


 
En max HWinfo indique 2940mhz.
 


 
 
ha oue, faut que je teste. Bon ca marche tellement bien déja...

n°11210584
eastride
Posté le 13-01-2023 à 17:12:05  profilanswer
 

titof3 a écrit :


 
C'est un mystère ces consommations.  
Je suppose que chaque connecteur PCIe peut donner un peu plus que 150w.
J'ai un +150mhz sur le GPU et un +500mhz sur la Ram.
Conso max sur 3dMark : 571w.
Il faudrait que je trouve un connecteur d'alimentation à 4 sorties comme la Gainward GS.


t'as du mettre +100% au core voltage pour avoir cette conso, sinon ça ne dépasse pas 450w en incluant le port pcie
testé avec un câble 600w et une alim 1200w
 

n°11210585
nikoft
Posté le 13-01-2023 à 17:12:18  profilanswer
 

imarune a écrit :


Je pense que ça serait plus sage, en effet. Et faire de l'UV.


 
Le nombre de connecteur ne veut pas dire grand chose, j'ai un câble Seasonic 2x8pins vers 12vhpwr qui délivre sans aucun soucis 600w

n°11210608
imarune
Posté le 13-01-2023 à 18:08:07  profilanswer
 

nikoft a écrit :


 
Le nombre de connecteur ne veut pas dire grand chose, j'ai un câble Seasonic 2x8pins vers 12vhpwr qui délivre sans aucun soucis 600w


Si tu as l'alimentation qui va bien, c'est OK. Seasonic fournit ce câble pour leurs PRIME de 1000W et plus. Mais ma PRIME 850W Titanium ne l'a pas et ses slots Pcie ne fournissent que 150W chacun.  
Ca n'est pas l'achat d'un adapteur 12 broches/2 Pcie garanti pour 600W qui va transformer une alim qui ne peut fournir que 150W par port Pcie  :o  

n°11210612
drdrake
Pourfendeur d'atmo
Posté le 13-01-2023 à 18:22:44  profilanswer
 

titof3 a écrit :


 
C'est un mystère ces consommations.  
Je suppose que chaque connecteur PCIe peut donner un peu plus que 150w.
J'ai un +150mhz sur le GPU et un +500mhz sur la Ram.
Conso max sur 3dMark : 571w.
Il faudrait que je trouve un connecteur d'alimentation à 4 sorties comme la Gainward GS.


 
C'est sans doute un probleme d'echantillonage. Le firmware interne de la carte monitor les conso sur chaque rail les unes apres les autres, mais pour peu qu'elle attrapent un overshoot sur chaque rail l'un apres l'autres, tu verras une conso qui ne sera que le reflet de 3 mesures mais pas tout a fait au meme moment. Et impossible d'en etre sur a moins de capturer au meme moment les puissances sur chaque rail. Du reste, les transient restent possible et sont normalement bien encaissés, tant qu'ils restent transient.  

n°11210665
nikoft
Posté le 13-01-2023 à 20:41:16  profilanswer
 

imarune a écrit :


Si tu as l'alimentation qui va bien, c'est OK. Seasonic fournit ce câble pour leurs PRIME de 1000W et plus. Mais ma PRIME 850W Titanium ne l'a pas et ses slots Pcie ne fournissent que 150W chacun.  
Ca n'est pas l'achat d'un adapteur 12 broches/2 Pcie garanti pour 600W qui va transformer une alim qui ne peut fournir que 150W par port Pcie  :o  


Effectivement je suis sur une ROG Thor 1000w plat II, donc une prime 1000w si on veut


Message édité par nikoft le 13-01-2023 à 20:41:31
n°11210680
imarune
Posté le 13-01-2023 à 21:05:12  profilanswer
 

drdrake a écrit :


 
C'est sans doute un probleme d'echantillonage. Le firmware interne de la carte monitor les conso sur chaque rail les unes apres les autres, mais pour peu qu'elle attrapent un overshoot sur chaque rail l'un apres l'autres, tu verras une conso qui ne sera que le reflet de 3 mesures mais pas tout a fait au meme moment. Et impossible d'en etre sur a moins de capturer au meme moment les puissances sur chaque rail. Du reste, les transient restent possible et sont normalement bien encaissés, tant qu'ils restent transient.  


Ton explication est logique  :jap: Cependant, si j'avais une 4090, je ne serais pas rassuré de l'OC sans me préoccuper un minimum de la capacité du système à encaisser sans broncher un overclock.
Et c'est sûr que je ne chercherais pas à overclocker une carte pas conçue pour ça (si le fabricant ne te fournit qu'un adapteur 450W, par exemple)
Mais bon, chacun fait ce qu'il veut, c'est sûr. Quelque part, j'arrive mieux à comprendre les délais d'une semaine chez LDLC pour les commandes "normales" si ils doivent traiter en plus des commandes de 40X0  les retours pour les cartes grillées  :o

Message cité 1 fois
Message édité par imarune le 14-01-2023 à 00:50:20
n°11210702
LeMakisar
Posté le 13-01-2023 à 22:09:45  profilanswer
 

imarune a écrit :


Si tu as l'alimentation qui va bien, c'est OK. Seasonic fournit ce câble pour leurs PRIME de 1000W et plus. Mais ma PRIME 850W Titanium ne l'a pas et ses slots Pcie ne fournissent que 150W chacun.  
Ca n'est pas l'achat d'un adapteur 12 broches/2 Pcie garanti pour 600W qui va transformer une alim qui ne peut fournir que 150W par port Pcie  :o  


 
Y a pas aussi une question de devoir avoir acheté l'alim il y a moins d'un an :??:
Sinon, ça m'intéresse, la mienne date de 2021 :D


---------------
Feedback
n°11210711
titof3
Posté le 13-01-2023 à 22:36:27  profilanswer
 

imarune a écrit :


Ton explication est logique  :jap: Cependant, si j'avais une 4090, je ne serais rassuré de l'OC sans me préoccuper un minimum de la capacité du système à encaisser sans broncher un overclock.
Et c'est sûr que je ne chercherai pas à overclocker une carte pas conçu pour ça ( si le fabricant ne te fournit qu'un adapteur 450W, par exemple)
Mais bon, chacun fait ce qu'il veut, c'est sûr. Quelque part, j'arrive mieux à comprendre les délais d'une semaine chez LDLC pour les commandes "normales" si ils doivent traiter en plus les commandes de 40X0 et les retours pour les cartes grillées  :o


 
Avec toutes les sécurités qu'il y a sur la carte c'est difficile de la griller  :pt1cable:
C'est pas +150 sur le GPU qui va changer la donne, je fais que de la VR donc même la 4090 est limite sur certains jeux comme fs2020.
Après le modèle Gainward 4090 GS bénéficie de 4 alimentations PCIe 150w, et je pense d'un autre bios, moi je ne peux pas augmenter le V core à plus de 100%.

n°11210781
drdrake
Pourfendeur d'atmo
Posté le 14-01-2023 à 09:28:45  profilanswer
 

Au pire ca plantera avant de flamber. Ceux pour qui le cable a fumé, c'etait je pense un trop grand nombre d'insertion et un defaut du cable. Du reste, le PC a planté avant de flamber.

n°11210783
titof3
Posté le 14-01-2023 à 09:34:28  profilanswer
 

Oui ou le câble mal enfiché , ça pardonne pas avec ces puissances.

n°11210869
Uzudu
Posté le 14-01-2023 à 13:53:47  profilanswer
 

titof3 a écrit :


 
Avec toutes les sécurités qu'il y a sur la carte c'est difficile de la griller  :pt1cable:
C'est pas +150 sur le GPU qui va changer la donne, je fais que de la VR donc même la 4090 est limite sur certains jeux comme fs2020.
Après le modèle Gainward 4090 GS bénéficie de 4 alimentations PCIe 150w, et je pense d'un autre bios, moi je ne peux pas augmenter le V core à plus de 100%.


 
 
Je fais le même graphic score, en consommant bcp moins que toi avec la même carte, je dépasse pas les 400W  
 
https://www.3dmark.com/spy/34612682
 

n°11210876
titof3
Posté le 14-01-2023 à 14:07:46  profilanswer
 

C'est vrai que l'overclockage n'amène pas trop chose sur cette 4090.


Message édité par titof3 le 14-01-2023 à 14:08:54
n°11210878
ddlabrague​tte
Posté le 14-01-2023 à 14:20:08  profilanswer
 

Ça fait au moins 10 ans  que l'oc ne sert plus à rien :o

n°11210929
Xixou2
Posté le 14-01-2023 à 16:45:04  profilanswer
 

Je re-passe chez Nvidia cette année ^^

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  433  434  435  ..  509  510  511  512  513  514

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080tiPales radiateurs défaut esthétique RTX 3090 FE
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR