Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1785 connectés 

 


 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère
Ce sondage expirera le 15-06-2023 à 00:00




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1801  1802  1803  ..  1837  1838  1839  1840  1841  1842
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°11157660
petit-tigr​e
miaou
Posté le 29-09-2022 à 21:19:09  profilanswer
 

Reprise du message précédent :
techpowerup


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 29-09-2022 à 21:19:09  profilanswer
 

n°11157667
Profil sup​primé
Posté le 29-09-2022 à 21:40:25  answer
 

C'est précis, mais merci :o ..

n°11157683
chaced
Posté le 29-09-2022 à 22:19:46  profilanswer
 

damiou_03 a écrit :


 
A environ 180W, tu as la RX6700 (180W) et la 3060ti (200W), toutes deux sensiblement plus puissantes en rastérisation qu'une 1080 (+30/40 de perf).  A perf équivalente, il faut plutôt regarder chez AMD avec la RX6600 qui consomme 120W.


 
les 3000 ont nvenc2 par contre, rien que ça, ça économise énormément de watts si tu fais du montage vidéo et autre streaming.


---------------
CPU-Z | Timespy | Mes bd
n°11157722
campi
V8 FTW
Posté le 30-09-2022 à 04:28:56  profilanswer
 

damiou_03 a écrit :


 
A environ 180W, tu as la RX6700 (180W) et la 3060ti (200W), toutes deux sensiblement plus puissantes en rastérisation qu'une 1080 (+30/40 de perf).  A perf équivalente, il faut plutôt regarder chez AMD avec la RX6600 qui consomme 120W.


 
La rx 6600 est même 10% plus performante que la gtx 1080 en 1080p. Bonne petite cg.


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11157725
petit-tigr​e
miaou
Posté le 30-09-2022 à 06:14:08  profilanswer
 
n°11157772
mukumi
Hands up! Guns out!
Posté le 30-09-2022 à 08:30:03  profilanswer
 

Dans le même genre Tom's hardware avait fait un test sur la conso des cartes de plein de générations :

 

https://www.tomshardware.com/featur [...] ion-tested


---------------
Blah Blah News Hardware
n°11157793
chaced
Posté le 30-09-2022 à 09:32:13  profilanswer
 

c'est rigolo tout le monde qui regarde la conso, vous avez vu la conso d'une freebox revo ou d'une delta pour rigoler ? :D


---------------
CPU-Z | Timespy | Mes bd
n°11157794
n0name
Etat nounou, Etat soeur.
Posté le 30-09-2022 à 09:42:34  profilanswer
 

chaced a écrit :

c'est rigolo tout le monde qui regarde la conso, vous avez vu la conso d'une freebox revo ou d'une delta pour rigoler ? :D

 


50w :(


---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11157799
aliss
Rhyme the Rhyme Well
Posté le 30-09-2022 à 09:54:34  profilanswer
 

chaced a écrit :

c'est rigolo tout le monde qui regarde la conso, vous avez vu la conso d'une freebox revo ou d'une delta pour rigoler ? :D


 
Je ne sais pas si c'est vraiment drôle mais logique si.
 
GP102 (1080Ti/Titan X) : 250w
AD102 (RTX 4090) : 450w
 
Soit 70% d'augmentation de consommation en 5 ans à gamme égale.
 
Ca a de quoi soulever quelques questions.
 
Et même pour le "power user" qui se moque de la consommation de sa machine, ça implique tout de même des contraintes supplémentaires pour dissiper tous ces watts.

n°11157800
Monsieur L​ocke
ex Locke Cole
Posté le 30-09-2022 à 09:58:11  profilanswer
 

aliss a écrit :


 
Je ne sais pas si c'est vraiment drôle mais logique si.
 
GP102 (1080Ti/Titan X) : 250w
AD102 (RTX 4090) : 450w
 
Soit 70% d'augmentation de consommation en 5 ans à gamme égale.
 
Ca a de quoi soulever quelques questions.
 
Et même pour le "power user" qui se moque de la consommation de sa machine, ça implique tout de même des contraintes supplémentaires pour dissiper tous ces watts.


Il y a seulement 5 ans d'écart entre la sortie de la 1080ti et la 4090 ?


---------------
TU Transport Fever 2
mood
Publicité
Posté le 30-09-2022 à 09:58:11  profilanswer
 

n°11157801
aliss
Rhyme the Rhyme Well
Posté le 30-09-2022 à 10:01:06  profilanswer
 

Monsieur Locke a écrit :


Il y a seulement 5 ans d'écart entre la sortie de la 1080ti et la 4090 ?


 
Elle est sortie en mars 2017, 5 ans et demi si tu préfères.  ;)  

n°11157812
chaced
Posté le 30-09-2022 à 10:58:30  profilanswer
 


 
Et 24h/24...
 
alors monter de 50w une CG pour jouer 2 heures par jour, c'est relatif.


---------------
CPU-Z | Timespy | Mes bd
n°11157824
It_Connexi​on
Posté le 30-09-2022 à 11:35:50  profilanswer
 

aliss a écrit :


 
Je ne sais pas si c'est vraiment drôle mais logique si.
 
GP102 (1080Ti/Titan X) : 250w
AD102 (RTX 4090) : 450w
 
Soit 70% d'augmentation de consommation en 5 ans à gamme égale.
 
Ca a de quoi soulever quelques questions.
 
Et même pour le "power user" qui se moque de la consommation de sa machine, ça implique tout de même des contraintes supplémentaires pour dissiper tous ces watts.


 
 [:fredmoul:1]


---------------
Galerie Photo Personnelle
n°11157826
jln2
Posté le 30-09-2022 à 11:49:26  profilanswer
 

aliss a écrit :

 

Je ne sais pas si c'est vraiment drôle mais logique si.

 

GP102 (1080Ti/Titan X) : 250w
AD102 (RTX 4090) : 450w

 

Soit 70% d'augmentation de consommation en 5 ans à gamme égale.

 

Ca a de quoi soulever quelques questions.

 

Et même pour le "power user" qui se moque de la consommation de sa machine, ça implique tout de même des contraintes supplémentaires pour dissiper tous ces watts.

 

Après, c'est plus du tout les mêmes perf aussi ...
La 1080Ti, ça devrait correspondre a une future 4050, au mieux.

 

Et la 4090, la première contrainte qui me vient à l'esprit est budgétaire ... la 1080Ti, c'était 700-800€, soit même pas le prix de la 4080 12Go ...
Bref, on est plus du tout dans la même gamme de produit, ni dans la même clientèle d'ailleurs.

Message cité 1 fois
Message édité par jln2 le 30-09-2022 à 11:50:48
n°11157827
Valaint671​30
Y'a pas d'heure pour le rock
Posté le 30-09-2022 à 11:50:18  profilanswer
 

On va voir ce que ça donne mais j'imagine vraiment mal une cg à 450w être silencieuse autrement que sous wc


---------------
Mon topic~EVGA✞ FANboy
n°11157828
jln2
Posté le 30-09-2022 à 11:53:24  profilanswer
 

Valaint67130 a écrit :

On va voir ce que ça donne mais j'imagine vraiment mal une cg à 450w être silencieuse autrement que sous wc


 
Vu les ventirad 3 ou 4 slots, on aura surement des cartes correctes niveau bruit.
Je n'ai pas dit silencieuse non plus.

n°11157829
Monsieur L​ocke
ex Locke Cole
Posté le 30-09-2022 à 11:57:41  profilanswer
 

aliss a écrit :


 
Elle est sortie en mars 2017, 5 ans et demi si tu préfères.  ;)  


C'était une vraie question ;)
Merci pour l'info, je pensais qu'elle était plus vieille :)


---------------
TU Transport Fever 2
n°11157830
jujuf1
Je suis un chat
Posté le 30-09-2022 à 12:03:00  profilanswer
 

Valaint67130 a écrit :

On va voir ce que ça donne mais j'imagine vraiment mal une cg à 450w être silencieuse autrement que sous wc


Avec un mora 3

Message cité 1 fois
Message édité par jujuf1 le 30-09-2022 à 12:04:07

---------------
Du coup du coup …
n°11157837
Winpoks
Posté le 30-09-2022 à 13:03:34  profilanswer
 

jujuf1 a écrit :


Avec un mora 3


 
Ils vont devoir sortir un MoRa 4 en urgence bientôt. :o

n°11157845
aliss
Rhyme the Rhyme Well
Posté le 30-09-2022 à 13:38:41  profilanswer
 

jln2 a écrit :

 

Après, c'est plus du tout les mêmes perf aussi ...
La 1080Ti, ça devrait correspondre a une future 4050, au mieux.

 

Et la 4090, la première contrainte qui me vient à l'esprit est budgétaire ... la 1080Ti, c'était 700-800€, soit même pas le prix de la 4080 12Go ...
Bref, on est plus du tout dans la même gamme de produit, ni dans la même clientèle d'ailleurs.

 

Ni le niveau de performance du GP102 aujourd'hui ou le MSRP n'ont de rapport avec mon propos.

 

En 2017 le gpu le plus performant du marché avait un TDP de 250w, aujourd'hui il est de 450w.

 



Message édité par aliss le 30-09-2022 à 13:39:57
n°11157849
minux
On Linux ...
Posté le 30-09-2022 à 13:58:56  profilanswer
 

J'ai l'impression qu'on mélange tout depuis quelques posts, on parle d'efficience, de conso max, le tout en corrélation avec les perfs, bref, tout ça sans aucun référentiel de base.
 
Si on parle d'efficience pure, alors pour voir si il y a eu du progrès il faut comparer les perfs à conso égale c'est à dire les perfs/watt, et c'est tout.
 
Donc si quelqu'un trouve un comparatif de ce niveau pour comparer les 1080ti et les gen actuelles, la les chiffres auront du sens (sans parler tarif bien sur).


---------------
Mes linux : 2002: Mandrake -> 2005: Ubuntu -> 2010: Arch | "A computer is like air conditioning: it becomes useless when you open windows." (Linus Torvald)
n°11157856
mukumi
Hands up! Guns out!
Posté le 30-09-2022 à 14:16:17  profilanswer
 

minux a écrit :

J'ai l'impression qu'on mélange tout depuis quelques posts, on parle d'efficience, de conso max, le tout en corrélation avec les perfs, bref, tout ça sans aucun référentiel de base.

 

Si on parle d'efficience pure, alors pour voir si il y a eu du progrès il faut comparer les perfs à conso égale c'est à dire les perfs/watt, et c'est tout.

 

Donc si quelqu'un trouve un comparatif de ce niveau pour comparer les 1080ti et les gen actuelles, la les chiffres auront du sens (sans parler tarif bien sur).

 

J'ai mis un lien plus haut qui compare pas mal de cartes. Ce n'est pas lock sur une consommation spécifique mais toutes les cartes ont été mesurées et cela permet quand même de voir l'évolution.

 

https://www.tomshardware.com/featur [...] ion-tested

 
Citation :

The power data listed is a weighted geometric mean of the Metro Exodus and FurMark power consumption, while the FPS comes from our GPU benchmarks hierarchy and uses the geometric mean of nine games tested at six different settings and resolution combinations (so 54 results, summarized into a single fps score).

 

C'est pas le truc le plus précis mais ça donne un bon aperçu quand même.

 

Par exemple la 1080 ti tirait 248 watts avec une moyenne de 88 fps. La rx 6800 tire 235 Watts avec une moyenne de 130 fps.

 

Si on prend la 970 qui avait 150 watts et une moyenne de 33 fps, l'équivalent en watt aujourd'hui est la 5600 xt avec 158 Watts et 70 fps.

 

On peut en conclure qu'on est plus efficace quand même.  :O


---------------
Blah Blah News Hardware
n°11157862
minux
On Linux ...
Posté le 30-09-2022 à 14:57:11  profilanswer
 

mukumi a écrit :


 
J'ai mis un lien plus haut qui compare pas mal de cartes. Ce n'est pas lock sur une consommation spécifique mais toutes les cartes ont été mesurées et cela permet quand même de voir l'évolution.  
 
https://www.tomshardware.com/featur [...] ion-tested
 

Citation :

The power data listed is a weighted geometric mean of the Metro Exodus and FurMark power consumption, while the FPS comes from our GPU benchmarks hierarchy and uses the geometric mean of nine games tested at six different settings and resolution combinations (so 54 results, summarized into a single fps score).


 
C'est pas le truc le plus précis mais ça donne un bon aperçu quand même.  
 
Par exemple la 1080 ti tirait 248 watts avec une moyenne de 88 fps. La rx 6800 tire 235 Watts avec une moyenne de 130 fps.  
 
Si on prend la 970 qui avait 150 watts et une moyenne de 33 fps, l'équivalent en watt aujourd'hui est la 5600 xt avec 158 Watts et 70 fps.  
 
On peut en conclure qu'on est plus efficace quand même.  :O  


Ah voila, merci j'étais passé à côté de ton post, la au moins c'est clair :jap:
 
Donc oui on est plus efficace maintenant, c'est clair :)


---------------
Mes linux : 2002: Mandrake -> 2005: Ubuntu -> 2010: Arch | "A computer is like air conditioning: it becomes useless when you open windows." (Linus Torvald)
n°11157888
titof3
Posté le 30-09-2022 à 16:33:52  profilanswer
 

Ma 3090 FE fait 350w max.

n°11158054
[Toine]
La BX , c'est chix!
Posté le 01-10-2022 à 09:18:24  profilanswer
 

SirAnneau a écrit :

Vous avez remarqué que si l'on souhaite une CG aussi puissante qu'une GTX 1080 consommant 180 W... ça sera encore aujourd'hui la même consommation d'énergie.
 


Non quand même pas. Mais effectivement l'efficacité énergétique s'est améliorée timidement.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11158083
crazytiti
http://crazytiti.free.fr/
Posté le 01-10-2022 à 11:31:54  profilanswer
 

50% de perf en plus on a dit dans les page précédentes...
C'est timide ?


---------------
Le PC est une drogue...
n°11158085
[Toine]
La BX , c'est chix!
Posté le 01-10-2022 à 11:33:38  profilanswer
 

crazytiti a écrit :

50% de perf en plus on a dit dans les page précédentes...
C'est timide ?


Sur 5 ans oui c'est timide.

 

Côté CPU on est plutôt à +100% .

 

La guéguerre NVIDIA AMD incite les 2 constructeurs à quasiment overclocker d'usine leurs GPU pour les faire fonctionner dans une plage de fréquence énergétiquement inefficiente.


Message édité par [Toine] le 01-10-2022 à 11:38:45

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11158094
crazytiti
http://crazytiti.free.fr/
Posté le 01-10-2022 à 11:48:15  profilanswer
 

Note : c'est une solution détourné mais le DLSS3 permet de quasi doubler les fps comparé au dlss2.
Peut on considérer que la gen 4xxx aura un rapport perf/conso > x2 ?


---------------
Le PC est une drogue...
n°11158096
[Toine]
La BX , c'est chix!
Posté le 01-10-2022 à 11:50:04  profilanswer
 

crazytiti a écrit :

Note : c'est une solution détourné mais le DLSS3 permet de quasi doubler les fps comparé au dlss2.
Peut on considérer que la gen 4xxx aura un rapport perf/conso > x2 ?


Les FPS oui, mais à ce que je comprends, la latence reste identique.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11158106
campi
V8 FTW
Posté le 01-10-2022 à 11:58:53  profilanswer
 

crazytiti a écrit :

Note : c'est une solution détourné mais le DLSS3 permet de quasi doubler les fps comparé au dlss2.
Peut on considérer que la gen 4xxx aura un rapport perf/conso > x2 ?


 
Le souci de dlss c'est que c'est très loin d'être compatible avec TOUS les jeux, tout le monde semble l'oublier et surtout nvidia... Moi je suis pas contre mais là on nous vend le truc comme si c'était les perfs en toutes circonstances, alors que pas du tout.
 
Et puis dans certains jeu le résultat est discutable...


Message édité par campi le 01-10-2022 à 11:59:14

---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11158112
Col Hanzap​last
Jurassic geek. Vive le cobol !
Posté le 01-10-2022 à 12:10:25  profilanswer
 

DLSS & FSR sont des bidouillages. Des bidouillages sophistiqués certes, mais des bidouillages quand même.


---------------
" Seuls les plus aptes survivront. " (Charles Darwin)
n°11158156
havoc_28
Posté le 01-10-2022 à 14:21:37  profilanswer
 

crazytiti a écrit :

Note : c'est une solution détourné mais le DLSS3 permet de quasi doubler les fps comparé au dlss2.
Peut on considérer que la gen 4xxx aura un rapport perf/conso > x2 ?


 
Pour l'instant on va attendre d'avoir un peu plus de recul sur le DLSS 3 avant d'en tirer les conclusions :D. Car bon Digital Frauderie c'est plus un publi reportage qu'autre chose.

n°11158218
fabroo
Je ne suis pas roux ^^
Posté le 01-10-2022 à 16:55:41  profilanswer
 

havoc_28 qui délivre la vérité  [:julian33:4]


---------------
Enfin, Röhrl a également égratigné le nouveau champion du monde Max Verstappen. "Il conduit certainement très bien, mais c’est une brute. Il pilote comme une hache sauvage dans une forêt."
n°11158223
max022
Posté le 01-10-2022 à 16:58:47  profilanswer
 

Col Hanzaplast a écrit :

DLSS & FSR sont des bidouillages. Des bidouillages sophistiqués certes, mais des bidouillages quand même.


 
Ben surtout qu'en fait le FSR est utilisable sur toute les cartes (AMD/Nvidia) et que l'on en est au FSR 2.0.
Du coup, si le FSR 3.0 devient mieux que le DLSS 2.0 ben autant l'utiliser sur les 30..  
Bref, j'achèterais pas une carte juste pour le DLSS 3.0  
Après je conçois que c'est un plus d'avoir le DLSS 3 par rapport au FSR car on peu utiliser FSR ou DLSS selon les jeux avec une 40.. mais bon miser tout sur le DLSS 3...


Message édité par max022 le 01-10-2022 à 17:02:11
n°11158391
cyberfred
Posté le 02-10-2022 à 09:30:51  profilanswer
 

titof3 a écrit :

Ma 3090 FE fait 350w max.


 
400W les 3090 Fe au max ;)
(avec le PL à 114% dans MSI AB bien entendu)
d'ailleurs les 4090 Fe sont données pour 450w  , curieux de voir combien ca va prendre avec le PL à fond dans MSI AB , on devrait taper pas loin des 500W si on la titille un peu.


Message édité par cyberfred le 02-10-2022 à 09:33:37
n°11158444
titof3
Posté le 02-10-2022 à 11:47:23  profilanswer
 

OK, c'est quoi le PL ?
Merci.

n°11158446
cyberfred
Posté le 02-10-2022 à 11:54:44  profilanswer
 

Power limit dans MSI AB  , en gros tu autorises à la carte à consommer un peu plus ;)
la 3090 Fe peut tirer jusqu'à 400W là où certaines customs étaient limitées à 375W avec le PL à fond sous MSI AB et à l'inverse d'autres customs qui pouvaient tirer 450W et plus d'ailleurs !

n°11158450
titof3
Posté le 02-10-2022 à 12:04:14  profilanswer
 

Merci je vais faire la manip.
Elle reste ou il faut relancer after burner à chaque démarrage ?

n°11158451
cyberfred
Posté le 02-10-2022 à 12:15:15  profilanswer
 

elle reste si ton MSI AB démarre automatiquement au démarrage et que tu as coché le petit icone "windows" (sous startup) dans l'interface MSI AB
en revanche , en faisait cette manip ta carte va consommer plus et donc chauffer un peu plus , vérifie aussi que ton boitier est bien ventilé  :jap:

n°11158466
dmduncan37
Posté le 02-10-2022 à 12:51:52  profilanswer
 

cyberfred a écrit :

elle reste si ton MSI AB démarre automatiquement au démarrage et que tu as coché le petit icone "windows" (sous startup) dans l'interface MSI AB
en revanche , en faisait cette manip ta carte va consommer plus et donc chauffer un peu plus , vérifie aussi que ton boitier est bien ventilé  :jap:


 
D'autant plus qu'il est possible undervolté sans perdre de perf !
le tout avec moins de conso et de chauffe  :sarcastic:  
l'OC c'est devenu useless

n°11158472
cyberfred
Posté le 02-10-2022 à 13:05:19  profilanswer
 

tout à fait ,surtout qu'on peut jumeler tout ça avec de l'UV :jap:


Message édité par cyberfred le 02-10-2022 à 13:05:39
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1801  1802  1803  ..  1837  1838  1839  1840  1841  1842

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR