Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1016 connectés 

 


 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  36  37  38  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7143995
MEI
|DarthPingoo(tm)|
Posté le 02-10-2009 à 09:55:50  profilanswer
 

Reprise du message précédent :

TheRealObi-One a écrit :

et visiblement pas de Tri SLI pour ce sample :/
 
Edit: techpowerup c'est sérieux quand même 0B1 ;)


Bah si, y'a bien les deux connecteurs SLI... :??:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le 02-10-2009 à 09:55:50  profilanswer
 

n°7143998
0b1
There's good in him
Posté le 02-10-2009 à 09:56:38  profilanswer
 

TheRealObi-One a écrit :

et visiblement pas de Tri SLI pour ce sample :/
 
Edit: techpowerup c'est sérieux quand même 0B1 ;)


J'en doute pas une seconde. Ça me laisse perplexe quand même, je vois pas nVIDIA présenter un bouzin aussi énorme si celui-ci se résume à un morceau de plastique avec des fautes aussi grossières.
 
Au risque de vous surprendre, nVIDIA c'est pas la PME du coin avec des ingénieurs recrutés dans la rue.

n°7143999
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 02-10-2009 à 09:56:49  profilanswer
 

Citation :

Elle circulait de mains en mains... La première carte graphique basée sur la nouvelle architecture « Fermi » de NVIDIA est pour l'heure un modèle Tesla, destiné donc au monde du HPC ou High Performance Computing. En attendant la variante GeForce, qui devrait [b]voir le jour d'ici quelques mois[/b], Jen-Hsun Huang ayant pour mémoire déclaré que NVIDIA était en train de démarrer le processus de la production depuis le retour des premières puces de la fonderie, nous vous proposons quelques photographies de la carte.
 
A noter, la présence de deux connecteurs d'alimentation PCI-Express sur chaque tranche de la carte, l'un de type 6 broches, l'autre de type 8 broches. Retenez également que le modèle présenté et largement photographié n'est qu'un Mechanical sample : aucune puce graphique n'est soudée dessus, aucune puce mémoire n'est soudée, et le ventilateur de la carte ne tourne même pas. Modèle Tesla oblige il n'y a qu'une sortie DVI, un choix qui ne se retrouvera évidemment pas sur les cartes GeForce.

source : http://www.clubic.com/actualite-30 [...] ommentaire
 
Nvidia rate la période de Noël... :-/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7144008
MEI
|DarthPingoo(tm)|
Posté le 02-10-2009 à 10:03:10  profilanswer
 

Moi je les vois perso... :spamafote:
 
C'est plus visibile là :
http://www.techpowerup.com/img/09-10-01/84b.jpg


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7144010
Noubazor
Posté le 02-10-2009 à 10:03:36  profilanswer
 

0b1 a écrit :


 

Zack38 a écrit :

Si tu es vraiment impatient, tu peux toujours prendre la HD5870X2 ... elle n'aura théoriquement pas à rougir devant le GT300 de nVidia, s'il sort un jour ...  :o


Merci pour le troll.
 
Un de plus, un de moins...  [:peronnelle]


 
non mais la vous en faites trop, entre être "réaliste/objectif" et faire du troll il y à un monde de différence  
 
moi j'ai vraiment l'impression que dès que quelqu'un est objectif visa via de NV et ne suis pas le même discourt de NV, ça y est c'est du troll ça ne peut être que ça !!!!!!
 
vous avez peur d'être déçu ou quoi ?  
 
"à priori" on le sera de toutes façon, car la com marketing est malheureusement trop souvent belle pour finalement ce révéler moins belle ( vu avec des anciens bébés de nvidia et vu avec les HD5000)
 
mais il serait bien que cela finisse comme dans les films mais j'attends de voir la fin du film pour y croire du comme fer
 
et je vais même en rajouter une couche avec ce que j'ai déjà dit  
 

Citation :

ils n'ont présenté que la déclinaison du GT300 pour professionnel et qui ne sera pas mis vente avant janvier si tous ce passe bien avec le process de fabrications ( ce qui n'est pas encore gagné )  
 
à ça il faut bien ce dire aussi qu'a la sortie annoncée et comme à l'accoutumée il n'y aura sans doute pas de quoi inonder le marché donc forcement pour une bonne disponibilité faudra bien compter quelques semaines de plus  
 
et même si j'imagine bien que non,  ce ne sont que les prévisions pour la version pro parce qu'ils n'ont rien dit pour les autres déclinaisons sauf que le GT300 serait enfin facilement modelable pour faire différentes déclinaisons facilement  ( mais rien ne le prouve et NV avait déjà dit ça avec le GT200 )
 
on "peut" comprendre par "déclinaisons grand publique" : "version castrés" parce que :  
 
les nouveautés = prix plus élevé  
bus de 384 bits = pcb plus complexe que le RV870 = prix plus élevé  
gravure de 40mn contre 45 sur le RV870 = prix plus élévé
nombre de die tirable d'un wafer moins élevé que sur les wafer de RV870 à cause de la taille du die du GT300 = rendement théorique pas térible = prix plus élevé
plus grand nombre composants = prix plus élevé  
 
bien que la nouvelle architecture dépote d'un point de vue professionnel et qu'avec le peu de specs qui nous ont été donnés, on peut conclure +- sans risque que les cartes qui en découleront seront sans doutes meilleur que les HD5000 ( d'un point de vu mono GPU ), ce n'est quand même pas gagné du tout pour NV au niveau tarifaire et le problème des GT200 VS RV770 ou c'est ATI qui à su s'imposer de par ses prix attractif avec des perfs largement respectable pourrait bien ce renouveller  
 
d'autant plus que lorsque les déclinaisons du GT300 grand publique arriveront les prix des HD5000 auront logiquement un peu chuté de prix mais qu'en plus le process de production de ATI sera lui déjà bien rodé avec un rendement encore plus élevé et donc on pourrait s'attendre comme avec le duel R770/GT200 à ce qu'ATI revoit encore ces tarifs la baisse ce qui rendra la tache à NV encore moins facile
 
et autre chose qui pourrait jouer dans "qui à la plus grosse", c'est que la taille du die du GT300 est assé grand pour poser des soucis à NV pour décliner des cartes X2 comme ça a déjà été le cas avec les GT200 avec lesquels on a du attendre un process de gravure plus petit pour que ça prenne une place "gérable" et donc je suis pas sure que NV sera en mesure assé rapidement de fournir de quoi peut être aplatir ( si les perfs en jeu sont bonne ) la HD5870X2 qui sera en principe sortie d'ici la
 
bref il ce pourrait qu'ATI ce retrouve pendant un certain avec la plus grosse ><
 
en plus NV a l'aire de faire le même genre de com que ATI avant la sortie des HD5000 c-a-d : ça va arracher le bitume !!!!
 
pour au final comme il est de coutume être sans doute déçu mais a quel point ?  
 
tout ça n'est pas de bonne augure


Message édité par Noubazor le 02-10-2009 à 12:53:40
n°7144011
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 02-10-2009 à 10:05:00  profilanswer
 

MEI a écrit :

Moi je les vois perso... :spamafote:
 
C'est plus visibile là :
http://www.techpowerup.com/img/09-10-01/84b.jpg


effectivement sur cette vue on le voit désolé ;)


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7144018
Noubazor
Posté le 02-10-2009 à 10:07:19  profilanswer
 

TheRealObi-One a écrit :

et visiblement pas de Tri SLI pour ce sample :/
 
Edit: techpowerup c'est sérieux quand même 0B1 ;)


 
et la carte présenté n'est qu'un prototype ("mechanical sample" ) et en plus qui ce paye le luxe de contenir des secrets cachés^^
 

Citation :

http://plaza.fi/s/f/editor/images/20091002fake1.jpg
http://plaza.fi/s/f/editor/images/20091002fake2.jpg
1. PCB sawed off from the back, from the backside it's visible that the cutting line goes from the middle of PCI Express -power plug, and even half of the stickers are still there with the rest cut off
 
2. 8-pin PCIE powerplug doesn't have soldering points nor attachment clips through the PCB. The PCB has been cut so from the original 6-pin PCIE powerplugs solder points only 2 are left.
 
3. 6-pin PCIE powerplug doesn't have soldering points nor attachment clips through the PCB.
 
4. The SLI-connector further from the backplate is caught behind the cooling plate so you can't install SLI-bridge on it
 
(5. Just a note but the PCB has a place for 2nd DVI-connector, which hasn't been used even though it seems there's still solders left on it, while in normal cases there would be just holes there.)
 
6. The cooler is only attached through the back cooling plate, not through the PCBs mounting holes as usual
 
7. Right under the 6-pin PCIE powerplug there's a empty cooler attachment hole.
 
8. On the backplates upper airvent, there's only plastic, no holes/vents/anything for air to get out from the cooler


 
pour la traduction :
 
1 = Le PCB est littéralement coupé à l'arrière, des lignes de circuit électriques sont tranchées net, et à l'endroit des flèches des autocollants ont même été coupés sans vergogne.
 
2 = A l'emplacement de l'alimentation 6 pins, 2 points de soudure uniquement. Ce sont en fait 2 des 6 points d'un connecteur PCIe 6 pins qui était initialement sur le dessus du PCB, mais dont 4 points de soudure ont disparu lors de la coupe barbare du PCB pour en diminuer la longueur.
 
3 = La prise du ventilateur de la carte graphique, sauf que... aucune trace de soudure, donc la carte fonctionnerait en l'état actuel en fanless.
 
4 = Connecteur SLI inutilisable avec la backplate noire qui dépasse.
 
5 = Une seconde sortie DVI est possible. A la rigueur qu'elle ne soit pas utilisée, cela arrive, mais pourquoi alors y a-t-il des soudures ?
 
6 = ???
 
7 = Une alimentation 6 pins, non reliée au PCB, une carte véritablement révolutionnaire non ?  
 
8 = la coque du ventirad empêche la circulation de l'aire
 
je rajouterais qu'entre le point 2 et 7 on a huit point de soudure sans doute prévu pour un connecteur 8 pin mais qu'on ne voit pas ce qui rend encore plus rigolo le connecteur 6 pin en 7


Message édité par Noubazor le 02-10-2009 à 12:31:34
n°7144021
sapphire a​depte xd
Online : bisondacier
Posté le 02-10-2009 à 10:07:51  profilanswer
 

Vu surtout avec le R600 de ATi :o
Pour les autres, oui apparement tri sli sans soucis, maintenant peut déjà affirmer que la carte gamer sera la même que pro ? Je sais pas mais dans tous les cas, vu la taille du die, ça va chauffer et donc ventiler sec :/

 

edit: bon apparement c'est pas trop ça encore...

Message cité 1 fois
Message édité par sapphire adepte xd le 02-10-2009 à 10:09:00
n°7144022
MEI
|DarthPingoo(tm)|
Posté le 02-10-2009 à 10:12:24  profilanswer
 

sapphire adepte xd a écrit :

Vu surtout avec le R600 de ATi :o
Pour les autres, oui apparement tri sli sans soucis, maintenant peut déjà affirmer que la carte gamer sera la même que pro ? Je sais pas mais dans tous les cas, vu la taille du die, ça va chauffer et donc ventiler sec :/
 
edit: bon apparement c'est pas trop ça encore...


Ca ne sera pas la même, pas les meme contrainte niveau sortie et quantité de RAM. (les pro on souvent 2x plus de puces mémoire, donc faut les emplacements...)
 
Bref c'est qu'un mechanical sample c'est tout...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7144028
master yod​a 1
i'm your father
Posté le 02-10-2009 à 10:20:15  profilanswer
 

nvidia a accumulé un gros retard par ce que s'ils n'ont même pas une carte réelle de la gt300 a présenter c'est que le retard va être énorme.


---------------
Un concerné n'est pas obligatoirement un imbécile encerclé.
mood
Publicité
Posté le 02-10-2009 à 10:20:15  profilanswer
 

n°7144043
aliss
Rhyme the Rhyme Well
Posté le 02-10-2009 à 10:34:18  profilanswer
 

MEI a écrit :


 
Evidement ceux qui lache 500€ dans une CG tout les 6 mois ne vont pas attendre, mais bon ceux là je crois que NVIDIA s'en fou vu que dans 6 mois ils vont lacher leur 5870 pour un GT300...
 
C'est là tout le problème aussi, y'a ceux qui ont le budjet et veulent pas attendre, et ceux qui auront pas le budjet mais attendre "au cas où"... Au lieu d'être frustré et de pourrir NVIDIA, autant acheter l'ATI de suite puisque c'est ce qui vous titilent... Au pire le désastre c'est quoi ? Que dans 3 mois une carte soit dans le MEILLEUR des cas 1,5x plus perfs pour 500€... (perfs maxi + prix mini estimé + delais mini). Le risque à prendre est plus que mesuré.


 
Sincèrement Mei, ce genre de propos à mon égard tu aurais pu t'en passer car je ne crois pas que celà soit le cas.
 
Pour le reste  :jap:  
 

n°7144058
mikestewar​t
Air Roll Spinnin'
Posté le 02-10-2009 à 10:53:29  profilanswer
 

master yoda 1 a écrit :

nvidia a accumulé un gros retard par ce que s'ils n'ont même pas une carte réelle de la gt300 a présenter c'est que le retard va être énorme.


 
Pas de carte fonctionnelle donc pas de démo, effectivement.
 
Mais si je ne me trompe pas c'était prévu, les premiers GT300 viennent de revenir de chez TSMC, ils sont tout frais.
 
Enfin quand je dis prévu, je parle pas de Fudzilla, qui prévoit une production de masse pour la mi-Octobre.  :o

Message cité 1 fois
Message édité par mikestewart le 02-10-2009 à 10:54:35
n°7144085
Profil sup​primé
Posté le 02-10-2009 à 11:29:01  answer
 

hyksos_sowo a écrit :


 
Le plus inquiétant c'est les fanboy NVidia qui défendent la compagnie comme si c'était la leur.

Contrairement à ce que tu crois, ce n'est pas bourré de fanboy ATI, mais bien de fanboy de cg tout court... car si NVidia ne livre pas, ou avec beaucoup de retard, c'est tout les consommateurs qui seront perdants.

 
Ce sont donc tout les gamers (À l'exception des fanboys NVidia bien sur) qui sont inquiet par le discourt de NVidia... et avec raison!
 
De un, NVidia qui indique que DX11 c'est pas si hot que ça (Ça indique soit que NVidia prévoit beaucoup de retard ou que son implémentation de DX11 est pas si hot.... ou les deux)
 
Ensuite, NVidia fait un paper launch de sa nouvelle puce.... mais parle uniquement de CUDA!!
On apprend que le GT300 est beaucoup moins spécialisé... ça veut dire plus rapide pour faire du CUDA.... mais pas plus rapide pour les jeux, en fait une part importante de l'augmentation des transistors du GT300 servent uniquement au CUDA sans apporter grand chose à la performance dans les jeux.
 
Mais le plus inquiétant c'est le silence de NVidia après le lancement du RV870... NVidia à clairement beaucoup de retard et/ou de problèmes, sinon ils se feraient un plaisir fou à démolir la RV870 avec une démo de la GT300. (Justement... selon les rumeurs, une démo du GT300 était prévu pour fin septembre...), on peut donc conclure que NVidia n'a même pas de carte fonctionnel encore.


 
Merci de le dire. :jap:

n°7144103
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 11:50:05  profilanswer
 

a voir la difficulté pour faire les puces , la cg va couter une petite forturne et de plus si elle est vraiment pas tres perf comparé a une ati " qui est deja sorti et a un prix magnifique " ben j'ai beau etre nvidia depuis un bail a acheter la cg haut de gamme a la sortie , mais je pense que l'année prochaine ca seras chez les rouges que j'irais si ca continue comme ca ! j'attends juste de voir vraiment ce que ca va donner


---------------
FeedBack
n°7144133
kaiser52
Posté le 02-10-2009 à 12:11:00  profilanswer
 

Si ça continue dans ce sens, on pourra dire bye bye a nVIDIA sur les puces Desktop.
Du moins seulement sur le THDG ou seulement sur le MDG.
 
Et ca va pas être bon !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7144136
olioops
Si jeune et déjà mabuse.
Posté le 02-10-2009 à 12:11:17  profilanswer
 

:sleep:


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7144145
diidy
Posté le 02-10-2009 à 12:19:53  profilanswer
 
n°7144159
dll_75
Posté le 02-10-2009 à 12:29:39  profilanswer
 

OMG, c'est quand meme trolland ici,
que font les modos ?
Je croyais les NV vs ATI primaires n'etaient pas tolérés ??
 
Les Wirmish, Gigathlon, etc On connait tres bien votre approche non-objective et avouée par vous meme sur NV, donc quoi qu'ils fassent ce sera toujours de la merde, ou hors de prix...
 
Pour d'autres, les cartes à 1000e faut arreter de picoler les gars...
 
Enfin, la présente de l'archi du GT300 etait axée sur le coté pro et cGPU. Donc si logiquement ils ne devoilent rien coté Games, ca ne veut pas forcement dire que Nvidia arrete ce domaine.
 
Pour finir, OSEF que NV sort ses cartes meme debut 2010.
Actuellement y'a t-il vrm un besoin de puissance supplémentaire par rapport a la precedente generation?? Et les titres DX11 se bousculent pas...

n°7144168
Noubazor
Posté le 02-10-2009 à 12:41:30  profilanswer
 

dll_75 a écrit :

OMG, c'est quand meme trolland ici,
que font les modos ?
Je croyais les NV vs ATI primaires n'etaient pas tolérés ??


 
peut être parce que tu te fourvoie, peut être que les admins trouve justement les postes que tu vises sont objectif
 
au alors ils n'ont pas eu de personnes qu'il leur ont signaler ces postes non objectif  et dans ce cas pourquoi tu ne le fais pas pour que que les admins prennent la juste décision

Message cité 1 fois
Message édité par Noubazor le 02-10-2009 à 12:41:53
n°7144169
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 12:42:16  profilanswer
 

dll_75 a écrit :

OMG, c'est quand meme trolland ici,
que font les modos ?
Je croyais les NV vs ATI primaires n'etaient pas tolérés ??
 
Les Wirmish, Gigathlon, etc On connait tres bien votre approche non-objective et avouée par vous meme sur NV, donc quoi qu'ils fassent ce sera toujours de la merde, ou hors de prix...
 
Pour d'autres, les cartes à 1000e faut arreter de picoler les gars...
 
Enfin, la présente de l'archi du GT300 etait axée sur le coté pro et cGPU. Donc si logiquement ils ne devoilent rien coté Games, ca ne veut pas forcement dire que Nvidia arrete ce domaine.
 
Pour finir, OSEF que NV sort ses cartes meme debut 2010.
Actuellement y'a t-il vrm un besoin de puissance supplémentaire par rapport a la precedente generation?? Et les titres DX11 se bousculent pas...


 
le geek veut toujours plus puissant :)


---------------
FeedBack
n°7144177
Profil sup​primé
Posté le 02-10-2009 à 12:54:44  answer
 

:non: le geek veut du changement
Que ce soit puissant ne compte pas vraiment, enfin beaucoup moins que les max. benchs; max. matos en stock, qui sont prioritaires (pour lui) ;)

Message cité 1 fois
Message édité par Profil supprimé le 02-10-2009 à 12:55:54
n°7144180
mikestewar​t
Air Roll Spinnin'
Posté le 02-10-2009 à 12:58:33  profilanswer
 

Noubazor a écrit :


 
peut être parce que tu te fourvoie, peut être que les admins trouve justement les postes que tu vises sont objectif
 
au alors ils n'ont pas eu de personnes qu'il leur ont signaler ces postes non objectif  et dans ce cas pourquoi tu ne le fais pas pour que que les admins prennent la juste décision


 
Surprenant d'entendre parler d'objectivité mais de ne remarquer que le "fanboyisme ATI" sur ce topic.  :jap:  
 
Enfin, qualifier quelqu'un de fanboy pour tenter de le décrédibiliser, c'est pas ça qui apportera du contenu au topic...on manque d'infos sur certaines parties vraiment dédiées à la 3D de l'archi Fermi. Rien d'officiel pour l'instant, il faudra encore attendre, malheureusement. Mais les spéculations sont toujours ouvertes...  [:prodigy]


Message édité par mikestewart le 02-10-2009 à 13:00:39
n°7144184
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 12:59:33  profilanswer
 


 
ca veut les 2 c'est gourmand :d


---------------
FeedBack
n°7144189
Profil sup​primé
Posté le 02-10-2009 à 13:02:31  answer
 

Au vu du faible niveau de nouveautés "perfs." du côté CGs, c'est pas dans ce domaine qu'il 'sévit' le + :o
:d!

n°7144197
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 13:05:28  profilanswer
 

c'est vrai depuis le temps , le vieux crysis est meme pas encore a 60fps constant en haute résolution , les perfs se staquent malgré les nouveautés avec effet machin effet truc , ils rajoutent des effets qu'aucun jeu exploitent pour le moment et quand ca exploite la cg envoie pas assez :D " enfin ca depends "


---------------
FeedBack
n°7144205
Profil sup​primé
Posté le 02-10-2009 à 13:12:28  answer
 

Alors ça y est, on a réussi à faire fuir les fanboys, tu crois :??:
 [:underlined:1]


Message édité par Profil supprimé le 02-10-2009 à 13:14:09
n°7144208
Modération
Posté le 02-10-2009 à 13:14:22  answer
 

Avertissement.
 
Au prochain, on ferme pour le week-end.

n°7144210
Profil sup​primé
Posté le 02-10-2009 à 13:15:10  answer
 

Selon Jen-Hsun Huang, Intel veut la mort de NVIDIA

Citation :

(...) Enfin concernant Fermi, on apprend que le développement aurait commencé il y a 4 ans et qu'actuellement les deux générations suivantes sont en cours de développement, dont une architecture complètement nouvelle... prévue pour dans deux ou trois ans.


http://www.pcinpact.com/actu/news/ [...] erview.htm

n°7144215
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 13:20:37  profilanswer
 

franchement je ne vois pas pourquoi fermer le topic en s'exprimant sur les specs nvidia et comparé a une concurrence pour savoir ce qu'il en est , dans ce cas , faites un topic ati et nvidia spec ! venez en parler pour faire le bon choix :) car vu les news ect.. on est dans le gouffre noir et ouvrir 50 topics , c'est pas la bonne solution


---------------
FeedBack
n°7144218
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 13:23:20  profilanswer
 


 
chaque concurrent veut la mort de l'autre , c'est sur mais le fermi qui date deja de 4 ans , c'est a dire a l'epoque des 8800 " la vrai next gen en matiere de carte 3d " , je trouve abusé qu'ils n'ont meme pas un modele de cg pour nous presenter une démo


---------------
FeedBack
n°7144220
Profil sup​primé
Posté le 02-10-2009 à 13:24:21  answer
 

B1LouTouF a écrit :


 
chaque concurrent veut la mort de l'autre , c'est sur mais le fermi qui date deja de 4 ans , c'est a dire a l'epoque des 8800 " la vrai next gen en matiere de carte 3d " , je trouve abusé qu'ils n'ont meme pas un modele de cg pour nous presenter une démo


 
...d'où nos inquiétudes. :jap:

n°7144224
Profil sup​primé
Posté le 02-10-2009 à 13:25:39  answer
 

Impatience/méconnaissance mais pas inquiétude ;)
Je ne vois pas pourquoi il y aurait lieu de s'inquiéter alors qu'on nage encore en plein flou
Du moins pour le jeu
Pour le reste, les programmeurs et autres cruncheurs sentent déjà la bonne option :jap:...
 
Sinon, j'ai lu le 1er Post
Et tadaa, juste après, il y avait ceci => le 2nd Post (incroyable)
Relisez-le si besoin :jap:


Message édité par Profil supprimé le 02-10-2009 à 13:27:40
n°7144229
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 02-10-2009 à 13:29:36  profilanswer
 

on verra bien dans 2/3 mois si on a la chance d'avoir une petite démo mais j'en doute vraiment car meme avec une démo a faire baver les gens :p vu la production de la puce on est pas pret de l'avoir chez nous donc d'ici le temps il y'aura certainement beaucoup de changement , enfin quoi que vu que ca fait deja 4 ans .... tout de meme inquiétant en y pensant !


---------------
FeedBack
n°7144230
earth2172
Posté le 02-10-2009 à 13:30:19  profilanswer
 

master yoda 1 a écrit :

nvidia a accumulé un gros retard par ce que s'ils n'ont même pas une carte réelle de la gt300 a présenter c'est que le retard va être énorme.


bah si yavait une GT300 sur laquelle tournait astrophysics, une demo CUDA en double precision...


Message édité par earth2172 le 02-10-2009 à 13:33:21
n°7144237
Profil sup​primé
Posté le 02-10-2009 à 13:36:04  answer
 

B1LouTouF a écrit :

on verra bien dans 2/3 mois si on a la chance d'avoir une petite démo mais j'en doute vraiment car meme avec une démo a faire baver les gens :p vu la production de la puce on est pas pret de l'avoir chez nous donc d'ici le temps il y'aura certainement beaucoup de changement , enfin quoi que vu que ca fait deja 4 ans .... tout de meme inquiétant en y pensant !


Justement!
La production du proto. (de la carte quasi finale donc) est au point (on les croit ^^)
Donc d'ici là, ça ne peut que s'améliorer (le contraire serait étonnant)
 
Pour le côté "pas prêt de l'avoir etc.", c'est un souci purement budgétaire
& quand on ne peut pas raquer, on se taît ^^
 
Sans rire :d (quoique), une 58x0 en attendant et basta [:zebra33]  
PS: ce n'est pas en :cry: dans nos pitits Posts qu'on fera baisser le coût de la carte...


Message édité par Profil supprimé le 02-10-2009 à 13:38:10
n°7144239
Ramichou
Posté le 02-10-2009 à 13:37:00  profilanswer
 


Citation :

Il n'y a que des ennemis ! C'est un jeu sans partage. Si tu gagnes, je perds ! Nous ne pensons pas comme ça.


 
MERCI Jen hsun huang, merci pour ce fou rire ! Tu vient d'éclairer ma journée.
Je vais répondre à une grande interrogation de ce topic : les interwiews tels que celle citées au dessus sont au mieux une bonne tranche de rigolade, au pire... Bon bref.
PS : Ca marche aussi avec quelques posts de ce topic, ses propres oeillères sont parfois démesurées par rapport à celles que l'on voit.
 
Sinon, je vois pas trop le problème de présenter une carte non fonctionnelle, d'une part ça s'inscrit logiquement dans la ligne de conduite de la communication de la firme, et d'autre part il voulait juste un support visuel pour captiver sont audience, rien qui puisse faire scandale là.
 
@Dll_75 ; J'ai franchement pas l'impression qu'avoir des cartes graphiques plus puissantes que les gammes actuelles soit un grand pas en avant pour le g33k au vu de la quantité de jeux qui tournent sur UE3, ou pas mieux. Après, forcément pour certains jeux faut de la puissance, mais ceux jeux se font bien rares, quand tu voit les tests pourris ou ca se bat entre 200 et 300 FPS taf, et sur les test sérieux, plein de jeux restent à des framerate très élevés...
Un interet, j'en voit bien un pour les joueurs de gros FPS rapides qui tachent : Prendre un écran 120Hz et avoir 120Fps constant minimum, couplé à une souris @ 1000hz, ça doit être le bonheur ultime : des contrôles qui réagissent sans presque de latence perceptible  :love:
 
@earth2172 : Aurait-tu un lien qui montre quelque chose au sujet de la démo physX dont tu parle ?
 
Dernière chose : Aurait-on des tests des GPUs DX10.1 de Nvidia, notamment celui qui est le plus haut de gamme ?

Message cité 1 fois
Message édité par Ramichou le 02-10-2009 à 13:44:04
n°7144266
mikestewar​t
Air Roll Spinnin'
Posté le 02-10-2009 à 13:46:54  profilanswer
 

Ramichou a écrit :

Dernière chose : Aurait-on des tests des GPUs DX10.1 de Nvidia, notamment celui qui est le plus haut de gamme ?


 
Pas de test du GT215 pour l'instant, que ce soit en version mobile ou desktop (cette dernière étant prévue pour Décembre de toute façon).

n°7144273
asmomo
Modérateur
Posté le 02-10-2009 à 13:51:46  profilanswer
 

earth2172 a écrit :

Citation :

during the keynote JHH went to great pains to point out that the only reason they could afford all this R&D is due to the volumes that they ship. So are people really trying to say that a man who knows that there is no Tesla and no Quadro without Geforce, is going to blow up the foundation of his house?


donc selon le boss de nvidia (premier jour de la keynote GPU computing), ca serait du sucide d'abandonner le monde du GPU desktop pour se concentrer sur le HPC car le premier fournit le volume nécessaire à financer la R&D de puces de plus en plus grosses.
Bref, c'est bien que les journalistes supputent, mais encore faudrait-il qu'ils demandent au principal intéressé avant de sortir de grosses conneries...


 
Tu interprêtes, là. Il dit juste qu'ils ont pu faire Fermi grâce aux GPUs grand public. Certes, ça peut continuer comme ça. Mais ça peut aussi vouloir dire que maintenant c'est Fermi qui va rapporter, et bye bye les GPUs grand public...


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7144275
Gigathlon
Quad-neurones natif
Posté le 02-10-2009 à 13:52:28  profilanswer
 

dll_75 a écrit :

Les Wirmish, Gigathlon, etc On connait tres bien votre approche non-objective et avouée par vous meme sur NV, donc quoi qu'ils fassent ce sera toujours de la merde, ou hors de prix...


La fois où j'ai "avoué", comme tu le dis, j'ai bien expliqué pourquoi à rapport perfs/prix égal dans une certaine tranche je ne prendrais jamais du nVidia, à savoir que je n'admet pas leurs pratiques marketing et commerciales, mais que si nVidia proposait mieux (et par là je veux dire pas 5-10% mieux pour 30% plus cher hein), ça ne m'empêcherait pas d'acheter leur GPU.
 
D'ailleurs, en tant que pro-AMD pour la même raison ou presque (c'est même plus marqué, AMD étant un liliputien à côté d'Intel), c'est quand même bizarre que mon PC soit basé sur un C2D, non?
 
Pour moi, nVidia n'avait pas vraiment d'autre choix que de changer de cible si ils veulent se faire une vraie place sur le marché du calcul massivement parallèle, seulement, dans le même temps, ils mettent clairement de côté leur coeur de métier, et c'est pas un demi-avoeu là puisque dans une conférence sur les GPU ils parlent de tout sauf du marché des GPU grand public et renomment même pour l'occasion leurs "Shader Processors" en "Cuda Cores", histoire qu'il n'y ait pas de confusion possible sur le fait qu'on ne parle plus de shaders mais de tâches de calcul.
 
Dire que Fermi est "scalable" comme ils l'ont fait est au passage un grossier mensonge de plus dans leur comm, 1/4 du die (scheduler) est clairement impossible à réduire sensiblement et réduire le reste seulement donnerait des puces sans le moindre intérêt quelque soit le marché.
 
Le FP64, niveau jeux on s'en fout royalement, du coup son intégration au coeur même du concept cible clairement le marché HPC (le photo-réalisme est accessible en FP32, ce qu'il manque c'est de la puissance).
L'ECC, c'est très clairement inutile concernant un GPU, encore une fois ça cible le marché HPC.
Le "Giga-Threading", qui est ni plus ni moins que l'équivalent de l'HyperThreading/SMT sur les CPU, concerne encore une fois exclusivement le marché HPC puisque les shaders ne posent pas ce problème (Cf. Tridam)
 
Bref, non, ça n'est pas du tout du fanboyisme primaire mais bien ce à quoi nous mènent les informations fournies par nVidia qui m'amènent à dire ce que je dis, à l'inverse de ceux qui s'attendent à du +50% en perfs face à une 5870, ajoutent que "plus de perfs qu'une GTX285 ça sert à rien" et que "il faut que Crysis tourne à 60fps en 1920 AA4x" (on peut noter l'incohérence au passage hein, à l'inverse tu peux la chercher longtemps dans mes interventions).

Message cité 2 fois
Message édité par Gigathlon le 02-10-2009 à 13:54:29
n°7144285
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 02-10-2009 à 14:00:01  profilanswer
 

earth2172 a écrit :

allez dans ma generosité je t'en donne 2:

Citation :

Si la Radeon HD 5870 double les débits par rapport à la Radeon HD 4890 en 32 bits, elle est limitée par sa bande passante mémoire en 64 et 128 bits.

Citation :

Nous retrouvons un comportement similaire avec blending, si ce n’est que la bande passante mémoire devient une limite encore plus importante.


regarde les tests GPU cloths et GPU particles. La RV870 est seulement 1,2x plus performante que la RV770 alors que les test shaders et texels (perlin noise et Texture fill) s'envolent. ca prouve bien que la BP est limitante (d'ailleurs tu t'attendais a quoi avec deux fois plus de FLOPS pour pratiquement la meme BP?)


Et si il y avait une autre raison ?
 
Pcq tu vois, moi quand je regarde les tableaux et que je compare la HD5870 à la GTX285 ...
 
GTX285 = 32 ROPs, 512 bit GDDR3, 159.0 GiB/s.
HD5870 = 32 ROPs, 256 bit GDDR5, 153.6 GiB/s.
http://www.hardware.fr/medias/photos_news/00/26/IMG0026905.gif
http://www.hardware.fr/medias/photos_news/00/26/IMG0026906.gif
... je ne peux que constater que la Radeon, bien qu'ayant les mêmes specs, est loin devant.
 
 
Et de toute façon, les textures en 64 et 128 bit dans un jeu c'est très rare.

Message cité 1 fois
Message édité par Wirmish le 02-10-2009 à 14:03:55
n°7144313
bjone
Insert booze to continue
Posté le 02-10-2009 à 14:13:53  profilanswer
 

Gigathlon a écrit :


La fois où j'ai "avoué", comme tu le dis, j'ai bien expliqué pourquoi à rapport perfs/prix égal dans une certaine tranche je ne prendrais jamais du nVidia, à savoir que je n'admet pas leurs pratiques marketing et commerciales, mais que si nVidia proposait mieux (et par là je veux dire pas 5-10% mieux pour 30% plus cher hein), ça ne m'empêcherait pas d'acheter leur GPU.
 
D'ailleurs, en tant que pro-AMD pour la même raison ou presque (c'est même plus marqué, AMD étant un liliputien à côté d'Intel), c'est quand même bizarre que mon PC soit basé sur un C2D, non?
 
Pour moi, nVidia n'avait pas vraiment d'autre choix que de changer de cible si ils veulent se faire une vraie place sur le marché du calcul massivement parallèle, seulement, dans le même temps, ils mettent clairement de côté leur coeur de métier, et c'est pas un demi-avoeu là puisque dans une conférence sur les GPU ils parlent de tout sauf du marché des GPU grand public et renomment même pour l'occasion leurs "Shader Processors" en "Cuda Cores", histoire qu'il n'y ait pas de confusion possible sur le fait qu'on ne parle plus de shaders mais de tâches de calcul.
 
Dire que Fermi est "scalable" comme ils l'ont fait est au passage un grossier mensonge de plus dans leur comm, 1/4 du die (scheduler) est clairement impossible à réduire sensiblement et réduire le reste seulement donnerait des puces sans le moindre intérêt quelque soit le marché.
 
Le FP64, niveau jeux on s'en fout royalement, du coup son intégration au coeur même du concept cible clairement le marché HPC (le photo-réalisme est accessible en FP32, ce qu'il manque c'est de la puissance).
L'ECC, c'est très clairement inutile concernant un GPU, encore une fois ça cible le marché HPC.
Le "Giga-Threading", qui est ni plus ni moins que l'équivalent de l'HyperThreading/SMT sur les CPU, concerne encore une fois exclusivement le marché HPC puisque les shaders ne posent pas ce problème (Cf. Tridam)
 
Bref, non, ça n'est pas du tout du fanboyisme primaire mais bien ce à quoi nous mènent les informations fournies par nVidia qui m'amènent à dire ce que je dis, à l'inverse de ceux qui s'attendent à du +50% en perfs face à une 5870, ajoutent que "plus de perfs qu'une GTX285 ça sert à rien" et que "il faut que Crysis tourne à 60fps en 1920 AA4x" (on peut noter l'incohérence au passage hein, à l'inverse tu peux la chercher longtemps dans mes interventions).


 
Heu pour info la première Geforce a été peut-être d'abord plus un succès pour les workstations de bureau d'études qu'un succès grand public.
nVidia a commencé à dégager la concurrence dans le domaines pro dès la première Geforce, donc ils ne mettent pas vraiment de coté leur cœur de métier.
nVidia a toujours été présent dans le marché Pro et Gamer. Alors qu'Ati/Amd s'est redressé par le marché des Gamer.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  36  37  38  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR