6r36 a écrit :
Hello,
Je pense qu'utiliser du watercooling pour des serveurs est un surcoût non négligeable en terme d'infrastructure et support. Dans les datacenter, cela sert à réduire les coûts en clim en mettant les radiateurs dehors. http://www.asetek.com/datacenter/d [...] h-d2c.html
Travaillant dans le domaine du HPC, je pense que vous avez meilleur temps de mettre au moins deux bonnes clim dans la pièce.
Et encore selon mon avis, de prendre de vrais serveurs racks ! J'ai déjà vu de gros rabais (jusqu'à 50% !) sur certaines commandes que l'on a fait en négociant bien. Avoir un cluster beowulf qui freeze ou plante régulièrement risque d'être au final moins rentable suivant l'utilisation. Franchement, avoir un serveur de prod' avec alimentation redondante c'est un minimum, à moins de vivre dans la salle serveur... 
|
Effectivement c'est une solution nickel, mais j'imagine le budget pour ce genre d’installation. Nos render nodes CPU ressemblent beaucoup plus à un cluster Beowulf... la solution du pauvre en somme, mais qui nous rend bien service depuis 2 ans sans lacher. mais ce qui est bien avec les render nodes comme les notres c'est que même si un node lâche, ce n'est pas trop grave.
Pour les rendu GPU, le sli n'est pas utile, tu peux même mélanger des GPU différents, le render (si compatible CUDA) utilise tous les core CUDA disponibles
En fait, La génération de 6XX n'est terribles pour les calculs CUDA ( pour les softs que l'on utilise Octane/After Effects ray tracing...) même les Fermis faisaient mieux. la 580 gtx est plus rapide que la 680 gtx pour ce type de calcul. Pour la nouvelle génération de kepler il faut taper dans les 770GTX pour avoir de meilleurs résultats. Du coup la Titan est ce qui ce fait de mieux pour ça (pour un prix contenu)enfin pour le moment.
Message édité par Flexxo le 24-09-2013 à 20:01:15