Neo mineur
-
@16HEURES30 au lieu d’un petit tube plastique, tu découpes des petits carrés de MDF ou contreplaqué de 5 ou de 10mm que tu utilises comme pieds et tu visses à travers en prenant soin d’avoir des vis assez longues.
-
@Siberian-Mining Effectivement ça peut tout aussi bien fonctionner ! Au moins j’ai bien rentabilisé ma scie sauteuse avec les nombreuses découpes :face_with_stuck-out_tongue:
Gracias !
-
Je me permets encore de revenir ici pour une autre question, il vaut mieux au risque de faire tout sauter hein haha :
Sur la carte mère asrock h110 btc+, quel connecteur à gpu correspond au gpu 0, c’est à dire le gpu sur lequel je dois brancher ensuite mon câble hdmi pour connecter mon moniteur ?
https://www.casimages.com/i/21022007020538398.jpg.html -
@16HEURES30 C’est le plus long, le pcie x16
-
@Chuck-LeLimier D’accord, je me doutais bien que le gpu “big boss” n’aurait pas besoin de risers pour se connecter à la CM ! :smiling_face_with_sunglasses:
Merci Chuck !
Edit: finalement c’est peut être pas la meilleure idée de poser la plus lourde (suprim) en gpu 0 directement sur la CM …
-
Perso je branchais tout avec les risers, pas une seule carte sur la CM
-
@Raniva Mais alors comment définir la gpu 0 dans ton cas ? Serait ce le premier connecteur le plus proche du processeur qui correspond alors au gpu 0 ?
-
@16HEURES30 bonjour, c est peut être une connerie ce que je vais dire mais il me semble que dans la notice de la carte mère il est précisé si il y a un port privé qui est prioritaire par rapport aux autres donc je dirai que la CG que tu branches sur ce port tu fout ton câble HDMI dessus.
-
@El-Bibi-10 Oui la prioritaire est sans doute le pcie x16, mais je me suis renseigné suite au commentaire de @Raniva il semblerait que certains ne l’utilisent pas pour une meilleure stabilité du rig. Bon je vais faire quelques test, je verrai bien
-
SI tu l’utilise mais avec un riser, c’est souvent le *16 le port 0
-
aucun problème de stabilité avec le port PCIE 16x principal. Et ce port PCIE16x est en effet le GPU1, celui sur lequel il faut brancher son moniteur.
-
Autant pour moi, j’avais vu une video d’un mec sur youtube dans l’après midi, qui disait qu’il n’en servait pas du port 16x par précaution …
Sinon gros doute, j’ai suis équipé d’une alim enermax platimax de 1700w, mais il présente seulement 6 ports pcie 6+2p pour gpu (seulement 4 câbles fourni … ) alors que la description sur leur site en indique 10 (voir photo)
C’est moi qui bug ou y a une erreur du fabriquant ? https://www.casimages.com/i/210221030817436541.jpg.htmlMe semble trop gros pour être une erreur de leur part, mais alors, où sont les 4 autre ports pcie 6+2p manquants ?
-
@16HEURES30 Une très grosse erreur… Tu as 2X 6+2 par câble sur 5 câbles normalement et un pour relier le cpu.
-
Effectivement je viens d’aller check, c’est bien 5 câbles et non pas 4 ! D’accord, faut compter de manière à prendre en compte 2x 6+2 par câble … Donc le compte est juste
Mais @Chuck-LeLimier n y aurait il pas une solution pour pouvoir connecté + de 5 gpu sur cette alim ? 1700w pour 5 petits gpu seulement, ça fend le coeur :crying_face: -
@16HEURES30 Si tu ne dois pas alimenter de cpu avec, tu peux acheter un câble de plus.
-
C’est toujours ça de pris :confounded_face:
J’avais pas pris en compte ce parametre, en prenant un 1700w je pensais pouvoir brancher au moins 8 gpu dessus
Je saurai au moins pour la prochaine fois, c’est commettant des erreurs qu’on apprend ! -
Qu’est ce que vous pensez de ça ? Le prix est plutôt bas, c’est fiable ? :face_with_monocle:
-
@16HEURES30 oui aucun soucis avec ça, c’est la solution la plus utilisée
-
Le prix m’a semblé étrangement bas comparé au câble PCIE 6+2p qui m’a couté la bagatelle de 25 euros !
Ok, ça roule !Sur un rig de 13 GPU, principalement des 3070, penses tu qu’une alim de 1700w couplée à une autre de 1200w pourront elles suffire ?
Les GPU nécessite en moyenne 240w x 13 = 3120w + les autres composants on tourne autour de 3300w
3300w > 2900w (1700w+1200w)
Mais d’après ce que ce que j’ai lu par ci et là, les GPU n’en consomment jamais autant, c’est plutôt une valeur de sécurité du fabriquant ? est ce vérifique ? -
Si tes GPU sont correctement programmés sous HiveOS, ils ne consommeront pas plus de 140W en pointe car dans les datas d’overclocking on limite la consommation max d’électricité. C’est pour ça que de mon côté j’utilise des dédoubleurs de câbles 8 pins au lieu de doubler l’alimentation.
Si tu veux faire un rig de 13 GPU je te recommande de lire quelques articles sur le net de certains qui ont déjà eu l’expérience. Par exemple si ta carte mère est une Asrock H110Pro+, il faut que tu mettes un bout de plastique anti-statique entre les connecteurs 1x sur ta carte mère pour éviter que les connecteurs des risers se touchent. C’est l’un des gros défaut de cette carte mère.