Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k RECENZE: Gigabyte AORUS GeForce RTX 3080 XTREME 10G - aneb opravdu extrémní

čekal jsem tišší chladič, díky velikosti, ale uchladit skoro 400W tiše asi moc nejde
jinak jestli můžu poprosit někam do tabulky pro a proti dát i prodejní cenu, občas člověk když něco hledá pár let dozadu kolik co stálo tak se to hodí, mít takhle zafreezovaný údaje z té doby

+1
+5
-1
Je komentář přínosný?

a) 400W tiše uchladit jde... vodou :)
b) cena - souhlas. Člověk se potom třeba po 10 letech nestačí divit, jak rychle zapomene.

+1
+3
-1
Je komentář přínosný?

Máte nějaké osobní zkušenosti s chlazením 400W grafiky vodou?
Tato karta má obří pasív a 3 ventilátory. Tedy zhruba srovnatelné s velikostí tepelného výměníku vodního chlazení taktéž se 3 ventilátory. Použití klasického vodního chlazení se tedy jeví pouze jako přesun hluku ventilátorů z grafické karty na vodníka. Protože fyziku nejde očůrat.

+1
+5
-1
Je komentář přínosný?

Zkušenost nemám, ale rozdíl bude i s identickým pasivem a větráky. Pokud se teplo fouká ze skříně klasicky přes zadní sloty a různými cestami, které vytvoří větráky ve skříni, tak při 400W se zahřeje všechno po cestě. Pokud navíc počítáme s prosklenou bočnicí, tak je největší plocha pro pasivní odvod tepla víceméně izolant.

+1
+6
-1
Je komentář přínosný?

tak pokud bude kýbl vody vedle case tak to nestačí ohrát ani za pár hodin, další generace budou vypadat takhle:
https://twitter.com/bsimracing/status/1301970638035451904
a to už věřím, že bude tiché a uchladí to klidně i 500W

+1
+1
-1
Je komentář přínosný?

S tím kýblem opatrně. Můj 80l boiler ohřeje 1600W poměrně rychle... Takže výměník je i u 400W nutný. :)

+1
+3
-1
Je komentář přínosný?

Váš bojler je cíleně navržen tak, aby to teplo "nahrnuté" do vody ta voda zase nádobou a vypařováním zase nepustila ven. ;)

+1
+1
-1
Je komentář přínosný?

OK, boiler není dobrý příklad. Ale taková trochu pomalejší rychlovarná konvice... :)

+1
0
-1
Je komentář přínosný?

Tak začal bych tím, že ten výměník můžu umístit tak, že bude mit vyšší účinnost, než pasiv umístěný někde uprostřed kejsu ofukovaný již předehřátým vzduchem...

+1
0
-1
Je komentář přínosný?

Píšete to dobře, voda slouží jen k přenosu tepla jinam (radiátory). Radiátory ovšem mohou být 1) větší, 2) osazeny vícero tiššími ventilátory a 3) lépe umístěny a s lepším airflow.

+1
+2
-1
Je komentář přínosný?

Jsem teď na stroj s 5900X a 6900XT objednal vodníka s 2x 360 :)

+1
0
-1
Je komentář přínosný?

Povídej, přeháněj ...

Hodlám se trochu vážněji pustit do MMO RPG a hledám info o trochu výkonnějším HW, který nebude dělat rámus jak starující helikopotvora

+1
0
-1
Je komentář přínosný?

pokud chceš vzduch
tak obecně doporučuju na procák dát noctuu nebo scythe
a grafiku urcite asus strix nebo saphire nitro nebo gigabyte aorus nebo zotac amp extreme - to jsou řady s masivním chlazením, které jsou top tiché, ale je potřeba se kouknout na konkrétní modely
a hliníkovou skříň lian-li pokud se v tom nebudeš hrabat každý týden (šroubky jsou z ocele a už se mi po 8mi letech některé díry protáčí)
vodu já osobně nemám rád, je to drahý není to taková výhoda jak to vypadá, pokud se bavíme o uchlazení normálních komponent do 250W GK a procik do 150W

+1
0
-1
Je komentář přínosný?

-

+1
0
-1
Je komentář přínosný?

1kW zdroj? A není to málo, Antone Pavloviči? :D

+1
+8
-1
Je komentář přínosný?

zase na druhou stranu, můžeš si zahrát na svářečku a imitovat Flashdance. ;-)

+1
+1
-1
Je komentář přínosný?

Ta spotřeba je fakt šílená. To fakt máme zpátky dobu, kdy PC žralo něco 80 W v idle, při surfování o desítky W víc a ve hře 500W+? Smutné. Ale co, hlavně že Quake 2 běží v 34fps (což běžel i na Voodoo 1 s K6 a tehdejší požitek z 640x480/16bit byl zhruba stejný jako dnes z 3840x2160/RTX.

+1
+10
-1
Je komentář přínosný?

No jo, doby, kdy níže zmíněná Voodoo neměla ani pasiv a celý počítač živil 250W šrot od Eurocase (který reálně trvale dal max. tak do 150W) jsou dál a dál. Nic proti výkonu, ale ten růst spotřeby je fakt hrozný.

+1
+2
-1
Je komentář přínosný?

S tím Quakem si mě pobavil :o))) Ale je to fakt bída v tom quake ,tady jde vidět jak se jim to RTX fakt nepovedlo. Bo pěkné to sice je ,ale hratelné to není ,takže se to dá použít jen jako demo.

+1
+5
-1
Je komentář přínosný?

Právě s Quake II mám spojen wow efekt při koupi 3dfx Woodoo kdysi před lety... Ten rozdíl proti SW renderování byl jasnej jako facka.

+1
0
-1
Je komentář přínosný?

Voodoo byla super. Těch wow efektů (takové NFS 2 SE) bylo tenkrát hodně. Rád na tu dobu vzpomínám...

Samozřejmě ale taky nostalgie je sice hezká, nicméně vím, jak tenkrát počítače byly drahé (i ty bazarové), jako dítě jsem měl leda co jsem si pošetřil od babiček a pak hrozné umlouvání rodičů, aby jsme něco koupili. Tenkrát jsme jeli asi 50km do Hradce pro tohle PC - Cyrix 6x86MX 233, asi 32MB RAM (to už nevím jistě), S3 Trio 64V+ a Voodoo 1. Celé to na Windows 98 (bez štítku). V té době už asi jinak byly dostupné P3, takže to byla tenkrát už stará vrána. Ale té radosti...

+1
+1
-1
Je komentář přínosný?

Jo měl jsem v 98. podobnou sestavu, ty Cyrixy nebyly nic moc, ale byly levný a navzdory obecnýmu přesvědčení se dal i celkem taktovat... a to Woodoo bylo nějaký výprodejový 4MB Yakumo za 1500,- to už se celkem sneslo. :)

+1
0
-1
Je komentář přínosný?

Ja byl těžké king když jsem si zahrál Quake 3 arenu na sestavě Pentium I 200Mhz, 64 MB RAM, a Voodoo 2 s 12 MB VRAM :D Ale jakmile jsem tam dal více než 6 botů tak už to bylo nehratelné. To byly časy...
V té době už lidi měli "děla" s prvními Pentium 4

+1
0
-1
Je komentář přínosný?

Děti..

+1
0
-1
Je komentář přínosný?

No ten Quake II RTX je ukuchtěný přímo od NVIDIe, ale ve 4K je to maso i pro RTX 3090, ve FullHD je to hratelné.

+1
0
-1
Je komentář přínosný?

Co se týče přehrávání videa na YouTube - ono se už zase na PC dekóduje grafikou a ne procesorem? Od kdy? Žil jsem v domnění, že tohle skončilo s tím, jak YouTube opustilo Flash Player a od té doby se nic takového nekoná.
Uveďte mě kdyžtak do reality, prosím.

+1
0
-1
Je komentář přínosný?

No jasně, grafiky umí dekódovat video, akorát nic pořádně nepodporovalo ten Googlí VP8/VP9 kodek a řeší se to tak nahrubo shadery, takže to ty karty vytěžuje více, než kdyby to jelo nativně přes UVD nebo tak něco.

Až teď nové karty mají podporu VP9 a AV1.

+1
0
-1
Je komentář přínosný?

Můj sen je, že když už mí Intel Alteru a AMD má Xilinxe, tak by oba mohli integrovat určitou ASIC část do CPU, do které by se následně mohly za běhu loadovat v danou chvíli potřebné (de)kodéry videa a prostě sw aktualizacema šířit nové verze. Proč musíme jak idioti čekat, než někdo zadrátuje AV1 kodér do CPU/GPU natvrdo? Tou dobou stejně budeme řešit, že H.266 je lepší a vyhlížet, jaké bude AV2.

+1
0
-1
Je komentář přínosný?

Troufám si tvrdit, že to není tak triviální. Ty standardy se typicky řeší docela dlouhou dobu, než se nějak finalizují. Přidáním nějakého ASICu se přidá další práce navíc, protože někdo bude muset napsat ty enkodéry, dekodéry, asi řešit podporu pro různé operační systémy a navíc se může objevit problém s výkonem, dovedu si představit, že i to dekódování sežere nějaký výkon RAM, takže by to pak mohlo blbě chodit na PC, kde si někdo osadí jeden modul a bude to mít pomalé. Nebo bude mít starou verzi firmware/ovladače/OS a nebude to správně fungovat.

U těch grafik se přidává podpora těch nových formátů občas taky, ale pak se to počítá suše přes shadery.

+1
0
-1
Je komentář přínosný?

OK, ale to to tam musí těm kartám předávat aplikace, tedy prohlížeč, ne? Umí to všechny běžně používané? Dá se něčím zjistit, co mi ve skutečnosti dekóduje video z YouTube? Na Windows i na linuxu?

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.