Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Lovelace v plné palbě s 900W TDP nestačí ani 16pin napájení

To vypadá, že NVIDIA má strach z Apple M2 a Intel Arc druhé generace :O

+1
+20
-1
Je komentář přínosný?

Znami a osvedceni leakeri naznacuju, ze Intel planuje to spatneho zrcatka poslat aj nVidiu.

+1
+13
-1
Je komentář přínosný?

Tak ve spotrebe, tomu bych i veril :-)

+1
+5
-1
Je komentář přínosný?

Bude s tím nVidia dodávat i mikrofůzní články (ala Fallout2)? I GF4070 vypadá daleko žravěji než jakákoli součásná mainstreamová karta a k GF4090 (Ti), aby si lidi pořídili vlastní elektrárnu... 250W karta je asi tak maximum, co chci ve svém PC provozovat.

+1
+12
-1
Je komentář přínosný?

Souhlas. A jsem zvedavej, jak se bude resit chlazeni tech 400-600W karet. Protoze IMO, ty soucasne vzduchove designy jsou debilni - toci vzduch uvnitr skrine (krome blowera, ale ten prakticky zmizel). Na CPU lze posadit hezky vezicku, pak to proudi pekne pres celou skrin. U GPU ma clovek jen dve moznosti - spatne reseni se vzduchem, nebo vodnik.

+1
+4
-1
Je komentář přínosný?

Tak při těch cenách by se v rozpočtu ten vodník klidně ztratil.

+1
+2
-1
Je komentář přínosný?

ta 4070 bude zrat min, jako prvni v rade pouziva klasice gddr6 misto tech gddr6x ktery maj velkou spotrebu

+1
0
-1
Je komentář přínosný?

V těch únicích ze kterých je informace o testování 900W varianty je i informace že prý 4070 má mít 300W a 4080 prý okolo 350W.

+1
0
-1
Je komentář přínosný?

RTX 4080 má mít TDP jako GA102, jen se neví, jestli bylo myšleno těch 350W (320?) RTX 3080/3090 nebo 450 3090 Ti... no když 4070 má mít 300, 4090 600 a 4090 Ti 800-900 (????), tak to vypadá asi spíš na těch 450.......

S 350 by byla až přespříliš úsporná, to by musela mít hodně blízko k 3070, což podle uniklých specs moc nevypadá a proč by to dělali, když už mají i tu speciální GA103; nebo by ji najednou nechtěli už tak „milkovat“ jako ostatní GPU v této generaci, což mě teda taky moc nenapadá žádný důvod, proč by jen u tuhoto modelu používali najednou jinou taktiku než výrazné zvýšení TDP proti předchůdci/konkurenci, když zrovna tento už stojí ještě proti chipletům, takže to spíš už potřebuješ opravdu maximalizovat ten výkon, pokud se chceš na ně aspoň trochu chytat v rasterizaci, už tak budou asi stejně ztrácet a tu N32 možná dorovná až nějaká ta 4090... ale ti se budou snažit svého zákazníka nalákat pak stejně ještě asi i na něco jiného než toto... možná jestli ray tracing zas nebude trochu lepší nebo tak něco.

Pokud ji budeš chtít mít 350, tak holt stáhneš Afterburner a posuvník TDP snad půjde zas posunout směrem doleva tam kam potřebuješ jako u Amperky a udělat ji aspoň trochu efektivnější.

+1
0
-1
Je komentář přínosný?

hmmm... vypadá to, že tahle Ada bude pěkně nažhavená :D

+1
+10
-1
Je komentář přínosný?

Holt zenska, no :--)

+1
+3
-1
Je komentář přínosný?

Ale jo... vyrobit chladič co nějak uchladí 900W by byl úspěch... co už takový úspěch není muset vyrábět i takovou grafiku a tento chladič opravdu potřebovat, protože nestačím na 375W konkurenci... nebo toto bude už spíš jak fén.

Těch 800W/900W někdy bude jako RTX 4090 Ti, jen testují co vydrží napájení a jestli je možné to opravdu něčím uchladit, TDP bude takové, co jim prostě půjde ještě provozovat. Otázka spíš je, jestli je na takovej přímotop ještě vážně někdo zvědavej a bude to ochoten někdo kupovat, i kdyby to to 375W AMD o kus nakonec přeci jen překonalo, ta spotřeba je už dost šílená.

Ale min bude dost zajímavý sledovat ten vývoj aspoň jako takové cvičení, jak si s tím výrobci chladičů poradí, jestli se toto vážně plánuje jako GPU pro desktop, uchladit 900W, nebo i kdyby jen těch 800W, je to dost výzva. Doufám, že už se to ale neformuje nový trend high endu a časem to půjde zas dolů, nebude to snad běžné a nevytváří tímto jen novou třídu grafik, i když si z toho aspoň může každý utahovat a ve vysledku to nikoho nenutí kupovat. Ale kdyby se tento chladič pak použil třeba „jen“ na chlazení 600W RTX 4090, aspoň by to tak už nemuselo hučet. Ale stejně, i když se ti toto vše povede, máš furt plno odpadního tepla, nevím co s tím chtějí dělat, klimatizace je už nutnost... možná to nějak napojit na nějaký ohřívač vody?

+1
+2
-1
Je komentář přínosný?

Vyrobit chladič, co uchladí 900W, není náročné. Je to jenom o rozdílu teplot. Pokud ADA bude mít provozní teplotu 500°C, tak nebude problém uchladit ji i relativně malým pasivem s aktivním ventilátorem... naopak se tím asi dostanou z módy vodní chladiče, které budou mít na těchto grafikách takovou nepříjemnou vlastnost, že při vyšší zátěži budou vybuchovat.
:-D
Na jednu stranu to je vskutku šílené, na druhou stranu 4090 Ti není mainstreamová grafika, to není žádná grafika s takovýmhle tepelným výkonem, a kdo ten výkon bude chtít, bude pro něj dostupný. My ostatní holt budeme pokukovat jinde než v kategorii "přímotop".

+1
+3
-1
Je komentář přínosný?

náhodou, hadičky povedou přímo do sudu, to chvíli potrvá než se to ohřeje. A pak teplou vodu využít do koupele. Ani nebude třeba motor, přívod bude dole, takže tlak vody se postará o oběh.

+1
+1
-1
Je komentář přínosný?

Tak ono se dá jít ještě dál, nad 2500°C dochází k rozkladu vody, takže by bylo čím pohánět generátor pro napájení, jenom je problém že křemík má teplotu tání něco přes 1400°C a přes 3200°C už začne vřít.

Akorát by se to doma blbě provozovalo, představa že bych si na skříň položil knížku a ta by se i s rukou ihned vznítila není příjemná, nehledě na to že běžná železná skříň by asi byla po chvíli hraní roztavená, no a kdo by to pak čistil z koberce.

+1
0
-1
Je komentář přínosný?

to už jsi vyvedl do absurdna. Moje řešení je sice těžce neelegantní, ale funguje naprosto tiše a bez potřeby elektřiny. 100L sud se ani při 1500W tak rychle nevyhřeje na 60°C. A to nemluvím o 1000L IBC kde už to bude trvat opravdu hodně dlouho než se takový objem vody prohřeje aspoň na 40°C.

+1
0
-1
Je komentář přínosný?

„to už jsi vyvedl do absurdna.“

Samozřejmě, já rád ad absurdum. To co popisuješ jsem viděl u známého, měl vodníkem chlazené CPU, GPU a napájecí kaskádu pro CPU, hadice pak v létě tahal ven a v barelu plném vody měl menší chladič z auta, takže si udělal takový tepelný výměník. Pamatuju si že měl při spotřebě 560W(ze zásuvky) nádherné teploty.

+1
0
-1
Je komentář přínosný?

to bude skutečný Titan :-)

+1
+3
-1
Je komentář přínosný?

Většina hráčů spotřebu neřeší. A hluk taky ne. Takže ti co neřeší ani cenu si to koupí.
Chladič bude vodní. Vzduch nemá šanci něco takového uchladit.
Mně přijde těžko uvěřitelné že by jedním chipem proteklo 900W. Jaké napětí bude mít?
Není to slepenec 2 nebo 4 chipletu ?
Těch 900W je na celou kartu. Takže část spotřebuje napájecí kaskáda a část pamětí. Kolik to asi bude?

+1
+5
-1
Je komentář přínosný?

Obávám se, že se to bude muset chladit tekutým sodíkem - jako některé reaktory. :-)

+1
-1
-1
Je komentář přínosný?

Přinejhorším se dá chladit i tekutým džusíkem.

+1
+3
-1
Je komentář přínosný?

A víš, že i vodník má na druhé straně vzduch? Čili nakonec se to stejně chladí vzduchem. Ale ano, bude to nejspíš vodník, protože odvod tepla do ofukovaných žeber by pak vyplňoval zbytek skříně, nejspíš...
Co je ale víc na zamyšlení, kam s tím teplem dál. V zimě to je spolu s CPU takové 1 - 1,5kW topidlo. Jenže co v létě. Dovede si někdo představit, že je 25 - 30 °C ve stínu a k tomu si pustí přímotop 1kW? :O
Tohle směřuje ke sdruženému okruhu napojenému na ohřev TUV. :D

+1
+1
-1
Je komentář přínosný?

Ja myslim, ze i ti co to doposud 'neresili', tak brzy zacnou ;)

+1
0
-1
Je komentář přínosný?

> Jaké napětí bude mít?

Kolem 1V jako vzdy. Napeti je ten nejmensi problem, skutecny problem bude proud.

+1
+2
-1
Je komentář přínosný?

Ano, čím menší napětí, tím větší proudy.
1V 900A = 900W
Dost šílený 900A.

+1
0
-1
Je komentář přínosný?

V létě to bude peklo, když si to člověk dostatečně dobře neohlídá. Už teď si v zimě, když chci přitopit, pustím nějakou náročnější hru. A to mám starší osmijádrový Intel a GTX770. V létě kdy občas sedávám u počítače rovnou nahý, bych takový krám asi musel přestěhovat do jiné místnosti.

+1
0
-1
Je komentář přínosný?

Začínám se bát, zda se u nové generace dočkal pro mě použitelného upgrade, tzn 200W a 12/16GB VRAM...

+1
0
-1
Je komentář přínosný?

Hmm, ten jejich pokus trumfnout pro hráče prakticky zbytečnou videopamětí na 48G AMD se mi velice líbí :) Mít to pak podtaktované na malé TDP, trénování neuronovek a rendery v Unrealu prostě paráda! <3

+1
+3
-1
Je komentář přínosný?

Jo, ale bude stát jak raketa na Mars... ;)
Ale možná je to takové "vrtění psem". Vystraší nás 9 sty Watty, ale nakonec to bude jenom 600 W. Nebo ne to tohle si koupí jenom render farmy a profíci, kteří si to můžou rozpustit do nákladů a vybrat od klientů.

+1
0
-1
Je komentář přínosný?

Dobrý den kolego :-)

Ta křivka spotřeby je podle mého názoru nelineární - když jsem throttloval svou 3090 na 200W, byl jsem pořád na dvojnásobku Apple A1 Ultra v Geekbench. Tedy při stejné spotřebě jako 3090 bude mít pořád (4090 Ti?) výrazně vyšší výkon. Ale k tomu kvantum videopaměti a výrazně větší cache.

Ad cena, minulá generace profi karet se 48G paměti stojí 190k. Tato ale bude mít o dvě generace vyšší výkon a bude třeba za ~100 s DPH? Pro profi využití kde je silné omezení na VRAM podle mého názoru velice zajimavá možnost.

Pro hráče samozřejmě pouze na jako extenze ego-pindíka.

+1
+3
-1
Je komentář přínosný?

Som si takmer isty, ze aj tentokrat bude 48G vyhradene len pre profi verzie. Oni vedia, ze by si takto kanibalizovali trh s profi radou kariet.

+1
0
-1
Je komentář přínosný?

Nebo bude za "profi" cenu :-) Za pokusem hodit obrovskou VRAM vidím tendenci "podělat" za každou cenu AMD která bude mít pravděpodobně 32G model.

+1
+2
-1
Je komentář přínosný?

> AMD která bude mít pravděpodobně 32G model

jenze ten 32G model bude AFAIK jenom v "profi" rade, nebo ne ? Uz v soucasne 6000-ove generaci lze poridit Radeon Pro se 32G pameti.

+1
-1
-1
Je komentář přínosný?

Tak si to spočítejme: elektřina je drahá a levnější asi hned tak nebude. Řekněme 5Kč/kWh. Rodiče koupí Pepíčkovi RTX4090Ti na hry, k tomu nějaký über-CPU. Dohromady spotřeba ve špičce kolem 1100W. Špička = kdykoli Pepíček hraje. Pepíček hraje od příchodu ze školy (řekněme 14:00) do chvíle, než má jít chrápat (řekněme 20:00). Dobře, zaokrouhleme to na 5hod/den a ani o víkendech mu nedovolme víc. To znamená 5,500kWh/den. Tedy 27,50 Kč. Při 365 dnech v roce je to 10 tisíc Kč ročně za elektřinu. To vše, aby Pepíček mohl honit tanky, WoWko, Witchera, Cyberpunka nebo něco podobného po monitoru. Kdyby místo toho měl RTX 4060, tak mu to sice nejde ve 4k, ale ve 2k, ne na plný detaily+RTX, ale na detaily stření, ne 144fps, ale 60fps. Ale Pepíček to prostě psychicky nevydejchá, tak má RTX 4090 Ti. Tohle nemůže být pravda. Pro běžné spotřebitele přece nikdo soudný nebude vyrábět kartu, která má 2x16pin, čili ekv. 6x8pin, čili ekv. 12x 6pin čili ekv. 24 Molexů. To udělá jedině totální debil. Jseš totální debil, Jen-Hsune?

+1
+10
-1
Je komentář přínosný?

Takové rodiče bych taky chtěl :-D Ale jestli jsou rodiče "normální", tak mu koupí spíš 4050Ti (jestli bude) a za zbytek pojedou všichni na dovolenou. A ještě ušetří za elektřinu

+1
+9
-1
Je komentář přínosný?

ee, stačí radeon + ryzen a bude parit v 4 k a rozpočet to nezrujnuje

+1
-1
-1
Je komentář přínosný?

Rodiče, kteří koupí Pepíčkovi RTX4090Ti na hry, asi nebudou řešit 10 tisíc ročně za elektřinu...
Ale onen hypotetický Pepíček prostě není běžný spotřebitel.

+1
+9
-1
Je komentář přínosný?

Zatím není jasné, jestli něco takového Nvidia pošle na trh. Už 600 wattů z dnešního pohledu působí jako šílenost. Pro Jensena je ale prý akceptovatelnější být zcela mimo spotřebou než se nechat výrazněji překonat výkonem.

+1
+2
-1
Je komentář přínosný?

Stale dost silno verim, ze su to len take testovacky a tiez psychologicka hra na ludi. Postrasime pol roka 600-900W modelmi a potom ludia ovela lahsie prekusnu, ked to bude mat "len" 450-600W a bude sa to menej rozpytlavat v recenziach, atd.

+1
+3
-1
Je komentář přínosný?

A nebo taky tyhle informace oni mohou vypouštět jen zkusmo - testovat lidi jak by reagují na to že by měla přijít grafika s 600w.

Pro společnost je totiž výdělečnější udělat menší čip a vytočit ho vysoko než větší čip se stejným výkonem ale nižší spotřebou, tak by dávalo smysl že by tímhle testovali potencionální zákazníky jak daleko s touhle praktikou můžou zajít.

+1
0
-1
Je komentář přínosný?

to nie je praktika, to je prasarna

+1
0
-1
Je komentář přínosný?

> Pro Jensena je ale prý akceptovatelnější

Nejsem si jist, jakou tohle ma vahu. Predpokladam ze nevlastni rozhodujici podil akcii Nvidie, a taky predpokladam ze nema neomezene pravo dirigovat kam firma smeruje.

+1
-1
-1
Je komentář přínosný?

Parametry produktů ale akcionáři neurčují. Ti ani nevědí, jaké parametry budou, dokud Nvidia produkt nevydá.

+1
+5
-1
Je komentář přínosný?

tak všude na světě jdou ceny nahoru...i ty kožené bundy :)

+1
+4
-1
Je komentář přínosný?

Vy máte nějaký chorobný problém s tím, že existují produkty, o které nemáte zájem? Sleduju to už delší dobu, z nějakého důvodu vás bytostně uráží všechno co žere přes sto wattů :D
4090 Ti _očividně_ není produkt pro "běžné spotřebitele", už jenom proto, že bude stát tak 80k. Já bych si 600w+ grafiku taky nekoupil, ale pokud je někdo takovej masochista a stojí mu to za to teplo a hluk, tak ať si to užije, jsem rád že disproporčně platí Nvidii vývoj nových produktů a nijak se mě to nedotýká, vyberu si z nižší řady...
A řešit ekologický hledisko tohohle absolutně nemá smysl ve chvíli, kdy se po silnicích prohání auta se spotřebou 20L, po vodě motorový jachty, a ve vzduchu private jety.

+1
+4
-1
Je komentář přínosný?

Jsem rodič..
"Tady máš 5700G a s tím si musíš vystačit. Máš ten počítač na úkoly do školy ne? Minecraft ti jde tak kde máš problém a jestli se ti to nelíbí tak stejně za 20 minut odcházíš na trénink."
..takže asi tak :-)

+1
+5
-1
Je komentář přínosný?

Presne rovnako aj u nás doma ;-)

+1
0
-1
Je komentář přínosný?

nebo půjde místo tréninku na 4h brigádu a ikdyby jen házel balíky tak si poměrně brzy vydělá na něco lepšího.

+1
+1
-1
Je komentář přínosný?

5Kč/kWh? Současná cena v protektorátu Čechy a Morava se blíží někam k 7 Kč a bude hůř.

+1
+1
-1
Je komentář přínosný?

Vtipne na tom je, ze mi udajne vyvazime 1KW za min nez 1kc. Teda pokud jsem to odchytil spravne..

+1
+3
-1
Je komentář přínosný?

Ano, levně vyrobíme, všechno prodáme do zahraničí, a pak to draze kupujeme. Ostatní země na burzu v Lipsku dávají jen část své produkce a část jde na vnitřní potřebu. I tak ale jezdíme elektroauty za zlomek ceny benzínu/nafty, takže je tam furt rezerva. To se dřív ozve plebs.

+1
0
-1
Je komentář přínosný?

Mám doma přímotop. Jede 800W aby mi nebyla zima u PC. A 2000W když potřebuju vyhřát celou místnost. A to má metr na šířku přímotop. Nedokážu si představit co půjde z bedny. Když v zátěži bude sama dávat 1200W +- pak. To už musí být zakázané plastové komponenty v PC ne?

+1
+6
-1
Je komentář přínosný?

A v létě, v létě si taky topíš? Páč tohle by topilo "imrvére" kolem 1 kilowatty. To je na umístění radiátoru někam na fasádu pod okno...

+1
-1
-1
Je komentář přínosný?

No topím si podle počasí. :D Ale nenarážím ani tak spotřebu, ale na to neuvěřitelného odpadního tepla v malém prostoru. To prostě pustit na plný kotel, znamená že se vám odpadnou lopatky z chlazení.

+1
-1
-1
Je komentář přínosný?

Konecne se na tom budou dat smazit vajicka. A ne jak GTX480 Thermi...

+1
0
-1
Je komentář přínosný?

To rovnou půjde už používat vrch PC bedny jako plotýnka

+1
+1
-1
Je komentář přínosný?

Vypadá to, že 7900XT se svými avizovanými 375W bude velmi úsporná karta :D

+1
+7
-1
Je komentář přínosný?

Jenže horší je, že se zvyšuje i spotřeba karet mainstreamu. GF 4070 s TDP 300 W nezní moc dobře. Oproti tomu NAVI 33 má mít cca 230 W, což je lepší, ale taky žádný zázrak. Znamená to, že v budoucnu pouze AMD bude mít produkty (CPU, GPU) s lepší energetickou efektivitou a Intel a nVidia pojedou v duchu "na spotřebu sere pes, výkon je všecko"?.

+1
+4
-1
Je komentář přínosný?

no je to prav da, ale čakal si že za posledné roky 10 násobne zvýšiš výkon pri rovnakej spotrebe ako bol základ?

+1
+5
-1
Je komentář přínosný?

V budoucnosti? Už pár let to tak je. AMD má líp navržené obvody.

+1
-2
-1
Je komentář přínosný?

Ano tech 230W nwni konecna ... vzdycky se to jaste podvoltovat/podtaktovat. 200W newbude problem nastavit behem par vterin, 150W uz bude potrebovast peclivejsi ladeni, ale take nic nemozneho.

+1
+2
-1
Je komentář přínosný?

Oni vyrábí produkty podle toho o co mají zákazníci zájem.
Kdyby jim propočty vykázaly že grafiky nad 250W moc lidí nekupuje a leží v obchodech tak žádné takové grafiky příště dělat nebudou.

+1
0
-1
Je komentář přínosný?

To bohužel není pravda. Na zájmy zákazníků nVidia kašle.
Produkty nV a intelu se dělají podle zisku.
A na TOP kartě/CPU je největší marže.
Takže je třeba mít v nabídce TOP kartu/CPU
Bez ohledu na to kolik žere. Hlavně že bude generovat zisk výrobci.
U aut taky nikdo neřeší kolik žere Maserati. Ale kolik jede zajímá každého.

+1
+2
-1
Je komentář přínosný?

Pokud takové karty opravdu nikdo nechce a moc nekupuje tak se tam ten zisk nepromítne.
Klidně tam můžou mít produkt s marží 500% ale když to nikdo nekoupí tak zisk bude přesně nula.

+1
+1
-1
Je komentář přínosný?

Ano, máte pravdu. Zájemců je mnoho. Při kusové výrobě by cena byla přes 100 000Kč.
A to by opravdu už mnoho zákazníků nekoupilo.
I když Bentley se dělá ručně a každý motor nese podpis mechanika. A na auta mají poradnik.
I tudy vede cesta. Punc něčeho výjimečného umožňuje astronomické ceny.

+1
+1
-1
Je komentář přínosný?

U aut je to sranda pokaď je a bude co tankovat.

+1
0
-1
Je komentář přínosný?

Takže to loňské aprílové video nakonec prakticky vůbec apríl není :) https://www.youtube.com/watch?v=0frNP0qzxQc

+1
+7
-1
Je komentář přínosný?

To byl prvotní vzorek, co žral 1 kW. Aktuální revizi odladili na 900 W :-) Vypadá to jako PR talk, aby finální spotřeba karty (750 W?) vypadala příznivěji.

+1
0
-1
Je komentář přínosný?

Nebo taky akorát zkouší jaké jsou reakce lidí co se o to zajímají, jestli by to potencionálně mohl být produkt o který by byl zájem.

+1
0
-1
Je komentář přínosný?

Diky!!! Fakt jsem se po ranu podruhe zasmal :D , kort u ty "poltergeistovy" plechovky :D

+1
+1
-1
Je komentář přínosný?

https://youtu.be/_3iHV0NvLPI

Pán je fakt dobrý řezník.

+1
0
-1
Je komentář přínosný?

Tepelná ztráta celého mojeho baráku je 4kW, super..

+1
0
-1
Je komentář přínosný?

Mal som obavy, ci az by ta grafika zrala 900W, by mal zdroj este kapacitu, aby k tomu slo prilepit cokolvek viac ako 386tku. A hej, robia sa aj 1600W zdroje O_o.

Takze toto + nejaky unlocknuty velajadrovy Intel a dosku, ktora nema PL2 limit a nizkoenergeticky dom sa tym da vykurit do -15 stupnov bez problemov.

+1
+3
-1
Je komentář přínosný?

Milane, nechceš si jít zahrát? Je tady zima...

Proč nepřipojit chlazení k rozvodu radiátorů?

+1
0
-1
Je komentář přínosný?

V zimně radiátory a v létě ohřívat bazén. Nebylo by to první použití čerpadla
https://diit.cz/clanek/5ghz-28jadro-intelu-nebezelo-standardne

+1
0
-1
Je komentář přínosný?

Milane, nahoď tam benchmark ať nám to uvaří kafe :-)

+1
0
-1
Je komentář přínosný?

K radiátoru? Rozhodne nie. Skôr do bojleru s teplou vodou. Tú treba aj v lete ;-)

+1
0
-1
Je komentář přínosný?

Chudák Igor Staněk z Nvidie. Už nebude stačit objíždět redakce, co testují nvidia karty, s těžkou highend skříní jako to dělal za Fermi aka Thermi. Na Lovelace bude muset každé redakci navíc i namontovat klimatizaci a tahat speciálního vodníka.

+1
0
-1
Je komentář přínosný?

AMD rozpoutala corewar v CPU.
nVidia rozpoutala pinwar v GPU.

+1
0
-1
Je komentář přínosný?

Přidám svůj poznatek z tohoto týdne. Testoval jsem RTX3060(ASUS ITX) a RX 6800(Sapphire) v 1080p. Která karta podle vás v RDR2, nastavení ultra a frekvence tak, aby nešli FPS pod 60 měla menší spotřebu? No nebudu napínat. Byla to RX 6800 s celkem masivním rozdílem 80-120W na zásuvce (jen case) a to se mi to nepovedlo vyladit tak, aby ta RX neměla v méně komplexních scénách vyšší FPS (10+) než 3060. i5-11600K, deska Asus H570-PLUS.
Doma jsem to testoval za stejných podmínek (minimum 60FPS) na Ryzen 5600 a RX6800XT ALE v rozlišení 3440x1440. To co ubral mnohem úspornější CPU si vzala grafika (frekvence limitovaná na 1600MHz) díky mnohem vyššímu rozlišení a se spotřebou jsem se dostal na 220W-280W na zásuvce (jen case). Doma mám ještě jeden zásadní rozdíl. Zatím co testovaný kus s Intelem byl holý (1x SATA SSD), doma mám 2xNVMe+10Gb ETH a celkem žravou desku ASUS Strix X570-F Gaming.
Zjistil jsem tedy dvě věci. Že Ampere žere jako svi*ě i v "low-endu"a že AMD grafiky je lepší limitovat frekvencí GPU, než limitací FPS.

+1
+5
-1
Je komentář přínosný?

Já jsem teď na konci topné sezóny nastavil limit spotřeby o 50% dolů. Na RX5500. Taky jí to docela prospělo. A díky za tip. Zkusím omezit takt.

+1
0
-1
Je komentář přínosný?

Já to napsal blbě. NAVI2 se vyplatí limitovat frekvencí a až pak FPS. U NAVI1(RX5700 s XT biosem) řeším umírněnost taky jen powerlimitem a limitovat i frekvenci jsem nezkoušel. PL totiž u NAVI2 jde ladit jen v malém rozmezí (+-15%?).

+1
0
-1
Je komentář přínosný?

Tak o dva důvody navíc proč to nekupovat.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.