Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AD102 / Lovelace má dosáhnout až 850 wattů? Nepravděpodobné…

hele Jiri.. kdyz se zblaznil Putin, proc by se nemoh zblaznit Jensen?? (:

+1
0
-1
Je komentář přínosný?

Ale ved to je jasna dohoda. Od buducej zimy nebudeme kurit plynom ale grafikami....

+1
+5
-1
Je komentář přínosný?

To je s tou spotrebou HOAX ked dnes ma 3090 cca 10000SP a 4090 ich bude mať cca 18000 tak tu je už 1,8x narast vykonu, to nehovorim o vylepšeni archytekturi 5-10% narast a už sme na skoro dvojnasobku vykonu. Ešte keď zvyšia frekvenciu o 10% rychlejšie pamate tiež nejake % navyše a možno si nova 4090 vystači aj so 400W
AMD tvrdi že jeho TOP GPU si vystači s 370W

+1
+1
-1
Je komentář přínosný?

na to bych nespoléhal. Samozřejmě 800 W je nerealistických, prostě proto, že to se nedá konvenčně uchladit. Ale 400 W je zase nerealisticky málo. 5nm proces na TSMC není o mnoho efektivnější nežli 8nm proces Samsung a 3090ka s polovičními parametry oproti 4090 žere přes 450 W. Takže v ideálním případě bych to viděl tak na 600 W, plus mínus 100 W.

+1
-2
-1
Je komentář přínosný?

"Postaví se dvě nové elektrárny na atom a budeme doma topit elektronikou. Stačí si pustit Cyberpunk s RTX a místnost je vyhřátá za pár minut."

Já bych popravdě uvítal, kdyby se výrobci začali zaměřovat i na efektivitu, abych se doma necítil jak v sauně kdykoliv nezapnu fps limiter.

+1
+3
-1
Je komentář přínosný?

Výrobci se na efektivitu zaměřují víc než kdy jindy. Pokud by tak nečinili, nepohneme se výkonnostně z místa, protože přínosy nových procesů jsou mizivé.

+1
+1
-1
Je komentář přínosný?

Hej, ale nVidia má problém

Nvidia Stolen Data Reportedly Reveals Ada, Hopper, Blackwell GPUs

published about 9 hours ago

A tidbit from the 1TB booty

Ada was the codename for Nvidia's forthcoming GeForce RTX 40-series for some time now. The specifications are unknown, but the leaked material speaks of AD102, AD103, AD104, AD106, AD107, and AD10B silicon.
https://www.tomshardware.com/news/nvidia-stolen-data-reportedly-reveals-...

AD10B= alias AD10(11) je nejaký hyper low end

NVIDIA DLSS Source Code Leaked
, 11:39 Discuss
The mother of all cyberattacks hit NVIDIA over the weekend, putting out critical driver source-code, the ability to disable LHR for mining, and even insights into future NVIDIA hardware, such as the Blackwell architecture. An anonymous tipster sent us this screenshot showing a list of files they claim are the source-code of DLSS.

Do note that this is DLSS version 2.2, so a reasonably recent version including the latest DLSS 2.2 changes. This code leak could hold the key for the open-source Linux driver community to bring DLSS to the platform, or even AMD and Intel learning from its design.
https://www.techpowerup.com/292479/nvidia-dlss-source-code-leaked

+1
0
-1
Je komentář přínosný?

> This code leak could hold the key for the open-source Linux driver community to bring DLSS to the platform

...to tezko. Zadny pricetny linux maintaner nebude akceptovat kod, o kterem se vi ze je kradenej, nebo napsan na bazi kradeneho kodu. Tohle psal nejakej "novinar" ktery vi prd o linuxu a nouveau driveru...

+1
+1
-1
Je komentář přínosný?

Ale v tom článku je to, že sa ním inšpirujú

+1
-1
-1
Je komentář přínosný?

No ak zverejnia aj ten hw folder, o ktorom pisali, tak sa bude inspirovat hlavne cina a rusko, ktore si mozu rovno postavit vlastne akceleratory.
Je otazne ci by to mohol niekto zo zapadneho sveta vyuzit bez riskovania patentovych a sudnych problemov.
Ale pre linux vyvojarov to moze byt studnica informacii pre lahsie reverzovanie.

+1
0
-1
Je komentář přínosný?

Jakože pokud bude mít ta RX 7900 XT 2,7x vyšší výkon než RTX 3090 při skoro stejné spotřebě... tak jestli toto není dostatečné zlepšení efektivity, tak to už nevím, jak vysoké zlepšení by sis potom ještě představoval... jistě, není to možná jak u RDNA2, které zvýšilo efektivitu o 50% vs. RDNA(1) na stejných 7 nm, která taky neměla tu efektivitu ve své době špatnou, takže na úrovni architektury proběhly skutečně velké optimalizace, ale i s RDNA3 to vypadá, že by to mohlo být znovu dalších 50%, ale už i díky přechodu na 5 nm... ale pořád mi to připadá hodně v pohodě ta spotřeby na ten výkon... chiplety ti to holt vždy trochu kurví.

Samozřejmě 375W je moc, nikdo neříká, že ne, ale nikdo tě nenutí brát takové extrémně výkonné GPU, budou i slabší a úspornější... dříve se holt akorát nedělaly takové gigantické čipy, to je celé... Kdyby se ta efektivita moc nezlepšila, tak by to muselo mít těch 800W... ale nemá, takže to bude asi v pořádku, ne?

Anebo ty si snad pamatuješ nějakou generaci za poslední dobu, která by navýšila 2,7x výkon oproti té předešlé, která zároveň nebyla určitě slabá, a zároveň nenavýšila TDP?... já si teda v nejbližší době na nic takového teda moc nepamatuji, to bych musel zapátrat tak možná o dekádu, 2 zpátky, pak už možná něco podobného ano, ale rozhodně nikoli v horizontu <10 let... nejlepší byl asi tak Pascal, ten byl perfektní... IMHO lepší i než Ampére/RDNA2, které jsou ale hned v závěsu po něm, ale furt to není nic oproti RDNA3, která aspoň podle těch leaků vypadá opravdu parádně.

+1
+3
-1
Je komentář přínosný?

Neresme 850W. Podivejme se ale na tech 450W, ktere i autorovi clanku prijdou realne.
Dneska procesor od AMD bere v zatezi nejakych 105W a v boostu az nejakych 145W. To je nic proti procesorum od Intelu, ktere bezne v zatezi berou 125W, ale v boostu umi az 240W. Zvlast tady ale i jinde od fanousku AMD to Intel schytava a maji pravdu, protoze je ta spotreba proste moc velka.
Jenze proc by se mel kdokoli ridit spotrebou a nevzit klidne ten 240W procesor, kdyz si k tomu poridi grafiku, ktera ma radove vic a resit spotrebu procesoru razem dela zcela marginalni?

Mne se proste nelibi cesta, kterou nastoupila NVidia a verim, ze by se melo mnohem vic mluvit o zcela prehnane spotrebe grafik nez furt dokola resit procesory.

+1
0
-1
Je komentář přínosný?

Tady máš samozřejmě pravdu, že i ty hodnoty kolem 400W jsou přehnané atd... Jenže když se bavíme o herním HW a běžné práci, tak tam už máme procesory výkonné až až si myslím. Proto se tam už dost řeší spotřeba.. protože není potřeba někam ten výkon úplně tlačit.

Kdežto u grafických karet po nástupu 4k rozlišení, RT a podobně toho výkonu rozhodně dost není. Proto se tlačí na výkon a ne až tak na spotřebu. Ikdyž AMD se snaží i s tou spotřebou něco dělat. To nVidia je teď dle mého jen vzteklá, že letos možná nebude mít nejvýkonnější grafiku na světě a bude ten výkon tlačit za každou cenu (i za cenu absurdní spotřeby).

V případě AMD se ale bavíme o top-endu s 2,7x vyšším výkonem než současná top generace a s navýšením spotřeby o 75-150W. Ano i tahle výsledná spotřeba (375-450W) je špatná, jenže se má jednat o top end... prostě něco pro fajnšmejkry, kteří ten výkon prostě chtějí. Pro ostatní tu budou dále hodně výkonné grafiky, které budou mít spotřebu do 300 W a nižší.

Na jednu stranu můžeme říct, že nVidia s těma 450-600W taky udělá top-end pro fajnšmejkry, jenže pokud AMD udělá top-end výkonnější a mnohem úspornější, můžeme už nVidii začít nadávat za to, jaké má provozní vlastnosti, když konkurence to dokáže mnohém lépe.

+1
+1
-1
Je komentář přínosný?

Jenže někteří lidi jsou kreténi s prominutím... většina to má stejně na paření her a na spotřebu Intelu neustále nadávají kudy chodí... jen jim při tom nějak uniká, že spotřeba ve hrách ani zdaleka nedosahuje těch 240W např. s tou i9 12900K, máš to spíš tak za polovic, ta spotřeba je dokonce nižší než s Ryzenem a ještě to má nějaký výkon nad to... takže... WTF..

+1
0
-1
Je komentář přínosný?

"spotřeba je dokonce nižší než s Ryzenem"
.. by mne zajimalo, odkud beres tahle tvrzeni. Tady vychazi 12900k oproto 5950x prumerech o cca 10W (10%) vyssi spotreba. Zajimave jsou ale peaky, ktere jdou v extremu az ke 150WW. Zatimco Ryzen se drzi maximalne na 122W
Na to, ze to ma jen 8P jader to oproti plnohodnotnemu 16C zere teda na muj vkus prekvapive moc.
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12...

+1
0
-1
Je komentář přínosný?

Nebo je to údaj k doporučeným zdrojům pro každou třídu.

+1
0
-1
Je komentář přínosný?

To zcela jistě ne. Těžko očekávat, že základní verzi AD102 bude stačit 450W zdroj, když dnes Nvidia 450W nedoporučuje ani pro low-end a i taková GeForce RTX 3050 má doporučen 550W:

https://www.nvidia.com/cs-cz/geforce/graphics-cards/30-series/rtx-3050/#...

+1
0
-1
Je komentář přínosný?

První gpu pro venkovní použití funguje jen v - 50ti a za silného větru.
Nedoporučuje se na vnitřní vytápění vaše Nvidia.

+1
-1
-1
Je komentář přínosný?

Hehe, jsem teď na zimu pustil ze řetězu svoji relativně úspornou sestavu 2700x+5700XT (tj. z původního pdovoltování a podtaktování, kdy jsem v zátěži nešel přes 200 W, jsem oba přetočil, že si sestava pápne přes 400 W), tak jsem musel stáhnout topení na půl žerdi. S tímhle a vhodným intelím topidlem bych mohl radiátor sundat :-D

+1
0
-1
Je komentář přínosný?

850W grafika a 260W procesor, to by při nějakém disku, desce, pamětech a obvyklé účinnosti zdroje dávalo asi 1500 W odpadního tepla. Základní olejové radiátory pro 40 m³ se dimenzují na 1000-1500 wattů, takže to docela sedí.

+1
0
-1
Je komentář přínosný?

Akorát by si k tomu člověk měl ještě pořídit dvojtarif, protože v tomto hypotetickém případě už hodina topení (ani nebudu říkat hraní :-) vychází na 10 korun. A to je už nezanedbatelná částka. Nízký tarif by to mohl shodit na třetinu. Jenže jak přesvědčit distributora, že PC je vlastně topení :-D

+1
0
-1
Je komentář přínosný?

Dvě sazby jsou na tohle dost na nic, protože nižší tarif dostanete např. 23.50-5.35 a 13.35-14.35 (nehledal jsem přesné časy, ale nějak podobně to máme, navíc se to liší v různé dny v týdnu a čas od času to mění).
Přizpůsobovat hraní her časům nízkého tarifu (což je většinou v noci) by nebylo nic moc.

+1
0
-1
Je komentář přínosný?

Určitě? Kamarád má barák, vytápí přímotopy a spíná mu to v mnoha intervalech, ale i přes den. Jede v tom nízkém tarifu tak 18-20 hodin. Myslím, že to je D45. Ale jistý si už nejsem.

EDIT:
Tak jsem to dohledal. Ano, byl to tarif D45d. Náhradou za něj je D57d. Nízký tarif je v intervalech v průběhu celého dne po dobu 20 hodin.

+1
0
-1
Je komentář přínosný?

Jo, jasně, u D57d jo.
Blbý je, i když počítač označíte jako přímotop, že D57d vyžaduje instalovaný příkon alespoň 40 % hlavního jističe (což přece jen bude docela hodně) a předpokládám zabránit spínání v době vysokého tarifu, což na hraní her bude docela vopruz :-)

+1
0
-1
Je komentář přínosný?

To není problém. Přímotopy si hodíš na papír, uplatíš revizáka. A ta revize a technická dokumentace k tomu přidružená je vše, co distributorovi stačí. Oni to nechodí kontrolovat (pokud nepojmou podezření, že to je ryze falešné a ve skutečnosti ten tarif potřebuješ pro pěstování travky).

A tak nakonec na spínač HDO budeš mít místo topení/bojleru jen připojenou LEDku u PC, aby jsi viděl, jestli náhodou nehraješ za plnou sazbu :-D

+1
0
-1
Je komentář přínosný?

"850W grafika a 260W procesor, to by při nějakém disku, desce, pamětech a obvyklé účinnosti zdroje dávalo asi 1500 W odpadního tepla."

Můžete to rozvést? Například jakou počítáte spotřebu disku(ů), desky a pamětí nebo jakou předpokládáte účinnost zdroje. Nemohu se dopočítat...

+1
0
-1
Je komentář přínosný?

zkusím to rozvést za no-Xe

GPU = 850W
CPU = 260W
MB = 60W (je v tom započtena i neefiktivita kaskády a 2,5Gbps ethernet)
RAM = 20 W (4 vysokorychlostní kousky)
HDD = 30 W (provozní, ne peak, ten je trojnásobný, 3 disky v raid)
SSD = 10 W
FAN = 10 W (cca 9 ventilátorů)
USB = 5 W (klávesnice, myš, kamera)
celkem = 1250 W
PSU = 1400 W (cca 90% účinnost)
herní monitor = 100 W (vysokofrekvenční)

Celkem cca 1500 W

+1
+1
-1
Je komentář přínosný?

850W . . . . grafika
260W . . . . procesor
60W . . . . deska, paměti, SSD, HDD
200W . . . . ztráty na zdroji (85% účinnost)
100W . . . . 4k monitor
==================================
1470W . . . celkem

I když změním nějaké drobnosti, pořáda to padá do rozmezí 1.3 ~ 1.6 kW

+1
+1
-1
Je komentář přínosný?

Můžu se zeptat, který monitor se zapojuje do PC zdroje? Monitor by měl mít přece svůj vlastní.

+1
-1
-1
Je komentář přínosný?

Přečti si to ještě jednou. Mícháš můj výpočet, kde bylo nutné vytáhnout monitor ven, což jsem udělal a jeho výpočet, kde má ztráty na zdroji jako zdroj. Tedy on to má matematicky dobře.

+1
+1
-1
Je komentář přínosný?

1) Ne že by se nenašel monitor napájený skrze USB, ale nechce se mi to hledat.

2) A proto je monitor uveden až za ztrátami na zdroji. Což většinu lidiček jaksi napadne.

Vlákno je o produkovaném odpadním teple. Jestli je zdroj vestavěný v monitoru, nebo používá napájení z PC, je v tomto případě nepodstatné.

PS: čekal jsem zpochybňování hodnot, ne takovouhle prkotinu.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.