Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k John Carmack: Nvidia DGX Spark jede na dva válce, přehřívá se a padá

>> Therory:
>> It just works.

Praxe:
Velké reklamní slogany: "Ono to funguje."
Drobný text pod čarou: "Tak nějak hůř."

+1
+11
-1
Je komentář přínosný?

jo, umim si to predstavit.. puvodne to Jensen chtel ukazat na ces, skoro pred rokem.. takze po trech kvartalech bouchnul do stolu a vsem bylo jasny, ze bud vydaj spark nebo budou padat hlavy.. tak vydali spark v takovym stavu v jakym byl.. ((:

prece kdyz to proslo s rtx5000, tak proc by to neproslo se sparkem?? jenom si neuvedomili ze spark na rozdil od rtx5000 nekupujou nV-fans, ktery si nechaj nos oveset bulikama, ale lidi co s tim realne potrebujou pracovat..

+1
+20
-1
Je komentář přínosný?

Ďalšia generácia dostane názov "DGX Flame" a už bude naplno horieť jasným plameňom, nielen tak potichučku iskriť ako tento nedorobok.

+1
+7
-1
Je komentář přínosný?

Johna vytočil DGX Spark, mě úplně stejně vytáčí RX 9070XT. Můžete mi říct, proč jsem musel ve Starfieldu vypnout FSR a dynamické rozlišení, aby ta hra aspoň trochu fungovala?
Přitom na NVidii to jede o dost lépe, sice taky ne dokonale, ale rozhodně to nerestartuje PC jako na té AMD grafice!!!

+1
-18
-1
Je komentář přínosný?

Žeby rozjebaná hra? Asi to nebude GPU . Proste moderná hra typu dorobí výrobca GPU. Tak nepičuj na AMD.

+1
+18
-1
Je komentář přínosný?

Starfield je graficky nepodarek.

+1
+15
-1
Je komentář přínosný?

Problem neni hardware bug, ale software bug jmenem Starfield.

+1
+16
-1
Je komentář přínosný?

Je to tak, chyba na straně vývojářů StarFiledu. Zato jiný "Field", konkrétně Battlefiled 6 běží extrémně dobře na AMD 9070XT
Od počátku (i bety) mi to jelo bez jedinýho pádu.
Tomu říkám optimalizace, ne jak Starfield. Tekže si Rede koupil blbou hru. Bohužel...

+1
+14
-1
Je komentář přínosný?

Alebo grafiku. Záleží od toho, čo mal skôr. :-)

+1
0
-1
Je komentář přínosný?

Tak kvůli jedné hře kupovat grafiku, kterou Red bude mít minimálně 5-6 let je prostě blbost.
Navíc, jako u spousty dalších her, to stejně doprogramuje AMD (nebo Nvidia) pro svoje hráče, a dají to do ovladačů, takže problém se vyřeší

+1
0
-1
Je komentář přínosný?

Doufám, že ta grafika běhá i v jiných hrách než v Battlefieldu, protože to je jak na potvoru hra, kterou vůbec hrát nechci. :-)

+1
0
-1
Je komentář přínosný?

Zkoušel jsem 9070XT v asi 10 hrách, ale nejvíc hraju Battlefielda, Diablo 4, a Kingdom come deliverance 2, sem tam i druhý díl The Plaque tale...
Tady můžu potvrdit, že to jede v pohodě. Za ostatní nedám ruku do ohně, ale minimálně jsem ty hry rozjel, naběhly a chvíli jsem hrál. Takže za mě u AMD jedna z nejlepších karet, co vydali - co se týče stability.

+1
+2
-1
Je komentář přínosný?

To můžu potvrdit. 1440p na ultra bez FSR naprosto v pohodě.

+1
0
-1
Je komentář přínosný?

To je blbej nápad si zrovna tady stěžovat na něco od AMD.
Může za to Bethesda, Microsoft a jiní, vole! 😉

+1
-10
-1
Je komentář přínosný?

Jasný, vtip je v tom, že Starfield spolufinancovala AMD a byla to vlajková loď generace RX 7000. Dávali to k AMD grafikám zdarma. Tudíž je obzvláště prekérní, když zrovna na týhle hře FSR vůbec nefunguje. :-)

+1
+3
-1
Je komentář přínosný?

Co na větě, "může za to Bethesda", jsi nerozuměl? :-)
Počkej až ti někdo poví, že to je rukama a jemu to nepadá.

+1
+2
-1
Je komentář přínosný?

> že to je rukama a jemu to nepadá.

Ano, "mne to jede" je vseobecne spatny argument, az na to ze.... v tomhle pripade RedMaxuv puvodni argument je "mne to nejede" a nikoliv "99.9% majitelum 9070 tahle hra nejede".

Tudiz "mne to jede" je v tomhle pripade validni protiargument :)

PS ne nerikam, ze "mne to jede". Ja nemam 9070.

+1
+2
-1
Je komentář přínosný?

No, hrál jsem Starfield na RTX 4070, občas to spadlo na plochu, ale bylo to jakžtakž hratelný. Přešel jsem na RX 9070XT a buď to po deseti minutách přestalo vidět disk, na kterém je instalačka Starfieldu a spadlo to na plochu nebo se přímo PC restartoval. Tak jsem hledal na webu, co s tím a na redditu psali, že na RX 9070 (XT) je třeba vypnout FSR a dynamické rozlišení a padat to přestane. Udělal jsem to a opravdu od té chvíle zatím dobrý.

+1
0
-1
Je komentář přínosný?

Takže to padalo i na RTX 4070, tak co chceš.

+1
+2
-1
Je komentář přínosný?

Ano, já vim, že je to jeblá hra, ale doufal jsem, že když to byla vlajková loď AMD herních grafik, že to pojede na AMD grafice lépe, ne hůře.
Na RTX 4070 to aspoň nerestartovalo PC a spadlo to třeba co 2 hodiny a ne co 10 minut. Ale jak říkám, musím zaklepat, že po vypnutí FSR zatím dobrý i na AMD grafice.

+1
0
-1
Je komentář přínosný?

ty si fakt tragéd, mal si počkať ešte 6 rokov , načo kupuješ haraburdy?

+1
0
-1
Je komentář přínosný?

Mně ta RX 9070XT dává smysl, protože jsem chtěl grafiku, aby měla 16GB VRAM a u NVidie bych zaplatil o 5 tisíc víc. Tak snad to bude v ostatních hrách lepší. :-)

+1
0
-1
Je komentář přínosný?

Far Cry 6 taky financovalo AMD a době vydaní to lépe běželo na Intelu...

+1
0
-1
Je komentář přínosný?

Pardon, ale zrovna od Bethesdy je každá hra solidní bugfest... Takže ano, tady za to může Bethesda.

+1
+1
-1
Je komentář přínosný?

Článok mieša hrušky a zabudol pridať jablká. Carmack hlavne poukazuje na chýbajúci výkon výpočtového jadra, ktoré malo reklamu, že zvládne 1Pflop. Nezvláda ani polovicu podľa prepočtov z inferencie AI modelov.

Článok sa nezmyselne zaoberá priepustnosťou pamäti, ale Carmack hodnoti niečo úplne iné. Navyše zamlčal zdroj: https://x.com/ID_AA_Carmack/status/1982831774850748825

+1
-9
-1
Je komentář přínosný?

V prémiovce zdroj byl...

+1
+7
-1
Je komentář přínosný?

No ale hlavně vůbec nechápu komentář gesayoka.
Řekl bych, že autor článku jen upozorňuje, kde by mohl být "zakopaný pes", takže za mě dobrý pohled na novou platformu Nvidie. Neboli jsem rád, že poukázal na možné problémy v návrhu SoC čipu.

+1
+3
-1
Je komentář přínosný?

'' No ale hlavně vůbec nechápu komentář gesayoka. ''

staci rozkliknout ucet:
Účet existuje již
4 hodiny 39 min

takze prudic co nevi ktera bije nebo clovek co dela nVidii damage control.. ((: nebylo by to prvne co nVidia plati lidem za damage control v diskusich..

+1
+6
-1
Je komentář přínosný?

Aha, takze ja robim pre nVidiu DC, ked poukazujem, ze klamavo propagovala vykon cipu 1PetaFlop, ked realita je horsia ako polovica. Vy budete asi tiez jeden z tych chytrejsich.

Zaregistroval som sa dnes, pretoze tento clanok ma uz nadvihol tym, ze poukazuje na uplne inu vec, ktoru Carmack kritizoval. Biedny memory througput DGS spark komunita preberala dva tyzdne dozadu a uz vtedy vsetci hlasali, ze je to nezmyselny kus HW, pretoze (pressumably) 1PF cip paruje s pomalym pamatovym subsystemom.

Teraz po dvoch tyzdnoch navyse vyplava na povrch, ze slubovany petaflop je dalsie z klamstiem nV.

+1
0
-1
Je komentář přínosný?

sorry, ale vykon v ai je brutalne zavislej na datovy propustnosti, proto maji profi akceleratory hbm s propustnosti v radu tb/s a k tomu giganticky cache.. spark nedosahuje papirovyho vykonu nejspis proto, ze ma na pomery ai akceleratoru naprosto smesnou datovou propustnost.. dokonce mensi nez stejne vykona herni grafika.. kritizovat ze nekdo na tenhle problem poukaze, muze jen budto uplnej noob nebo clovek co za to dostal zaplaceno.. protoze ajtak s aspon zakladnim prehledem takovou blbinu nevyplodi..

+1
+5
-1
Je komentář přínosný?

Ja vam to nevyvraciam. Ja len hovorim, ze Carmack kritizoval uplne inu vec ako chaby memory throughput (cita tu vobec niekto zdroje?).

+1
-2
-1
Je komentář přínosný?

clovece, ty ses snad zabednenej.. realne dosahovanej vykon (kterej Carmack kritizuje) je nizkej prave proto, ze na testovanou zatez nestaci pametova propustnost..

+1
+3
-1
Je komentář přínosný?

Já se v DIIT Premium dočetl, že "Podle Carmacka zařízení nedosahuje ani poloviny proklamovaného výkonu..." Ale možná nemáš premium.
//Teď teda doufám, že za citaci nedostanu ban :/

+1
+5
-1
Je komentář přínosný?

Napsal, že bere asi 100 W. Jenže pokud ten čip nemá co počítat, protože se mu nedostává dat, tak logicky je asi jasné, kde je chyba. Navíc si ztěžoval na stabilitu a v tom všem nebyl sám.

+1
+2
-1
Je komentář přínosný?

@No-X "Bharath Aj upozornil na nedotaženost softwarové podpory - zařízení podporuje CUDA 12.1, ale PyTorch vyžaduje podporu CUDA 8.0-12.0. "

Ověřoval jste to tvrzení? Já PyTorch nepoužívám, ale přišlo mi to divné. Podle google a Gemini, PyTorch.org umí i novější verze jako 12.6.;12.8.;13.0. Navíc na tom X na něj někdo i reaguje, že umí i CUDA 13.

+1
0
-1
Je komentář přínosný?

jedna vec je co je podporovany na papire a druha co realne funguje.. tyhle stiznosti jsou dlouhodoby a nemusi to souviset jen se sparkem..

https://github.com/vllm-project/vllm/issues/129

+1
0
-1
Je komentář přínosný?

Nejsem schopen potvrdit, ani vyvrátit jak to funguje v praxi. Nemám DGX Spark. Ale maník ze zdroje potvrzuje funkcionalitu CUDA 13, weby dtto. takže pokud by PyTorch neřekl tuhle a tuhle verzi jo, tuhle jednu konkrétní nasr*t, tak by to asi fungovat mělo. Zvláště, pokud je to "jen" běžná blackwell architektura.

+1
0
-1
Je komentář přínosný?

Běžná blackwell architektura, ale s ořezanou propustností sdílené RAM. S nižší kapacitou té sdílené RAM a s menší cache.

+1
0
-1
Je komentář přínosný?

Jo ale z hlediska CUDA furt blackwell. O to jde.

+1
0
-1
Je komentář přínosný?

Ale bavíme se o vlivu na výkon.

+1
0
-1
Je komentář přínosný?

Ne, bavíme se o podpoře v PyTorch

+1
0
-1
Je komentář přínosný?

OK. Fakt super, když se v diskusi na konkrétní téma, baví o hrách a obeceně něčem jiném.

+1
0
-1
Je komentář přínosný?

Je to přímo napsáno v článku. Četl jste ho?

+1
+1
-1
Je komentář přínosný?

Asi tak, pro mne fakt byl podstatný ten HW: RTX 5070 díky GDDR7 disponuje datovou propustností 672 GB/s, kterou má sama pro sebe, DGX Spark méně než poloviční: 301 GB/s. Aby toho nebylo málo, Nvidia L2 z 48 MB (GeForce RTX 5070) na 24 MB (DGX Spark). V zátěžích, kde je datová propustnost limitujícím faktorem, tedy může být výkon méně než poloviční oproti GeForce RTX 5070, respektive oproti teoretickému maximu.

Teď ta SW věc. Fakt by mne nenapadlo, že podpora CUDA 12.1 bude znamenat, že SW pro CUDA 8.0-12.0 to znamená problém, byť uznávám, je to Nvidia a možné je tedy všechno. Každopádně za těch $3999 je to dost předražené. Stačí takto? A ano, už poprvé jsem to četl celé.
Ale totálně šílené je, že na Webu Nvidie, i když jsem prošel jak specs tak datasheet nikde není uvedený výkon v jiném formátu než 4 bit FP. Třeba je víc jěště někde jinde. AMD vždy uvádí vše u GPU.

+1
0
-1
Je komentář přínosný?

> Fakt by mne nenapadlo, že podpora CUDA 12.1 bude znamenat, že SW pro CUDA 8.0-12.0 to znamená problém, byť uznávám, je to Nvidia a možné je tedy všechno.

To není věc NVidie, ale zas Python ekosystému.

+1
0
-1
Je komentář přínosný?

OK, ale větší část článku byla o HW. Pravda je, že proti výchozí grafice je prostě propustnost RAM i kapacita L2 cache (a kdo ví, jak to je s její rychlostí) omezené, což pro AI výpočty obvykle má dopad. Přesněji polovina cache a pokud je pravda, co je všeude napsané tedy 273 GB/s tak proti 672 GB/s u RTX 5070 jsme na 40 %. Ještě taky klidně může být nějaká krpa i v CPU. U nového HW na trhu to 100 % vyloučit nejde. Takže část problému vidím u aplikace a část u HW.

+1
0
-1
Je komentář přínosný?

Můj úvodní příspěvek byl o tom, že ta krpa v SW tam pravděpodobně není.

+1
0
-1
Je komentář přínosný?

Fakt se mi líbí, jak Nvidia očeše parametry, něco naslibuje, nevyzkouší to, pustí do světa a ze světa se ozve, moc to nefunguje. A kdo se diví?

+1
+2
-1
Je komentář přínosný?

Tady je vidět, jak NVidii ujel vlak (Mac Studio).

+1
0
-1
Je komentář přínosný?

Hlavně nikdy nepochopím, že nějaká firma, která má do garážovky nebo startupu daleko, dělá tak hloupé chyby. Vždyť museli vědět, že se to provalí. Být majitel takové firmy, tak tu situaci dopodrobna rozeberu a vyházím i ty, co jen mlčeli a nenahlásili budoucí průser. Přehřívání v zátěži je něco, co by objevil i brigádník, tak proč to inženýři zamlčeli? Doufali, že to nikdo zatěžovat nebude? LOL.

+1
+1
-1
Je komentář přínosný?

Já bych se ani nedivil, kdyby ty informace, co nahohoru k němu dolezou přes ta síta, prostě tento drobný detail neobsahovaly.

+1
0
-1
Je komentář přínosný?

Píšou tu o tom o pár řádku výše. Ono se to nemělo přehřívat, protože je tam tak malá datová propustnost, že to mělo jet sice pomalu ale na pohodu.
Někde asi udělali chybu, třeba to počítá ostošest, ale jak je plná sběrnice, tak to výsledky zahazuje. :-D

+1
-1
-1
Je komentář přínosný?

Pro zajímavost, první Mac Studio taky nejelo na plný výkon, kvůli chybě v architektuře (opraveno v další generaci). Takže to aspoň jelo potichu (chlazení bylo předimenzované pro výsledný výkon).

> Mirda Červíček
> Hlavně nikdy nepochopím, že nějaká firma, která má do garážovky nebo startupu daleko, dělá tak hloupé chyby. Vždyť museli vědět, že se to provalí.

Např. Qualcomm svůj developer box pro generaci Snapdragon X Elite zrušil, protože včas zachytili, že je nah_vno.

+1
0
-1
Je komentář přínosný?

U Macu mne to taky nepřekvapuje. Historicky se jim chybka do návrhu vloudila výckrát. Teď jim aktualizace udělala půldenní iphony... Přitom hlevní výhodou by snad měla být jakási jednotnost a tedy snadnost na otestování. No nic "prémiovka". Ha ha ha.

+1
+1
-1
Je komentář přínosný?

Je to prémiovka a lidi si rádi připlatí. Apple problémy řeší, kdežto co si myslíš, že se stane s polofunkčními/polovýkonnými DGX Spark? Support NVidie se na tebe vykašle a ty to můžeš akorát hodit do popelnice. Na bazaru ti daj čtvrtinu toho, co jsi zaplatil.

+1
-2
-1
Je komentář přínosný?

Ano. U Nvidie vím, co se stane. NIC. Jenže od Apple, Nvidie a Intelu, bych si při možnosti výběru, nic nekoupil.

+1
+1
-1
Je komentář přínosný?

Tak od koho, smím-li se zeptat?

+1
0
-1
Je komentář přínosný?

Aha, AMD neexistuje.

+1
0
-1
Je komentář přínosný?

V korporátu ne.

+1
-1
-1
Je komentář přínosný?

Já snad nejsem korporát, já na výběr mám. A pro korporát má AMD taky nabídku. Že ji firmy jako DELL roky zabíjely, je jiná věc. To moc AMD ovlivnit nemohla.

+1
0
-1
Je komentář přínosný?

Myslím, že je na to potřeba koukat z hlediska historie: Nejblíže tomuto produktu byla Tegra. Když Tegra začínala, tak ji Jen-Hsun Huang uvedl, za pár měsíců to bylo na trhu a nějak to fungovalo. S každou další generací, s každým komplexnějším čipem, se prodlužovala doba mezi Jen-Hsunovou předváděčkou a reálnou dostupností. Nakonec doba mezi uvedením a dostupností překonala rok a klasické Tegry (telefony, tablety, ~netbooky) postupně vymizely, protože to s tímhle přístupem nemohlo fungovat. Aby v Nvidii byli schopní vykázat nějaký náskok před konkurencí, museli s aktuálními konkurenčními SoC srovnávat příští generaci Tegry, která ovšem nabírala s každou generací větší zpoždění. Jádro Sparku je v podstatě další Tegra, jen po všech stránkách větší. A tudíž i s větší porcí problémů. Nvidii SoC nikdy pořádně nešly (byť třeba čipsety měla obstojné) a ani ty ARM Grace by zákazníci moc nebrali, kdyby nebyly natvrdo naletované na deskách s Blackwelly :-)

+1
+1
-1
Je komentář přínosný?

Ať tak nebo tak, Nvidia je v oboru CPU ováček. Ze všech firem tvořící a prodávající "procesorová jádra v nějaké podobě" to dělá nejkratší dobu. A vůbec bych se nedivil, kdyby ve srovnání s GPU a SW sekcí byla finančně a lidsky poddimenzovaná.

+1
-1
-1
Je komentář přínosný?

Nemůžeš být dál od pravdy. NVidia dělá procesory ARM a předtím dokonce i vlastní jádra ARM už přes 10 let. Byla dokonce průkopník v hardwarové akceleraci emulace x86: https://en.wikipedia.org/wiki/Project_Denver

+1
0
-1
Je komentář přínosný?

10 let na CPU, to fakt moc není, pokud od návrhu po prodej může trvat 5 let... Porovnejme to s AMD, Intel, IBM a dalšími. I Qualcolm je dělá od roku 1984, Samsung 1994... Apple sice jen od r. 2009 v případě ARM, ale reálně do toho kecali už v době PowerPC.

+1
0
-1
Je komentář přínosný?

Apple Silicon se začal dělat před 10 lety.

+1
0
-1
Je komentář přínosný?

Ale nejdřív je snad potřeba ten výkon a jelikož byli v alianci vyvíjející PowerPC, měli i předchozí zkušenosti. Mimochodem, s intelem nikdy opravdu spokojení nebyli, jen nebylo na výběr.

+1
+1
-1
Je komentář přínosný?

Ostatně i když se podívám na GPU, tak ty herní berou nový výkon hlavně SW optimalizacemi. A AI, nebyla to náhodou Nvidia, komu se 16 bit FP zdálo moc a postupně výkon "navyšovala" formáty 8, 6 až nakonec 4 bity? Při 4 bitech to ještě něco počítá a nebo víc hádá?

+1
0
-1
Je komentář přínosný?

Z toho jak jsem se snažil najít víc o výkonu - všude píšou jen 4 bit formát - jsem našel jinou věc, v těch materiálech je pro propustnost RAM jiná hodnota 273 GB/s.

+1
0
-1
Je komentář přínosný?

RedMaX:
"Přitom na NVidii to jede o dost lépe, sice taky ne dokonale, ale rozhodně to nerestartuje PC jako na té AMD grafice!!!"

To znamená co ?
Při hraní se ti restartuje PC ? To je HW chyba.
1 - slabej zdroj
2 - teploty CPU,GPU,RAM
3 - nestabilní OC
4 - udělej testy stability PC

+1
+2
-1
Je komentář přínosný?

Teploty ok - v normě, nedělám OC, mám silnej zdroj, stabilita otestována přes FurMark, CPU-Z atp. Zátěžové testy bez problému.
Restartuje se to jen při zapnutém FSR a řešení jsem našel na redditu, vypnout FSR nebo-li to samé se stávalo dalším lidem a našli tohle řešení.

+1
0
-1
Je komentář přínosný?

Tie ARM-ove jadra si nvidia nevyvija. To je original ARM ich su len tie GPU a mozno nieco navyse. Kazdopadne sa im to asi prehrieva. 200W tep vykonu skratka neuchladis takym malym chladicom. niekde na x.com pisali ze tusim DELL ma alebo bude mat verziu s lepsim chladenim. Ale ci je to pravda cert vie. Skratka vsetci musia mat to zariadenie rovnako velke tak tam nemohli dat extra vecsie chladenie. muselo to byt rovnako velke ako ofiko zariadenie od nvidie!

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.