Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k První vlna produktů nabídne GDDR7 jen 16Gbit (2GB), nebinární dorazí až později

Velké zklamání. Takhle zřejmě zůstaneme zaseklí na 24GB VRAM i pro nadcházející hi-end a větší kapacity příjdou až časem. Snad se ta AI bude dařit optimalizovat i nadále a nároky na lokální VRAM tak přirozeně budou klesat ze strany kódu (modelů).

+1
+1
-1
Je komentář přínosný?

to určitě ne, optimalizaci využijí pouze na to, že si můžou hrát s větším modelem

+1
0
-1
Je komentář přínosný?

Ako to ovplyvni BFU?
Tomu je AI ukradnute.

AKo to uz tu niekto spominal, ma to aj svoje pozitiva. Aspon nebudu blbnut pri vyvoji hier a clovke musel kupovat novu grafiku.
Uz 24GB RAM mi pride az,az.

+1
+2
-1
Je komentář přínosný?

Ono to lze osadit i dnes, ale za jiný peníz.
https://smicro.cz/nvidia-quadro-rtx-6000-48gb-gddr6-900-5g133-2550-000

Zajímalo by mne jak přišli na tu cenu, jedna z variant je že vzali cenu tří Mac Studio M2 Ultra se 64GB (ty umožňují také větší framebuffer a mají souhrnně zhruba stejný výpočetní výkon a spotřebu). ;-)

+1
+3
-1
Je komentář přínosný?

Ta cena je fakt úlet, o existenci karty vím, ale cenově jsem si myslel, že je to jen za 200k.

+1
0
-1
Je komentář přínosný?

Ta "nízká" cena byla pro předchozí Turing (před ADA) generaci.
https://smicro.cz/nvidia-pny-quadro-rtx-a6000-48gb-gddr6-pcie-4-0-active...

Asi nechtějí, aby jim to Quadro kanibalizovalo prodeje výpočetních akcelerátorů, takže kromě "zmrzačené DP" je třeba jít jim cenou naproti.

+1
0
-1
Je komentář přínosný?

Zkušenost z mého okolí:

> K těm Mac Studio.... bavil jsem se tu na konferenci s člověkem, co právě říkal, že na jejich LLM projekt (inference) si koupili Mac Studio
> Tak jsem se ptal, jestli je to lepší než grafika... no a on říkal, že na grafiku neměli tak velký budget
> protože prostě grafika s hodně VRAM je extrémně drahá
> ale Mac Studio koupíš s hodně RAM... a tím, že je to UMA architektura, tak to pak může fungovat velmi rychle

+1
+1
-1
Je komentář přínosný?

První kritérium je zda se dataset do "VRAM" vejde, následně je to asi o významu IO (přesuny RAM-VRAM u PC) versus nižší výpočetní GPU výkon Mx versus dGPU. Bude to asi podle kokrétního use case.

V minulosti nemělo AMD v případě tahání za kratší slánku problém řešit zvýhodněním jejich HW, kdyby uvedli 7900XTX se 48GB VRAM možná by oslovili část zájemců, pro které je stejně vybavená GPU konkurence cenově nedostupná. Prokazatelně to technicky umí, jen by to chtělo být trochu méně nenasytnými.
https://graficke-karty.heureka.cz/amd-radeon-pro-w7900-48gb-gddr6-100-30...

+1
+2
-1
Je komentář přínosný?

Za mě je to dobré, nové paměti spolu s užší sběrnicí budou znamenat, že výkon se celkově příliš nezvedne a tudíž nebude potřeba upgradovat současnou herní grafiku. Člověk ušetří.

Jistě má to i svou stinnou stránku, asi nám definitivně umře VR, které zoufale čeká na výkonější grafiky a těch se nejspíš jen tak nedočká.

+1
-1
-1
Je komentář přínosný?

Nechápu. VR jsme si užívali i před lety, kdy za minimum byla považována GF 1050 a úvodní lokace ve Steam VR nebo Microsoft VR (už si nepamatuju, možná obě) jela plynule i na Intel iGPU a člověk si všiml, že zapomněl přepnout na dGPU, až když pustil nějakou hru.

EDIT: Já si VR užil i na Nintento Virtual Boy ;-)

+1
+1
-1
Je komentář přínosný?

Playstation VR2 - rozlišení 4000×4080 a 120 Hz. Ani jeden parametr není highendově přehnaný, protože pro VR je tohle něco jako slušný základ a jít níže nemá smysl. Která grafická karta do 15 tisíc to se slušnou moderní grafikou dokáže nakrmit? Samozřejmě bez přiblblého raytracingu, ale i tak je to sci-fi. Proto je VR málo rozšířené, i když pokusy s ním začaly kdysi dávno. To tvoje VR na Intel iGPU je VR asi jako trabant je taky auto.

+1
+3
-1
Je komentář přínosný?

Bylo to menší rozlišení to ano, ale ne o tolik. A jinak která GPU do 15 tisíc to zvládne? No třeba iGPU v tom PS5.

+1
+1
-1
Je komentář přínosný?

Zrovna u HighEnd VR bych čekal, že bude umožňovat profitovat ze dvou GPU, kdy se každá karta může postarat o jedno oko. U takového řešení by těch cílových 90(120fps) asi bylo dosažitelných při zajímavé kvalitě/rozlišení.

Ale to bychom museli mít pořádné IO (dva 16x), aby to nebrzdily transfery RAM<=>VRAM.

+1
-1
-1
Je komentář přínosný?

predstava hezka, bohuzel dve GPU (kazde na jedno oko) nejde uplne udelat... Neb jedno GPU by nevedelo co je v druhem a pri synchronizaci by vykon dvou karet by prisel vnivec... Neni to jako kdyz pouzivas SLI nebo ctverce

+1
+2
-1
Je komentář přínosný?

Ono to nebylo fool-proof ani tehdy na Voodoo 2 (museli jste nastavit oboum stejný takt, jinak jste viděli, jak jedna sada řádků je hotová dřív). Naopak dnes jedna GPU kreslí pro obě oči efektivně - multiple render targets, takže protáhne vertexy (a indexy) jen jednou pro bitmapy pro dvě oči.

+1
0
-1
Je komentář přínosný?

CPU řekne každému GPU zvlášť jaký pohled na scénu má vyrendrovat, jde přeci o pohled dvou kamer (očí). Jelikož se scény pro obě oči typicky moc obsahově neliší budou patrně podobně náročné z hlediska doby výpočtu snímků. Samozřejmě obě karty by byly paralelně vybaveny daty potřebnými pro render dané scény (textury atd).

+1
0
-1
Je komentář přínosný?

To bohuzel takto nefunguje :( ... Mas sice dve oci ale obraz z obou se ti nekde prolina... A to same je problem, ze dve GPU musi mit mezi sebou komunikaci kde jaky objekty jsou atd aby nedochazelo k distorzi obrazu mezi ocima/displayi... Jen obrazne jednoduse receno....

+1
0
-1
Je komentář přínosný?

Snad byste nechtěl kritizovat SW řešení od nVidia.
Ono opravdu 80~85% geometrie scény se počítá pouze jednou.
Ty oči od sebe nejsou zas tak daleko (pokud nejste zrovna princezna Bosana za Tří veteránů).

+1
+1
-1
Je komentář přínosný?

nechapete souvislosti... :) V tomto pripade to nema s SLI nic spolecneho... Teda mimo dvou karet v jednom PC

+1
0
-1
Je komentář přínosný?

Je to přece CPU, které GPU sděluje kompletní definici scény. Proč by nemohlo CPU říct každému GPU jeho definici (specifickou pro jednotlivé oko)? Proč by měly spolu GK jakkoli komunikovat? Uvolnit hotové frame synchronně na dva výstupy GK teprve ve chvíli kdy jsou oba hotovy.

+1
0
-1
Je komentář přínosný?

CPU by byl zbytecny bottle neck... Idealni reseni by bylo mit zapojeni tri karet, dve vykonne a jednu centralni klidne i slabsi, ktera by pocitala zakladni 3D scenu (klidne v nizsim rozliseni, a nasledne by prerozdelovala praci onem dvema kartam)... Ovsem smysl tohoto zapojeni z pohledu energeticke efektivity je uplne mimo, a z cenovehio pohledu na HW taktez... Mozna tak pro profi zapojeni... Do domaciho provozu uplny nesmysl....

+1
0
-1
Je komentář přínosný?

Tak standardním řešení je jedna co má stačit a dvě by najednou nestačily?

Pokud by každá karta počítala rozlišení dejme tomu 4Mpix (cca 2560x1600) pro oko a podíváme se na dosahované výkony např.
RTX 4070 Super (nejlevnější cena je cca 17000Kč, pár cca 34000Kč) v CP 2077 dosahuje jedna GK v 2560x1440 AVG 89FPS (teoreticky souhrnný výkon dvou 188FPS tj. 181Kč/fps ).
RTX 4090 zvládá v CP 2077 142 FPS při ceně 47000Kč tj. 330Kč/fps.

+1
0
-1
Je komentář přínosný?

".. V tomto pripade to nema s SLI nic spolecneho .."
Kde se Vámi trénované (umělé) Inteligenci povedlo v mém příspěvku najít SLI?

+1
+1
-1
Je komentář přínosný?

Tak pokud vim, Nvidia pouzivala pri zapojeni dvou karet pocitani lichych a sudych radek...Tedy pokud se nepletu... Coz bylo SLI...

+1
0
-1
Je komentář přínosný?

První v herních kartách to snad používala 3dfx. Scan-Line Interleave (SLI)
https://en.wikipedia.org/wiki/Scan-Line_Interleave

U NVIDIA SLI značilo Scalable Link Interface (ve hrách většinou použitý pro AFR?).
https://docs.unrealengine.com/4.26/en-US/RenderingAndGraphics/Nvidia/NVI...

+1
0
-1
Je komentář přínosný?

Scan-Line Interleave bylo u 3Dfx, pak u Nvidie byl automaticky posouvající se řez mezi horní a dolní půlkou a u ATI/AMD byla šachovnice, s kterou měli zkušenost z profesionálních řešení. Protože oba režimy znamenali zkontrolovat každou hru, tak se na to nakonec vykašlali a na všechny další hry používali Alternate Frame Rendering. Do nových verzí DirectX už žádnou podporu nedali, s výmluvou že už si to může řešit každá hra sama. Vzniklo jen jednotky her s podporou 2 GPU, z toho jen jedna s podporou 2 GPU různých výrobců.

+1
0
-1
Je komentář přínosný?

Jak u blbejch... :) prominte kluci... Jeden o voze, druhy o koze... Diky za odkaz, ale clanek pojednava o stylu pro jeden vystup... At uz je to SLI (radky) , AFR nebo SFR (ctverce), oboji na dva samostatne vystupy je nepouzitelne!!! Mavat tim jaky ma karta vykon ve hre je taktez zavadejici... Zadna z vyse vyjmenovanych technik ani ve sve nej dobe neskalovala ve dvou kartach vic jak 1.6x a to bylo maximum... prumer byl cca 1.4x.... Takze cca 60% druhe karty sel do kopru jen na rezii "prokladani"... A to bylo v dobe kdy bylo standartni 1080p... S kazdym skokem rozliseni vyse, rezie markantne narusta... Proto vsichni dual karty da se rici zavrhli... Dalsi vec je, ze bys potreboval CPU (threadripper) aby ti vubec utahhl takovej pocet PCIe linek... Proste pro mainstream nezaplatitelna vec a tim padem nerentabilni pro to se tim vubec zabyvat.. Kluci zamyslete se nejdriv nad tim nez zacnete bezhlave mavat FPS karet a clankama z doby XXX, ktere uz jsou pase, a pak i nad temner finaancne nerelnym technickym resenim... Koncim, aneb ztrata casu... P.S. O RT v VR ani neuvazuj... :)

+1
0
-1
Je komentář přínosný?

Čo bolo, bolo ...

Kdysi se snažili nějak rozchodit 2 (a více) karet jako jednu.
Ani v době, kdy to ještě bylo aktuální si moc hráčů nepořizovalo 2 GPU a her, které pro to měly podporu bylo ještě méně.
Ale mezitím ty karty nějak podraželi a v modelů, kde by to (alespoň teoreticky) dávalo smysl, je už docela problém ty karty narvat do bedny, zajistit jim dostatečné a dostatečně kvalitní napájení a celou tu srandu uchladit bez zvukových projevů startující helikopotvory.

K věci: nVidia má ve svých SW nástrojích podporu pro VR, která (mimo jiné) dovouje snížit výpočetní nároky právě tím, že část geometrie (a některé věci pro raytracing) se počítají jenom jednou.

+1
0
-1
Je komentář přínosný?

Mám Pico 4VR: Resolution: 4320 × 2160 (2160 × 2160 per eye), 1200 PPI, refresh rate: 72Hz/90Hz.

Hraju na 90Hz a grafika mi na to nestačí. Podle toho, co mám načteno na webu, tak to hodně používají fanoušci FS a tvrdí, že RTX 4090 je nutnost.
Takže jo, vyhlížim lepší grafiku. 4090 nechci, cena a příkon je na mě moc.

+1
0
-1
Je komentář přínosný?

Mas PICO?? Porovnani s Quest 2 jaky je kontrast?? Mysleno jaka je viditelnost v tmavych prostorach? Quest byla jedna velka sediva mlha :( .. Sic super rozliseni, ale obraz i s porovnanim s puvodnim Riftem byl prdelni... Treba prvni dil Vader Immortal byl doslova nehratelny neb nic nebylo videt... :(

+1
0
-1
Je komentář přínosný?

je celkem vtipný jak jedec udělá nejaký standard a výrobci stejně udělaj nějakej vojeb, aby křivka růstu výkonu byla co nejmírnějšía a ještě si to nechaj draze zaplatit

je krásně vidět jak amd je pragramtická, cenovej rozdíl v gddr6 a gddr7 byl asi větší než výkonnostní postun, tak radši udělali širší sběrnici, která zvětší čip na super drahém výrobním procesu, btw. 9GB vram na navi44 s 96bit sběrnicí taky by nebylo bůchví co

+1
+2
-1
Je komentář přínosný?

Pořád by to bylo víc než 8 GB, které v segmentu pro 1080p nabízejí všichni výrobci standardně.

+1
+1
-1
Je komentář přínosný?

možná tak pro BFU, ale obecně se nedá říct, že 8 vs 9GB VRAM je nějaký rozdíl, protože všichni optimalizují na 8GB VRAM na 9GB VRAM nikdo neoptimalizuje ani optimalizovat nebude, max. hogwards legacy, že ty textury se budou načítat o něco lépe a víc, ten samý argument byl použit u kritiky 3080 10GB

+1
+1
-1
Je komentář přínosný?

Nevím o žádné hře, která by byla nějak speciálně optimalizovaná pro konkrétní kapacitu paměti. Využití paměti se liší i mezi výrobci grafických karet a především je závislé na konkrétní kombinaci nastavení rozlišení, detailů, efektů, typu anti-aliasingu a rozlišení textur. Možných kombinací nastavení i reálné kapacity vyžadované paměti je tudíž nespočet. Takových kombinací, které se vejdou do 9 GB VRAM, by vždy bylo víc než těch, které se vejdou do 8 GB VRAM.

+1
+1
-1
Je komentář přínosný?

Tak po nebinárních lidech nám přichází alespoň nebinární konfigurace pamětí

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.