Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Aktualizováno: AMD prý chystá i 32GB verzi Radeonu RX 9070

Spíš by mi dávalo smysl, kdyby 32GB VRAM AMD vydala s high-end kartou. Je-li Navi48 tvořena de-facto dvěma čiplety Navi44 jak spekulují někteří Tytrubkové, co brání AMD vydat high-end grafiku s třemi či čtyřmi čiplety a extra velkou pamětí?

+1
-7
-1
Je komentář přínosný?

Třeba příkon a uchladitelnost takového řešení.

+1
+2
-1
Je komentář přínosný?

nVidia si to nemyslí.
Viz premium verze článku:
"Bonusem bude i plus mínus poloviční spotřeba podstatně snižující nároky na zdroj."

IMHO chip má jen jedno rozhraní pro připojení druhého chipu. Takže po spojení dvou chipů není kam připojit třetí.

+1
+4
-1
Je komentář přínosný?

Tiež dúfam, že ak sa to AMD rozhodne zrealizovať, tak to bude nejaká relatívne príčetná karta a nie obluda typu 5090.

+1
+3
-1
Je komentář přínosný?

300w desktop vedla litka je stredovek
externy rack + vzduchotechnika = nutna buducnost ;)

+1
+1
-1
Je komentář přínosný?

Vyložene sa teším na to, až súčasnú situáciu na trhu s nehnuteľnosťami zaklincujú developeri tým, že začnú do nových bytov projektovať serverovne so samostatnou vzduchotechnikou a/alebo prívodom chladiacej vody ;)

+1
+3
-1
Je komentář přínosný?

Proč tak složitě. Doma mám v tech. Místnosti RACK, 400V zásuvky a 2.5G LAN. Case 4U se spoustou větráků a může si to tam řvát jak chce. V pokoji pak už jen fanless klient s 8700G a streaming z renderovacího stroje. A nějaké ty srandičky ala Rocker League atd. lze dokonce renderovat přímo.

+1
+3
-1
Je komentář přínosný?

To je řešení do samostatně stojícího RD.

Pro bytové domy se udělá serverovna, která zárověň bude ohřívat TUV.
V lepších domech i poskytovat zálohované napájení.
(Ale jen v létě a přes den)

+1
+3
-1
Je komentář přínosný?

to je dobré,

já mám teda v RD vedle RACKu bojler se vzduchovým tepelným čerpadlem, takže když sepne, nasaje teplo z místnosti, takže v podstatě už odpadní teplo z RACKu (dále i z pračky, sušičky a dalších spotřebičů v tech. místnosti) využívám pro ohřev nejen pro ohřev TUV, ale zároveň i na chlazení komponent v místnosti. Ano uznávám, děje se to neefektivně přes vzduch, nějaký kapalinový loop s výměníky na každém spotřebiči by byl efektivnější

+1
+1
-1
Je komentář přínosný?

„Je-li Navi48 tvořena de-facto dvěma čiplety Navi44 jak spekulují někteří Tytrubkové“

Tohle mi připadá jako úplný nesmysl. Proč duplikovat PCIe rozhraní, front-end a další prvky? Zároveň podle softwaru Navi 44 nepodporuje hardwarovou kompresi videa, kdežto Navi 48 ano. Kdyby to byl stejný křemík, nebyl by v tomto ohledu rozdíl.

https://diit.cz/clanek/navi-48-podporuje-kompresi-do-av1-vcetne-b-frames-navi-44-kompresi-nepodporuje

+1
+11
-1
Je komentář přínosný?

32GB, pokud to bude za nějakou rozumnou cenu, může být hodně zajímavý kousek pro 3D modeláře a ty kteří si chtějí hrát s cca 30mld modely, to může být zajímavá volba.

+1
+2
-1
Je komentář přínosný?

Zní to až příliš dobře, než aby to bylo pravda. Čas nám ukáže. Śkoda, že tato generace patrně nebude mít PCIe 5.0, pro GPGPU by to bylo fajn.

+1
+3
-1
Je komentář přínosný?

Áno, znie to až príliš dobre. A ja osobne by som bol najradšej, keby sa z toho ani nesnažili vyrobiť nejakú top end kartu s ultra výkonom, cenou a spotrebou ale kľudne to vydali ako 9070 32 GB (t.j. bez XT).

+1
+3
-1
Je komentář přínosný?

To nevím, tato GPU nejsou tak výkonná, aby PCIe 5.0 využila a jen by to herní karty zdražilo. Pokud u 5090 znamená pomalejší sběrnice o 50% snížení výkonu o 5%, je to celkem jasné a i kdyby byly nároky AI na sběrnici větší, pořád to neznamená velký problém pro Navi 48.

+1
+2
-1
Je komentář přínosný?

Pokud máš dost VRAM nepotřebuješ PCIE5, stačí PCIE4.
Pokud máš málo VRAM, nespasí tě ani PCIE5.

+1
+6
-1
Je komentář přínosný?

Tak nějak to je.

+1
+1
-1
Je komentář přínosný?

Pro hry to jistě nebude asi nějak citelné, ale...

PCIe 5.0 ve spojení s 32GB VRAM a nějakým macatým LLM může urychlit čas za který ti LLM začne odpovídat, protože musíš čekat než se model nahraje do paměti. Rychlejší rozhraní, rychlejší přenos, kratší latence aplikace která to používá. Spustíš jeden příkaz na command lině nebo pošleš dotaz na lokální aplikačák a už tam teče 20-30GB dat, už to to dopusuje odpověď a kolega vznáší dotaz, který využije jiný LLM a už tam zase sviští desítky GB dat. Pokud to chceš provozovat v prostředí, kde ti jde o co nejrychlejší odezvu, tak rychlost přenosu modelu do paměti grafiky může být zásadni.

+1
-2
-1
Je komentář přínosný?

A proto se Ryzen AI+ Max (Strix Halo) klidně obejde bez PCIe gen5.

+1
+2
-1
Je komentář přínosný?

Na LLM to moc nedává smysl. Vrcholné Strix Halo Umí že 128GB své sdílené paměti dedikovat až 96GB jako VRAM + jeho 50 TOPS NPU je prý 2x rychlejší než běh na RTX 4090 v běhu Llamy
Jinými slovy, proč tohle, nemá šanci ani RTX 5090, na Strix Halo máte 3x víc paměti pro 3x větší modely při lepší spotřebě i výkonu

+1
-2
-1
Je komentář přínosný?

Je dôležité vedieť kontext toho benchmarku. Použili tam Llamu 3.1 70B v Q4 kvantizácii. Kvantizačných metód je niekoľko, takže z toho nie je úplne jasné aký presne veľký je výsledký model. Ale v bežne používanej Q4_K_M by to bolo 42.5 GB (viď https://huggingface.co/bartowski/Meta-Llama-3.1-70B-Instruct-GGUF). To znamená, že ten model je výrazne väčší ako 24 GB VRAM čo má RTX 4090. Ten kus, čo sa nevôjde do VRAM musí počítať CPU. A ani nejde o samotný výpočtový výkon ale o pamäťovú priepustnosť, ktorú ma CPU v desktope oveľa menšiu ako bežné GPU.

Takže to Strix Halo je rýchlejšie ako RTX 4090 iba v prípade keď sa použije tak veľký model, že nevôjde do VRAM RTX 4090. Ak by sa použil model, ktorý by sa vošiel do VRAM, tak by RTX 4090 bola určite výrazne výkonnejšia ako Strix Halo.

A to isté je v porovnaní s prípadnou 9070 32 GB. Modely, ktoré sa vôjdu do VRAM budú veľmi pravdepodobne bežať cca 2.5x rýchlejšie ako na Strix Halo. Pretože rýchlosť generovania tokenov je v zásade limitovaná pamäťovou priepustnosťou a tá bude pre 9070 ~640 GB/s a ~256 GB/s pre Strix Halo (záleží na použitých pamätiach).

+1
+2
-1
Je komentář přínosný?

"Takže to Strix Halo je rýchlejšie ako RTX 4090 iba v prípade keď sa použije tak veľký model, že nevôjde do VRAM RTX 4090. Ak by sa použil model, ktorý by sa vošiel do VRAM, tak by RTX 4090 bola určite výrazne výkonnejšia ako Strix Halo."

Ne, popisovaný výkon se nepočítal přes CPU jádra, ale NPU akcelerátor 50TOPS, který je v APU integrován. A ten je skutečně 2x rychlejší, měřeno právě v Llamě 3.1 70B. Na větších modelech by tedy byl rozdíl spíše ještě větší
https://www.notebookcheck.net/AMD-Strix-Halo-lineup-led-by-Ryzen-AI-Max-...
Strix Halo nakopává v LLM zadnici jak Apple M4Pro (teď budou někteří plakat) tak "2x faster than RTX 4090" co z toho je nepochopitelné. Je tam křemík dedikovaný jen a pouze na tyto úlohy. I když se GPU hodí víc na tyto výpočty než CPU jádra, tak stále nikdy nic nemá na dedikovaný křemík. To stejné máš např. asicy na těžbu krypta, nic se jim nevyrovná prostě
Strix Halo je aktuálně nejvíce cool hitech produkt co AMD má, i když ho třeba ty konkrétně neoceníš, tak pokud rozumíš tomu, co všechno Halo nese, ta všestranost, míra integrace, výkon/watt, paměť. propustnost atd. tomuse nic na dnešním trhu nevyrovná. Přitom je to mainstream, relativně dostupné.

+1
+1
-1
Je komentář přínosný?

Notebookcheck dokonce uvádí 2,2x rychlejší než 4090, čili cca 2x rychlejší než 5090 :-)
"The Ryzen AI Max+ 395 is slated to be the first Copilot+ PC processor to run a 70 billion LLM locally. Not just that, AMD is also going all out to claim that the Ryzen AI Max+ 395 is 2.2x faster AI performance than the 450 W GeForce RTX 4090 desktop at an 87% lower TDP than Nvidia's current monster consumer GPU.

+1
0
-1
Je komentář přínosný?

Ináč, čo sa týka energetickej efektivity, tak Strix Halo na tom určite bude dobre. Ale rýchlosť generovania tokenov z LLM je proste daná priepustnosťou pamäte, pretože na každý jeden token sa musia prejsť všetky parametre toho modelu. A tie modely sú také veľké, že na to žiadna cache nepomôže. Takže keď má model 40 GB a systémová RAM má priepustnosť 80 GB/s, tak to vygeneruje maximálne dva tokeny za sekundu. Je skoro úplne jedno ako moc výkonné je tam CPU, GPU alebo NPU, pretože ani na CPU nie je nutné počítať na veľkom množstve jadier aby človek narazil na limit daný priepustnosťou.

Výpočtový výkon má vplyv na rýchlosť spracovania promptu (t.j. ako dlho sa čaká na prvý token). Tam Apple čipy zrovna nežiaria a som zvedavý ako na tom bude Strix Halo.

+1
0
-1
Je komentář přínosný?

Tak trochu pomůže i to, že RAM/VRAM je 4kanál na 8000Mhz, o tom se může mainstream desktopu zdát

+1
0
-1
Je komentář přínosný?

Tá pamäťová priepustnosť v kombinácii s tým, že môže mať až 128 GB pamäte je ten skutočný dôvod prečo je Strix Halo zaujímavé na spúšťanie LLM a prečo vyšlo 2.2x rýchlejšie ako RTX 4090 v bežnom desktope. Nejaký NPU akcelerátor s 50 TOPS asi nespôsobí, že to bude bežať rýchlejšie ako tá RTX 4090 čo má 1321 TOPS...

+1
0
-1
Je komentář přínosný?

Těch 40 CU (2560 pixlí šejdrem) je nad rámec 50 TOPS z NPU.
Ale těch 96 GB paměti bude asi dělat ten nejvetší rozdíl.

+1
0
-1
Je komentář přínosný?

A bude se jmenovat GRE, Great Radeon Edition? ;-)

+1
+1
-1
Je komentář přínosný?

Gigantic vRam Edition

+1
+3
-1
Je komentář přínosný?
+1
+2
-1
Je komentář přínosný?

Nie, toto bude GRE, Greatest Radeon Edition!

+1
+2
-1
Je komentář přínosný?

Až vyjde UDNA, bude GRE znamenat "Greaterthaneverbefore Radeon Edition"? ;-)

+1
+3
-1
Je komentář přínosný?

A co mají dělat?

FE i FF už jsou zabrané :(

+1
0
-1
Je komentář přínosný?

Kombinací na 3 písmenka je 17 576, to by bylo aby se tam něco nenašlo.

+1
0
-1
Je komentář přínosný?

Stále je tu FCK .. z f(CK) frequency clock.

+1
0
-1
Je komentář přínosný?

Bude to GRE XTX SE

+1
+3
-1
Je komentář přínosný?

Předpokládám, že zase bude kydů s oblíbenou frází "ta karta nemá na 32GB výkon".. :)
Ano, ale to žádná karta.
Ale 9070XT nejspíše bude mít výkon aby využila VÍC než 16GB, takže se varianta s větší VRAM určitě vyplatit může.
A že je to zrovna 32??
No GDDR6 se prostě vážou na šířku sběrnice, Nejde tam osadit "vysněných" 19.56GB.

+1
0
-1
Je komentář přínosný?

>> "ta karta nemá na 32GB výkon"
Karty nVidia nemají dost výkonu ani na 16 GB
Třeba 5070, 5060 a mobilní 5070Ti a nižší ... bez ohledu na to jestli mají napájecí limit 65 W nebo 140 W.

>> Nejde tam osadit "vysněných" 19.56GB
Měli by se učit u nVidia:
2, 3, 3.5, 4, 6, 8, 10, 11, 12 ... no problem.
16 GB? K čemu ???

+1
+2
-1
Je komentář přínosný?

Tomu s tím nedostatkem výkonu nějak nerozumim, paměť nemá s výkonem nic společného. Paměť se dá zaplnit celá ve skoro neomezeném množství. Sleduje se jen efektivita, teda kdy je kolik paměti efektivní používat a protože navíc nejde aspoň s GDDR6 osadit libovolné množství paměti, tak jsme nějakým zprůměrováním došli k tomu, že největší efektivita pro typické situace typických uživatelů je 16GB VRAM.

To splňuje pouze pár karet NVidie a většina AMD. Proto je potřeba se na to při výběru grafiky zaměřovat.

Co se týká 32GB VRAM, tak určitě to není žádný "gamechanger", ale protože AMD chce oslovit i menší skupiny zákazníků, tak vyrobené pro ně v nějakém omezeném množství, aby tito zákazníci byli spokojeni, proč by ne. Nevidim na tom nic špatného!

+1
+1
-1
Je komentář přínosný?

1) Bavíme se tu o kartě AMD, ale můžeme i obecně.
2) Názor, že karta nemá výkon "nějakou" VRAM je zcela bizarní. Je to přesně naopak, RTX 4060 která nemá VRAM, tak ji to v určitých hrách totálně degraduje výkon.
3) Záleží ale na tom, jak tu kartu chceš používat.
Málo VRAM - OK na kompetitivky s 300fps a nízkým nastavením. (3070/4060)

Ale pokud hraju příběhovky na cílových 50-60fps mám na 4060ti-16GB v pohodě obsazeno 10-12GB..
GreatCircle 13.4GB VRAM obsazeno při stabilních 50fps (je to adventura, ne CS:GO)
Tak nevim co VRAM potřebuje nebo ne.

+1
+3
-1
Je komentář přínosný?

V jakém rozlišení?
A alokováno, nebo využito?

+1
+2
-1
Je komentář přínosný?

1080p, DLSS-Q "TM model" (mám 3D televizi, takže opravdu hraju v 1080p)
Využito, alokováno nemám ani zobrazeno.
Po 1h hraní
Great Circle = 13.4GB (50fps stabilních LOCK)
Jedi Survivor = 10.5GB (s RT i 12.5GB, ale tam to není 60fps kvůli CPU, hraju tedy rastr)
Resident Evil 8 = 11GB (60fps LOCK)

To jsou poslední tři hry co jsem hrál/hraju.
U takových 1440p je nad míru jasné, že i 12GB karta bude tahat dost dat z RAM. (netvrdím že 12GB nestačí)

EDIT: A že i karta nižšího mainstreamu pohodlně výrazně profituje ze 16GB jasně na některých nových hrách už nějakou dobu ukazuje i TechPowerUp..

4060ti 8Gb vs 16GB : https://tpucdn.com/review/spider-man-2-performance-benchmark/images/perf...

+1
0
-1
Je komentář přínosný?

Prosím pěkně ty hodnoty paměti, to je co? Ty si tu hru rozchodil v debug módu a nějakým debug nástrojem vytáhl hodnoty kolik VRAM potřeboval konrétní snímek k vyrenderování, nebo monitoruješ jen obsazenou VRAM, kterou stejně jako RAM počítač využívá i když ji nepotřebuje, protože volná RAM je zbytečná, stejně jako volná VRAM.

Už jsem to psal mnohokrát že enginy běžně natahají do VRAM věci které nepotřebují pro aktuální scénu , spekulativně dělají preload dat, tak jak prefetch ve Windows, který jistě znáš a víš co dělá, natáhne programy o kterých si myslí že je brzy použiješ do RAM a tím logicky RAM obsadí i když vůbec ten program nepustíš, když pak potřebuje RAM na něco jiného, tak ty prefetch vyhodí. Když je bude potřebovat, použije je.

Takže dokud nejsi vývojář, který může debugovat na úrovni enginu a říct přesně kolik VRAM vzalo vyrenderování konkrétního snímku, tak nevíš vůbec nic o tom kolik VRAM ta hra vyžaduje.

A díky za příklad s 4060 vs 4060Ti ve spidermanovi, přesný příklad toho kdy hra, kterou lidi chtějí hrát 120-140FPS běží na slabé grafice 52 FPS nebo 44 FPS když se vyhulí detaily, Tuhle rychlou hru na takové grafice a je jedno zda 8GB nebo 16GB budou lidi hrát optimalizovanou, rozuměj se sníženými detaily aby měli těch 120-140 FPS, kde světe div se už těch 8GB bude stačit. Ano kdyby 4060 s 16GB běžela 120 FPS a 8GB 60FPS, ta řeknu že karta má dost výkonu a málo paměti. Jenže ona na tu hru v plné palbě nemá

+1
-3
-1
Je komentář přínosný?

1) máš 8GB kartu tak meleš tyhle elaboráty.
2) Hra se kartě s málo VRAM přizpůsobí, ale do určité míry, po překročení určité míry to jde stejně do kytek (low frames a výkon obecně) a je třeba mít víc paměti.
3) Ne lidé nechtějí mít 140fps, třeba já chci mít 60fps a to mám. A někdo jiný celou hru odehrál na 40 a jiný chce mít 260. Pokud lidé chtějí mít 120fps na 4060ti - zapnou FG ne??? :) To jsou TEBOU oblíbené kouzla.
4) U nové příběhové hry bude rozhodně 8GB stačit, pokud vypneš RT a dáš textury na MEDIUM. Já to tak nechci.

+1
+2
-1
Je komentář přínosný?

Takové hry si chce většinou každý užít v co nejlepší kvalitě, tady fakt nepotřebuješ nějakej high refresh rate, na co, nehraješ CSko. Zrovna od člověka, co tady furt cpe jak je nutné hrát s RT a tady najednou otočíš a zas tak potřeba to už vlastně není, protože se ti to nehodí do krámu, jak kvůli tomu začne docházet VRAM na těch jejich slabých kartách... působí to fakt zvláštně, měníš názory podle toho, jak se ti to zrovna hodí, hlavně to vždycky nějak okecat.

+1
+3
-1
Je komentář přínosný?

Přesně jak píšeš.
Obecně mě žádné 150+fps nezajímá.
Great Circle mám nastaveno (pro Jiříka) s PT na HIGH, zbytek VERY HIGH.
50fps LOCK (občas to na sekundu dvě skočí na 46-47...
Je to opravdu adventura kde se skoro ani nestřílí, jen "boxuje" :)

Proč musím mít PathTracig??
Inu nemusím, ale zrovna extrémně nepřirozené rastr stíny na zemi zrovna tady vyloženě serou.
To RT vykreslí vše fakt přirozeně jako o opravdovém světě.

+1
+1
-1
Je komentář přínosný?

No zrovna Great Circle ty stíny vypadají bez RT fakt dost otřesně, tam je nějaká forma RT v podstatě nutná, protože to je místama dost rušivé, jak je to vše sharp, akorát to pak takové karty pošle holt do kopru. Ale upřímně fakt nechápu, proč to musí vypadat tak divně, vždyť v jiných hrách ty stíny vypadají o dost líp a taky jsou bez RT a to ani nejsou zrovna nejnovější kousky, tady to někdo akorát příšerně odflákl, však co, tak si zapni RT, když chceš, ať to vypadá normálně.

+1
+1
-1
Je komentář přínosný?

Mozna uz je Great Circle holt ta nova generace her kdy proste na vyladeni rastru kaslou bo jim to udela RT samo a optimalizace je ono svate DLSS. Zlevni a zrychly to vyvoj, vyrobci prodaj nove grafiky a proste se to presune na hracovu penezenku :) jen to odpadni teplo je obcas na nastvani, uz 7900XTX je za sweetpointem ohledne zravosti.

+1
+1
-1
Je komentář přínosný?

Ano, pokrok holt nezastavíš. Čím dál větší přímotopy za čím dál víc peněz a jelikož stojí optimalizace za houby, tak to ještě běží úplně na prd, do toho RT, na který ty karty ale nemají výkon, jenže je to nutnost, aby se na to dalo dívat, takže pak musíš ten chybějící výkon dohánět přes AI, aby se to vůbec trochu hejbalo... zvláštní doba. V podstatě na tu hru potřebuješ idealně 5080, abys to pořádně rozjel a vypadalo to zároveň trochu k světu.

+1
+1
-1
Je komentář přínosný?

Mike Mittar….

Pánové v těch úvahách vás zastavím.
Nám nakoukáno rastr i PT a mohu vás ujistit, že v rastru ta hra vypadá skvělé a lítá jak z praku i na 3060-12GB.
Problém jsou pro mě pouze ty stíny, v radtru jsou prostě nepřirozeně ostré, dělá to tak ale mraky her.
Naopak PT to celé dělá jako by to bylo CGI, prostě přirozené světlo (tím chci i vyvrátit oblíbený argument udpůrců RayTracingu že to celé jen lesklé jak psí koule - vůbec, je to maximálně přirozené).
Pokud ale někdo žádá 4k/120fps, tak to prostě ale v PT nedá naprosto nic.
Já jedu 1080/50fps, tak to nám s PT i na 4060ti-16GB. S FG by to jelo na 80-90fps. (Nepoužívám to)
Takže žádná 5080, jen je to o prioritách

Až vyjde nový Doom, bude to to samé.
Na 8GB kartě dáš medium a fertyk, a výkon můžeš mít jaký chceš (klidně 3070ti)

+1
+1
-1
Je komentář přínosný?

To máš asi nějakou zázračnou 3060.:)

+1
0
-1
Je komentář přínosný?

Co je na tom zázračného ?

https://youtu.be/foOQHxKQDaU?t=116

Akorát další důkaz, že jsou případy, kdy i poměrně slabé GPU plně využije víc než 8GB a ne že "na to stejně nemá výkon"..

+1
0
-1
Je komentář přínosný?

Na o "20% silnější" 4060 musíš mít "texture pool size" natvrdo MEDIUM...
Jinak : https://youtu.be/dfBZ6_8LCEc?t=659

To samé dělal po zapnutí RT na 8GB kartě Resident4, přesto že 3070 atd na něj měla výkonu víc než dost.
Pak to patchnuli, protože 3/4 světa má 8GB kartu a byly rachoty že "to padá"...

+1
+1
-1
Je komentář přínosný?

>> Pak to patchnuli, protože 3/4 světa má 8GB kartu a byly rachoty že "to padá"...

Horizon: Zero Dawn
Horizon: Forbidden West
a spousta dalších má ošetřeno, že nepoužije více VRAM než by zvládla karta s 8 GB.
Bez ohledu na to, kolik má karta k dispozici.

Možná kvůli negramotům, kteří nepochopí, že jistá nastavení mohou požadovat více paměti, než má jejich karta.
Aby si nestěžovali, že se to škube nebo to padá.

+1
+1
-1
Je komentář přínosný?

Nějak tam nevidím tu část s aktivním PT... Nějak nechápu, proč teď zas řešíš VRAM, vždyť o té nepadlo ani slovo. Já jen říkám, že ta hra vypadá čistě v rastru hnusně a je potřeba mít zaplý RT, ať tam máš trochu přirozené stíny, poté jde výkon logicky u všech karet celkem kvapem do háje. A změkčování stínů umělo třeba i debilní GTA V v roce 2015, vůbec nechápu, proč to tam není použité, nutno uznat, že něco tak příšerného mít v takové koridorovce se jen tak nevidí.

+1
0
-1
Je komentář přínosný?

“SoftShadows” měl i první FEAR.
Aktivní PT opravdu nemůžeš po 3060 chtít :)
Psal jsem že to lítá na VERY HIGH, PT se aktivuje zvlášť a má i svůj rozsah nastavení.
Pokud názýváš v PT režimu stíny “alespoň trochu přirozené”, tak opravdu netuším, jak si představuješ ty dokonalé.
Melkor - Ano část her pracuje s VRAM jinak - lépe.
UE5, Northlight nebo zmiňovaný ForbidenWest má správu VRAM natvrdo napasovanou pod 8GB (v rastru).
IDtech, Insomniac nebo třeba REengine žerou VRAM vždy hodně.
A všude se to násobí s použitím FG a RT(PT), to pak žere bomby i ten jinak úsporný Alan2

+1
0
-1
Je komentář přínosný?

Ne, tys to napsal jakdybys hrál na 3060 s PT, proto mne to zarazilo, asi jsem to blbě pochopil. Ty nepřirozené stíny myslím samozřejmě jak vypadají bez RT, proto říkám, že tam bude ještě dost velký propad výkonu, když se toho chceš zbavit a jediná možnost je v této hře pomocí RT, přitom ty soft shadows by úplně stačily, aby to vypadalo hned o dost líp a najednou by už RT nikdo nepotřeboval a většina by nejspíš ani nepoznala rozdíl, hlavně by ti to výkonově tak nepodrazilo nohy.

+1
0
-1
Je komentář přínosný?

Jo možná to vyznělo jako že se pokouším hrát s PT na 3060. ....
Na druhou stranu, z věty "na 3060 lítá GreatCircle na VERY HIGH jak z praku" ti muselo být jasné, že jsem buď úplný bláznivý pohádkář, nebo je to jen "rastr" VeryHigh :)
Na 3060 prostě není PT možný.
Chtěl jsem tím jen říct, že IDtech7 je velmi rychlý engine (v rastru), když máš VRAM.

Nebýt těch rušivých stínů (ty jsou fakt nepřirozené), nezapínal bych PT - HIGH ani na 4060ti-16GB.
Hra se mi až na zmíněné věci líbí i v rastru.
A PT obecně bych určitě nevnímal jen jako další "grafický preset".

Je to úplně jiný způsob vykreslování obrazu - asi jako když byl v roce 96 SW render a pak jsi v té samé hře zapnul 3Dfx.
Úplně jiné hřiště - ale ve smyslu způsobu vykreslení, nechci aby to vyznělo, že na rastr - VERY HIGH se nedá dívat.

+1
0
-1
Je komentář přínosný?

Tak já taky nejsem honič fps ... sice jsem rád když hra jde nad 60 ale kvalitní single jde hrát i od 40 pokud minima nejdou moc dolů a neberu i to, že RT bude budoucnost, jen to nesmí šulit, prostě optimalizace a vše by mělo být samozřejmé jako dosud a nespoléhat se jen na generovaní snímků přes AI. Sám jsem se už naučil používat FSR s quality setting protože to vypadá furt dobře na 4k, ale to proto, že 4k je dost jemný rozlišení i při 32" , jestli AMD zprovozní FG i pro 7x00 řadu, tak ho asi zkusím, ale nedokážu teď říci jestli to budu používat nebo ne, já si chci pak pořídit ten čipletovej highend pokud teda bude rozumně blízko.

+1
0
-1
Je komentář přínosný?

AMD FG nefunguje na 7xxx??
To bude asi mejlka..

+1
0
-1
Je komentář přínosný?

Jo funguje, teď mi to naskočilo v Avowed při FSR3 ... jako ten highend to chtělo už letos mi to jede jen kolem cca 50fps ... ale naštěstí to je asi tak někde na hraně kde to ještě asi toleruju. Já to myslel s tím AI, při FSR3 to je pokud vím pořád jen ta nejobyčejnější verze .. no, vypínat to nebudu s nižšíma FPS už bych se nespokojil .. paměťi mi to bere 13.1GB takže to asi bude hratelný i na 12GB kartách, 8GB je mrtvé.

+1
0
-1
Je komentář přínosný?

„EDIT: A že i karta nižšího mainstreamu pohodlně výrazně profituje ze 16GB jasně na některých nových hrách už nějakou dobu ukazuje i TechPowerUp..

4060ti 8Gb vs 16GB : https://tpucdn.com/review/spider-man-2-performance-benchmark/images/perf...“

No a i tak je 4070 furt dost napřed, i když ji 12GB určitě trochu omezuje, ale prostě z 4060 Ti už víc nevytřískáš ani kdybys dal ještě víc. Jako takhle má 16GB smysl... ale ve výsledku, když zohledníš i cenu, tak vlastně ne až tolik, když za to máš pak skoro i tu 4070 a 12GB je furt dostačujících. Jednoduše 4060 Ti není pro hráče moc povedená, je to fakt spíš jen na takové kompetitivky a prostě třeba různé starší hry, kde ty nároky na paměť ještě nejsou tak vysoké a stačí ti těch 8GB, jinak to je nepoužitelné, protože 16GB je nechutně předražených a cenově to vychází dost blbě.

+1
0
-1
Je komentář přínosný?

Ano 4070 je bezesporu lepší karta než 4060ti - 16GB.
Ne nesrovnávám 4060ti 16GB s 4070.
Srovnávám 4060ti 8GB vs 4060ti 16GB, kde ta první má smysl tak na Fortnite (i ten umí vzít 12GB :)) a CS2..
A ta druhá má smysl pro polovinu všeho co dnes vychází. Pokud jedeš na běžných 60fps.

PS: 4060ti-16GB jsem pořídil za 9tis, chápu že plná cena je nesmysl.
A šel jsem po 4070, nicméně, cena už teď mimo.

+1
0
-1
Je komentář přínosný?

2 v jakých hrách a jakých nastaveních? To je právě ono, třeba když vyšel Potter. tak lidi začali ten BS s 8GB 3060Ti vs 12GB 3060, kdy 3060 ve FHD v native a plné palbě včetně RT udělala krásných 28 FPS? a 3060Ti krásných 25 FPS? Normálně je 3060TI až o 1/3 rychlejší než 3060... Bububu 8GB je strašně málo.

Ale, opravdu chceš hrát hru na 28 FPS AVG? Nebude to náhodou tak, že drtivá většina hráčů ubere detaily aby dostali vyšší avg i vyšší minimální FPS? A v takovém případě už ta 8GB 3060Ti výkonem tu 3060 přeskočí protože opadne tlak na VRAM?

Je hezké že recenzenti grafik vezmou hru, napálí detaily a testují na tom high end i low end i starší grafiky a některé z těch grafik se pak dostanou do nekomfortní zóny a výsledek pak vypadá šíleně.

Proti tomu existují recenzenti, kteří jdou do hloubky a místo aby měli v grafu desítky grafik, mají v grafu třeba jen dvě nebo tři, ale pořádně si s ní pohrají, takže recenzent vezme třeba tu 4060 a pustí na tom nějakou náročnou hru, klidně v plné palbě, výkon bude tragický kvůli paměti. Fajn, recenzent řekne, že ten kdo si takovou kartu koupí tu hru v takových nastaveních hrát nebude, a začne ubírat, vypne PT, zane DLSS, zapne FG, ubere detaily na rasterizaci a vyzkouší různé kombinace až skončí u něčeho kde řekne. S touhle grafikou bych tuhle hru hrál s tímhle nastavením...

32GB karty cílí na jinou skupinu userů než hráče.

+1
-6
-1
Je komentář přínosný?

Počty fps jsem tam vypsal, nekydej s 28fps...
A nepiš takové elaboráty, stejně to nikdo nečte.
A vyměň si tu kartu už konečně.

+1
+6
-1
Je komentář přínosný?

Mám podezření, že ty elaboráty jsou výplody nějaké AI, kterou Jirka testuje od doby, co si pořídil Copilota.

+1
+2
-1
Je komentář přínosný?

Počkej, až vymění tu 8GB zdechlinu za 12GB 5070 tak to bude samé - "12GB minimum", "multi FG nutnost", "200fps nutnost".

+1
+3
-1
Je komentář přínosný?

Jsem zvědav, jaká nastavení si bude muset v MSFS odpustit.

+1
+2
-1
Je komentář přínosný?

Na MSFS v první řadě ještě nevynalezli procesor.
Takže si karty ty miliony fps nějak vydloube nosu po svém :)

+1
+1
-1
Je komentář přínosný?

Civilizace VII si taky vystačí se 4 jádry (pokud poběží na 10 GHz)
a tento měsíc vycházející Monster Hunters Wild je vhodný kandidát na nový CPU benchmark.

A ano. Mé aktuální počítadlo už se řadí do kategorie "Mrcha Líná".
Na další topnou sezonu si budu muset pořídit něco rychlejšího.

+1
+1
-1
Je komentář přínosný?

Do VRAM potřebuješ dostat jeden snímek, který jde na zpracování obrazu. Když ho tam nedostaneš, tak se to projeví na výkonu čipu tím, že bude čekat, než se postupně natáhne přímo z RAM.
Všechno ostatní není o výkonu VRAM, ale o výkonu čipu a technikách použitých ve hře. Například přednačítání snímků a jejich další předzpracování. Kolik přesně toho potřebuješ načíst a předzpracovat předem? To závisí na konkrétní aplikaci a klidně to můžeš udělat tak, že tam přednačteš úplně celou hru, když budeš mít několika násobek těch dnešních hodnot pamětí. (Jistě přeháním, ale záměrně, aby bylo zřejmé, že té paměti můžeš využít opravdu hodně, když budeš chtít, ale taky můžeš optimalizovat a využít jen tolik, kolik potřebuješ a bude to nějak efektivní.)

Je teda jasné, že VRAM nějaký sekundární vliv má na výkon čipu, ale není to provázané přímoúměrně. Proto se někomu může hodit i 32GB VRAM na kartě, kde většině bude stačit 16GB.

+1
0
-1
Je komentář přínosný?

Pokud 9070 XT potřebuje tak nutně víc než 16GB, potom nechápu, jak může třeba 5080 taky stačit jen 16GB.;) Možná z toho menší benefit bude, ale jestli to za tu cenu bude stát, o tom bych si dovolil dost pochybovat, řekl bych, že 16GB je celkem ok, 32 je totální overkill, aspoň pro tuto kartu, mysli si co chceš, z velké části to prostě nevyužiješ a tady to bude nejspíš i za dost velký příplatek, který velmi pravděpodobně nebude dávat úplně smysl.

+1
-2
-1
Je komentář přínosný?

Tady si někdo nepřečetl, k čemu vlastně má ta 32 GB verze sloužit.

+1
+8
-1
Je komentář přínosný?

9070XT rozhodně nutně nepotřebuje víc než 16GB :)
To nikdo neříká, ale v určitých situacích věřím, že víc jak 16GB obsadí zcela bez problémů.

+1
+2
-1
Je komentář přínosný?

To chápu, ale je třeba zohlednit taky cenu a tady těch 16GB ≠ 8GB u 4060 Ti, kde to už je fakt zoufale málo a rozhodně už máš dobrý důvod koukat po něčem větším, protože tě to už citelně brzdí. A i v tomto případě se ti víc vyplatí spíš ta 4070, i když má jen 12GB, protože těch 16GB ti pak už zas tolik výkonu stejně nepřidá. A tady to bude platit určitě taky, možná ještě víc, přinejmenším tedy pro herní nasazení, samozřejmě pokud to máš na nějakej workload, který ti sežere plno VRAM, tak to už je zas jiná, ale o tom se teď nebavím, pro hráče to prostě nemá smysl, už to bude nesmyslně drahé. A pokud si někdo vážně myslí, že využije víc, tak ať si sežene 7900 XTX.

+1
0
-1
Je komentář přínosný?

Reaguješ na post o 9070XT.
Ano vím že pro 4060ti je 16GB moc, ALE 8GB je málo a to je to podstatné. Jiná ho hodnota u GDDR6 není.
Ano už jsem psal, že cenově je proti 4070 ta 4060ti 16GB nesmysl.
Jenže 4070 za luxus cenu nekoupíš, zatímco s 4060ti se to povedlo.
Příplatek z prodané 3060 5200kč

+1
0
-1
Je komentář přínosný?

No já jsem chtěl jen poukázat, že 16GB u 9070 XT rozhodně nebude stejný problém jako 8GB u 4060 Ti, takže to není zas tak nutné na to připlácet. Jinak 4060 Ti za těch 9k už je samozřejmě dobrej kauf, ale normálně to už je prakticky za cenu 4070, proto to s ní srovnávám.

+1
0
-1
Je komentář přínosný?

Jo vím, moje argumenty na oslavu 4060ti nejsou na místě vzhledem k ceně karty.
Poukazuju jen na to, aby lidi už konečně přestali řešit 8GB karty jako instantně dostatečné (pokud nehraju Roblox).
9070XT s 32GB... Je to stejný případ jako 4060ti-16GB.
Karta 32 nikdy nevyužije, ale 17-19 myslím naprosto v klidu.
Už jen ten FG zvyšující šanci si to to zahrát bere slušnou porci VRAM navíc, AMD obecně spotřebovává víc VRAM....

+1
0
-1
Je komentář přínosný?

Holt furt musíš ale za celou tu VRAM platit navíc, takže se pak často stává, že jsou tyto karty dost nevýhodné, když máš plno VRAM, kterou stejně nedokážeš využít, protože ten výkon tam už stejně nemáš, a oproti menším kapacitám to už nepřináší žádnou výhodu, max. můžeš doufat, že tu rezervu dokážeš líp využít někdy v budoucnu, proto to bývá často bráno spíš jako nevýhoda, i když to samo o sobě v podstatě ničemu nevadí, vždycky lepší rači víc než míň, jak říkáš.

+1
0
-1
Je komentář přínosný?

Ano navýšení ceny není úplně ok.. (4070 je ideál)
Ale mě fakt netankuje kolik karta má celkově, mě tankuje v to, že v polovině her mám obsazeno 9-12GB.
Takže evidentně víc než 8GB... a videa jako tohle ti jasně ukážou hlavně brutální rozdíl i LOW fps - to je věc, kterou prakticky nikdo neřeší.
A přitom je 2x důležitější než nějaké AVG. Nepotřebuju hromadu fps, nechci mít dropy..

https://youtu.be/Wr3MckDxMfE?t=23

+1
+2
-1
Je komentář přínosný?

Tak ono tam tých 32 GB nebude kvôli hrám ale kvôli použitiu, na ktoré by si človek ináč kupoval Radeon Pro alebo od Nvidie RTX 4090/5090. Predpokladám, že hlavnou motiváciou niečo také vydať je súčasná LLM mánia. A tam je to tak, že keď LLM vôjde do VRAM tak to beží použiteľne rýchlo a keď nie, tak to pravdepodobne bude bežať hodne pomaly (až na úplne malé modely, ktoré bežia rozumne rýchlo aj bez grafiky). A dosť ľuďom môže byť jedno, že na 5090 by to bežalo ešte dvakrát rýchlejšie ako na hypotetickej 9070 32 GB, keď to aj tak bude bežať tak 5-10x rýchlejšie ako s ľubovoľnou 16 GB grafikou, kde by časť modelu musela ostať v systémovej RAM.

+1
+3
-1
Je komentář přínosný?

Ony ty LLM nejsou zase tak pomalé, viděl jsem srovnání nějaký mobilní Intel v mini PC vs M2 Pro v MacMini vs RTX4090. RTX4090 byla cca 3x rychlejší než MacMini, ale v konkrétním řešení (RTX4090 byla externí) RTX4090 u většího modelu začala odpovídat po 2 sekundách kdežto MacMini už po sekundě. Tzn RTX měla vyšší latenci (přenos modelu z RAM do VRAM přes TB ne PCIe), MacMini má model v RAM = VRAM. Pokud model vracel jednoduché/krátké odpovědi, MacMini a RTX4090 byly vesměs srovnatelně rychlé, byť mini spotřeboval skoro jen elektrické energie (nějakých 2200J proti 3800J při nějakém testu), Delší odpovědi už byly rychlejší na RTX. Nicméně i ten MacMini odpovídal rychle a kdybych to měl doma provozovat tak mi ta rychlost vůbec vadit nebude. Ona i Intel iGPU nebyla tak hrozná, i když rozdíl už byl citelný.

long story short. na použití LLM není potřeba až tak výkonná grafika, ta je potřebná hlavně při učení, ale učit takové modely, které jdou provozovat na 32GB VRAM, to na jedné kartě doma člověk bude učit dlouhé roky..

+1
0
-1
Je komentář přínosný?

Tak ono to natiahnutie modelu do VRAM sa robí iba pri prvom prompte, ktorý používa daný model. Ďalšia vec je, že súčasné Macy sa správajú v tomto ohľade ináč ako bežné PC, pretože majú unifikovanú pamäť a vyššiu pamäťovú priepustnosť ako má DDR5 v bežnom desktope.

Ak to video s tým porovnaním bolo toto: https://www.youtube.com/watch?v=0EInsMyH87Q tak tam boli použité relatívne malé modely, ktoré bežia znesiteľne rýchlo aj na CPU. A v tom benchmarku, ktorý tam bol ukázaný v priebehu videa bola RTX 4090 násobne rýchlejšia ako ten Mac Mini.

Takto veľké (či skôr malé) modely sú ale na niektoré úlohy príliš blbé a potom to, že bežia prijateľne rýchlo nemá moc vypovedajúcu hodnotu pre diskusiu o tom, aký hardvér treba na oveľa väčšie modely.

+1
0
-1
Je komentář přínosný?

Na herní účely je víc než 16GB opravdu zbytečnost, aspoň zatím, drtivá většina her se vejde do 8, některým se líbí něco mezi 10-12GB, a jen pár věcí potřebuje víc.

Ale tahle velká VRAM a k tomu relativně nízký herní výkon neznamená že té VRAM je příliš, pokud tohle skutečně vyjde - tady je třeba říct že zatím ani neznáme ofiko parametry a ani nevyšly 9070, natož že tu spekulujeme o něčem co hypoteticky vznike...

Pokud se to objeví, tak to právě kvůli té paměti bude karta třeba pro 3D modeláře, kteří dělají rendery na které už nestačí ani 24GB karty. A i když třeba ten render co se do 24GB nevejde ale do 32GB ano a i kdyby to díky výkonu běželo pomaleji, tak to nevadí, protože to ten render dokončí, kdežto klidně rychlejěí 24GB karta ne.

Stejně tak těch 32GB paměti využiješ na LLM. tak na některé prostě 16 či 24GB nemusí stačit.

Představme si LLAMA od Mety 70 miliard parmetrů model, v FP16 cca 140GB velký, v INT4 už to teoreticky můžeš srazit na 32GB. Ano INT4 nebude podávat tak přesné výsledky než FP16, na druhou stranu 70mld parametrový model proti 8mld modelu který se vejde do 16GB...

Samozřejmě pokud bys chtěl používat 405 mld Llama 3 a rozhodl by ses místo FP16 pro INT8, tak už ti stačí jeden node s osmi H100 a 640GB VRAM, zase s osmičkou MI300X můžeš ten model provozovat i FP16, LLM má něco přes 800GB.

+1
-5
-1
Je komentář přínosný?

Len tak na okraj, Llama 3.3 70B má v Q4_K_M kvantizácii cca 42.5 GB (viď https://huggingface.co/bartowski/Llama-3.3-70B-Instruct-GGUF). Takže na takýto model by to chcelo buď dve karty alebo ešte hrubšiu kvantizáciu. V tomto by tá 32 GB verzia 9070 mala výhodu, že by sa pravdepodobne dali zohnať dve 9070 32 GB za cenu jednej 5090. Dalo by sa to prevádzkovať aj na 2*24 GB ale ďalšiu VRAM spotrebuje aj kontext (a prípadne iné spustené programy), takže mať 2*32 GB by určite bola výhoda.

+1
+1
-1
Je komentář přínosný?

Já vycházel odtud https://medium.com/@marketing_novita.ai/how-much-ram-memory-does-llama-3... tady 70B INT4 uvádí 35GB. Pokud grafika nemá tolik fyzické pamětí pořád máš sdílenou paměť s OS, zpomalí to, ale nemusí to být nic zásadního, 32 nebo 35 nebí takový rozdíl jako 16/24 a 35...

+1
0
-1
Je komentář přínosný?

Jasné ale tam je iba taký hrubý odhad, na Hugging Face sa dajú nájsť skutočné veľkosti modelov. A to, že to pretečie VRAM o 10%, môže kľudne spôsobiť, že sa to spomalí na polovicu oproti stavu, keď to celé vôjde do VRAM.

+1
0
-1
Je komentář přínosný?

>> Na herní účely je víc než 16GB opravdu zbytečnost, aspoň zatím,

Přesně tak.
S důrazem na slovo "zatím".

+1
+2
-1
Je komentář přínosný?

Je stále lepší "zatím zbytečnost", než "později nedostatečnost", o čemž by mohl podat svědectví nejeden model GK z minulých generací.

+1
0
-1
Je komentář přínosný?

co ti neda cip = to ti da marketing + ai bublina ;)
dufam ze mate dost nasporenych ecb+cnb toaletakov ;)

+1
+1
-1
Je komentář přínosný?

Ze nema vykon na vyuziti vic jak 16gb rameti, znamena, ze karta je situovana na rozliseni 1440p s obcasnym 4k.. Na 1440p je 16gb prehrsile dostatecnych...4k s lidskou velikosti textur jeste taktez... A jak je znamo, na vic tato karta uz nema sama o sobe vykon... Takze asi tak... S moji ex 6700xt s 12gb vse na 1440p bezelo cca s 2gb rezervou uplne v klidu... Takze 16gb zcela ok...

+1
0
-1
Je komentář přínosný?

Přešlápněte si.
Nebo alespoň pootočte hlavu.
Chce to jiný úhel pohledu.

Tak jak uved Frank výše ... nedostatek výkonu GPU pro osazení více VRAM je umělý konstrukt, na kterém vůbec nezáleží.
Na čem záleží jsou výkonnnostní dopady, kdy je té VRAM málo. Ať už se jedná o hry nebo AI.

+1
+1
-1
Je komentář přínosný?

Bolo oficiálne oznámené, že RX 9070, ktoré už boli oznámené, budú oficiálne oznámené 28.2. https://videocardz.com/newz/amd-to-unveil-radeon-rx-9070-series-on-febru...

+1
0
-1
Je komentář přínosný?

A tiež už vieme, že 9070 XT nebude mať 32 GB VRAM: https://videocardz.com/pixel/amd-denies-rumors-of-radeon-rx-9070-xt-with...
Takže tá karta buď nebude alebo sa bude volať 9070 XTX, 9080 alebo ešte nejak inak. Napríklad 9080 AI Max+ Pro.

+1
0
-1
Je komentář přínosný?

Upřímně mi přijde dost nepravděpodobné, aby vůbec nějaká 9070 32GB byla, na takové věci ti nikdo Radeon stejně nepoužívá, můžeš si o tom myslet co chceš, ale tak to prostě je, pro AMD by taková speciálka trochu postrádala smysl, zaujalo by to možná hrstku lidí, co nevybírají podle loga a ještě míň, kterým by se něco takového opravdu hodilo (na hry by se to asi opravdu moc nevyplatilo), takových už je asi dost poskrovnu, takže to je naprosto zbytečná snaha.

+1
+1
-1
Je komentář přínosný?

No to je rovnaký problém ako sliepka alebo vajce. Ak AMD neurobí zaujímavé karty, tak ich ľudia na ten účel nekúpia. A AMD potom usúdi, že ich karty nikto na AI nepoužíva, takže nemá zmysel robiť nič v tejto oblasti. A sme v kruhu...

+1
+1
-1
Je komentář přínosný?

Tak to vypada, ze nadseni z udajnych cen 9070(XT) nebude mit dlouheho trvani..
Odhaduje (bez DPH) se MSRP 699$ pro 9070XT a 589$ pro 9070.
"Aktuell ist davon auszugehen, dass die Radeon RX 9070 XT im Referenzdesign einen MSRP ("Manufacturer's Suggested Retail Price") von 699 US-Dollar vor Steuern besitzt, während die Radeon RX 9070 für 589 US-Dollar an den Start geht. Custom-Designs könnten dann leicht oberhalb der Referenzdesigns liegen und so im Falle der hochwertigsten Partnerkarten bis zu 849 US-Dollar vor Steuern kosten."
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News...

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.