Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Godfall ve 4k využije 12 GB grafické paměti

Ale no, je tady někdo, kdo by nečekal, že se před uvedením RX 6800 XT/ 6800 / 6900 XT neobjeví tři nebo čtyři hry, na kterých spolupracuje AMD a které budou pro maximální detaily vyžadovat více než 11 GB paměti? :D

A proč tady nestačí 11, ale 12 GB už stačit bude? To určitě uhádnete taky.

+1
-22
-1
Je komentář přínosný?

Nemusíme hádat, na to máme blby z jiných webů, kteří jsou sponzorovaní Nvidií, aby nám to tu vysvětlili. Ještě že na PCTuRning už nechodím, od té doby nemám problémy se žaludkem

+1
+18
-1
Je komentář přínosný?

Jsou poslední dobou fakt k smíchu jak kopou kolem sebe :)

+1
+2
-1
Je komentář přínosný?

Vždyť má pravdu, večer jsem kouknul do doupěte a už jsem si říkal že prodleva na Diit bude minimální :)
Předhánět se naschvál o 1GB je ale ubohost...

+1
-3
-1
Je komentář přínosný?

10 - 16 je o jeden, fakt sa nauč mamtematiku. Zíde sa ti.

+1
0
-1
Je komentář přínosný?

Ta informace je stará přes týden ... původně to bylo vlákno na redditu a nVidie to smazala :)

+1
0
-1
Je komentář přínosný?

na druhou stranu kolik vyvojaru spolupracuje s nvidii ktera je prinuti tech 10gb drzet jen do doby nez vydaj verzi s vetsi pameti aby pak mohli snadno potopit 10gb verze a donutit zakazniky k upgradu

+1
+18
-1
Je komentář přínosný?

...11 GB by bylo na 3080 stejně moc ;)

Prostě to nvidia chtěla nastavit tak, aby lidi dokopala na upgrade na 4xxx (nebo 3xxx Super) kvůli nedostatečným pamětem a neopakovala se situace, kdy lidi, stejně jako já, sedí na 1xxx řadě a odmítli přejít na 2xxx.

Už se těším na 6800XT a nebo 3080Ti, podle mě je zdravá konkurence velký win pro zákazníka.

+1
+12
-1
Je komentář přínosný?

> A proč tady nestačí 11, ale 12 GB už stačit bude?

Protoze nvidia za chvili vyda 20G modely a potrebuje, aby lidi konecne upgradovali ze svych 1080 / 2080 (a vlastne vsech nizsich modelu predchozich generaci) ? uhadl jsem ?

Jinak cela tahle "konspiracni teorie" je nesmysl, protoze 1) ty karty predchozich generaci stejne nemaji vykon na 4K hrani, a 2) na soucasnych si lze nastavit o fous min detailni textury a hrat ve 4K i s 8GB pameti.

+1
+12
-1
Je komentář přínosný?

právě 12GB ti nabídne Radeon 6700, tak není co řešit, stačí jen nekupovat Nvidii
A mimochodem stačí na to i starý Radeon VII :-D

+1
0
-1
Je komentář přínosný?

Ono hlavně jedna věc je co řeknou autoři v rámci propagace firmy která vývoj hry sponzoruje a druhá jak to reálně bude.

Ono ta hra skutečně může využít 12GB VRAM, to konec konců dělá lecjaká hra, ale bude na 8GB VRAM vidět rozdíl ať v průměrech, tak v konzistenci frametimes a jak velký bude.

A pokud tam rozdíl skutečně bude a VRAM bude limitující faktor, tak jak snížení kvality textur reálně dopadne na výslednou kvalitu. Když vezmu své oblíbené letecké simulátory, tak třeba pro mraky bylo i na 4k jedno jestli se použijí textury 512x512 nebo 4k textury (4096x4096), u běžné scenérie pak nebyl vidět rozdíl mezi 1k, 2k dokonce i 4k texturou. U her je kvalita textur obvykle citelnější.

+1
+3
-1
Je komentář přínosný?

... a z toho plyne, že to chce počkat, jak poběží Godfall na 10GB RTX 3080 ve 4K se 4K texturami.

+1
+1
-1
Je komentář přínosný?

Potvrzuji, v FS ten rozdíl prostě nevidím, ostatně když pohledáte na webu tak zjistíte, že i mezi medium a čímkoliv vyšším není takový rozdíl. Důležité je si užít let :)

+1
+1
-1
Je komentář přínosný?

Důležité je si hru užít aby bavila. :) Na grafice mi zase tak moc nesejde. Viz Factorio, Mashinky, Battletech, Rimworld a jiné stavitelské věci u kterých se musí myslet a vydržím u nich, mno...dlouho. U Horizon Zero Down jsem vydržel 2h, RDR2 asi 3h. Z graficky náročnějších her mě ale teď drží The Outer Worlds a stále pošilhávám zase rozjet KDC. Na CP2077 jsem jen střízlivě zvědavý, žánr by mi seděl, ale Zaklínače jsem nedal snad ani hodinu. Takže z AAA mě osloví jen opravdu málo co. U MFS2020 čekám až mi přijde hotas s pedály, při něm mi totiž umřel 15let starý joy (budiž mu křemíkové nebe dopřáno, loučil jsem se s ním nerad).

+1
+1
-1
Je komentář přínosný?

Na Mashinky se chystám, Zaklíánače 3 zbožňuju a na CP2077 se dost těším, ale je tam totální hype :)

+1
+1
-1
Je komentář přínosný?

To je fakt divné že? Nároky na paměť pro textury rostou s vyšším rozlišením textur. Jak nečekané!
Přitom by mělo všem mělo stačit 640KB... kam ten svět spěje...

+1
+2
-1
Je komentář přínosný?

Otázkou je jak se rozlišení textur projeví na výsledné kvalitě. Pokud ten rozdíl bude ještě patrný. Textury se obvykle nepoužívají v max velikosti pokud nejsou bezprostředně kameře a používají se mipmapy v nižším rozlišení. Navíc i když použiju 16k texturu na objekt co se bude na scéně velikostně 500px tak mám v té textuře při plochém povrchu 32px na 1px skutečně zobrazený. Pokud použiju 4k texturu na stejně velký objekt, budu mít pořád 8px na 1 skutečně zobrazený. při 1k textuře mám pořád 2px... Rozdíl mezi 16k a 1k texturou bude ale ne z důvodu chybějícího detailu ale z důvodu jiného výsledku zmenšení, zprůměrovaných 32px bude asi trošku odlišný výsledek než zprůměrované 2px.

Rozdíl ale bude objemem. Pokud 16k DDS5 textura bude mít nějakých 160MB tak 1k DDS5 textura bude mít cca 0,625MB, tzn 256x menší a výsledná kvalita bude pořád stejná

+1
+4
-1
Je komentář přínosný?

Tipuju, že tohle bude hodně pocitová záležitost.
Samozřejmě, z pohledu kvality obrazu to může být čisý marketing.
Nicméně že s většími texturami rostou nároky na paměť, to by pro "redaktora renomovaného tech webu" nemělo být tak těžké pochopit.

+1
+1
-1
Je komentář přínosný?

No nevim. Textury jsou jedna z mála věcí, co se snažím vždy vymaxovat.

+1
+1
-1
Je komentář přínosný?

Je to jak pisete.
Dulezite je, na kterem objekktu se textura zobrazuje. Jako priklad staci textura grafiti na zdi. Kdyz ta zed ma v 1st person pohledu 50 metru na delku, tak ji nespasi ani 8192x8192 rozliseni, protoze zblizka se vyrenderuje jen jeji cast. Efektivne v zornem uhlu pak nebude tak velke rozliseni, ale treba jen 200 x 150 a to uz je nic moc. Rozliseni monitoru na tom nespravi vubec nic.
Podobnym prikladem muze byt textura zeme u Flight simulatoru :).

Naopak 8192x8192 textura na objektu auta ve flight simulatoru z letadla nebude poznat a stejnou sluzbu udela i 128x128 textura, protoze v realnem renderu je danemu objektu venovana jen par pixelu (treba 50x50).

Presne z techto duvodu byla zavedena technologie LOD, ktera dynamicky meni rozliseni textur aby se nepalil vykon a nealokovala pamet tam, kde neni potreba.

+1
+1
-1
Je komentář přínosný?

Pletes rozliseni jako takove (zavisle na monitoru) a rozliseni textur. To jak velky je objekt na scene je urceno rozlisenim sceny (monitoru).

+1
-1
-1
Je komentář přínosný?

ve 3D jsou sceny vektory. Objekty nemaji zadne rozliseni. Rozliseni vznika az pri promitnuti vektoroveho obrazu do framebufferu (zjednoduseno).
V tomhle pripade ma pravdu.

To, co pisete plati spis pro 2D aplikace a i tam to dnes neni uplne 100% kvuli postprocessingu a pripadne i jen kvuli Win filtrum.

+1
+2
-1
Je komentář přínosný?

Ne.

Graficky HW si rozdeluje scenu na pixely a ty zpracovava. Dela na nich texturing, shading, a i ruzne post process efekty atp.

A samozrejme v tu chvili vi, v jakem rozliseni renderuje, cili vi presne, kolik pixelu ma kazdy objekt, trojuhelnik na scene a jak ho bude muset vykreslit.

+1
0
-1
Je komentář přínosný?

tak ta hra pro po grafické stránce pro mě vypadá jako next gen, ale stačí se podívat na další tituly serious sam4, DW Legion, nároky se zvyšujou a zvyšovat budou jak budou přicházet tituly určtené pouze pro PC, PS5 a series X

+1
+2
-1
Je komentář přínosný?

Máme tu situaci z doby Doom 3, kdy maximální nastavení textur vyžadovalo 512MB VRAM, ale mainstream grafiky v té době měli běžně 128MB VRAM? :D

+1
+1
-1
Je komentář přínosný?

v akom rozlíčšení

1024 x 768 pri 32 biotpvých farbách so zálohou na 40 frame-ov dáva
1024*768*4*40=125829120 = 120 MiB VRAM..

ale pri 4k UHD

3840*2160*4*40/1024/1024/1024
je to 1,24 GiB VRAM

Ako výsledná bitmapa vo Framebufferi

+1
0
-1
Je komentář přínosný?

Jaká záloha na 40 framů, standardně se v DX11 "zálohovaly" tři framy, s low latency módy AMD i NV lze snížit na 0 nebo 1. Pak, pokud pokud člověk používá VSync, tak je tu ještě double nebo triple buffer, takže fakticky se bavíme o celkové bufferu pro 6 framů (3 jako DX fronta, 1 aktuální a při triple bufferingu další 2), což dle tvého výpočtu dělá 190MB, 127MB bez VSync.

Tady vůbec nejde o frame buffer ale textury. Jestliže 4k DDS5 textura bude mít třeba 10MB tak 16k textura bude mít 160MB a těch bude v jednu chvíli použito mnoho desítek či stovek.

Ale ne vše je použito pro nejvyšší level of detail, takže část těch textur bude v max kvalitě, část textur vezme mipmapu odpovídající aktuálnímu LOD pro který se aktuálně používá, takže může být mnohonásobně menší.

Další věc je jak se chová herní engine, použiju jako příklad Snowdrop v Division 1. Snowdrop, použije 3/4 dostupné VRAM, nejdříve jsou ty framebuffery, pracovní prostory a textury nutné pro zobrazení aktuální scény. Pokud to je méně než 3/4 dostupné VRAM, zbytek engine využije tak že do ní napráská textury pro objekty, které jsou v okolí zobrazené scény. Ty tam leží pro případ že budou v brzy potřeba a nebudou se muset načítat z disku. Pokud by se musely načítat z disku ve chvíli kdy bude CPU vytížené mohlo by to znamenat stutter nebo nějaký "popping" textur/objektů. Mohlo, nemuselo. Mě ta hra na 8GB kartě prostě pořád alokuje 6GB VRAM +- nějaké desítky MB.

+1
+1
-1
Je komentář přínosný?

kde se vzalo kouzelne cislo 40 framu?

Zkusme to trochu prepocitat podle realnych pozadavku.
1) finalni frame slozeny z monoha kanalu.... v dane dobe s nejruznejsima mapama a skladanim vseho, co se dany moment dalo muzeme mluvit o kompozici z 20 (spis 15) snimku (aplha kanaly, T&L, ebmbossing, etc.)
1024 x 768 x 4 x 20 = 63 MB.
2) textury. Velke mnozstvi textur na objekty. Casto jen 64 x 64 ale s maximem 256 x 256 a rekneme 32 bit (nevim). Prumerne rekneme 128 x128.
Textur muze byt pouzito stovky, ale rekneme 100 pro jednu scenu aby se to dobre pocitalo.
100 x 128 x 128 x 4 = 6,5 MB na scenu. Takovychto scen, ale je mnoho a vesmes se scena meni -> rekneme 50 scen na level? -> 300MB VRAM
Vzhledem k tomu, ze prenosove rychlosti nebyli az tak vysoke, tak se zejmena pouzivala VRAM primo.
3) Alpha a emboss mapy, etc. Typicky jsou v nizsim rozliseni, ale kazdy objekt ma nejake. Rekneme dale kulatych 16 ruznych druhu map.
+/- 1000 objektu v levelu.
Tedy 64 x 64 x 16 x 1000 = 65 MB

V sume jsme na 63 + 300 + 65 = 428 MB. Je to sice presne pocitani s nepresnymi vstupnimi udaji, ale trochu to navede, co se skutecne delo.

UHD je na tom podobne, ale map je dnes rekneme 25, rozliseni textur je rekneme 2048 x 2048 a map rekneme 512 x 512.

Tim se dostavame na UHD pozadavky:
830 MB pro ROPs data
1.7GB textur na scenu s tim, ze se textury prubezne docitaji do VRAM a jsou pripravovany typicky cca 3 sceny.
Mapy si pak vemou 65 MB na scenu a take se docitaji.
Bavime se tedy o rekneme 7 GB pro tento virtualni use-case.

Vysvetluje to take duvod, proc si hry u karet s vetsi pameti alokuji vice mista. Nahravaji si vice dat do pameti zrovna aby nemuselo dochazet k tak intenzivnimu dohravani textur a dat do VRAM. Tim se eliminuji velke propady FPS. To zaroven i vysvetli, ze casto i GK s malym nozstvi pameti nejsou uplne tragicke (i kdyz pokles vykazou).

+1
+1
-1
Je komentář přínosný?

>Nic jí však nebrání vydat 12GB modely - jádro GA102, které používá na GeForce
>RTX 3080, GeForce RTX 3090 (a GeForce RTX 3080 Ti, GeForce RTX 3070 Ti,
>zrušenou GeForce RTX 3080 20GB…) má fyzicky 384bit sběrnici, kterou lze
>standardně osadit 12 GB paměti

Viete, čo by sa stalo, keby nVidia výrazne viac kúrila (česky topila)?

Čím to, že reálný výkon GeForce RTX 3080/3090 neškáluje ve srovnání s GeForce RTX 3070 tak, ....Proč u vyšších modelů roste spotřeba více než výkon? Proč je u vyšších modelů spotřeba při videu s HDR tak vysoká, když jiná karta se stejnou architekturou zvládá totéž při dosažení standardní spotřeby?

Vše, co se týká spotřeby a poměru spotřeba / výkon se zdá být důsledek energetických nároků GDDR6X. Jejich energetické nároky jsou vyšší, což má být kompenzováno vyšší datovou propustností. Zdá se, že řadič architektury Ampere nedokáže dostatečně snížit takty GDDR6X při přehrávání náročného videa, což vede k vyšší spotřebě.
https://diit.cz/clanek/geforce-rtx-3070-posouva-pomer-cena-vykon

Tajemstvím GDDR6X je technologie PAM4, totéž, o čem se mluví v souvislosti s plány ohledně PCIe 6. Namísto přenosu dvou stavů, z nichž jeden znamená 0 a druhý 1, se přenášejí stavy čtyři, z nichž jeden znamená 00, druhý 01, třetí 10 a čtvrtý 11. Tedy každý ze čtyř stavů přenáší dva bity. Tím je možné při nižším fyzickém taktu (a tím i spotřebě) dosáhnout vyšší datové propustnosti, ovšem vyšší nároky jsou kladeny na čistotu signálu. Poměr spotřeba / (přenosový) výkon je tedy vyšší než u GDDR6. Co se příliš neuvádí je fakt, že GDDR6X nevyužívají režim PAM4 výhradně. Používají ho pouze, pokud je od nich vyžadován maximální výkon. V úsporném režimu (WCK na 1/5 maximálního taktu) přepínají do klasického 1/0 režimu o efektivní přenosové rychlosti 1/10 při kombinaci maximálního fyzického taktu a PAM4.
https://diit.cz/clanek/micron-ohlasil-gddr6x

Dôsledkom by bola strata povesti a toho, že miestnosti vykuruje(vytápí) iba AMD a nVidia to nerobí... A to ny pomohlo AMD..

+1
0
-1
Je komentář přínosný?

> Viete, čo by sa stalo, keby nVidia výrazne viac kúrila (česky topila)?

rekordni prijmy CEZ, bankrot vyrobcu kotlu a radiatoru ?

> Vše, co se týká spotřeby a poměru spotřeba / výkon se zdá být důsledek energetických nároků GDDR6X

[citation needed] jinak receno, uverim az uvidim. Videl jsem cisla GDDR5 i HBM a pokud si dobre vzpominam, bylo to v rozmezi 5-20W. I kdyby mela GDDR6X o 50% vyssi naroky, bylo by to 30W coz je <= 10% z celeho TDP nvidie. Pokud by ty GDDR6X zrali treba 50-60W tak podle me kazdy inzenyr s kapkou rozumu by ti rekl, ze kombinovat tyhle pameti s cipy 30x0 je nesmysl. Narust vykonu v jednotkach procent (realneho vykonu ve hrach proti GDDR6, ne synteticke testy) za cenu narustu spotreby o desitky procent je naprosto debilni tradeoff, a Nvidia by to zarizla jeste ve fazi designu. Takze opet, dukazy plz.

+1
+1
-1
Je komentář přínosný?

RTX 3080
10 GB
320bit
GDDR6X
TDP:320 W

RTX 3090
24 GB
384bit
GDDR6X
TDP:350 W

https://diit.cz/clanek/podle-prvniho-testu-je-geforce-rtx-3090-jen-89-na...

Drvivá väčšina z tých +30W ide na GDDR6X..

+1
0
-1
Je komentář přínosný?

Což potvrzuje výše napsané, pokud 5-20W u 3080 spadá na GDDR6X, tak 14GB více paměti navýší spotřebu o 7-28W. Ten rozptyl bude souviset s frekvencí paměti, která se průběžně mění.

+1
+2
-1
Je komentář přínosný?

kapacita nebude tak vyznamna, jako realny pocit chipu na desce, ktery se zvysil z 10 na 12.
takze klidne 20 W bude vysvetleno jen tim. Kapacita zvedne spotrebu jen o par procent na chip. Kdyz od pasu strelim do 5W za vsechny pameti, tak asi nebudu mimo.
Zaroven 3090 muze mit jen prachsproste zvednuty limit spotreby a regulace necha kartu bezet rychleji a s vyssi spotrebou nezavisle na pametech, limitech boostu atp.

+1
-1
-1
Je komentář přínosný?

By mohl Karáš zkusit 3080 podtaktovat paměti...nějak výrazně. Docela by mě zajímalo jak by se pak ta 3080 chovala.

+1
+1
-1
Je komentář přínosný?

Podle me 8GB bohate staci. Ja treba mam GTX1080 s 8GB VRAM a pohoda, dalsi grafiku si koupim az tam bude dvojnasobek, cimz teda u NVidie nic a AMD muze byt uz za 14 dni.

+1
+1
-1
Je komentář přínosný?

Velikost paměti u nové řady RTX byl problém od začátku, co s tím přišli. Důvodem je možná TDP a hlavně cena pamětí. Takže má Nvidia na výběr ze dvou špatných řešení. Přidá paměť za stejnou cenu a klesne jí marže. Nebo použije normální paměti jako AMD? Jenže to nebudou jejich karty konkurenceschopný. Budou to teď mít těžký, horší tech, horší výrobní proces, špatná výtěžnost, šance na zlepšení někdy ve 3Q.21. AMD si namastí kapsy.

+1
+3
-1
Je komentář přínosný?

Nenamastí. Stádečko si teprve až s Ryzeny2 uvědomilo, že jim stačí i na hry a od Intelu odejde definitivně až s Ryzenem 3, kde už to pochopí i ti OBRovití tupci. Takže nejdříve až RDNA3, jenže do té doby to Nvidia trochu zlepší přechodem k TSMC a jede se odznova.

RDNA3 už ale bude MCM a bude to revoluce s odskokem ještě větším než RDNA1->RDNA2. Vše je v rukou Nvidia -> jestli na příště MCM ještě neplánujou, dost možná budou v zadnici, což si btw zaslouží budou-li tlačit monolit a tedy vykašlou-li se zase na inovace a k tomu budou šetřit i na výrobních procesech s dolary v očích jako u Ampere. Však konkurence a trh už jim najde místo kam patří a jestli to bude nahoře.nebo dole záleží jen na nich a jejich rozhodnutích

+1
+3
-1
Je komentář přínosný?

to i já jako úplný laik najedu na Youtube vyhledám RTX 3090 s 24GB VRAM a 4K hry a u 70% nich je je ukázané využití VRAM většinou 11GB...

+1
-1
-1
Je komentář přínosný?

za rok? to si kúpiš kartu za cca 25 k na pol roka? No, dobre ti ide

+1
-1
-1
Je komentář přínosný?

???

+1
+1
-1
Je komentář přínosný?

... u tak drahých karet čekáš, že budou stejně dobře použitelné i za dva a více let. Když už dnes jsou na hranici s velikostí paměti, tak to jim nedává dobrý výhled do budoucna. :-)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.