Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4090 v GeekBench: 60-63 % nad GeForce RTX 3090 Ti

A není to málo, Antone Pavloviči? :D

+1
0
-1
Je komentář přínosný?

nVidia jde prostě jinou cestou. DLSS 4 bude o tom, že karta přestane "prokládat" obraz vymyšlenými snímky, ale bude to vymýšlet celé. Vskutku revoluční pojetí a tvůrci her by se měli začít bát o místa, protože už jich nebude třeba a AI to vymyslí za ně. ;-D

+1
+9
-1
Je komentář přínosný?

V tom ale bude jedno podstatne plus… Jednou si to zahrajete s touto featurkou ON a podruhe OFF. Za jednu cenu budete mit 2 ruzne hry, a to se vyplati!

+1
+8
-1
Je komentář přínosný?

Stejně mám takový nepříjemný pocit, že nebudu stát ani o jednu z nich...

+1
-1
-1
Je komentář přínosný?

60% mezigeneracni narust nestaci? Navic se srovnava ti oproti ne-ti.

+1
-1
-1
Je komentář přínosný?

Mně by stačil i 1% nárůst, kdyby ta karta nevypadala jak miniPC, nestála jak 5 miniPC a neměla spotřebu 10 miniPC.

+1
+7
-1
Je komentář přínosný?

Tak čekalo se o něco víc... taky se čekalo, že nárůst výkonu v RT se zvýší o víc než o co se zvýší výkon v rasterizaci (jak se ukázalo, jak je nečekaně slabá rasterizace, tak se pak ještě o to víc čekal o hodně lepší RT výkon a že ten to vytáhne)... a ono asi ani tady nic podle toho 3DMark leaku. Ne že by to bylo samo o sobě malé zlepšení, spíš je otázka, kam se poděly všechny ty tranzistory, sice ano, výkon je samozřejmě vyšší, navýšili se nám CUDA atd., to je všechno krásné... ale ten výsledný výkon je jakýsi slabý, dokonce i kopite7kimi prohlásil, že to je zklamání a Ada skoro nic pořádně nepřinesla a sám od toho čekal víc, než co nakonec přišlo. Pro srovnání – Ampére měl 28,3B tranzistorů a Turing 18,6; to je navýšení o 52% a herní výkon se navýšil o 70%... no a tady ten zázrak má mít 76,3B; což je navýšení o 170% a navýšení výkonu jen o 70%...?!?!?!

Docela by mě zajímalo, co to brzdí, jestli to fakt potřebuje jen těch 600W, takže to je aspoň takto řešitelné, to by byl ještě ten lepší scénář, i když pořád celkem na hovno, nebo to opravdu brzdí paměť, což už by byla totální tragédie... to si jako v Nvidii neumí nasimulovat, že jim jen přidání trochu té cache nebude stačit? I když to je zatím jen RTX 4090, tak pokud bude mít vážné jen 60% navýšení výkonu, tak i s Ti k tomu očekávanému 2x tak vyššímu výkonu bude pořád dost daleko, bude mít už akorát o 10% víc CUDA, to ti už těžko hodí ještě těch několik desítek %, co chybí a to se v poslední době ta očekávání ještě zvětšovala a že to bude dokonce ještě víc než jen 2x.

Zatím to vypadá na pěkný failíček no tady ta generace a chudák Ada už holka v hrobě musí z tohoto dělat piruety, k čemu si kreténi v Nvidii vypůjčili její jméno. Teď už zbývá jen čekat na AMD, jestli tento přešlap potrestá.

+1
0
-1
Je komentář přínosný?

Podle mě se o dost navýšil poměr tensor jader oproti zbytku GPU, tam se nejspíš "poděly" ty spousty tranzistorů navíc.

Celá prezentace Nvidie se soustředila na ML/AI, takže smysl by to dávalo že v tomhle ty karty budou absolutní špička.

+1
0
-1
Je komentář přínosný?

No tak logicky asi ano, moc jiných možností už asi ani nezbývá, v čem by to mohlo skončit, když nikde jinde ten výkon není vidět, takže čekám o dost lepší výkon alespoň při použití DLSS... jen si tak říkám, co to přinese ve hrách bez DLSS?

No ještě si počkám, co dokáže ten 600W power limit, snad to bude ještě překvapení, protože jestli je ten 60% výkon pro RTX 4090 víceméně konečný, tak to proti AMD asi nemá šanci.

Tady tento směr navyšování výkonu primárně pomocí AI, kterým se Nvidie vydala, se mi upřímně ani trochu nelíbí, chápu, že jim se to asi vyplatí a výkon se přes to nahání jednodušeji, jenže aby ti to tak krásně fungovalo, jak se zamýšlí, tak to všechny ty hry, které chceš hrát, tak to taky musí podporovat, jinak máš smůlu. Taky nevím, jak chcou s tímto pak obstát v recenzích, když se tak spoléhají na DLSS a nechce se jim navyšovat rasterizace, když testy se s DLSS nedělají, aby se to vůbec s AMD dalo srovnávat... ti si asi hodně věří svému marketingu.

+1
0
-1
Je komentář přínosný?

nebo jednoduše je tam rezerva. Nejsou tak blbí aby ukázali konkurenci veškerý výkon. Něco podobného už bylo kdy speciálními ovladači solidně zvedli výkon v době derivátů G90. Počkají až konkurence s velkou slávou a námahou překoná NV řešení o jednotky procent a pak vydají ovladače co uvolní plný výkon a vytřou s konkurencí podlahu - jak prosté milý Watsone .-)

+1
0
-1
Je komentář přínosný?

No mi teda moc nepřipadá, že by byl nějak extra zlepšený RT oproti Ampére...

https://videocardz.com/newz/alleged-nvidia-geforce-rtx-4080-16gb-3dmark-...

Není mi jasné, na co se jako všechny ty tranzistory vyplácali, na Tensorky a DLSS3?... super.

+1
+4
-1
Je komentář přínosný?

Když vyšlo DLSS, tak jsme poslouchali stejné řeči o "vymyšlených" datech ze strany fanoušků AMD. A to do té doby než se s tím samým vytasila i konkurence. A teď budeme poslouchat to samé o DLSS 3 do to doby než se stejnou funkcí příjde i AMD. Jsou na některých vygenerovaných snímcích nějaké artefakty? Ano, jsou. Viditelné fakticky jenom na statických snímcích, ale jsou. Ale stejně jako u DLSS 2 lze předpokládat že se to bude časem zlepšovat a za ten obrovský nárůst snímkové frekvence to rozhodně stojí. I to je důvod proč se AMD vytasila s FSR, protože tyhle "vymyšlené data" mají smysl a klady hravě převyšují zápory.

A klidně věřím, že NVidia investovala hodně křemíku právě do Tensor cores, protože ten výkonostní nárůst je obrovský.

Výsledky oproti 4K nativu:
Spider-Man: DLSS2 +36%, DLSS3 +119%,
CyberPunk: DLSS2 +158%, DLSS3 +299%
Portal: DLSS2 +217%, DLSS3 +429%

A to už za to sakra stojí. A latence je ve většině případu menší než v Nativu a podpora pro DLSS 3 je už avizovaná u téměř 40 her.

+1
-9
-1
Je komentář přínosný?

„Když vyšlo DLSS, tak jsme poslouchali stejné řeči o "vymyšlených" datech ze strany fanoušků AMD.“

Ne, to nejsou řeči, to je prostý fakt. Ta data jsou vymyšlená. A z toho důvodu obsahují různé typy chyb, které se v nativně renderovaném obraze nevyskytují. Jestli se to bude nebo nebude časem zlepšovat, nic nezmění na faktu, že jde o vymyšlená data. Pokud se něco časem zlepší, tak to časem zhodnotíme. Teď se hodnotí, co daná technologie předvádí nyní.

+1
+13
-1
Je komentář přínosný?

Nekupuju náhodou drahou kartu právě proto, abych takovýhle náhražky nemusel používat?

+1
+7
-1
Je komentář přínosný?

Ale nemusíš kvůli vysokým FPS kupovat tu nejvyšší řadu, takže to šetří peníze. Taky ti taková karta vydrží podstatně déle.

+1
-2
-1
Je komentář přínosný?

Povim ti desivou pravdu - cela rasterizace je jedna velka nahrazka. V podstate je to sada triku jak nafejkovat scenu tak, aby vypadala zhruba tak, jak chceme. Treba se odstranuji objekty, ktere nejsou v zornem poli nebo jsou zakryty. Coz funguje super do doby, kdy je ve scene nejaky odraz, pouzivaji se mipmapy, ktere vypadaji dobre az na svy mmezi nimi, pouziva se anizotropni filtrovani, ktere vypada dobre az na plochy s neovyklymi uhly vuci rovnine a desitky dalsich.

+1
-3
-1
Je komentář přínosný?

„Treba se odstranuji objekty, ktere nejsou v zornem poli nebo jsou zakryty.“

To nemá negativní vliv na kvalitu obrazu, naopak ušetřený výkon umožňuje kvalitu viditelné části obrazu zvýšit.

„Coz funguje super do doby, kdy je ve scene nejaky odraz“

Což funguje vždy, pokud jde o alespoň trochu rozumný 3D engine.

„pouzivaji se mipmapy, ktere vypadaji dobre az na svy mmezi nimi“

Což bylo vyřešeno před ~25 lety trilineární filtrací.

„pouziva se anizotropni filtrovani, ktere vypada dobre az na plochy s neovyklymi uhly vuci rovnine“

Anizotropní filtrace nepoužívá úhlové optimalizace už 17 let, od vydání Radeonu RX 1800 XT.

+1
+8
-1
Je komentář přínosný?

Ta data nejsou vymyšlená o nic více než jakokoliv rekonstrukce ztrátové komprese, a na tom není vůbec nic špatného. AMD jenom dokazuje, že to má význam, protože jinak by se neobtěžovali s FSR. V praxi nepostřehnutelné artefakty u některých snímků jsou pouze malou daní za několikanásobný nárůst FPS. A je jenom otázka času než AMD přijde s něčím podobným jako jsou vygenerované mezisnímky.

A co se týče současného stavu, tak bych řekl že je to v sakra dobrém stavu. Výsledky nárůstu výkonu jsou vidět a vad si v praxi nejspíše nikdo nevšimne. Ve výsledku to může být mnohem menší problém než ghosting, protože vygenerovaný mezisnímek se zobrazí jenom na pár desítek milisekund.

+1
-4
-1
Je komentář přínosný?

„Ta data nejsou vymyšlená o nic více než jakokoliv rekonstrukce ztrátové komprese“

Míchání hrušek a jablek. Komprese obrazu a rozlišení obrazu jsou dva nezávislé prvky.

„V praxi nepostřehnutelné artefakty u některých snímků…“

Pokud má pozorovatel deset dioptrií a zapomněl si brýle. Podobné argumenty se daly používat v době, kdy neexistovaly služby jako YouTube, kde jsou desítky videí s artefakty, které jsou vidět i v nižších rozlišeních se ztrátovou kompresí.

„ AMD jenom dokazuje, že to má význam, protože jinak by se neobtěžovali s FSR. […] A je jenom otázka času než AMD přijde s něčím podobným jako jsou vygenerované mezisnímky.“

To je sice všechno pěkné, ale nevyvrací to ani fakt, že jde o vymyšlená data, ani fakt, že jde o nekvalitní obraz s artefakty.

„a vad si v praxi nejspíše nikdo nevšimne.“

Prosím nemíchat fakta a osobní přání.

„vygenerovaný mezisnímek se zobrazí jenom na pár desítek milisekund.“

A za pár desítek milisekund se objeví další snímek s artefakty, a za pár desítek milisekund zase další. Takže polovinu doby sledování takového obrazu jsou zobrazovány artefakty.

+1
+8
-1
Je komentář přínosný?

Ano, komprese obrazu a upscaling jsou úplně nezávislé, ale u obou se "vymýšlí" část obrazu a obojí podléhá nepřesnostem a artefaktům. V obou případech není účelem ztrátové komprese a upscalingu zvýšit kvalitu obrazu, ale zvýšit výkon či snížit bitrate za cenu přijatelné ztráty kvality a o tom byl můj komentář ale myslím že to vám bylo jasné.

Právě že videí existuje už dost, aby šlo jasně posoudit že DLSS 3 funguje velmi dobře a dá dost práce vytípat nějaké vadné statické snímky, s nějakými artefakty které není nutno hledat lupou. A to jestli je tato technologie perspektivní dokládá právě FSR a XeSS.

Možná by bylo fajn, trochu omezit tyhle dětinské AMD/NVidia války a snažit se být poněkud více objektivní a posuzovat přínos upscalingu jako kompromis mezi kvalitou a výkonem spíše než komentovat artefakty na vybraných snímcích a snažit se to za každou cenu shazovat. Několikanásobný nárůst FPS za to určitě stojí a v AMD si to očividně taky myslí.

+1
-2
-1
Je komentář přínosný?

Možná sis toho nevšiml, ale proti upscalingu v podstatě nikdo nic nemá. To co vadí lidem je to generování něčeho co neexistuje. Myslíš že by byl kreslič komiksu happy kdyby mu do jeho komiksu ve vydavatelství někdo dokreslil nějaké pofidérní obrázky a pak to vydal? Třeba proto aby to mělo víc stránek a mohl to prodat za víc..

+1
+1
-1
Je komentář přínosný?

A co asi myslíš že je upscaling než generování něčeho co ve zdrojových datech není pomocí chytré interpolace? Generování mezisnímků je jenom další úroveň interpolace, kdy to negeneruje neexistující pixely, ale neexistující snímky.

Když přišla NVidia s DLSS, tak jsem mohl číst úplně ty stejné plačky na vymyšlené data a to do doby než AMD přišla s FSR. Nvidia prostě udělala další krok a kolo pláče je tu znovu než AMD přijde s nějakou alternativou.

Mě jako člověku, který není fanatik ani za jednu stranu (budu si kupovat Ryzen a do představení DLSS3 jsem chtěl AMD grafiku) mě tyhle kecy jenom iritujou. Vytipování statických snímků s defekty a poukazování na nesmyslnost, když jsem viděl x videí, kde to jako celek fungovalo skvěle.

DLSS není povinná a dá se vypnout, ale mě jako zákazníkovi to dává možnost si koupit drahou kartu nebo ušetřit s DLSS2 a koupit si o třídu horší grafárnu nebo s DLSS3 o 2 třídy horší grafárnu za cenu teoretické ztráty kvality obrazu. Strašení s odezvou se už ukázalo jako mylné.

A zatím na prezentovaných videích funguje DLSS velmi dobře. A jak budou vycházet další videa tak dále posoudím jak to v pohybu funguje. Zatím se DLSS 3 ukazuje jako velmi povedená technologie a já doufám a předpokládám, že v rámci konkurenčního boje přijde AMD s něčím podobným.

+1
-3
-1
Je komentář přínosný?

„Strašení s odezvou se už ukázalo jako mylné.“

????... jak jako mylné? Artefarkty vem čert, ale právě ta odezva... to je to, co mě na tom sere nejvíc... koho zajímá, že mám místo 60 FPS 2x... 3x tolik, když pocitově to bude s DLSS3 stejně horší, protože mi to zvýší latenci? Jestli DLSS3 zvládne vytvářet nějaké snímky bez nějaké režie kolem toho, tak to už asi popírá zákony fyziky.

+1
+2
-1
Je komentář přínosný?

Latence logicky horší být musí, když je třeba počkat na dva po sobě jdoucí snímky, aby mezi ně bylo možno dopočítat mezisnímek.

+1
+1
-1
Je komentář přínosný?

Už jsem to tu psal 3x

Ta odezva je ve většině případů menší než u nativu.

Latence native 4k/DLSS2/DLSS3 v ms
Spiderman: 36/26/38
CyberPunk: 62/31/54
Portal:95/53/56

Tedy odezva není problém. DLSS3 má vyšší latenci než DLSS2, ale nižší než při nativním generování ve 4k

+1
+1
-1
Je komentář přínosný?

DLSS2 jakz takz vyladili a za me to povazuji za uspech. FSR2 je na tom podobne.

Odezva u DLSS2 je lepsi, protoze se zvysila FPS a z hlediska hrani to beru pozitivne. DLSS3 ji oproti DLSS2 zvysuje, coz je napsane i ve vasem komentari.

Z vaseho prispevku si tedy beru, ze DLSS3 ma horsi odezvu a horsi kvalitu obrazu. Pouzivejte DLSS2/FSR2, ktere je celkem OK.

Navic ta data o Portalu dost smrdi. Vim, ze se jedna o nVidia hacklou verzi s RT. Normalne totiz i na RX480 4GB mam v UHD odezvu pod 20ms.

+1
0
-1
Je komentář přínosný?

Na prezentace se záměrně vybírají jen ty nejlepší případy. Mě na té technologii děsí jedna věc. Ta karta by teoreticky měla mít v rasterizaci o 100% lepší výkon, ale přidává jen 60%, buď ji brzdí paměťová propustnost, která je proti 3090Ti stále stejná a nebo potřebuje víc energie. Jenže nejvyšší model AMD zatím vypadá na nárůst hrubého výpočetního výkonu na 2,4x a paměťová propustnost jde nahoru taky (jen šířka sběrnice je 1,5 násobná). A pak jsou tu lidé, kteří vychvaluji technologická pečlivě vybraná dema, přitom výkon konkurence zatím neviděli a už ví že koupí Nvidii, ale prý nejsou fanatici. To jsem jediný, kdo to vidí?

+1
-1
-1
Je komentář přínosný?

Já nevím jestli jsem jediný, ale všiml si i někdo jiný než já, že většinou ti, co vykřikují jak jsou všichni kolem fanatici, tak sám vypadá jako ten největší fanatik široko daleko? Většinou se toto křičení dostaví, až jak s ním dost lidí na jednom místě nesouhlasí, takže samozřejmě musí být všeci fanatici, jen on sám je ten totálně úžasný, nestranný ostrůvek a všude kolem oceán plný žraloků (fanatiků).

+1
+1
-1
Je komentář přínosný?

Ty data nejsou od NVidie, ale od novinářů, které zveřejnil mimo jiné konkurenční web. Chvíli jsem čekal, jestli je budou uvedené i tady, ale vzhledem k tomu jak probíhá místní "debata", tak mi bylo jasné, že se tady neobjeví.

Ono těch her, které mají v současné době hotovou podporu DLSS 3 asi zase tak moc nebude, byť už jich bylo ohlášeno skoro 40.

+1
+2
-1
Je komentář přínosný?

Hlavně ta data, ze kterých čerpáš, pěkně takticky tady pokaždé zapomenout zveřejnit. Mě by taky zajímalo, jak se dají ohýbat fyzikální zákony, k tomu tvému blábolení už stačí jen dodat, že Zem je placatá a máš to kompletní. Já z tebe snad omládnu...

+1
0
-1
Je komentář přínosný?

Já je nezveřejňuju, protože se jedná o konkurenční web. Kdybys měl opravdu zájem, tak není problém si to vygooglit. To není tajná informace. Nehledě na to, že jsem samozřejmě čekal že se s tím Diit bude zabývat jako jiné technologické weby.

https://www.svethardware.cz/dalsi-test-nvidia-dlss-3-ukazuje-2-5-vyssi-v...

Nejvíce ze všeho AMD škodí právě fanatici.

+1
+1
-1
Je komentář přínosný?

No a teď mi vysvětli, jak jsi z toho vyčetl, že DLSS3 nezvyšuje latenci, protože já už su asi úplně blbé z toho...

+1
-1
-1
Je komentář přínosný?

Co přesně jsi na tom nepochopil? Psal jsem to tu už několikrát. Všetně odpovědi přímo tobě. Máš to i v tom článku.

Ve 2 ze 3 příkladů má DLSS 3 menší odezvu než nativní rendering ve 4k a v jednom případě prakticky stejnou. DLSS 3 samozřejmě už z principu odezvu zvyšuje, ale vůči DLSS 2, která ji velmi snižuje. Rozhodně padají veškeré obavy, že DLSS 3 způsobuje jakékoliv problémy s odezvou.

+1
+1
-1
Je komentář přínosný?

No a teď prosím tedy ještě jednou polopatě vysvětlit, jaký má tedy vlastně smysl toto aktivovat, když se ve výsledku vlastně nic nezmění (když nepočítám tedy takové ty výherní maličkosti jako artefakty, zbytečný upscaling apod.)? On totiž každý DLSS aktivuje, aby měl latenci nižší, víš;) a ne že je bude mít ještě vyšší. Je sice hezké, že budu mít místo 60 FPS třeba 120, jenže jestli mi latence zůstane furt stejná, tak pocitově mám furt 60... akorát mám teda na očko plynulejší obraz, pak udělám 360 a bude to... no divné, bude to jak v nějakém bullet time efektu.

+1
0
-1
Je komentář přínosný?

Ne, on si to každý aktivuje aby měl větší FPS. Nehledě na to, že to snížuje latenci vůči 4k. A jestli mi tady chceš tvrdit, že poznáš rozdíl v odezvě mezi 60 a 120 FPS, tak to ti gratuluju. To máš 10-20x lepší reakční čas než průměrný člověk a 5x lepší než piloti F1.

+1
+1
-1
Je komentář přínosný?

Ano, samozřejmě, že člověk pozná ten rozdíl, pokud má teda v pořádku zrak, což ty očividně asi nebudeš, když se tomu tak divíš.

„To máš 10-20x lepší reakční čas než průměrný člověk a 5x lepší než piloti F1.“

Toto je teda pořádný blábol.

+1
-1
-1
Je komentář přínosný?

Jo, vidím že argumenty došly, protože už plácáš blbosti. Vygoogli si jaký je reakční čas člověka a hlavně co to znamená, protože mícháš reakční čas a plynulost obrazu.

+1
+1
-1
Je komentář přínosný?

Je to marný, je to marný a je to marný. Pokud někdo takto obhajuje technologii, kterou zatím kromě vlastních inženýrů vidělo jen několik vybraných partnerů a novinářů (Kdo zná strategii Nvidie, dobře ví, že jen tak někomu kartu na recenzi nedají), neargumentuje rozumem, ale emocemi. Vybrané ukázky nejlepších případů, to už rovnou může věřit kecům Intelu, mají prakticky stejnou hodnotu. A co by mne zajímalo nejvíc, k čemu ta technologie bude profesionálům, oni potřebují v grafice výkon bez berliček a výmyslů.

+1
0
-1
Je komentář přínosný?

Zato tady 50 lidí jasně ví jak špatné to bude. A profesionál nepoužije DLSS. Tohle je na hry.

+1
0
-1
Je komentář přínosný?

A o to přesně jde, to znamená, že profesionál se zdaleka takového nárůstu výkonu nedočká. Jenže AMD nabídne větší nárůst výkonu, nehledě na nové ovladače, které v Open GL přidávaly až kolem 50%.

+1
0
-1
Je komentář přínosný?

Ale to může zajímat jenom toho profesionála, který bude tvořit 1% zákazníků. Pro profesionály jsou tady profesionální karty řady Quatro.

+1
0
-1
Je komentář přínosný?

Pozn. Poslední generace (Ampere) pro non-comsumer GK již označení Quadro nepoužívala.

+1
0
-1
Je komentář přínosný?

No tak toto nebude podporovat každá hra, že... takže to bude zajímat každého hráče, co tyto hry bude hrát, ne každý hraje podle listu podporovaných her Nvidie. Dále hodnotu DLSS3 snižuje fakt, že se to nehodí na spoustu her, kde záleží hlavně na rychlosti a reakční době, tzn. různé akční střílečky, arkádové závody apod. No a pokud bude mít ještě k tomu konkurence vyšší výkon, tak já v tom teda žádnou výhodou pro Nvidii už fakt nevidím.

+1
0
-1
Je komentář přínosný?

Budou to právě podporovat na grafiku náročné AAA hry, kde jsou vysoké FPS důležitější než u kartního simulátoru. Enreal Engine 4 a 5 už má teď podporu DLSS3.

Pokud bude mít konkurence vyšší výkon bez mezisnímků než NVidia s mezisnímky, tak to bude jenom dobře pro konkrenci, ale to je dost nepravděpodobné.
Takže se bude srovnávat pouze AMD a NVidia bez upscalingu, nebo FSR2 vs DLSS2. Ale s DLSS3 to nebudou chtít fandové AMD srovnávat, protože DLSS3 samo o sobě skoro zdvojnásubuje FPS. To je hlavní důvod té nenávisti vůči DLSS3, kterou tak pozoruju, protože AMD na to nemá v současné době odpověď. Stejné to bylo když vyšlo DLSS a FSR ještě nebylo na trhu. Až AMD vydá nějaké FSR 3 s podporou interpolace mezisnímků, tak zase bude chvíli ticho, než NVidia přijde s nějakou DLSS4

+1
0
-1
Je komentář přínosný?

„Pokud bude mít konkurence vyšší výkon bez mezisnímků než NVidia s mezisnímky, tak to bude jenom dobře pro konkrenci, ale to je dost nepravděpodobné.“

No tak ono AMD vyšší FPS proti tomuto potřebovat ani nemusí, protože už nebude snímek jako snímek a pocitově pak může být míň snímků vlastně víc, když s DLSS3 počet snímků neodpovídá výsledné latenci a je vyšší než by měla normálně být.

+1
0
-1
Je komentář přínosný?

A jak jsme se už o tom bavili, tak ten nárůst latence je zanedbatelný a minimálně o řád nižší než je vůbec možné poznat. Teď zde vyšel článek, kde má 4090 u Overwatch 2 s DLSS 3 latenci 8ms, což je hluboko pod výsledky minulé generace s DLSS 2.

+1
0
-1
Je komentář přínosný?

Já bych raději krotil očekávání a počkal na první nezávislé testy.

+1
0
-1
Je komentář přínosný?

S tím souhlasím. Jenomže zde se děje přesný opak. Tedy masové plivání na DLSS 3 ještě než jsou nějaké nezávislé testy. A bohužel i od redaktorů a to mě mrzí nejvíce. Aspoň nějaké zdání neutrality by to chtělo.

+1
0
-1
Je komentář přínosný?

IMHO problém je spíš v tobě, protože si z toho děláš něco, co to není, prostě si to moc idealizuješ... už několikrát ti bylo vysvětleno, že to akorát zdržuje, protože máš 1. snímek a pak musíš čekat ještě až přijde 2., aby se mezi to dal naroubovat ten 3., který už si vytvoří AI a snaží se co nejpřesněji uhodnout, co by tam mělo asi normálně být, takže logicky ti to stejně zvyšuje latenci a ano... poznat to prostě jde, oko dokáže vnímat hodně rychle, že to pak musí posílat do kebule, té to chvíli trvá než ten obraz zpracuje a tím vzniká latence ještě na straně člověka, to máš sice samozřejmě pravdu, jen nějak nechápu, co to má společného s okem, to už za to nemůže, že se to ještě někde zpomalí... prostě čím dřív to oko uvidí, tím dřív přijde tvá pomalá reakce na to, co to oko vidí.

+1
0
-1
Je komentář přínosný?

Já si nic neidealizuju, ale vycházím z veřejných informací. Zatímco ty jenom pliveš na DLSS a nadáváš na NVidii prakticky v každém příspěvku. To je ten fanatismus, který AMD škodí nejvíce.

+1
0
-1
Je komentář přínosný?

Jako tvůj fanatismus k Nvidii škodí AMD... je to možné.;)

Já na nic neplivu, to bych teprv mohl začít tady s těmi artefakty, což zatím ze své dobré vůle ignoruju a nemám náladu se už ještě nad tímto rozčilovat, ale že to bude mít problém s latencí je prostý fakt, s tím už ani nic dělat nejde, to není žádné plivání, že ty tomu nevěříš je tvůj problém, ne můj, pokud DLSS3 neumí obcházet fyziku a nevytváří si ten snímek v nějaké časoprostorové díře nebo nevidí do budoucnosti, takže nemusí na ten snímek čekat, tak tam prostě zvýšení být musí.

Možná si o tom něco zkus nejdřív aspoň trochu nastudovat, potřebuješ to asi jako sůl, jak už říkal Kutil... je to marný, protože ty jsi z toho Huanga asi ještě furt v nějaké euforii a nedokážeš racionálně uvažovat. Toto by mohl být takový dobrý odrazový můstek, který toho hodně objasní:

https://www.cnews.cz/s-rtx-4000-prichazi-nvidia-dlss-3-nova-generace-ai-...

+1
0
-1
Je komentář přínosný?

Ty tady furt něco breptáš o tom, že oproti nativu ti to latenci sníží... nebo bude stejná... nebo jen mírně vyšší... a já se pořád ptám, koho to zajímá...? když přece používám něco jako DLSS, tak ji chci mít nižší kvůli lepším reakcím na vstup uživatele a ne stejnou nebo dokonce ještě trochu horší (už po několikáté)... toto dokáže DLSS2... zvýší mírně FPS a taky adekvátně sníží latenci... paráda, jenže pak nastoupí tady DLSS3, latenci vrátí zpátky a místo toho přidá plno FPS... ALE K ČEMU MI TOTO JE V AKČNÍ HŘE?!... já nepotřebuju krásně plynulý obraz, já potřebuju hlavně rychle zaměřit enemáky a pořádně je zprasit, místo toho s DLSS3 mají větší šanci zprasit oni mne...

DLSS3 je dobré asi jen pro toho, kdo se ti na tu hru kouká přes rameno jak hezky ti to jde, ale už ne pro toho, kdo drží ve své hnatě hlodavce a pociťuje tu odezvu, jinými slovy dobré pro pozorovatele, špatný pro hráče, možná dobrý třeba pro nějaký streamery, kdy pro své diváky získá FPS navíc a těm se na to bude líp koukat, jinak prostě celkem k hovnu pro hráče multiplayer kompetitivek, na singl playerovky to možná ještě půjde, ale jinak bych to fakt rači nepoužíval.

+1
0
-1
Je komentář přínosný?

K čemu toto spěje je jasné – Nvidie je s výkonem v řiti a AMD je nejspíš překoná, s RTX 4090 budeš mít třeba 60 FPS a RX 7900 XT bude mít třeba 70, jenže Nvidie bude mít vždy to „eso“ v rukávu v podobě fake 120 FPS, nebo kdo ví kolik, a všichni nás budou přesvědčovat, že to je prostě víc než 70 FPS u AMD a je to takto určitě lepší, sice latence jak při 55, ale prostě FPS hýbou světem.;)

+1
0
-1
Je komentář přínosný?

A o tom to celé je. Celá ta technologie přece začala původně tím, že si Nvidia začala hrát s raytracingem a výkonově na to prostě neměla a protože byli zákazníci naštvaní, že měli hi-endové karty a mohli s nimi hrát tak v FHD, tak u NV začali vymýšlet, čím ten chybějící výkon nahradí. Problém je v tom, že tím směrem stále pokračují. Takže tu bude NV s domýšlením snímků a proti tomu AMD, u které zatím vše nasvědčuje, že takové triky nepotřebuje, protože tam ten výkon prostě bude. Dobrý máme tu zatím 40 her, kde to nějak fungovat bude a co ten zbytek, co hry kam se ta technologie naroubovat nedá, co hry vyvíjené v partnerství s AMD? Co tam tam ty karty předvedou?

+1
0
-1
Je komentář přínosný?

Nevím, ale fakt jsem zvědav, co AMD předvede na své konferenci, doufám, že tu RTX 4090 pořádně zprasí, jak si to Nvidie teď určitě zaslouží za tady ty marketingové ojeby a že „výkon“ teď nahání s takovými kktinami... ti už neví, jak by nás ještě oškubali, místo aby rači navyšovali tu rasterizaci a dali pořádný paměťový subsystém, aby to ten výkon nebrzdilo, tak rači nám budou vymýšlet nějaké faky a tvářit se, že to vyjde vlastně na stejno a myslí si, že ten rozdíl nikdo nepozná... toto už je fakt hrůza, kam až to zašlo a co si už Nvidie dovoluje.

+1
+1
-1
Je komentář přínosný?

Nvidia původně začala jako firma s několika inženýry ze Silicon Graphics, kteří dokázali porazit a následně i koupit 3DFX, pak se profi verze jejich grafik dostaly i do levnějších řad stanic Silicon Graphics (než skočili s pracovními stanicemi úplně) a tím se kruh uzavřel, byla to firma nadšenců a tak to bylo v pořádku. Už řadu let, bych si jejich grafiku nekoupil, protože i přes svůj věk, jsem stále nadšenec. Je to zklamání podobně jako dění u Intelu.

+1
0
-1
Je komentář přínosný?

A k čomu Ti je to, že vymyslený medzi obrázok pridá FPS, keď sa spolu s tým zvýši odozva? Doteraz zvýšenie FPS znamenalo zníženie odozvy, avšak DLSS3 voči DLSS2 urobí presný opak - tak trochu to stráca význam.

+1
+3
-1
Je komentář přínosný?

Ta odezva je ve většině případů menší než u nativu.

Latence native/DLSS2/DLSS3
Spiderman: 36/26/38
CyberPunk: 62/31/54
Portal:95/53/56

+1
-4
-1
Je komentář přínosný?

No to je na tom úplně to nejšťavnatější... :D Jediné co tu udělá, že ti to přidá do obrazu takový ten „máslový“ efekt a vypadá to v pohybu plynuleji, jenže na různé vstupy uživatele to bude stejně pomalejší.

Možná na nějaké pomalé hry, třeba simulátory OK, ale třeba na FPS jsou paradoxně taková „FPS“ k hovnu, protože tam ti sice jde o co nejvíc FPS, jenže ne o tyto vydedukované, protože jen true FPS ti sníží latence a o to jde především, jde ti o latence, ne snímky, to je třeba si uvědomit, s tímto si je akorát ještě víc zkurvíš, protože furt musíš čekat, až se ti ty další snímky „vymyslí“.

Ale marketingově to vymysleli skvěle, o tom žádná – oni ví, že BFU jen uvidí 2x vyšší FPS a už z toho půjde smočit... :D Takže tak.

+1
+7
-1
Je komentář přínosný?

Odborný výraz pro to je snad "soap opera effect" a netýká se to jen interpolovaných snímků. Osobně mám tento dojem i z produkce v 60p. Na sport je to asi velkým přínosem, ale mimo něj se mi to jeví nepřirozeně (rozuměj odlišné od tradičních 24p).

Jak někdo z oboru prohlásil po shlédnutí snímku Gemini Man. Parafrázuji: "Při odpouštějících 24p může být hercem prakticky kdokoli, pro 120p se ještě herec nenarodil."

+1
+2
-1
Je komentář přínosný?

Problém je v tom, že zatím co DLSS2.0 zvyšuje fps a snižuje latenci, tedy je jak na vstupu(myš) i výstupu(obraz) lepší odezva, DLSS3.0 ještě zvyšuje FPS nad DLSS2, ale "vstup" od myši vrací do hodnot blýže nativnímu rozlišení. Asi bude hodně záležet na každém člověku zda mu to bude více či méně vadit. Každopádně bude pro cvičené oko rozkol, protože to sice bude vypadat plynule ale ovládání bude "tuhé".

+1
0
-1
Je komentář přínosný?

Mluvíme tady o rozdílu v setinách vteřiny. To je hluboko pod reakčním časem člověka. O celý řád.

+1
0
-1
Je komentář přínosný?

cokoliv nad 50ms uz je poznat a je to neprijemne. Cokoliv nad 200ms je nepouzitelne i na kancelarskou praci. Proto se dlouho televize neprosazovali jako velke monitory. Dnes uz je to lepsi.

Kazdopadne setiny, znamena desitky milisekund. Dokud se neprekona onech cca 50ms, tak je to ok. Jak se to prekona, tak je to hodne neprirozene a obtezujici.
treba vzorovy priklad s "Portalem" s odezvou 95 ms znamena, ze to nVidia prvne hodne zkriplila aby se nasledne dostala na hranu pouzitelnosti.

+1
0
-1
Je komentář přínosný?

Tak třeba u toho Overwatche 2 je to hluboko pod 50ms i s DLSS3. A výsledky jsou dokonce lepší než u DLSS2 u předchozí generace grafik.

+1
0
-1
Je komentář přínosný?

A kde tam je nějaká zmínka o použití DLSS?

+1
0
-1
Je komentář přínosný?

Myslíš že těch 507 FPS na Ultra settings dosáhli hrubým výkonem?

+1
0
-1
Je komentář přínosný?

Ano, třeba podle té RTX 4080, ta by měla být on par s RTX 3090, máš tam akorát RTX 3080, oproti které je výkonnější o 19%, což +- sedí. Kdyby tam mělo být u RTX 40 použité DLSS3, tak bys měl snad FPS i přes 1000, pokud to má zvyšovat výkon víc než 2x, jen ta latence by byla zas furt stejná. Samozřejmě, že je má RTX 30 horší, když je dakeko slabší, ale kdyby se u nich skutečně používalo jen DLSS2, tak by nejspíš měla ty latence lepší. Samozřejmě kde se mají porovnávat latence, tak to raději zase vypnou... vtipné.

+1
0
-1
Je komentář přínosný?

Pak to jenom znamená, že s DLSS3 bude latence nejspíše ještě nižší, protože na příkladu CyberPunku a Portalu je latence s DLSS3 výrazně nižší než u nativu. Zatímco u Spidermana je fakticky stejná.

+1
0
-1
Je komentář přínosný?

No záleží, jak dobře to srazí DLSS2 a jak moc to pak zas vytáhne DLSS3... taky bych to bral s velkou opatrností, protože se vše testuje s režimem performance, aby ty rozdíly byly co nejvyšší, ale prakticky na tom stejně nikdo nehraje, protože ten rozdíl v kvalitě už bývá docela znatelný, takže v reálu na nějaký režim quality budeš mít stejně latenci vyšší než v nativu.

+1
0
-1
Je komentář přínosný?

to nevymyslíš...čím máme vyšie výkony HW tím viac komprimujeme, kriplíme kvalitu obrazu v prospech trochu vacsieho pipíka a doláčov na novú koženku...

+1
+9
-1
Je komentář přínosný?

No vytasila, Intel a) upřímně (zatím) není konkurence, b) "vytasila" je asi silné slovo. AMD sice už onou konkurencí pravda je, ale zase si nevymýšlí ty snímky, ale používá algoritmus, resp. exaktní generování obrazu.

Takže je tvůj komentář vlastně docela offopic a spíše nese znaky hoaxu :)

+1
0
-1
Je komentář přínosný?

„A to už za to sakra stojí. A latence je ve většině případu menší než v Nativu“

Nemožné.

+1
-1
-1
Je komentář přínosný?

Pěkná tabulka.

+1
0
-1
Je komentář přínosný?

stačí se podívat na výkon v prezentaci https://diit.cz/sites/default/files/geforce_rtx_4000_performance.jpg co měla nvidia a první 3 tituly jsou určitě jenom rastr bez RT a DLSS takže se dá očekávat 60% násůst mezigenračního výkonu v klasickém rastru bez příkras, to že některý scénáře s využitím RT a DLSS3 můžou mít i násobný výkon je něco jiného
i v tom overwatch 2 grafu od nvidie není zahrnutá ani 3090 https://www.techpowerup.com/img/VtrMVDfez7D87egj.jpg o nečem svědčí a to se určitě bavíme o RT s DLSS

co mě hodně zajímá je posun výkonu čistě jenom v RT bez DLSS tam by to mohlo být i 2x doufám, ale kdo čekal min. dvojnásobný výkon všude tak ten se určitě nedočká, možná proto leaky měli takový rozptyl

+1
+2
-1
Je komentář přínosný?

„co mě hodně zajímá je posun výkonu čistě jenom v RT bez DLSS tam by to mohlo být i 2x doufám“

No... naroste ti to zhruba o to samé, o co naroste výkon rasterizace.:) Odkaz jsem dával už výše, je tam RTX 4080 v 3DMarku, kde se testuje i ta RT scéna a celkově tam je nárůst všude okolo 25% (vs. RTX 3090 Ti), co už se dalo vyčíst z těch grafů Nvidie... prostě zajímají tě akorát ty 1. 3 výsledky zleva. Taky jsem čekal, že čistě RT bude o dost lepší a že to mají naměřené bez toho... a ono ne (nevím teda, jestli to je s nebo bez, ale takto už to je asi skoro jedno nad tím dumat... prostě zklamání).

+1
0
-1
Je komentář přínosný?

tak za toto dat cca 1500-2000 ecb toaletakov, neh to predavaju ukrajincom :)
amd ich presika

+1
+1
-1
Je komentář přínosný?

I ten nejmenší nárust výkonu (v rasterizaci) je % vyšší než nárust ceny a to je víc než bych od Jen-Hsun Huanga vzhledem k jeho nedávnému vyjádření k Moore Law očekával. Nárust ceny byl patrně limitovaný pouze díky všeobecné finanční situaci, cesta k maximalizaci obratu/zisku v současnosti nevede přes příliš vysoké ceny.

+1
+1
-1
Je komentář přínosný?

Jako upřímně, na co DLSS? Mám 4K monitor a co se pořádně nehejbe ve 4K, tak dám do 3200x1800 nebo 3072x1728 a to většinou už jede bez problémů a od 4K to není absolutně vůbec poznat!! Dokonce 1440p na 4k monitoru vypadá pořád naprosto v pohodě, že si toho člověk při hraní ani nevšimne, pokud to nějak moc nezkoumá...nějaké DLSS nebo FSR je absolutně zbytečné...

+1
+1
-1
Je komentář přínosný?

Alebo sa daju znižiť netaily s ultra high na high volnym okom nespozorovatelne a maš niekedy aj 2x viacej FPS.
Toto DLSS je len dalši trik na zrýchlenie FPS, ked maš slabe železo.
Nvidia tento upscaling bude potrebovať ako sol proti AMD ked aj po prechode na 4nm s EUV aj 2x vyššou spotrebou aj 2x vačšim čipom ako ma AMD aj zdvojnasobenim svojej frekvencie vysledok je smiešnych 60% :D a to pred mesiacom Nvidia tvrdila že 200% :D

+1
0
-1
Je komentář přínosný?

Značenie kariet GeForce RTX 4080 12GB a GeForce RTX 4080 16GB je teda riadny marketingový ojeb. Zákazníka nechávajú v tom, aby si myslel že sa jedná o rovnaké karty len z inou veľkosťou RAMky.

+1
+2
-1
Je komentář přínosný?

To už tu bylo u GTX 1060

+1
-1
-1
Je komentář přínosný?

Toto je horší. Je to úplně jiný čip, menší počet jednotek, užší paměťová sběrnice, patrně to měla být 4070, ale asi by byla moc drahá.

+1
+1
-1
Je komentář přínosný?

Zákazník není od toho aby (si) myslel.
Zákazník je od toho aby platil.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.