Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD Navi 43 cílí na výkonnostní úroveň Radeonu RX 7900 XT

Ani AMD, ani Nvidii se nedaří složit herní 3D akcelerátor z čipletů bezešvě, aby se to chovalo jako jeden čip. (Výpočetní akcelerátory jim tak běhají.) AMD chtěla mít RDNA4 akcelerátory složené z jednoho, dvou a tří čipletů. Nepovedlo se, budou to monolity, dražší a s menší výtěžností. Takže on v tom kromě kapacitních důvodů bude i tenhle problém.

+1
+1
-1
Je komentář přínosný?

Navi 31/32 se chová jako kolik čipů? :-)

+1
+1
-1
Je komentář přínosný?

No ze začátku se spekulovalo že N31 bude mít 2 výpočetní čiplety, možná něco takového chystali, možná to byla jen chybná interpretace toho návrhu co přišel. Možná narážel na tuto původní informaci...

+1
+3
-1
Je komentář přínosný?

Určitě je cíl zprovoznit 2 výpočetní chiplety v jednom čipu, protože když chceš pak dělat velký high end, tak mít možnost udělat 2 menší chiplety a pak to spojit a udělat jakoby jeden velký, to ti pak výrazně zvýší výtěžnost, což se docela hodí.

+1
-3
-1
Je komentář přínosný?

Ale veď 7900xt a xtx fungujú. Tam je problém v mikroarchitektúre a nie samotnom chipletovom prevedení.

+1
+1
-1
Je komentář přínosný?

Fungují, ale nedokázaly oddělit výpočetní části - jen výpočetní část od cache části.

+1
+2
-1
Je komentář přínosný?

Ovsem i tak je to dost zajimavy posun a alespon nejaky dilci krok ke zvyseni vyrobni efektivity, ktery take jiste prinesl spoustu novych zkusenosti s podobnym resenim. Naopak udelat vice takto obtiznych skoku najednou by zvysovalo sanci na to, ze se neco muze hodne pokazit/prehlednout. Imho zvolili racionalni pristup a i stavajici reseni ma porad zajimavy potencial.

+1
+1
-1
Je komentář přínosný?

Dílčí kroky - a do produkce, ne jen v labu. Nemusí vyjít, ale poučí se ze zkušeností, od široké uživatelské základny. Oceňuju.

+1
+1
-1
Je komentář přínosný?

nebyla tady podobna informace o radeonu 7600xt, ze bude dosahovat vykonu 6800xt+ ? a jak to dopadlo vime,
pochybuju, ze jadro urcene do mainstreamu bude dosahovat dvojnasobneho vykonu nez jeho predchudce, chapu ze rdna3 se moc nepovedla, ale ze by doslo k takovemu zlepseni se mi moc nechce verit kor se stejne velikou sbernici a uz vidim jak cpou 16gb gddr7 na 128bit kartu za 10 000,-

+1
+2
-1
Je komentář přínosný?

Co se tak pamatuju, tak RDNA3 je považována za chybně (a neopravitelně) navrženou, takže nedosáhla původně projektovaného výkonu. Čistě hypoteticky, pokud by se podařilo jen opravit návrh RDNA3, tak se výkon zvýší o kolik? 15-20 % (nevím, odhaduju)? Pokud RDNA4 přinese další zlepšení proti nezprzněné RDNA3 řekněme o dalších 20-30 %, tak v tom nejlepším případě to je už skoro 60% a můžeme jen odhadovat, co by přinesly lepší paměti - kdyby dalších 30%, tak na těch 200 % už jsi..

Je to samozřejmě všechno jen hra s čísly a muselo by vše perfektně vyjít, což zrovna u AMD grafik nenastalo už pěkně dlouho.

+1
+5
-1
Je komentář přínosný?

můžeme to vzít ze dvou úhlů pohledu
dvojnásobný výkon předchůdce, který bude stát 400$ se spotřebou <200W protože proč by mainstream měl žrát víc

nebo co je víc pravděpodobnější
monolitický opravený radeon 7800XT(+20% výkonu) s podobnou cenou a spotřebou jako právě 7800XT, což přesně odpovídá mezigeneračnímu růstu posledních 3 generací

z tohohle leaku můžou být obě varianty pravda, ale podle vývoje gpu bych byl víc skeptický

+1
+1
-1
Je komentář přínosný?

Tiež to vidím rovnako. Ak projektujú čip so 64 CU, tak upravená RDNA4 s opravenými frekvenciami by mohla dorovnať 7900XT s 84 CU.

+1
0
-1
Je komentář přínosný?

Říká kdo kromě AMD fans? Pokoušelo se to vyvracet i AMD.

https://www.pcgamer.com/amd-dismisses-reports-of-rdna-3-graphics-bugs/

+1
-3
-1
Je komentář přínosný?

na druhu stranu by to bola dobra reklamna kampan...kupte si nasu rtx 7900xtx aj s hw bugmi, stale je lepsia ako vyladena konkurencna rtx 4080

+1
+1
-1
Je komentář přínosný?

V tom článku se ale vyvrací něco jiného, že tam není CHYBA. Já jsem psal ale o chybném návrhu, a to je taky něco jiného.

+1
+1
-1
Je komentář přínosný?

Je rozdíl mezi chyba ve funkci a "chyba" ve smyslu "nedosažení očekáváných taktů". Nebo jak to bylo. Karty jsou plně funkční, ale z nějakého důvodu se nedostaly na předpokládané takty a tím pádem mají "pouze" takový výkon, jaký mají.
Pokud potom HW weby píší o chybě či chybách, je jasné, že PR bude jednat.

+1
+2
-1
Je komentář přínosný?

No že něco nedosáhne očekávaného výkonu kvůli nějakému problému, co se už nestíhá vyřešit v nějakém rozumném čase se děje naprosto běžně, vydávat to ale za chybu je opravdu trochu zavádějící, pokud jinak ta grafika normálně funguje. Možná kdyby to mělo slabý výkon ve smyslu nějakého brutálního stutteringu, který by se nedal nijak vyřešit ani pomocí driverů, tak potom asi ano, ovšem taková karta by byla stejně pro hry nepoužitelná a to by si snad potom ani nedovolili vydat, když by s nějakými neustálými lagy byla hra pochopitelně asi nehratelná.

+1
+1
-1
Je komentář přínosný?

Proč myslíte, že se nedostaly na předpokládané takty? Odkud je tahle informace?

Jaké byly předpokládané takty?

+1
-1
-1
Je komentář přínosný?

7800XT Navi32 ma 60CU, pricemz 7900XT je o cca 30% rychlejsi.
At pocitam, jak pocitam tak mne nenapada proc by 64CU Navi42 nemohlo o byt s novou generaci o 30% rychlejsich.
+6% CU +XX% vyssi frekvence + XX% generacni narust = +30% - to neni preci nerealne.

+1
+6
-1
Je komentář přínosný?

Ano, vypadá to dobře, i když to postrádá high end, někde padlo, že by ta hypotetická 8800 XT mohla vyjít do konce roku 2024, pokud by to opravdu vyšlo i s takovým výkonem, nemyslím si, že je nač si stěžovat, hlavně by to konečně předběhlo Nvidii a nemuselo by se na to zas nekonečně dlouho čekat, tak třeba i víc prodají, kdyby jim to Nvidie vše nevyžrala, navíc by se pak dal čekat ostrý konkurenční boj, protože Nvidie by už potom neměla prostor ještě vydávat ta svá ořezávátka s malou VRAM apod. jak to vždycky dělává, protože konkurence nemá nic, a tak jí takové ojeby na začátku vždycky projdou, jenže teď už by byla konkurence dávno na pultech a musela by rovnou přijít s něčím pořádným, pokud si to má někdo vůbec koupit.

I když nedělám si iluze, že nějací kkti by si to stejně zas koupili a pak by chodili po fórech a zas si stěžovali, proč se to na tom jejich zeleném shitu pořád laguje a mezitím na AMD by záhadně nebyl žádný problém a běželo to klidně vše na max, no určitě ta zlá Lisa zas všechny podplatila, ať optimalizaci na Nvidii zkurví!... anebo tě prostě milý Huang zase odrbal na paměti a ta teď dochází dřív než výkon GPU, ostatně jako vždy, vždyť toto už je takový úplně běžný problém na levných Nvidiích, který přichází snad každou generací, pořád se to dokola řeší, ale lidi jim to stejně furt kupují vesele dál a ještě za vyšší cenu a s nižším výkonem... prostě demence.

+1
+3
-1
Je komentář přínosný?

"I když nedělám si iluze, že nějací kkti by si to stejně zas koupili a pak by chodili po fórech a zas si stěžovali, proč se to na tom jejich zeleném shitu pořád laguje a mezitím na AMD by záhadně nebyl žádný problém a běželo to klidně vše na max, no určitě ta zlá Lisa zas všechny podplatila, ať optimalizaci na Nvidii zkurví!..."

Toto je nejaky pokus o vtip, nie? Ved 20 rokov sa tu stazuju prave opacne fandovia AMD ako NVIDIA hadze konkurencii polena pod nohy, ako podplaca vyvojarov ci przni hry, ktore na AMD idu horsie. Vsetci su na vine, len AMD je chudatko, ktoremu sa ublizuje. Ked sa na to pozries s nadhladom, nie je demencia skor kupovat o nieco lacnejsiu GPU, ktora ma sice o nieco vyssi vykon v rasterizacii (skor je ale ten vykon podobny), ale zasa straca v raytracingu a v technologiach? A potom na to vsetko chodit nadavat na forach pripadne chodit vsetkych presviedcat, ze su tie technologie zbytocne a nepouzitelne?

Kazdy nech si kupi co chce, ked vie preco to robi. Smiesny je akurat hejt na druhu stranu. To robia akurat ludia, ktori kupuju GPU z fandovstva a nie podla vlastnych potrieb.

+1
+2
-1
Je komentář přínosný?

Asi si nezazil fora pred cca 3 mesiacmi (Toto je nejaky pokus o vtip, nie? Ved 20 rokov sa tu stazuju prave opacne fandovia AMD ako NVIDIA hadze konkurencii polena pod nohy, ako podplaca vyvojarov ci przni hry, ktore na AMD idu horsie.)
napoviem, Starfield (a predtym Jedi Survivor, a urcite este nieco dalsie by sa naslo) v kratkosti, knucanie urazenych malych deti s kopou penazi, ktore zistili, ze sa okolo nich netoci svet

+1
-1
-1
Je komentář přínosný?

Pridej Hogwards Legacy ;)

+1
0
-1
Je komentář přínosný?

A nemálo budoucích her, protože Sony už zrušilo požadavek, že nové hry mají jet i na PS4 z roku 2013 ;-)

+1
0
-1
Je komentář přínosný?

Ono v podstate vsechny tituly, kde se letos prehoupli pres 8GB VRAM pro 1440p nebo dokonce i 1080p. Jak psal tady Adams "sponzorovane tituly AMD" :)

+1
0
-1
Je komentář přínosný?

Co lidi čekají, když nVidia GPU má RAMky jako 10 let stará konzole. To pak může mít výkonu sebevíc.

+1
0
-1
Je komentář přínosný?

Je to tak :)

+1
0
-1
Je komentář přínosný?

Nie je to uplne tak. Konzoly maju zdielanu pamat medzi CPU a GPU. Graficke data ju teda nemozu zaplnut celu. To iste plati aj u novych konzol. A vzhladom na rozlozenie pamate u XboXu by som povedal, ze sa pocita pre grafiku tak s 10GB, ktore su v konzole rychlejsie. Na PC portoch hier to ale platit nemusi. Aj ked si myslim, ze drviva vacsina hracov ma stale 8GB a menej VRAM.

+1
0
-1
Je komentář přínosný?

Jenže konzole streamuje (komprimovaná) data přímo z NVMe do VRAM, bez zatěžování CPU a bez odbočku přes System RAM (v konzoli je RAM sdílená, ale takto není třeba mít místo v jednu chvíli pro 2 verze dat). Na PC to bude řešit až technologie DirectStorage. PC teď potřebuje více VRAM, protože "buffer" pro streamovaná data musí být větší.

+1
0
-1
Je komentář přínosný?

Ak sa mylim, tak ma opravte. Chapem to tak, ze herne data su na PC rozdelene v RAM a VRAM, zatialco na konzole su tieto data v jednej zdielanej pamati. Bez ohladu na ich streamovanie z NVMe disku nevieme povedat aky pomer dat v pamati konzole tvoria data, ktore musia byt v PC k dispozicii vo VRAM. Plus v zdielanej pamati musia byt aj data na reziu OS plus mozno aj nieco ine, aj ked toto je asi minimum.

+1
0
-1
Je komentář přínosný?

Můžeme to zjednodušit, že ignorujeme System RAM a řekneme, že ta 16GB konzole má třeba jen 8 GB VRAM (tj. 50/50 dělení se System RAM v té sdilené RAM). I tak je přínos technologie, co se na PC nazývá DirectStorage, takový, že těch 8 GB odpovídá 16 GB VRAM na PC grafikách. Jednoduše dat je tolik, že se do VRAM nevejdou, proto se streamujou. S rychlejším sreamováním ale stačí menší buffer.

+1
0
-1
Je komentář přínosný?

Kňučení bylo hlavně kvůli tomu, že grafiky jedou vytížené na 60 % nebo žerou 200 místo 300 W (takže karta jede na půl plynu) a hra stejně drhne.

+1
-3
-1
Je komentář přínosný?

Asi jsem kazdy hrali uplne jine hry, jak je zvykem :))

+1
+2
-1
Je komentář přínosný?

aj kvoli tomu, ze niektori nedostali svoju dennu davku upscalingu

+1
0
-1
Je komentář přínosný?

Ked uz vlastnis GPU, ktora ti umozni pri upscalingu lepsiu kvalitu nez doteraz v Starfielde dostupne FSR, tak je asi normalne sa toho dozadovat. Hlavne ked ide o taku velku hru ako Starfield, ktora este k tomu bohvieako nebezi, takze sa moze upscaling vyuzit. A este ked sa k tomu prida to, ze je nativny obraz horsi dokonca ako vystup z FSR, tak je to uz podla mna opodstatnene. A to nehovorim o tom, ze moderi do vami spominanych hier dokazali dostat DLSS casto v den vydania. Okrem AMD nemal nikto dovod vydavat tie hry vez podpory DLSS, ked uz do nich zimplementovali FSR.

+1
0
-1
Je komentář přínosný?

Tobě jen vadí, že to tam nebylo v day-1. Moddeři to maj jednodušší, protože to otestují jen na svým kompu. Ale tůrci hry to tam pak dali i oficiálně:

> After controversial support for AMD FSX at launch, Bethesda is adding native DLSS capabilities in a beta version next week.2. 11. 2023

+1
+1
-1
Je komentář přínosný?

To mi zrovna nevadi. Keby oznamili hned, ze pridaju aj DLSS, tak preco nie. Aj ked nic nebrani mat od zaciatku obe moznosti. A urcite to nema preco trvat pol roka ako napriklad u Jedi Survivor. To beriem ako AMD agendu. A plati to aj naopak, kde ak hra vide s podporou DLSS, neni dovod, aby tam nebolo FSR a kludne aj XeSS. Nech si kazdy vyberie co mu najviac vyhovuje podla toho aky ma HW.

+1
+1
-1
Je komentář přínosný?

https://ctrlv.link/eEbE

"Okrem AMD nemal nikto dovod vydavat tie hry vez podpory DLSS, ked uz do nich zimplementovali FSR"
.. nicmene by jsi si mel stezovat u vydavetele hry priste. Stejne jako by jsi si mel jit stezovat k Samsungu, Qualcomu, ze chteji vyuzivat FSR ve svych chipech. Nejlepe je si pak stezovat rovnou na to jak funguje bussines (bez sarkasmu) :)

+1
0
-1
Je komentář přínosný?

Nebo si může stěžovat NVidii, že na jiných GPU* nesmí fungovat DLSS ;-)

*) AMD, Intel, Apple, Qualcomm, Samsung, PS, XBox, ...

+1
0
-1
Je komentář přínosný?

"Nebo si může stěžovat NVidii, že na jiných GPU* nesmí fungovat DLSS ;-)"
.. to jsi presne trefil :)

+1
0
-1
Je komentář přínosný?

It's G-Sync vs FreeSync all over again :-)

PS: Ano, i tehdy byl G-Sync o něco lepší než FreeSync, ale s tou vendor lock-in koulí na noze prostě nemohl dlouho soupeřit. Mimochodem nové AMD GPU mají/budou mít AI jednotky, stejně jako má Intel v dGPU (v iGPU asi ne, ale ty se stejně nepovažují za skutečné grafiky) a asi i Apple v M3 a Qualcomm/Samsung v mobilech, takže časem i FSR bude (v plné verzi na podporovaném HW) umět to, co má teď DLSS navíc.

+1
0
-1
Je komentář přínosný?

Hlavne "tehdy" myslim rok a pol nebolo na vyber a k dispozicii boli iba desktop monitori s GSync. Velkou vyhodou GSync boli ale jasne dane vlastnosti, kde napriklad kazdy monitor podporoval s GSync adaptivnu synchronizaciu od 30Hz po hornu hranicu monitora. U Freesync to bol prve roky divoky zapad s frekvenciami 40-60, 58-60 alebo 48-90 pri 120Hz monitore a podobne zverstva. S tymto podla mna teda s Freesync nikto nevyhral a rozhodne nemal to iste ako s GSync. To bol podla mna dost velky rozdiel a nie maly. Ja sam mam inak 1 GSync 4K@60Hz monitor a 3 Freesync monitori, ktore su 2K a jaju 120Hz a viac. A stale aj po takej dlhej dobe nie je u Freesync standard podpory adaptivnej synchronizacue od 30Hz do hornej hranice monitora, co je u GSync uplne od zaciatku. Moje monitori maju dolnu hranicu 48Hz ale vyberal som uz take, co podporuju AS az po hornu hranicu monitora. Preto ma GSync stale miesto na trhu pre ludi, ktori chcu to najlepsie. Ja som tiez setril a preto to najlepsie nemam. Ale s tym co mam som spokojny.

A ak FSR bude tiez konecne vyuzivat AI so vsetkymi ficurami vratane ray reconstruction (a s tym co NVIDIA este casom prida) a kvalitativne sa vyrovna DLSS, tak az potom mi bude jedno, ze DLSS v hre nie je.

+1
-1
-1
Je komentář přínosný?

Však se dočkáš. Jinak G-Sync zabilo taky to, že fungoval jen na desktopových monitorech a pár notebookách.

+1
0
-1
Je komentář přínosný?

GSync ale prave bol hlavne pre desktopove monitori, ktore vtedy adaptivnu synchronizaciu nepodporovali. Ak si dobre pamatam, tak AS sa uz nejaky cas v notebookoch vyuzivala. A to na zvysenie vydrze baterie. Preto mohlo AMD rychlo zareagovat a tvarit sa, ze maju to iste aj ked ukazku robili na notebooku. Bol to vtedy od nich pekny marketingovy odrb. :-)

+1
0
-1
Je komentář přínosný?

Jenže desktopové monitory a notebooky není všechno.

+1
0
-1
Je komentář přínosný?

".. To bol podla mna dost velky rozdiel a nie maly .."
Někdy si zjisti, za kolik nV prodávala G-Sync čip a právo na jeho použití.
To byl dost veliký rozdíl v ceně a ne dostatečně malý, aby ho výrobcové chtěli dávat do levných monitorů.
TL;DR neexistovaly levné G-Sync monitory

A pokud ti to ještě nedošlo, DLSS je (c)(R)(tm) a IP fy nVidia.
Ray reconstruction - to samé v bledě zeleném.
Jetli něco podobného spáchají, tak to třeba nazvou Adaptive Denoise Filter, ale ne Ray recontruction.

PS: mám monitor s G-Sync (přímo G-Sync, ne pouze G-Sync compatible). Naštěstí bez ventilátoru.

+1
+1
-1
Je komentář přínosný?

Njn, to taky rozhodně stálo za to mít monitor i s ventilátorem, na to bych už malém úplně zapomněl, no to teda byla solidní zoufalost.

+1
+1
-1
Je komentář přínosný?

Protože prodeje byly tak malé, že to nechali hradlovým polem a nedělali specializovaný ASIC.

+1
+1
-1
Je komentář přínosný?

Ano. Mam teraz jeden freesync monitor, ktory ma tiez ventilator. A asi sa budes cudovat, ale GSync modul nema. :D

+1
0
-1
Je komentář přínosný?

Nebavili sme sa o cene, ale k kvalite. Viem, ze GSync nebol lacny. A pamatam si ako vtedy ludia mysleli, ze ked si kupili lacnejsi 120Hz monitor s adaptivnou synchronizaciou medzi 48-90Hz alebo nedajboze medzi 60-90, tak ze kupili lepsie ako obdobny monutor s GSync, ale drahsi. Pretoze tu sa riesia len znacky. Ako Freesync vs GSync. Ale parametre monitorov ovplyvnujuce ich kvalitu akosi isli v diskusiach do uzadia lebo dolezitejsie bolo ako free technologia od AMD nakope uzavretu technologiu NVDIe.

"A pokud ti to ještě nedošlo, DLSS je (c)(R)(tm) a IP fy nVidia."

Z coho vyplyva, ze to neviem. Jasne ze som myslel ekvivalentne riesenia. Je mi uplne jedno ako sa to bude volat.

+1
0
-1
Je komentář přínosný?

Jasne. Mas pravdu. Bethesda sa nemusela s AMD dohodnut. Zaujimave ale je, ze pri PhysX, GSync, Gameworks, ci teselacii bola plna diskusia nadavok na NV a to hlavne od ludi, ktorym to iste od AMD uz nevadi. Moc sa teda neriesol vydavatel hier a ani sa nad tym nemavalo rukou, pretoze tak funguje biznis (aj ked je to tak ako pises). Je to proste dokolecka ta ista diskusia len otocena podla toho, kto danu hru sponzoroval, co je v nej navyse alebo co v nej chyba. A hlavne sebareflexiu tu vela ludi nema.

BTW tie firmy co spominas nemaju zatial moc podporu AI alebo maju cipy od AMD, takze nic ine ako FSR ani pouzivat nemozu. Take Nintendo ma mat vo Switch 2 cip od NV a mali by vyuzivat DLSS. A mozu aj FSR, lebo maju na rozdiel od inych na vyber. :-)

+1
-1
-1
Je komentář přínosný?

Aku ze to featuru dala AMD s pozehnanim Bethesdy do Starfieldu(Hogwards Legacy, Jedi Survivor...), ktoru nvidia gpus nedokazu zobrazit?

+1
+2
-1
Je komentář přínosný?

Já vím tak max o Finewine technology, tu Nvidie rozhodně nepodporuje, asi to holt AMD neotevřelo.

+1
0
-1
Je komentář přínosný?

Já čtu, že je to něco z 2011, ale nevím, co.

+1
+1
-1
Je komentář přínosný?

Ziadnu. Ale ziadna vyhra nie je ani to, ze niekto zabrani alebo pozdrzi lepsiu technologiu, aby presadil tu svoju. :-)

+1
-1
-1
Je komentář přínosný?

trosku nemas pravdu, Starfield napriklad dostal DLSS 3, keby si mal recht, tak tam je FSR3
proste to skvele vyhladzovanie, kvoli ktoremu stoji nvidia kazdym rokom o desiatky percent viac nie je pre developerov priorita. Pride, az pride

+1
+1
-1
Je komentář přínosný?

Ano. 2 mesiace po vydani s tym, ze s FSR nebol problem od zaciatku. Vzhladom na to, ze k vymene FSR a DLSS staci "vymenit kniznice", fakt tam to DLSS mohlo byt. Plati to aj naopak. Jasne, ze testing zabere cas, ale to mohli robit subezne s FSR. A preco v hre nie je FSR3, to nevieme.

+1
0
-1
Je komentář přínosný?

2 mesiace je nic, u bethesdy je lepsie pockat pri velkych hrach aj pol roka, kym hru trosku odbuguju

+1
0
-1
Je komentář přínosný?

".. A preco v hre nie je FSR3, to nevieme.."
Co takhle porovnat datumy vydání hry a FSR 3?

Mimochodem
Baldurs Gate 3 mělo při vydání jenom FSR 1.1
Přidání FSR 2.x místo slíovaného 1 měsíce, trvalo měsíce 2.

Takže to fakt není jen o výměně knihovny.
Hlavně pokud chete nahradit FSR (bez FG) za DLSS s FG.

+1
+1
-1
Je komentář přínosný?

Hlavne ta studia maji svoje priority. Taky nemaji neomezene zdroje. Pravdepodobne resi nejdriv bugy, pak pridavaji dalsi featury. Tenhle pokrik zelenych fanousku je nekdy tak odtrzeny od reality...

+1
+2
-1
Je komentář přínosný?

Pamatuju tady na Diitu článek o jedné hře, která implementovala DLSS jako filtr nad výstupem celé hry, tj. až po nakreslení UI. Bylo to úplně nepoužitelné. Pak se lidí diví, že oficiální podpora chvíli trvá.

+1
+1
-1
Je komentář přínosný?

S prioritami je to myslim jasne kazdemu. A ze musi prebehnut cely vyvojovy cyklus u kazdej novej ficury tiez.

+1
0
-1
Je komentář přínosný?

Nebolo FSR 3 uz pridane do inych hier? Nie je uz tiez dostupne pre implemenraciu?
Ano, nie je to iba vymena kniznic. To len hovori o jednoduchsej implementacii DLSS a FSR a vice versa, ak hsdna z nich uz podporu ma. Musia prebehnut asi vsetky fazy vyvoja vratane testov. Tiez nikde nepisem, ze 2 mesiace su dlha doba. Ale 6 mesiacov uz hej na nieco taketo. Idealne by mali byt DLSS/FSR/XeSS dostupne od vydania hry.

+1
0
-1
Je komentář přínosný?

RX 7900XT je výkonem podobná RTX 4070Ti, přitom se dá očekávat, že to bude výkon RTX 4070 Super. uvidíme na kolik tu kartu NVidia nacení. Dejme tomu, že RX 8800XT bude na stejném výkonu, doufejme. Jenže stále bude platit, že AMD získá na přelomu 2024/2025 stejný výkon jako NVidia na přelomu 2023/2024, teda stále má AMD rok zpoždění a na tom se nic už dlouhou dobu nemění a AMD to není schopno dohnat.

Neberte to prosím jako kritiku, naopak i tak jak to AMD má je to pořád zázrak, že se drží. Vše bude nakonec záviset na ceně té karty. Jsem ale skeptický právě k té ceně, AMD obvykle dává ceny jen kosmeticky nižší než NVidia a ta už tady prostě rok bude.

+1
+1
-1
Je komentář přínosný?

S příchodem Apple M4 a Intel ARC to můžou zabalit.

+1
+6
-1
Je komentář přínosný?

Sny applistů asi nemá cenu komentovat, ne. :-)
Co se týká Intelu, tak těžko říct. Přál bych si, aby uspěl, aby měla NVidia dalšího konkurenta, ale moc tomu nevěřim.

+1
+2
-1
Je komentář přínosný?

zatim indicie ukazuji na to, ze Intel bude rad, kdyz to po Battlemage s diskretnimi grafikami nezabali. I kdyz, AMD bez High-endu, by mohlo Intelu trochu pomoct.

+1
+2
-1
Je komentář přínosný?

Přestaň si ten výkon tak zaohrouhlovat podle výkonu Nvidií, jsi s tím úplně mimo. RX 7900 XT je sice blízko 4070 Ti, ale je prostě o něco výkonnější, že jsou stejně výkonné není pravda a 8800 XT má být výkonnější i než ta 7900 XT, takže s tou se už dostáváme od 4070 Ti asi docela daleko. A 4070S určitě nedorovná ani 4070 Ti, natož 7900 XT nebo dokonce tu 8800 XT, tomuto by se mohla přiblížit max. až tak ta 4070 Ti Super.

+1
0
-1
Je komentář přínosný?

Spíš nám zde přestaň ty kázat přes nějaké rudé vidění. RX 7900XT je výkonnější v rasterizačním výkonu, Nvidia jasně s RT, takže když dáš do testu mix her, máš stejný výkon - https://www.techspot.com/review/2642-radeon-7900-xt-vs-geforce-rtx-4070-ti/ A to se ještě nerozepisuji o funkcích DLSS vs FSR, případně spotřebě.

Fakt se musím smát lidem, kteří si vynucují závěry ohledně skvělých AMD karet a nadávají již prakticky 90% ostatních, že si kupují Nvidia karty.. Jsi dost osamocen na té své straně barikády a tohle brečení je přesně jen styl Belky, DD a ostatních zoufalců, kteří se snaží AMD někam roky vytlačit za cenu pravidelného zvracení.

Narozdíl od tebe uznávám obě značky a každý má právo si vybrat co chce dle svého uvážení. Chce to být jen trochu vyrovnaný a ne lidi přesvědčovat o svém zahleděném názoru. Nebo o nich psát jako o kktech apod.. Tvé příspěvky jsou bohužel okatě zahleděné a dost lidí jimi urážíš. Přitom bych ti jednoduše vysvětlil, proč jsem třeba osobně zvolil grafiku od Nvidia.

+1
+3
-1
Je komentář přínosný?

v tom tvojom odkaze:
Power consumption is also very similar between the two. Generally the Radeon uses more power, but it's also faster in most of those examples, so performance per watt is much the same and there's not a big enough difference to matter.
:)

+1
+1
-1
Je komentář přínosný?

Rejpal. Rozdíl tam také je ve prospěch Nvidia, tak se podívej zde - https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xt-pulse/37.html. Moc dobře víme, jak to dopadlo při srovnání těchto generací. Na Nvidia se zde před vydáním sypalo, jaké to budou přímotopy a hlavně na fóru si to někteří užívali. A ono je to celé jinak že ? Většina karet od AMD má vyšší spotřebu.

+1
+1
-1
Je komentář přínosný?

Nějak furt zapomínáte, že AMD je ale vždy o něco výkonnější, má vyšší propustnost, takže je i vhodnější pro vyšší rozlišení a má taky více VRAM, takže to je s tou efektivitou opravdu spíš tak srovnatelný. Nvidie teď ještě jede furt dobře, ale jak časem zas začne víc docházet ta VRAM a celkově budou ve hrách ještě vyšší nároky na tu paměť, tak se ty deficity na Radeon budou čím dál víc projevovat a bude to s tím výkonem v přímém srovnání ještě horší.

+1
-1
-1
Je komentář přínosný?

Výkonnější je v rasterizaci o pár procent, ale ono dnes většina her jaksi RT efekty nabízí a u výkonné karty jako je 4070Ti je přeci nebudu vypínat. Proč mi navrhujete toto ignorovat a koupit si parádní AMD kartu? Abych zaplatil více, měl vyšší spořebu a horší výkon s RT, plus horší funkce ? Neberu.

A ta vaše berlička VRAM co ? Jediné co AMD fans zbývá, tantra VRAM. Takto vám to k tomu napíšu. Já mám 4070ti již od ledna. Všechny tituly si testuji a sepisuji si právě pro takové, jako jste vy. Takže za chvíli budu mít kartu rok a neměl jsem jediný problém s VRAM v QHD rozlišení. Ha ! A to mám nyní možnost mít plný RT i s Pahttracing v Cyberpunk i Alan Wake 2. Takže další rok bude stejná pohodička a pak už pro mě ta karta nebude mít uspokojivý výkon a RT na ní bude stále méně reálné ke spuštění. Takže se začnou snižovat detaily u 4070Ti i RX 7900XT. A tím klesna náročnost na paměť. A já si v roce 2025 koupím Blackwell. 4070Ti pak může posloužit na další roky někomu dalšímu třeba ve FHD rozlišení. A ještě jedna věc, prodej Nvidia je tak jednoduchý. Rozhodně jejich karty udáte mnohem lépe, než AMD, o které není zájem všeobecně. Viz poslední výsledek dedikovaných grafik, kde už je to prakticky 90/10%. Takže ještě něco mi chcete argumentovat ?

Jo a ještě jsem zapomněl, že jsem zvyklý na skvělou funkčnost ovladačů Nvidia a nastavení filtrů, foto režimů, típání obrázků. Opět není důvod přecházet na něco jiného. Dále plno lidí dnes streamuje. A Nvidia je v tomto podstatně lepší díky NVENc kodeku. Takže já vidím těch pozitiv opravdu hodně a proto se tak lidé rozhodují. Za VRAM Nvidia nechválím, ale osobně si kupuji kartu max na 2-3 roky, takže nevyhledávám archivní karty.. :)

+1
+2
-1
Je komentář přínosný?

".. ale ono dnes většina her jaksi RT efekty nabízí .."
Zas tak moc jich není.
Zatím ani jedna, o které bych uvažoval.

"a u výkonné karty jako je 4070Ti.."
".. může posloužit na další roky někomu dalšímu třeba ve FHD rozlišení .."
Tak je výkonná, nebo je pro FHD?
Pokud už teď cítíš potřebu vyměnit ji za příští model, ais zas tak moc výkonná není.

+1
+1
-1
Je komentář přínosný?

Že o tom neuvažuješ pro mě není argument..

A druhou věc vytrháváš z kontextu. Psal jsem tam, že budu hrát třeba 2 roky z většiny i na max s RT a po 2 letech kartu prodám, protože koupím kartu nové generace. Pokud nebude stačit VRAM v QHD, tak do FHD určitě poslouží. Jinak je to karta pro QHD v současné době. Za 2 roky tomu bude jinak, jak je to běžné u většiny karet se zvyšující se náročností her. Nevím co na tom nechápeš..

A to že ji budu měnit za další model je zcela normální, pokud chceš hrát nové hry na vysoké detaily a vyšší fps. Navíc Nvidia bude mít novou řadu tentokrát až v roce 2025. Ryzen 7800X3D mám na to připravený a ze zkušenosti točit grafiky je ideální, pokud nechceš ztrácet totálně cenu na staré kartě, takže za mě se to i vyplatí. Ale chápu, že to každý takto nedělá. Já nejedu tu vaši fine-wine strategii.

+1
+2
-1
Je komentář přínosný?

Obvyklé bylo měnit GPU ob jednu generaci.
Jestli se ti to vyplatí, záleží taky na tom, jestli (a za kolik) tu stávající prodáš.

PS:
Já nemám co zvažovat.
V žánru her, které preferuji, prostě RT není.

+1
0
-1
Je komentář přínosný?

@Mike123: Tak to ale bylo vždycky - technologie AMD FineWine, kterou Nvidie nedokáže zkopírovat. AMD GPU stárne jako víno a NV jako mlíko ;-)

+1
-1
-1
Je komentář přínosný?

Ono je to AMD kto dnes reaguje ("kopiruje") na NV a nie naopak. :-)

+1
0
-1
Je komentář přínosný?

Však o tom píšu. Zatímco na NV to funguje teď a za rok dva to budeš muset kvůli nedostatku VRAM vypnout, na AMD to mezitím začne fungovat pořádně (a kvůli dostatku VRAM může být zapnuté) ;-)

+1
0
-1
Je komentář přínosný?

Akoze napriklad za rok ci dva AMD dobehne v RT NVIDIu a vyrovna to generacne iba upravami v ovladacoch? Aj na zaklade dnesnych skusenosti dokaze nahnat AMD par percent viac. Ale nie desiatky percent.

+1
0
-1
Je komentář přínosný?

Výkon v RT AMD dohání každý rok/generaci. Akorát NV mezitím vydá novou. Tj. jsi 1 generaci/rok pozadu, což není problém (už teď je tam RT o hodně výkonější než bylo dřív na RTX 2xxx, pro které má spousta her profil a kterým odpovídájí stávající konzole).

> Ale nie desiatky percent.

Optimalizace na míru bez problému. Např. porty z konzolí jsou jen rebuild. Nikdo nešahá do kódu shaderů, aby přidal optimalizovanou codepath pro jiné GPU.

+1
0
-1
Je komentář přínosný?

To, ze AMD vyda novu generaciu kariet ale neznamena, ze AMD nieco za rok dva odladi a moze sa to pouzivat vdaka vacsej VRAM a u NV odrazu nie. To je nieco uplne ine.
A ani porty z konzol nejdu o desiatky percent lepsie na AMD aj ked ma v konzolach svoj HW. Aj ked im to urcite pomaha.

+1
0
-1
Je komentář přínosný?

Já mám doma v retro PC GPU odpovídající PS4 a oproti tehdejším GeForce mi skutečně "nepovedené porty" z konzolí jedou asi o třetinu rychleji, např. Nier: Automata (původní PC hry samozřejmě ne). Za ty 2 roky AMD odladí ovladače, tak aspoň nebudou bugy - a i kdyby se výkon nezvýšil, tak požadavky her na VRAM se mezitím zas o kus zvednou a NVidie skončí v bazarech.

+1
0
-1
Je komentář přínosný?

O tretinu rychlejsie idu oproti comu? Oproti ekvivalentnym GPU z tej doby od NV?

+1
0
-1
Je komentář přínosný?

Ano. Viz diskuze na Steamu, jak jim ta hra jela v 720p a mě v 900p.

+1
0
-1
Je komentář přínosný?

Jojo, takže jak mi pak bude docházet výkon, tak co udělám... vypnu RT, protože to bude mít s přehledem největší dopad. A jak mi potom pomůže lepší výkon v RT, když ho budu muset vypnout, aby mi stačil výkon, to už je záhada, když pak z toho zbyde akorát slabší karta. Ale mixujte si to jak chcete, hlavně ať to vyjde jak potřebujete.

+1
0
-1
Je komentář přínosný?

Jaj. Takze rasterizacia na vykon asi dopad nema. Rozdiel medzi tymi kartami v rasterizacii je tak maly, ze obe zastaraju rovnako. Akurat niekto ten RT nebude musiet vypinat alebo ho bude moct vacsinou pouzivat. Plus ani nehovorim o DLSS, ktore sa da pouzit aj mimo RT, ak aj tak chyba vykon a nie je to az taky kompromis ako FSR. Proste u NV je pre mna dlhodobo viac plusov ako u AMD, pretoze s NV som mohol vzdy pouzivat nove graficke ficuri co je pre mna vacsia pridana hodnota ako o nieco viac VRAM (kde ale v dnesnej dobe uznavam, ze NV uz moc tlaci na pilu a viac VRAM uz mohli davat od minulej generacie kariet) alebo o nieco vyssia spotreba.

+1
+2
-1
Je komentář přínosný?

Pozor, rasterizační výkon právě AMD musí mít větší než Nvidie, aby mělo výkon v RT aspoň jako NV předchozí generace. Protože RT je na AMD z půlky emulované rasterizací (chápu-li pod rasterizací hlavně shader jednotky a ne ROP jednotky na konci pipeline; "softwarově" emuluje procházení stromu polygonů, hardwarové jednotky má jen pro průnik paprsku a trojúhelníků nebo bounding boxů).

+1
+1
-1
Je komentář přínosný?

Ale poměr cena/výkon je výrazně horší. RTX 4070 je sice třeba slabší o málo než konkurenční 7800 XT, ale je slabší a zároveň ještě za vyšší cenu a to pak už dělá rozdíl jakoby větší za tu rasterizaci. Za cenu RTX 4070 už se dá tady pomalu sehnat i RX 7900 GRE, což už je grafika trochu jinde.

+1
+1
-1
Je komentář přínosný?

No a 4070Ti se sežene třeba na CZC v dobrém modelu od Palit za 21,5 tisíce a nejlevnější RX 7900XT nám začíná Sapphire na 22,5 tisíce. Takže zde je třeba situace jiná a AMD dávno netlačí všude cenou.

A k tomu RT. Na Nvidia jej budeme normálně třeba ty 2 roky používat s výborně fungujícím DLSS. Během této doby bude AMD naopak možná tak ladit FSR, aby to přineslo uspokojivý výsledek. Takže to je ten zásadní rozdíl a ohánět se nižší VRAM ? Možná to u pár her jednou určitý problém bude. Od ledna jsem žádný problém s VRAM nezaznamenal a to mám RT naplno včetně Pathtracing. Za ty 2 roky už ty karty na RT ani mít výkon nebudou a zastarají společně.

Takže to opravdu nechej na každém. Není jedna růžová cestička. Každý má jiné priority. Já např. pořídil 4070Ti v lednu a to byla podstatně levnější než jakákoliv RTX 7900XT. Mám rád nové technologie a RT a funkce jsou u Nvidia prostě jinde. A z delší zkušenosti jsou super i ovladače, kdy mám k Nvidia důvěru. Takže já si klidně touto cestou jdu, dokud AMD opravdu nepředvede něco zásadního, co by mohlo můj názor změnit. Naopak na procesory AMD nedám dopustit.

+1
0
-1
Je komentář přínosný?

"No a 4070Ti se sežene třeba na CZC v dobrém modelu od Palit za 21,5 tisíce a nejlevnější RX 7900XT nám začíná Sapphire na 22,5 tisíce. Takže zde je třeba situace jiná a AMD dávno netlačí všude cenou."
.. v nemecku je cena 7900XT u nejlevnejsich modelu lehce pod 4070ti. Jestli to je dostatecne tlaceni na pilu netusim.
"Během této doby bude AMD naopak možná tak ladit FSR, aby to přineslo uspokojivý výsledek."
.. ten vysledek je davno uz uspokojivy. Jen ma v nekterych situacich je o neco horsi. To ze DLSS je v necem obecne lepsi, neznamena, ze neco jineho je neuspkojive. Existuji spatne implementace FSR, stejne jako neuspokojive implementace DLSS.
"Na Nvidia jej budeme normálně třeba ty 2 roky používat"
.. jenom pro tve info. Jsou hry, kde ma AMD lepsi RT nez NV v danem cenovem segmentu. Pokud se divas na HWU, vychazi RT plus minus stejne hur u AMD, jako Raster u NV. Samozrejme vyjma her jako je CP.

+1
0
-1
Je komentář přínosný?

Koho zajímá Německo ? Řeším situaci zde, ale chápu, že fans AMD budou mít tendenci ukazovat na jakékoliv místo na zemi, kde je tomu jinak.. :)

Není uspokojivý, opět to nesleduješ. Kvalitou obrazu kulhá, to víme. A FSR 3.0 má problémy při vkládání snímků s latencí, kde to není dotaženo jako u Nvidia, která to již kombinuje s Nvidia Reflex. A dále mají problém se synchronizací fps při funkci Freesync, tam to prostě hodně zlobí. Však si můžeš o všem přečíst zde - https://www.techspot.com/article/2747-amd-fsr-3-tech/

A jinak jestli si někdo koupí AMD kartu i když je fandou RT efektů, jelikož ty tvrdíš, že je tam AMD někde srovnatelné ? A někde třeba není vůbec že ? Třeba zrovna nový Alan Wake 2, kde potřebuješ DLSS 3.5. A cosi mi říká, že takových her bude přibývat. Prostě DLSS má náskok stejně jako RT výkon u některých titulů. Takže jaký je důvod někoho v tomto přesvědčovat k AMD ? VRAM ? Ale no tak..

+1
-1
-1
Je komentář přínosný?

"Koho zajímá Německo ? Řeším situaci zde, ale chápu, že fans AMD budou mít tendenci ukazovat na jakékoliv místo na zemi, kde je tomu jinak.. :)"
.. ja resim, kdo pise korektne a kdo ne. Pokud bych posuzoval vetu "ze AMD netlaci na pilu" v kontextu dulezitosti Nemeckeho a Ceskeho trhu, tak Vas vyrok bude celkem jednoznacne chybny. Jinymi slovy, cesky rybnik se svym malym potencialme nikoho nezajima..at uz si o tom budeme myslet cokoliv.

"Není uspokojivý, opět to nesleduješ. "
.. neni pravda. Je uspokojivy ve valne casti sveho "spektra". Pokud chces mluvit o "Reflexu", zminuj reflex a nehazej to do jednoho pytle. Stejne jako FSR3 neni "FSR", je to dodatecna funkcionalita. Pokud chces srovnavat FSR3 s DLSS3 ok, ale pak nepis obecne o FSR a DLSS.
Ja znam clanky/videa na HWU a presto, ze mam ty kluky rad a jejich recenze, tak v momente, kdy se pitva obraz na 300% zvetseni, aby se neco naslo, je mi to opravdu jedno. Je to podobne, jako kdyz se pitvaji obrazy videa, jestli 4 pixely vedle sebe maji stejny barevny odstin nebo ne. Z praktickeho pohledu pro publikum, pro ktere je urceno, je to zbytecnost. Z pohledu klasifikovani technologii ok. Nebo treba ztratovy a neztratovy hudebni format. Za sebe rozeznam u naposlouchanych nahravek Mp3 320kb vs Flac, i presto, ze jsou lidi co tvrdi, ze tam neni rozdil a on je. Presto je ale mp3 a jeho ekvivalenti (Ac3 a dalsi) 'uspokojivy" hudebni format pro masy.
"Takže jaký je důvod někoho v tomto přesvědčovat k AMD ? VRAM ? Ale no tak.."
.. ja zadny duvod tebe presvedcovat nemam, a je mi to jedno. Jen 'opravuji' tva tvrzeni, ktere jsou priohle na jednu stranu.
Za mne je vice VRAM dulezitejsi, nez RT path-tracing v CP, ale kazdy at si rozhoduje, co se jemu libi.

+1
0
-1
Je komentář přínosný?

Co posuzuješ ty je mi jedno. Celou dobu se zde bavím o tom, proč někdo oslovuje lidi co si pořídí Nvidia kartu sprostě nebo proč někomu cpe AMD kartu, když to pro něj není třeba výhra. Já už argumentů podal dost, proč jsem se rozhodl jak jsem se rozhodl. A výsledky ukazují prakticky to podobné, lidi na AMD zatím neslyší.

Píšu ti o funkčnosti DLSS 3.0 vs FSR 3.0, jednoznačně tam píšu o vkládání snímků, které je u AMD problematické. Nechápu co chceš zase zpochybňovat, když máš chybovost v obraze při zapnutí synchronizace, což je pro plynulost jasná věc. Prostě taky někdy uznej, že je v něčem AMD pozadu.

Ty jsi se vmíchal do konverzace s Mike123, jak to již děláš a my jsme se tam o něčem bavili. Takže teď z toho nedělej, že mě nepřesvědčuješ a jiné. Tam šlo o něco zcela jiného a to hanění ze strany Mike123 co se týče majitelů Nvidia karet. Proto jsem s ním začal řešit důvody, proč se tak třeba lidé rozhodují a nelíbí se mi, že se chová, jakoby bylo AMD svaté a nejlepší. Není tomu tak.

A že je za tebe VRAM důležitější už víme.. Proto máš doma RTX 4070.. :D

+1
0
-1
Je komentář přínosný?

"Celou dobu se zde bavím o tom, proč někdo oslovuje lidi co si pořídí Nvidia kartu sprostě nebo proč někomu cpe AMD kartu, když to pro něj není třeba výhra."
.. velmi subjektivni videni

"A výsledky ukazují prakticky to podobné, lidi na AMD zatím neslyší."
.. lidi na to proste neslysi :) proto zebricek minuleho tydne v prodejich vedla 7900XT :)
https://ctrlv.link/cAGx
..a urcite to nebude o cene ;)
Ted nad tim jeste premyslim, asi si ti lidi, zapomeli precist nejakou recenzi, ktera vyzdvihuje DLSS3 oproti FSR3 (kones sarkasmu)
https://ctrlv.link/Ty6s
"A že je za tebe VRAM důležitější už víme.. Proto máš doma RTX 4070.. :D"
.. trosku mimo. Doma ma 4070, protoze mne prestalo bavit cekat na 7800XT a potreboval jsem koupit. Pokud pak neco kupuji, jsem dost pragmaticky. Pokud bych se rozhodoval dnes, sel bych do 7800XT. Krome toho, ve hre, ktera mne tehdy zajimala a proc jsem dal prednost 4070 pred rekneme 6800 (ktera by mi taky stacila), byl slaby vykon RT (6800) oproti 4070. Zajimave je, ze 7800XT je v dane hre se zapnutym RT rychlejsi nez 4070.
"Píšu ti o funkčnosti DLSS 3.0 vs FSR 3.0."
.. ja vidim jediny odkaz na DLSS3 u tebe u jedne hry, a jinak obecna tvrzeni o DLSS. Ale tak stane se. Ja obcas taky neco pisu a jini to chapou jinak.
:)

+1
0
-1
Je komentář přínosný?

Není to subjektivní vidění, stačí si přečíst komenty od Mike123 výše.

Hele žebříčky z Mindfactory a oblíbenost u nás sem dáváte pořád. Člověk čeká, že se tedy něco musí zlomit a pak přijdou kvartálové výsledky a skutek utek..

Hele je jedno proč máš RTX 4070. Ale to pokrytectví takto AMD nikam nevytáhne.. :D

Při odkazu na článek kde srovnávají právě FSR 3.0 jsem psal jasně o vkládání snímků a s tím spojenými problémy. Klasické FSR se dá již brát za odladěné, to kulhá jen kvalitou obrazu proti DLSS 2.0

+1
0
-1
Je komentář přínosný?

"Hele žebříčky z Mindfactory a oblíbenost u nás sem dáváte pořád. Člověk čeká, že se tedy něco musí zlomit a pak přijdou kvartálové výsledky a skutek utek.."
.. nope. Musis brat v potaz OEM, tam samozrejme prodava uz jen nazev "Nvidia", stejne jako "Intel" (byt ten zacina pokulhavat). OEM Notebooky jsou pak kategorie sama o sobe.
"Hele je jedno proč máš RTX 4070. Ale to pokrytectví takto AMD nikam nevytáhne"
.. "pokrytectví "?
"Klasické FSR se dá již brát za odladěné, to kulhá jen kvalitou obrazu proti DLSS 2.0"
.. dobre :)

+1
-2
-1
Je komentář přínosný?

Z toho si nic nedělej, já jsem taky pokrytec, mám RDNA3 a stejně jsem si taky dovolil zapnout RT, i když na něj vlastně ani nemám výkon, kupodivu to nějak jelo i tak.

+1
0
-1
Je komentář přínosný?

Pokrytec znamená něco jiného. Já tady proti AMD stylem jako vy proti Nvidia nepsal a vysvětlil důvody, proč jsem Nvidia pořídil. Ale když tu někdo roky AMD obhajuje a pak si koupí Nvidia, tak to je ono. Ale dal jsem za to smajlík, což věc odlehčilo, jelikož Tombomino znám a on umí být objektivní. Vy se to teprve musíte učit vzhledem k těm komentářům výše.

+1
+1
-1
Je komentář přínosný?

Jedna vecna pripominka.. pokrytectvi by bylo, pokud by clovek rikal , ze RT nikdy nepouzije, NV nekupuje, atd a pak si ji prave z tech duvodu koupil. U mne to neni ani jedno z toho. To ze clovek neco kritizuje, treba RT, je normalni, pokud je tam co kritizovat. Jinak duvody jsem napsal. Neni v nich nic magickeho, stejne jako na kritice :)

+1
0
-1
Je komentář přínosný?

Jenže ty tvé „důvody“ se z větší části budou zakládat na mylných předpokladech o AMD, protože jsi to nikdy nezkusil, podle komentářů min. RDNA3 ne, ale víš, že to je určitě horší, takže je jasné, že potom nechápeš, proč o tom někdo tvrdí něco jiného. Třeba kvalita, co se týče streamingu, je už na stejné úrovni s Nvidií, takže to dávat jako argument Nvidii a ještě s tím obhajovat vyšší cenu je logicky v tomto případě blbost, s tímto jsi měl přijít ještě jak byla aktuální RDNA2, teď už je pozdě, protože to již není pravda.

+1
0
-1
Je komentář přínosný?

Řekl bych, že ty upscalingy jsou oba použitelné jen ve 4K na ten režim quality, kdy je i ta kvalita mezi nimi celkem srovnatelná. Na nižší režimy už jsou vidět nějaké nedostakty v obraze a ten rozdíl se začíná zvětšovat a u FSR je ten výsledek ještě horší a tu kvalitu to ztrácí rychleji a už ten balanc musí být trochu bolest používat.

Ono ale taky záleží i na jak velkém monitoru si to necháš zobrazovat, toto platí pro takový ten běžný 27" 4K monitor, na větším bych se o tu kvalitu zas už asi trochu bál, protože na tom zas budou ty nedostatky víc vidět. No a když pak ještě snižuješ ten nativ, tak se ti pak ale snižuje i ten rozsah použitelnosti těch režimu a to pak i ten „nejkvalitnější“ může začít vypadat nějak divně, protože už v originále ti schází ty detaily, ze kterého to potom vypočítává ten obraz.

A pak do toho ještě rvát to FG, to už je pak jen další věc, kvůli které ztrácíš další detaily v obraze, to se dá podle mě použít snad jedině na tom 4K s quality režimem a i tak to půjde poznat, ideálně to zapnout asi samostatně, hlavně potřebuješ vysoký frame rate, jinak se ti to začne celé mazat, protože to má málo informací o tom pohybu.

+1
0
-1
Je komentář přínosný?

Ono se asi počítá s tím, že jsme my a naše oči mezitím zestárli a dnešní děti je maj zkažené z koukání do mobilů ;-) Já už dnes koukám na detaily jen tak, že se ve hře zastavím a trochu hlavu přiblížím. V pohybu mi už nevadí ani 720p streamovaná mazanice.

+1
+2
-1
Je komentář přínosný?

Reflexem bych se neoháněl. Výrobci her kašlou na technologie AMD, a když je AMD implementuje na straně ovladače, tak je oheň na střeše, protože to není pod kontrolou hry.

+1
0
-1
Je komentář přínosný?

Tak ono je víc věcí co už AMD dohnala, jen to tady těm lidem nějak pořád nedochází, anebo jen nechce a pořád jedou rači dokola ty své staré mantry, přece si tu modlu nějak musí obhájit a určitě to vše pořád platí. Nechce se mi to tu rozepisovat, snad stačí jen tento odkaz: https://youtu.be/kqF2_h-WWic. Prostě není nad to si připlácet za zelené logo a nechat si ho vypalovat do mozku a jako bonus dostaneš vždy horší produkt, protože za blbost se holt platí.

Já chápu, že pro někoho je Nvidie možná v něčem lepší a někdy dává opravdu větší smysl, jenže tady je vidět, jak je většina lidí furt dost odtržená od reality, zdaleka už neplatí, že je AMD ve všem horší, jen má vyšší výkon za nižší cenu a tím se to snaží vše kompnenzovat, už dost i jiných věcí dokázali dorovnat, jen o tom spousta lidí holt neví a ani se to nedozví, když budou furt jen všude číst, jak je Nvidie ve všem lepší, přitom to už dávno ani není pravda.

+1
-1
-1
Je komentář přínosný?

Jenže 4070 Ti < 7900 XT a časem to bude 4070 Ti << 7900 XT, protože začne docházet VRAM a propustnost nebude stačit, ostatně to tak dopadá většinou vždy, že slabší Nvidie pak začne kvůli tomu ještě víc ztrácet v tom výkonu. Srovnatelná výkonnostní konkurence pro 4070 Ti je spíš 7900 GRE, který už je levnější.

+1
-1
-1
Je komentář přínosný?

Kde sa vzala špekulácia, že je to Navi 43 a má mať 64 CU? V tom videu MLID (nevidel som ho)? Je možné z TSMC 3nm (?) Navi 43 64 CU dosiahnuť 100 % nárast oproti Navi 33 TSMC 6nm 32 CU? Je tam fakt taký veľký skok v procesoch?

+1
0
-1
Je komentář přínosný?

Protože leakeři tvrdí, že high-end je odpískaný. Navi 43 pojede na 5 nm.

+1
+1
-1
Je komentář přínosný?

Jasné, Navi 41 a Navi 42 sú dead.

+1
0
-1
Je komentář přínosný?

O Navi 41 vim. To je high end. O Navi 42 nevim. Navi 43 je nekde na pomezi low/mid.

Myslim, ze cela ta cast o Navi 43, jak nahradi 7900XT je proste blbost.

+1
+1
-1
Je komentář přínosný?

"Na čem se relevantní zdroje více-méně shodují, je, že high-endová GPU Navi 41 a 42 byla zrušena a dojde pouze na mainstream v podobě Navi 43 a low-end Navi 44."
https://diit.cz/clanek/co-se-stalo-s-high-endovymi-grafikami-amd-navi-4x

+1
0
-1
Je komentář přínosný?

Diky za odkaz. Navi42 jsem minul. To toho AMD moc nezbyde.

+1
+1
-1
Je komentář přínosný?

ono to vypadá, že navi43 amd nafoukla co mohla, takže spíš to bude nástupce navi32 než navi33 z pohledu segmentu, ceny, vykonu a spotřeby

+1
+2
-1
Je komentář přínosný?

Ano, pro plebs tu bude Navi 44. Jako nástupce RX7600.

+1
-1
-1
Je komentář přínosný?

dame 2xAMD do Crossfire? :)
NV nechcem kupovat z ideologickych dovodov ;)

+1
-1
-1
Je komentář přínosný?

Zajímá mě hlavně RT/Pathtracing výkon. Nějaké info? Minimálně alespoň na úrovni 3xxx řady. Fakt nechci AMD po tobě moc, nechci ani výkon 4xxx řady, ale 3xxx. Jako Minecraft pathtracing 4K cca 45fps na 7900XTX při 350W zatímco 4070 100+fps se spotřebou pod 200W, to mě bohužel přesvědčilo pro Nvidii v této generaci.

+1
+3
-1
Je komentář přínosný?

Vždyť 7900 XTX má výkon v RT na úrovni 3090 Ti, tak o čem mluvíš nebo co je přesně myšleno tím „na úrovni 30. řady“?

https://www.techpowerup.com/review/asus-geforce-rtx-4070-ti-tuf/34.html

Že má v nějakém Minecraftu RTX, Cyberpunku apod. Nvidie výkon vyšší je pochopitelné, když je to pro ně optimalizované a vzniklo to, kdy AMD ještě ani žádnej RT nepodporovalo a vůbec se s ním tedy nepočítalo. Vzhledem k této skutečnosti je spíš překvapivé, že se to vůbec aspoň takto dokáže hýbat, podle mě už AMD na poli RT odvádí skvělou práci a i tady ty tituly jsou už docela hratelné i na jejich grafikách, výkon někde mezi 3080 a 3090 je si myslím už docela uspokojivý a měl by být dostatečný, když tento výkon Nvidii minule taky stačil a pokud není RT výkon priorita a spíš to bereš jen tak, že si to chceš aspoň vyzkoušet, když už je ta možnost, tak AMD už se dá klidně použít, což považuji za úspěch.

Řekl bych, že pokud dojde v RT v rámci RDNA4 zas k nějakému zlepšení, tak i v takových heavy RT titulech by ta 8800 XT snad už mohla zvládnout dorovnat i tu 3090 a obecně to 30. řadu si myslím možná překoná i celou nebo aspoň dorovná 3090 Ti, pokud výkon bude podobný 7900 XTX.

+1
-1
-1
Je komentář přínosný?

Souhlas. AMD je sice pozadu s výkonem v RT, ale jen o jednu generaci. Ve vybraných hrách bych viděl spíš rozdíl v implementaci upscalingu nebo mirkooptimalizací (ty ale jsou peoblém i obráceně u her portovaných z konzolí).

+1
0
-1
Je komentář přínosný?

Tak, tak. Ono sice samo o sobě, že furt budou zápasit i s překonáním 3090 Ti, nezní moc dobře, ake když překousneš to, že ten high end holt nebude a je to vlastně malý čip jen pro mainstream, tak je to vlastně dost slušný výkon a hlavně by to tu už mělo být údajně do roka, takže pro někoho, komu toto stačí, by to nakonec mohla být i dost zajímavá nabídka.

+1
-2
-1
Je komentář přínosný?

Ještě nějakou hru, která to využije.

PS:
Hru používající RT nemám ve sbírce ani jednu.
Hru s implementací upscalingu přesně jednu (BG3)
Existující hry s RT zkrátka nejsou můj šálek čaje.

+1
0
-1
Je komentář přínosný?

Zatím snad jen v Cyberpunku se vykašlali na plnohodnotné fake objekty pro nasvícení scény s vypnutým RT. Ale časem takových her bude možná víc.

+1
+1
-1
Je komentář přínosný?

Je pravdou, že je opravdu jen pár her, kde ten RT opravdu stojí za to a je v nich Nvidie lepší, asi i proto tomu osobně zatím furt nedávám moc velkou váhu při výběru. Další věcí je, že ty hry stejně nehraju a neplánuji to hrát ani kvůli tomuto, takže nějaký RT je mi upřímně úplně buřt, pro mě to prostě není žádná „must have“ funkce a že mám nižší výkon v RT mne absolutně netrápí, když místo toho mám vyšší rasterizační výkon, to pak je volba jasná a Nvidie to není.

+1
0
-1
Je komentář přínosný?

Toto vysvetlenie je dajme tomu plausible, ale po skusenosti s Navi 3x by som predpoklady o vykone Navi 4x nemaloval ruzovo, kym to nebude v testoch.

+1
+1
-1
Je komentář přínosný?

MLID rika, ze jsou to interni projekce AMD..az realita ukaze.

+1
0
-1
Je komentář přínosný?

Jestli AMD tak trapi nedostatek CoWoS pouzdreni, muze to prece vyresit hrave a to tim ze vyda nejenom ty planovane monolity:

GPU Navi 43 -> 4096 SP
GPU Navi 44 -> 2048 SP

->ale tez (+)GPU Navi 42 se 6144 SP, co ji v tom sakra brani???

Vzdyt Navi 21 ma 5120 SP, Navi 31 jich ma prave 6144 a cipletove GPU to neni, cili monolit s vice nez 4096 jednotkama jiz udelali.

Ja pevne verim ze si AMD prece jen schovava tu Navi 42(ma ji v planu), protoze kdyz Navi 31 kusuje RTX 4080, Navi 43 ma kusovat RX 7900 XT, tak bych Navi 42 mohla zas kusovat RTX 5070 Ti, a kdyz ne:

"plánované vydání RDNA 5 nejpozději na přelomu roku 2025 / 2026"

->>>budeme rozbijet rovnou tri tezce vykrmena prasatka za jemne upravene produkty NVIDIE...

+1
-1
-1
Je komentář přínosný?

a kto to bude kupovat? ved podla Steamu vsetci hraju na gtx 1650 a potom na rtx4090

+1
-2
-1
Je komentář přínosný?

„Navi 31 jich ma prave 6144 a cipletove GPU to neni“

Prosím?

+1
0
-1
Je komentář přínosný?

@W47/Po té kravině co si napsal, si potom spadnul ze stropu, co?

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.