Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Hogwarts Legacy: Radeon RX 7900XTX + Ryzen má výkon jako GeForce RTX 4090 s Core

Vskutku pozoruhodné, bohužiaľ tentoraz si rovnaký herný výkon pri AMD vyberá daň v oveľa vyššej energetickej spotrebe - teda ak sa dá veriť tým údajom v tabuľke (priemerné hodnoty power):
AMD CPU + AMD GPU = 440W
Intel CPU + Nvidia GPU = 259W

+1
-8
-1
Je komentář přínosný?

Nevěřím, efektivita na prvním místě!

+1
-7
-1
Je komentář přínosný?

dyt to mas v clanku.. u amd je spotreba nesmyslne zvysena zapnutim PBO, u intelu snizena vyladenim a vypnutim malejch jader..

capframex je magor.. kdyz mu nevyslo shozeni amd nizkym vykonem, tak amd aspon zvysil spotrebu..

+1
+14
-1
Je komentář přínosný?

Ono zapinat PBO na hry.. no nevim, CapFrame.. to musi byt expert :)

+1
+12
-1
Je komentář přínosný?

PBO možno dvihlo spotrebu CPU o 20-30W maximálne, hlavný rozdiel ide na vrub GPU, ktorá má oproti Nvidii dvojnásobnú spotrebu :(

+1
-7
-1
Je komentář přínosný?

To bude nějakej nesmysl, protože aby v této dost náročné hře žrala 4090 jen maximálně 174W, je naprostá blbost...podle mě pojede na krev 450-500W, takže podle toho bude vypadat i celková spotřeba...a 13900K max spotřeba jen 117W?!! Tady někdo hodně kecá, i po vypnutí E-jader se mi to zdá málo...

+1
+10
-1
Je komentář přínosný?

Takže tu máme Intel + nVidia vs AMD+AMD.
Ještě by to chtělo ty zbylé 2 možnosti (Intel + AMD vs AMD + nVidia).

Předběžně to vypadá na CPU botleneck ve hře, vyšší náročnost hry na VRAM i RAM a vyšší overhead driverů nVidia:
- 13900K bez e-cores a vyladěný na nížší spotřebu nestíhá krmit 4090
- 4090 se fláká, hřeje a žere méně, než ve stavu vyšší vytíženosti
- PBO u Ryzenu je spíš na škodu. 2 jádra na max dá i bez zvýšení spotřeby a Radeon má nižší driver overrhead
- Radeon je lépe nakrmený, tudíž více vytížený a tak žere a topí.

Na přesnější analýzu není dost dat.

+1
+2
-1
Je komentář přínosný?

Podívej se jaké nastavení bylo toho testu... 1080p + upscaling, to je v podstatě zaručený CPU bottleneck v případě jak 7900xtx tak RTX 4090.

Tenhle test je úplně nesmyslnej, o ničem v podstatě nevypovídá.

A btw, NIKDO nebude hrát na techle grafikách hry v 1080p a ještě zapnutým upscalingem.

+1
+4
-1
Je komentář přínosný?

kypec Četl jste ten článek celý? Patrně nikoliv.

+1
-3
-1
Je komentář přínosný?

Noehm, jenže to je za
a) ve fullHD, kde nikdo s takovou kartou nehraje
b) bez zapnutí DLSS+FG, který ten výkon posunou ke 100fps ve 4k i na 4070Ti.
A jakkoliv tady budou zas lidi, kteří to nikdy neviděli, nadávat na "fake frames", tak ono to funguje úplně bez problémů hratelně a vizuální rozdíl není vidět...

+1
-11
-1
Je komentář přínosný?

A proč bych měl chtít zvyšovat odezvu těmi "fake frames"?

+1
+10
-1
Je komentář přínosný?

Protože pokud to nepřekročí nějakou hranici, tak je to úplně v pohodě hratelný a ani to nepoznáš.
Zrovna Hogwarts tak hraju.

+1
-9
-1
Je komentář přínosný?

Teoreticky ji nezvedáš, zůstane taková, jakoby se to renderovalo při nižších FPS, ale pocitově nebude samozřejmě odpovídat zobrazovaným FPS...

+1
0
-1
Je komentář přínosný?

Latenci zvedáš teoreticky i prakticky. Místo aby se ihned zobrazil pravý snímek, tak se nějakou dobu počítá fake snímek, pak se po nějakou dobu ten fake snímek zobrazuje a teprve potom se zobrazí pravý snímek.

+1
0
-1
Je komentář přínosný?

Vždyť je to to, co říkám :D

+1
-1
-1
Je komentář přínosný?

Jestli to říkáš, tak příště nepiš něco jiného :D

+1
0
-1
Je komentář přínosný?

Napsal jsem to dobře, hra se reálně renderuje s nějakým FPS a z toho vyplývá odezva v ms. Pokud se do toho vloží snímky navíc a FPS jsou tak 2x vyšší, tak odezva ale bude pořád stejná, čili, pocitově to nebude odpovídat těm 2x vyšším FPS, ale pořád těm původním FPS, ve kterých se to renderuje ;)

+1
-3
-1
Je komentář přínosný?

To právě není pravda, latence bude vyšší než původní FPS.
https://www.youtube.com/watch?v=GkUAGMYg5Lw&t=1197s

+1
+3
-1
Je komentář přínosný?

On nechápe, že na vygenerování vloženého snímku je třeba nějaký čas a o ten čas se zvyšuje latence mezi generovanými snímky ze hry.

+1
+2
-1
Je komentář přínosný?

Jo Ty myslíš tohle, to pak jo, je to o trochu víc, ale víceméně pořád ta polovina ;)

+1
-2
-1
Je komentář přínosný?

na radeonoch a nvidiach si vies zapnut fsr2, a na dokonca na viacerych druhoch kariet, nez len na nvidia 4XXX. ten tvoj bod b) nema zmysel ako argument

+1
-3
-1
Je komentář přínosný?

Tak stěžuješ si že je to testovane na FHD, a pak doporučíš upscaling FHD na 4K, což na výkon nemá žádný vliv a FG cože nemá naprosto nic společného s výkonem akorát ti to navýší počet poslaných snímků do zobrazovače. Co by v takovém nastavení asi tak měli měřit?

+1
+9
-1
Je komentář přínosný?

Prosímtě umíš vůbec číst? kde přesně jsem "doporučil upscaling FHD na 4k"?
Jinak až na to, že takhle to nefunguje, tensor jádra mají nějakou kapacitu/propustnost, upscaling jim něco zabere (na highend GPU cca 1ms), FG je zatíží víc, pak je tam optical flow procesor pro kterej platí to stejný, a výsledek rozhodně není 2x navýšení FPS...
Takže ano, mělo by se to měřit v takovým settingu v jakým to většina lidí bude hrát, tzn. minimálně s DLSS quality, ideálně s DLSS-Q+FG, protože pokud už si někdo koupí Ada gpu, tak nemá důvod to nezapínat, a výsledek je výrazně vyšší plynulost než bez toho.

+1
-6
-1
Je komentář přínosný?

Že DLSS hráči nemají důvod nezapínat je ovšem cílená strategie Nvidie, protože kdyby dali víc úsilí na hrubý matematický a rasterizační výkon + posílili paměťovou propustnost, hráči by měli na výběr. Prostě Nvidia se více zaměřila na post-processing obrazu než na renderovací výkon, za což je ostatně kritizována. Především progameři nemají žádný důvod DLSS a spol. zapínat, ostatně upravují si vykreslování záměrně tak, aby dosáhli maxima FPS a nic na obrazovce nepřehlédli. Ale to jaksi fandům Nvidie už nedochází. A právě proto vychází i recenze, kde žádné takové funkce navíc redaktoři nepoužívají.

+1
+1
-1
Je komentář přínosný?

A nebo vizuální rozdíl nevidíš ty.

+1
-2
-1
Je komentář přínosný?

Test tak nějak k ničemu. Pokud to chce srovnávat tak něco reálného takže QHD rozlišení a FPS max. třeba 60fps s freesync a porovnat provozní vlastnosti částí a sestavy jako celku vs. cena.

+1
+3
-1
Je komentář přínosný?

Skvely test. Hezky jde videt i ten 'driver overhead' ve scenarich u NV, kdy ta grafika neni procesorem v 1080p a 1440p plne saturovana. Az 4k pak zacina ujizdet Radeonu

+1
+2
-1
Je komentář přínosný?

tyhle karty ukáží sílu až ve 4K, ta geforcka si podle marketingu s DLSS troufá i na 8K, takže lze chápat že ve starém fHD nebude lámat rekordy.

+1
-6
-1
Je komentář přínosný?

".. tyhle karty ukáží sílu až ve 4K .."

Něco jako 59fps průměr a 1% na 47fps?

+1
+6
-1
Je komentář přínosný?

Samozrejme , kdyz jsou prave zatizeny problemem s driver overdrive.

+1
0
-1
Je komentář přínosný?

Vypadá to tak, že přichází éra her, kde 8GB VRAM už nestačí.

".. We're not willing to say the GeForce RTX 4070 Ti and its 12GB VRAM buffer are a disaster just yet, but at the very least Hogwarts Legacy has highlighted why 12GB of VRAM on an $800 GPU is a bad idea .."

+1
+2
-1
Je komentář přínosný?

Já to považuju za nesmysl, 12GB už dokáže dost her využít i v 1080p, natož tak 4K, s high-res texturami, RT a podobně...tahle karta měla mít nejmíň 16GB...

+1
0
-1
Je komentář přínosný?

Není to ani první, ani poslední hra, kde má 4070Ti aplikovanou nějakou brzdu.

Ostatně, bussines model nVidia je založen na tom, že záklazník má potřebu koupit si další kartu.

+1
+1
-1
Je komentář přínosný?

Skaven, to bylo dobrý :-) Za mě 10 plusek :-)

+1
0
-1
Je komentář přínosný?

Tak měřit 4090 v 1080p....
To mi přijde jako trochu zbytečný článek, jen aby byly "kliky"

+1
-8
-1
Je komentář přínosný?

Zbytečné to není.
Ukázalo to, že 13900K to nedokáže nakrmit.
A bylo to omezující i pro 1440p.

+1
+3
-1
Je komentář přínosný?

tazko povedat, mozno ide o to, ze to cpu nevie nakrmit gpu, alebo nvidia ma driver overheat...nie su tam grafy vytazenia cpu+gpu

+1
+3
-1
Je komentář přínosný?

V tom testu, co si nalikoval, to právě vidět je.
4090, 4080, 3090Ti, 4070Ti, 3080Ti ... omezené na prakticky stejné fps v 1080 a s velmi malým rozptylem i na 1440.
7900 XTX a XT .. to samé, jen o něco více fps.

To naznačuje, že pes je zakopán na území CPU.

+1
+1
-1
Je komentář přínosný?

Tak to je jasné, že pro 4090 při testu v 1080p bude omezující faktor CPU.
To je jako když na Nově testovali, jestli se voda promění v led když je zima.

+1
+1
-1
Je komentář přínosný?

Intel + nVidia
CPU load: 30 / 35 / 45
threads : 60 / 74 / 87
GPU load: 49 / 57 / 87

AMD (16c) + Radeon
CPU load: 21 / 26 / 33
threads : 51 / 65 / 86
GPU load: 77 / 85 / 92

Vzhledem k tomu, že 13900K mělo zakázené E-cores, tak by se možná hodilo omezit AMD taky na 8 jader. A protože hra pravděpodobně nevyužívá všech 16 jader, tak by se to mohlo zapsat jako

AMD (16c) + Radeon
CPU load: 42 / 52 / 66
threads : 51 / 65 / 86
GPU load: 77 / 85 / 92

(+) 8 jader 13900K bez omezování E-cores potřebuje méně výkonu na obsluhu stejné počtu vláken.
(-) přesto dosáhla 4090 stejné fps (v testu Capframe) nebo nižší fps (v testu Techspot)
(=) v testu Capframe odvedli obě sestavy přibližně stejnou práci a hodnoty vytížení GPU spíše odkazují na porovnání max. výkonu aneb jak velikou rezervu ještě mají pro případ, že by se optimalizovalo využití CPU ve hře, nebo nasadilo teoretické CPU s vyšším výkonem na jádro (resp. 2 jádra).

TL;DR názorná ukázka, proč se CPU mají testovat v rozlišení 1080p (nebo menším) a proč i 1440p není testem výkonu GPU ale sestavy.

+1
0
-1
Je komentář přínosný?

Blbost.
1. počet threadů různě kolísá a už vůbec se nedá něco jen tak odvodit. Především thread může sám o sobě znamenat značně rozdílnou zátěž, takže jejich počet o ničem nevypovídá.
2. Nějak jste zapomněl malé jádra Intel nejsou výkonově srovnatelná s jádry AMD ZEN, takže není totéž vypnou E cores a půlku ZEN jader.
3. Vše co z vašich úvah vyplívá jsou pouhé spekulace.

+1
0
-1
Je komentář přínosný?

1) Proč by se to nemohlo provnávat? Je to stejná aplikace (hra), stejné prostředí, stejný průběh. V čem se liší, je to, co nastane po volání služeb DX12 na úrovni ovladačů karty.
2) V testu Capframe jsou E-cores vyplá. Dle jejich prohlášení dělala více škody než užitku. Dle analýzy Techspot je hlavní zátěž hry na 2 jádrech. Jestli kromě těch dvou na tom pracuje dalších 6 nebo 6+8 jader už na výsledku moc nezmění. Více nevytížených jader může být spíše na škodu (když se Windows sheduler rozhodne přehazovat vlákna na jiné jádro, protože mu to přijde jako dobrý nápad).
Mimochodem .. testy Techspot byle dělané na 7700X (8C/16T) a chovalo se to podobně.
3) Spekulace je o tom, co by, kdyby. Tohle je předběžná analýza na základě dostupných dat. Další data mohou ty závěry spřesnit nebo vyvrátit. Osobně jsem zvědav, jak se to bude chovat na 7800X3D.

+1
0
-1
Je komentář přínosný?

Kdyby ta měření na každé konfiguraci a v každém nastavení byla provedena vícekrát, viděl by jste, jak variabilní by zvláště počty vláken byly. Navíc taková měření jsou stejně platná jen na čerstvém OS s minimem aplikací na pozadí. Prakticky je to akademický výsledek, protože na každém počítači máte jiný mix aplikací, HW a tedy i ovladačů, různě zdravý stav registrů a různé kombinace aktualizací.

+1
0
-1
Je komentář přínosný?

A právě to, jak moc se tester snaží tyto vlyvy co nejvíce eliminovat, vypovídá o tom, jak moc důvěruhodné jsou pak výsledky, které prezentuje.

+1
0
-1
Je komentář přínosný?

Test k prdu, příště je potřeba:
procesor Intel + grafika NVidia
procesor Intel + grafika AMD
procesor AMD + grafika AMD
procesor AMD + grafika NVidia

Pak teprve budeme vědět, co je super a co naprd.

+1
+2
-1
Je komentář přínosný?

A na každé sestavě aspoň desítky her, jenže takové testování může zabrat i několik týdnů a v tom je problém.

+1
0
-1
Je komentář přínosný?

Jasně, ale já to myslel ve vztahu k Hogwarts Legacy. Mě by zajímalo, když ta hra je tak náročná (špatně optimalizovaná), kolik FPS bych měl na Radeonu 7900 XTX (XT) a na GeForce 4090 (80). Ale to by to museli srovnávat na stejném procesoru.

+1
0
-1
Je komentář přínosný?

To už by kromě čtyř kombinací bylo lepší přidat aspoň jeden AMD a Intel, aby byl vidět nejen vliv architektury, ale i výkonu procesoru a tím pádem pak i slabší Nvidia a AMD grafiku.

+1
0
-1
Je komentář přínosný?

Vy jste prostě machr, Hlaváčku. Smekám. Nikdo nedokáže ohýbat realitu tak jako ty. :D

Nimrat se v tom, jestli na něčem bylo nebo nebylo nastavené PBO, jak má SAM a kdesi cosi a naprosto drze se tvářit, že sestava s Ryzenem a RX 7900 XTX má stejný výkon jako Intel s RTX 4090, a naprosto ignorovat fakt, že je to nastavení limitované výkonem procáku. :D

RTX 4090: GPU load (min/avg/max) 49 %, 57 %, 68 %.
RTX 4090: GPU load (min/avg/max) 77 %, 85 %, 92 %.

Jestli to nebude ten hlavní důvod, proč z toho nikdo nedělá takový haló jako ty. :D

A Belka už spamuje linky na diit s tím, že když si na Harry Pottera pořídíš sestavu s AMD, bude to běhat stejně rychle jako na RTX 4090 a za ušetřený prachy můžeš k moři.

Nechceš rovnou vyrobit další článek, že když se na 60Hz monitoru zapne V-sync, tak v tom RTX 6700 XT lítá stejně rychle jako RTX 4090? :D

+1
-10
-1
Je komentář přínosný?

Adame, obcas si rikam, kdo je pitomejsi, jestli ty a nebo Belka...
https://youtu.be/OsA52DkP8WU?t=308
https://www.youtube.com/watch?v=OsA52DkP8WU
6950x beha rychleji nez 4090..to jsou veci, co, to jsi urcite nevedel...

+1
+4
-1
Je komentář přínosný?

Řeší výkon grafiky v něčem, v čem je ta grafika blbě optimalizovanou hrou uškrcená na dvou třetinách výkonu, který má, a prezentuje to tak, že mají stejný výkon. Jako sorry, ale to je jak u blbých na dvorku.

Ve 4K z toho taky vypadne stejný výsledek?

+1
-6
-1
Je komentář přínosný?

preco blbo optimalizovana hra? ved mam pocit, ze vysli uz 2 nvidia game ready drivery pre tuto hru. (minimalne jeden urcite)

+1
+2
-1
Je komentář přínosný?

Hra, která má v 1080p cap na ~150 fps, je prostě blbě optimalizovaná.

Sebelepší drivery s tím nic neudělají, když samotná hra nedokáže grafice víc snímků podstrčit.

S tímhle nastavením to bude mít „stejný“ výkon, i když k tomu strčíte o půlku výkonnější grafiku.

+1
-5
-1
Je komentář přínosný?

Když má RTX 3070 nebo RTX 3080 stejný výkon jako RTX 4090, tak to fakt není problém s tím, že mají ovladače grafiky vysoké režie.

I kdyby se všichni experti na overdrive... overheat... teda overhead na hlavu stavěli.

+1
0
-1
Je komentář přínosný?

Ty v tom clanku vidis nekde kartu 3070 a 3080?
Ctes aspon ty prispevky nebo uz to mas jako AI, ze dopredu vis vysledek?

Ja v tom linkovanem clanku vidim 5-6 her z testovane sady, kde ma 6950XT vyssi vykon v 1080p nez 4090. Vsechno to jsou dobre zname 3A hry. Chce mi tvrdit, ze tady neco jako "graphics overdrive" neexistuje i presto, ze je to testovane s nekolika ruznyma CPU?

Jak vis, ze HL neni kombinace tohoto + treba spatne optimalizace. Jak vis, ze je to jen a pouze spatna optimalizace? Jak vis, ze nedochazi 3070 a 3080 pamet, protoze RTX zvysuje naroky na pamet a HL proste zere VRAM jako ujete. atd.Testoval jsi tu hru ty sam?

+1
+1
-1
Je komentář přínosný?

Jsem myslel, že řešíme overdrive... teda overheat... teda overhead v Hogwarts Legacy.

HL je pochopitelně kombinace overheadu a limitu CPU, speciálně v situacích, kde je hra limitovaná procesorem. Vždy, když hra končí na limitu procesoru, tak se na konečném skóre podílí režie driverů. To je případ většiny her, kde v 1080p jinak celkově pomalejší Radeony RX 7900 XTX výkonem překonávají RTX 4090.

Ale kombinace limitu CPU a limitů ze strany ovladačů se projevuje tak, že dva tři modely top Radeonů mají stejný framerate, který je vyšší než u dvou tří modelů top modelů GeForce. Rozdíl mezi Radeony a GeForce pak připadá na ten overhead.

Neprojevuje se tak, že sedm různě výkonných modelů GeForce ze segmentů v cenovém rozpětí 12–50 tisíc končí na lautr stejné snímkové frekvenci, to už je prachsprostý důsledek toho, že procesor nestíhá posílat snímky do grafiky.

Pokud to „jenom“ blbě škáluje (jako třeba v tomhle grafu: https://static.techspot.com/articles-info/2627/bench/Medium_1080p-color.png , kde má RTX 3070 s polovičním výkonem 123 fps a RTX 4090 136 fps), tak je to zase jen důsledek toho, že po většinu doby, co trvá test, limituje výkon procesor a RTX 3070 je vytížená víc než RTX 4090, která jede na půl plynu a jen na krátké chvíle se dostane k vyššímu vytížení GPU.

To, že u RTX 4090 je ten strop někde kolem 136 fps a u Radeonů kolem 168 je rozdíl, co dělá overhead. Ve chvíli, kdy i z jednoho Radeonu, který je o 15 % výkonnější než druhý, vypadne rozdíl ve výkonu 2 %, je to uškrcené primárně procesorem, ne ovladači.

+1
+1
-1
Je komentář přínosný?

"Ve 4K z toho taky vypadne stejný výsledek?"
.. ty jsi o "driver overdrive" nikdy neslysel ze? A pokud nahodou to vyapda jako neco takoveho v nizsich rozlisenich, tak za to muze hra. Samzorejme. Jak by za to mohla treba funkcionalitu driveru, i kdyz je to fenomen, ktery jde napric mnoha hry, nikoliv jedne hry. A ze to je ve 4k jinak..to nemuze platit, ze existuje drivery overdrive, ktery tohle vysvetluje?
Ale Adamek jako vzdycky, je chytrejsi nez vsichni ostatni dohromady a hlavne ti youtuberi..to je teprve pakaz, delaji mu v tom bordel a ukazuji zcela neco jineho, nez nam Adamek z PCT chce servirovat..
Ty jsi fakt mimon.

+1
+1
-1
Je komentář přínosný?

Driver overdrive? Overhead? Jakože GPU jede na 57 % výkonu kvůli „režiím ovladačů“?

Tak to jsem ještě opravdu nikdy neslyšel.

A ten Radeon má taky „driver overdrive“, že jede jenom na 85 %, že jsem tak smělej?

+1
-5
-1
Je komentář přínosný?

ty jsi se na to video vubec nedival co Adamku?
Zase tradicne budes strilet slepyma, kopat nozickama a hadat se az do morku kosti.

https://www.techspot.com/review/2627-hogwarts-legacy-benchmark/#Medium_1...
a jak interpretujes ty vysledky tady?

+1
+3
-1
Je komentář přínosný?

A které konkrétně? Ty dole, kde to má v druhé testovací lokaci naprosto stejný výkon od RTX 3070 až po RTX 4090 a téměř stejný výkon od RX 6800 XT po RX 7900 XTX?

Tak to určitě nebude problém s optimalizací hry, ale s tím, že mají ovladače Nvidie „overhead“. :D

+1
-5
-1
Je komentář přínosný?

Takze tradice jako vzdy... Adamek je nejchytrejsi na svete, jakekoliv argumenty nejsou pravdive, jedine vysvetleni ma opet Adamek a nejchytrejsi je opet jen Adamek..
Proste Adamek je nejlepsi, jedine ON muze mit a samozrejme pouze ON ma pravdu...
Takovy DD jen v jine podobe.

+1
+2
-1
Je komentář přínosný?

Proboha driver overhead se projevuje tak, že se směrem dolů s klesajícím vytížením GPU s rozlišením zhoršuje škálování proti jiným platformám.

Ne tak, že má hra stejný výkon v 1080p i ve 1440p nebo tak, že má RTX 3070 stejný výkon jako RTX 4090, to už je limit ze strany procáku (anebo cap na framerate).

Jediné, o čem mě ty grafy přesvědčily, je to, že je to zprasenec, u kterého v tomhle stavu nemá jakýkoliv smysl řešit výkon.

Graf, jako je tenhle:

https://static.techspot.com/articles-info/2627/bench/Hogsmeade_Ultra_108...

jsem ještě v žádné hře neviděl. I ten Far Cry 6 se chová líp, i když je to co do škálování výkonu katastrofa.

+1
-2
-1
Je komentář přínosný?

Hele Adame má smysl, abysi tady akorát sbíral mínuska ? Stejně ať napíšeš cokoliv, i kdyby to byla náhodou pravda, plusek se stejně nedočkáš.
Proč si kazit radost, že se někde ukázalo, že i karta 7900XTX, o které se tvrdí že není úplně fit, to naklepala 4090. Za mě úplně v pohodě. Notabene je to v článku uvedeno, že se z toho nemají dělat závěry a ty si úplně hin, že ti někdo haní NV.
Nech radost i druhému táboru, mě to taky těší, že se to AMD povedlo a piš svoje příspěvky zase pod jiný článek, kde bude NV král.
Kapišto :-)

+1
+1
-1
Je komentář přínosný?

Tak článek hlavně tvrdí, že „konfigurace postavená na hardwaru AMD dosahuje výkonu sestavy podstatně dražší GeForce RTX 4090“, já k tomu říkám to, že stejný výkon má jenom, když se vybere to správné nastavení, na kterém je ta karta uškrcená výkonem procesoru.

Takové nastavení se dá najít skoro v každé hře, stačí jen patřičně stáhnout detaily. To je celý.

+1
-4
-1
Je komentář přínosný?

Koukám, ono to není dokonce není ani nativní 1080p, ale upscaling na 1080p. Uf.

+1
0
-1
Je komentář přínosný?

Hlavne pro Adama ma smysl byt v opozici, to za prve. Za druhe ma smysl se obout do No-X a za treti je skvele, kdyz muze byt na chvili takovy DD. Co mne na nem pak vzdycky fascinuje a bavi je, jaky je krasny pokrytec. Kdyz Obrmajer psal ty svoje moudra na PCT, tak se nikdy pod jeho clanky takhle 'ohnive' nevyjadroval.
Proste Adam je svuj...

+1
0
-1
Je komentář přínosný?

Tak takový DD je tady momentálně no-x, ne já.

+1
-3
-1
Je komentář přínosný?

".. hra má stejný výkon v 1080p i ve 1440p nebo tak, že má RTX 3070 stejný výkon jako RTX 4090, to už je limit ze strany procáku (anebo cap na framerate) .."

1) Cap na framerate to určitě není, když Radeony mají ty fps o něco výš.

2) overhead na straně drvirů nVidia je vyšší než na straně Radeon (proto mají nVidia karty nižší fps)

3) 13900K to pravděpodobně nestíhá krmit (ani s vypnutými E-cores, které by ho zdržovali ještě více)

4) nějaká optimalizace hry by se hodila. Ostatně je to spomenuto v tom linku

PS: drž se faktů

+1
-1
-1
Je komentář přínosný?

Jo jo, když je něco blbě optimalizované pro nV tak je to blbě ale když se stejný argument použije pro AMD tak je to dobře, protože nV je lepší...

+1
+2
-1
Je komentář přínosný?

No, akorát že tohle je blbě optimalizované jak na GeForce, tak Radeonech.

+1
0
-1
Je komentář přínosný?

proste Adam.. skoda, ze stejne aktivni neni na svem vlastnim serveru, kdyz vychazeli/ji clanky Obrmajera :))

+1
0
-1
Je komentář přínosný?

Jak vy víte, jak já jsem aktivní nebo neaktivní u článků Obermaiera. To, co v nich měl napsané v původní podobě, jste neviděli devět let.

+1
0
-1
Je komentář přínosný?

To je zvlastni, ja si treba konkretne pamatuji na jeden Obrmajeruv clanek, ktery napsal v dobe kdy vysel Skylake-X v desktopu (HEDT) a byl to 'vytah' clanku z Computerbase, kde se doslova nestitil lhat a uplne prekroutit puvodni vyzneni clanku. Kdyz jsem pak do komentaru pod tenhle clanek psal, ze cely jeho zaver, je presne pravy opak, nez je v originale, tak tohle individuum si dopsalo do puvodniho clanku, ze on (obrmajer) preci umi nemecky a on Obrmajer preci vi co pise. Nikde jsem te tam nikde nevidel..
To se tak stava, asi jsi zrovna ten den chybel ve skole..

+1
0
-1
Je komentář přínosný?

A byl to článek, nebo novinka? Novinky publikují autoři sami bez toho, aby to předtím někdo prošel. Ale ani většina z jeho novinek nezůstala v takové podobě, v jaké je napsal, to jste možná zaregistrovali.

+1
0
-1
Je komentář přínosný?

Hele, ja nemam ve sve podstate nic proti, dokonce ti verim, ze ty nejvetsi zhovadilosti, co Obrmajer pise, tak treba korigujes. Nemam s tim problem. Nicmene na PCT se vyjadrujes a do diskusi pod clankama pises jako autor.
Tady se chodis vylozene hadat a uzivat si, ze se na nekom muzes vozit. To mi prijde od tebe "silne nevyrovnane" a proto taky pisi, ze mas pokrytecky pristup.

+1
0
-1
Je komentář přínosný?

Na PCT se vozím v podstatě jenom po Belkovi. A ten si to za své belkagogie zaslouží.

U no-xe mi vadí to, že ohybá realitu tím, že zdůrazňuje to, co se mu hodí do krámu, a co se mu do krámu nehodí, decentně zamlčí. U něj nevěřím tomu, že by to dělal neúmyslně, nebo že by to byla jenom nepozornost nebo neznalost.

U Obra, Belky nebo Stacha je to v podstatě jedno, ti už jsou provaření. No-x je braný jako seriózní autor.

+1
-1
-1
Je komentář přínosný?

A co se týče ohýbání reality, tu bez vyjímky ohýbáte všichni, ať už záměrně, či neznalostí, nebo i chybou. Ale nikdo nepožaduje abyste byli 100%, ale zkuste se alespoň nestranně tvářit a nechovat se jak zbytek té mainstreamovské novinářské smečky.

+1
0
-1
Je komentář přínosný?

Já si myslím že Obr musí Adama hodně štvát. Za jeho ať už korigované, či nekorigované působení na PCT, odehnal Adamovi hodně čtenářů. Já jsem právě s ohledem na Obrovu strannost k Intelu, přestal PCT na dlouhé roky navštěvovat. Ty žvásty Obra se nedali ani číst. Apropo, není to ani dva dny, kdy jsme s Adamem řešili podobnou situaci opět s Intel shitem navařeným na výsledky GPU AMD, kde jsem se dozvěděl, že vlastně 13700 je nejlepší herní procesor. Já mám s ohledem na ucelenou nabídku AMD tedy úplně jiný názor. I o generaci starší 5800X3D je zase s ohledem na výběr her, lepší než o generaci novější Intel. Prostě mě příjde logičtější dát k AMD GPU, také AMD CPU a použít veškeré SAMy a BARy, která tato kombinace poskytuje, protože to ukazuje veškerý dostupný výkon, co tato kombinace přináší.

+1
0
-1
Je komentář přínosný?

"Prostě mě příjde logičtější dát k AMD GPU, také AMD CPU"

Souhlas, ale i k NVidia GPU je logičtější AMD CPU. Prostě porovnání AMD CPU + GPU a Intel CPU + NVidia GPU a něco z toho vyvozuje jen blbec!

+1
+1
-1
Je komentář přínosný?

Jenze ono to logičtější je o dost nvidia gpu + intel cpu znamená aktivní re bar technologii (cca2% výkonu navíc), což s Nvidia kartou na AMD procesoru/desce nezapneš. Naopak u AMD grafiky s AMD procesorem dostanes S.A.M ... no a to už je podstatně zajímavější protože radeony vykonově se S.A.M scalují místy málo 2% procenta výkonu třebas ale jindy taky klidně 20% výkonu navíc, záleží na titulu taková forza 5 i s Raytracingem mi přes sama lítá s 30 snímkama navíc na xtxku. Takže tohle za řeč jakoby stojí specielně u řady RX7000 která na tom celkem stojí. Stačí se kouknout na grafy xtx z AMD platformy ku Intel processoru, bez AMD cpu jede v rasteru +- jako 4080 s AMD procesorem 4080tku roztrhne. Nemluví o tom důsledně ani jedna strana, ale měly by, protože co si mají lidi pak jako vybrat.

+1
0
-1
Je komentář přínosný?

Pro mne jako maximálně občasného hráče má PC úplně jiný význam, ale i z pohledu hráče, který si to sám kupuje i platí provoz a nemá zrovna nadprůměrný plat a případně se stará o rodinu, nebo musí platit víc léků, nebo nějaké dluhy: Proč by měl pro pár navíc něčím podmíněných procent ve hře provozovat platformu s větší spotřebou? To mi fakt hlava nebere. Spíš mi to přijde, že jak Intel platforma posupně přichází o výhody, je třeba stále vymýšlet něco, aby dávala smysl.

+1
0
-1
Je komentář přínosný?

V defaultnim nastaveni o 4 az 5 tisic levnejší karta co má o 35w vetší spotřebu pri plné zatezi. Já zrovna mám ten pruměrnej plat , pouzivám omezovače snímků na hodnotu kterou chci pro danou hru 60fps single/165 hz/fps multiplayer a podtaktování, jelikož podtaktování je zdravé jak pro kartu , jeji výkon (teploty) i spotřebu. Konec koncu jako vsechny AMD produkty i jejich karty se dají podtaktovat opravdu dost jen je u každého kusu tahle cifra trochu jiná... ze by jste se nedostal pod standartní spotřebu 4080tky ... toho se opravdu netřeba bát, vliv na záruku produktu to narozdíl od amd procesoru nemá ta zustáva i když si hrajete s lištičkou. XTXka sice mají problém se spotřebou ale jen když se snažite přetaktovat jádro na větší než doporučené herní hodnoty, jinak je karta naopak dosti šetrná ku výkonu . Jako příklad u mě můžu dát třeba Wonderlands na maximalní detaily s fixem na 60fps v rozlišení 3440x1440 se frame rate ani nehne a spotřeba je pak 180w. Spotřeba je validní argument pouze pro plug and play uživatele. Pak ano Vaše karta bude papat o tech 35w více s o 10% precent větším výkonem v rasteru a nějakých 25% horším v RT, no ale bude stále levnější na pořízení o těch 4 až 5 tisíc. No a co se týče procesoru amd tak tam je spotřeba mnohem nižší než u Intelu.

+1
0
-1
Je komentář přínosný?

To je hezké, ale psal jste o výhodnosti spojení Intel + Nvidia.

+1
0
-1
Je komentář přínosný?

vždyť platí obě 4080 nemá na AMD platformě ty pěkné výsledky a 7900xtx zase nemá pěkné výsledky v benchmarku na Intel procesorech. Stačí se kouknout na net a projet grafy. 4090 to je karta sama pro sebe nebylo nic co by jí někdy nebottlenecknulo a to ani ve 4k s 13900, místy bottleneck tak jako tak to je karta na které se měří tedy velmi obtížně, je prostě až moc dobrá kuproti zbytku dostupného hardwaru, jestli ji pomůže x3d, nevím zase o tolik silnější nejsou jak kdy zřejmě druhá věc je, že Nvidie Ada Lovelace karty trpí na bottleneck více než navi 31. To není nic nového, problém se řešil už u předchozí generace karet Nvidie, něco se vyřešilo a něco zase ne Utilizace v DX12 je jejich Achylova patička není to nic tragického, ale problém to je.

+1
0
-1
Je komentář přínosný?

Tomu rozumím, ale tedy se krom kombinace Intel + Nvidia nabízí taky AMD + AMD, ale tu ignorujete.

+1
0
-1
Je komentář přínosný?

Mne pride ze ta karta je brzdena CPU. Nech spravi rovnaky test ale prehodi CPU medzi sebou. Nech je vysledok objektivnejsi. Ako nechapem kto robi zavery o vykone karty ked obe bezia v inej konfiguracii. Ale co som tu odsledoval dlhodobejsie tak to tu je viac menej AMD fans :) Potom sa tu pisu taketo zavadzajuce clanky :)

+1
+1
-1
Je komentář přínosný?

Takže tu máme minimálně už druhou hru, kde se RX7900XTX nějak vyrovná RTX4090, ale stále platí "bylo by nepatřičné jej jakkoli zobecňovat." :)
Ale jasně, můžeme se validně bavit např. o CPU bottlenecku u 4090, kde nadcházející generace (nebo ZEN4 3D) udělají rozdíl. Ale v obecnosti... :)

+1
+1
-1
Je komentář přínosný?

Možná jste nějakou přehlídl. Je jich více.
resp. nVidia fans mají tendenci tvrdit, že není fér porovnávat výkon GPU ve hrách, které nevyužívají RT.

+1
0
-1
Je komentář přínosný?

Ano to je zázrak, v 1080p a ještě s upscalingem jsou si Rx 7900xtx a RTX 4090 rovné.
CPU bottleneck je asi ode dneška jen mýtus :D

Příští novinka může být že vlastně třeba i Rx 6600 je stejně rychlá jako RTX 4090 - stačí zapojit 1080p 60hz monitor a zapnout vsync .

+1
0
-1
Je komentář přínosný?

Ten upscaling je tam proto, aby v daném výsledném rozlošení 4090 dosáhla alespoň čísel 7900XTX.

Capframe s upscalingem na 1080p
7900XTX vs 4090 = 147 : 145

Techspot 1080p
7900XTX vs 4090 = 150 : 138

+1
0
-1
Je komentář přínosný?

No jasné, RTX 4090 je vlastně skoro nedostatečná karta na 1080p, to jsou mi věci... ;D

+1
-1
-1
Je komentář přínosný?

Jeremiáš 5:21
Mají oči k vidění, ale nevidí.
Mají uši k slyšení, ale neslyší.

+1
+1
-1
Je komentář přínosný?

Mám nápad pro redakci na příští článek.

"Rx 6600 se vyrovná 6x dražší RTX 4090! Stačí zapojit 1080p 60hz monitor a zapnout V-sync"

+1
-2
-1
Je komentář přínosný?

"Navíc krom některých desek, které nabízejí nadstandardní implementaci, často PBO zvyšuje spíše spotřebu než výkon" <= Mohl by to někdo rozvést, resp. mě odkázat někam, kde se o tom dočtu víc, mj. co je to ta "nadstandardní implementace" PBO na MB ... ? Díky.

+1
+1
-1
Je komentář přínosný?

Podle recenzí se hra jeví jako hodně limitována výkonem CPU a zasloužila by nějaký ten patch s optimalizací.

Jako první by mělo být odstranění požírače výkonu zvaného Denuvo.

+1
0
-1
Je komentář přínosný?

https://youtu.be/URovBG_Q4_c - LIVE | RX 7900 XTX + i9 13900k | Hogwarts Legacy | 4K Ultra Settings Ray Tracing FSR

https://youtu.be/EzySaZUisjQ - LIVE | RTX 4090 + i9 13900k | Hogwarts Legacy | 4K Ultra Settings Ray Tracing DLSS 3

+1
0
-1
Je komentář přínosný?

Z dikuse k nalinkovaným ukázkám:

- There are less Fps on Radeon 7900xtx but running smooth. On Nvidia cards (i have rtx 4090, 32gb RAM) stuttering chopping, freezing. Not only this game Witcher 3 same.

- Turn off raytracing shadows only leave the other two raytracing on and put everything else on ultra in and fsr2 on quality, and at 4k you will see a huge difference in fps. With my 7900xtx I went from 50-60fps to 85-90fps at 4k.

Tak možná za půl roku, za rok ... až z toho odstraní Denuvo, udělají na tom nějaké výkonnostní optimalizace ... AMD a nVidia upraví ovladače ...

Snažit se provozovat na trh čestvě hozený SW je spíš za trest. Dělat někomu testera a ještě za to platit.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.