Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Komentář k testu 5800X3D s RX 6900 XT

Tak já se pokusím slušně a věcně........ééé...........taky mám rád domácí kváskový chleba, ale je to pracné. Ovšem Mušketýr od Penamu byl doslova odporný (přesolený, nakyslý a nahořklý) a znovu bych si ho nekoupil ani kdyby stál 10 Kč.

+1
+2
-1
Je komentář přínosný?

Já si rád kupuju chléb v lokálních pekárnách, masivně vyráběné balené bazmeky nekupuju.

+1
+6
-1
Je komentář přínosný?

Tak já taky občas nakoupím od lokála-menší firmičky, ale není třeba to tak přeceňovat. Jeden typ chleba chutnal a měl konzistenci, že bych se i vsadil, že je ze zmraženého polotovaru, což mě vzhledem k o dost vyšší ceně vadilo.

+1
0
-1
Je komentář přínosný?

Zkusil jsem Mušketýra jen jednou.. a máte pravdu. to je parodie a nechutná, tak praseti... pak jsem jezdil 30 km pro chleba z jedné středočeské pekárničky... A nakonec jsem nauřil péct kváskový chlaba paní domácí.. a je klid,,,

+1
+1
-1
Je komentář přínosný?

Neřekl bych, že kváskový chleba je pracný, není ani nějak složitý, ani namáhavý. (Hlavně když hnětení udělá technika. Ale samozřejmě úplně ideálně když celé pečení udělá třeba manželka :-) )

Akorát se nesmí počítat náklady ve srovnání s tím kupovaným. Ale to je skoro u všeho, co si člověk vyrobí doma.

+1
+5
-1
Je komentář přínosný?

Sorry, ale domácí chléb, navíc napůl z celozrnné špaldové mouky, nám i s náklady na energie pořád vychází levněji, než kupovaný běžný a nechutný pšenično-žitný.

+1
+2
-1
Je komentář přínosný?

Tak napůl ze špaldové mouky bych suroviny+energie od boku tipnul lehce přes 30 Kč, v obchodě se za 50 celkem dobrý sežene, takže zbývá necelých 20 Kč- pokud tomu věnujete víc než cca 10 minut, děláte pod minimální mzdu.

+1
+4
-1
Je komentář přínosný?

"navíc napůl z celozrnné špaldové mouky"
Tak tím jsem skončil. Jediná celá zrna, která ni do baráku na pečivu smějí, jsou mák a sezam. Jinak ale nejsem pták, aby si můj metabolismus poradil s tímto ptačím zobem. Nicméně máte pravdu, že kvalitní pšenično-žitný chléb aby člověk dnes v obchodě pohledal. Naštěstí s domácí pekárnou není takový problém si ho vyrobit doma a mít ho čerstvý ke snídani.

+1
+1
-1
Je komentář přínosný?

Hodinky nebo holínky ... oboje se natahuje.

Zrna v celku nebo hrubý šrot se opravdu používají. Ale není to totéž co celozrnná mouka.

Pro nezasvěcené:
U obilného zrna se (pro potravinářské účely) rozlišují části
- klíček (vitamíny B, bílkoviny, ...)
- obal neboli otruby (minerály, vláknina, ...)
- endosperm neboli zbytek (převážně škrob)

Pro celozrnnou mouku se to semele komplet
Pro bílou mouku se použije jenom ten vnitřek (ca 85% zrna)
Otruby lze koupit i zvlášť, ale pořád tam bude chybět ten klíček.

PS: Špalda je pořáda pšenice. Když už bych se chtěl vytahovat ... celozrnná žitná mouka.

+1
0
-1
Je komentář přínosný?

Celozrnná špaldová mouka dodá chlebu vlákninu (v hladké pšeničné ani žitné vláknina prakticky není), tmavší barvu a vynikající chuť. Co se nákladů týká, tak 250 g hladké pšeničné, 250 g špaldové, půl kostky droždí, dvě lžičky soli, lžička kmínu, trošička cukru, dvě lžíce octa a vlažná voda. Mouku jako správní důchodci kupujeme v akci, takže k dnešnímu dni ve třetině září 2022 to dělá cca 4 Kč + 8,50 Kč + 1,80 Kč + řekněme 3 Kč na to ostatní včetně mytí nádobí, plus cca 1 kWh elektřiny. Dostaneme cca 850 g bochník za asi 25 Kč, to dělá 14,70 za 500 g chleba. Ten dnes stojí přes dvacku ten nejobyčejnější, který se z většiny pekáren nedá žrát, protože je v něm nejmíň 40% namletého starého tvrdého chleba místo mouky. Část toho sajrajtu byla určitě namleta a znovu upečena mnohokrát.
Jakou cenu má čas na tom strávený pro důchodce, to si spočtěte sami. Žena to zvládne připravit během vaření oběda a po obědě to jen upeče. Zdá se vám to moc rychlé? Není v tom žito ani tuk, kyne to rychle, stejně jako třeba těsto na houskové knedlíky. Ostatně neustálé nakupování chleba žere čas taky, zatímco suroviny lze nakoupit do zásoby na pěkných pár týdnů dopředu.

+1
0
-1
Je komentář přínosný?

Ani pracné ani složité. Do 1,2kg to nechávám míchat domácí pekárnou, pak to jde do ošatky na X hod na vykynutí a do trouby. Když peču větší, řekněme 1,5kg bochník, míchám to ručně. Ono to zas tolik vypracovat nepotřebuje, je to otázka několika málo minut fyzické práce. Pak se jen dokrmí kvásek. Bratru tak celkově půl hoďky týdně, pokud člověk peče 1 týdně? A oproti kupovanému shitu, i kdyby nakrásně inzerovanému jako kváskový/bio/domácí/whatever je to prostě lepší chléb.

+1
+1
-1
Je komentář přínosný?

Jasně, akorát těch půl hodiny práce na jeden chleba u člověka s průměrnou mzdou je víc jak stovka, u ajťáka ani nemluvě :-)

Jak říkám, prostě člověk nesmí řešit náklady.
(Nebo musí pečení chleba počítat jako relaxaci :-) )

Jinak kvalitativně je samozřejmě domácí chleba proti průměrnému kupovanému jinde. (Ačkoliv, pokud člověka pečení nebaví, kupovaný nadprůměrný chleba bude taky dobrý.)

+1
+1
-1
Je komentář přínosný?

Alebo to robiť popri práci na homeoffice ;)

+1
+2
-1
Je komentář přínosný?

Pokud to v té domácí pekárničce nepečeš, byla to zbytečná investice.

Pořiď is robota. Ten nemá problém uhňácat 0.5 - 2.0 kg (větší i více)

+1
+1
-1
Je komentář přínosný?

Ta pekárna je stará asi 15 let, manželka v ní kdysi pekla. Pak jsme přešli na kváskové bochníky (to už je taky hromada let), takže slouží z 99% už jen jako míchačka. I tak super.

+1
0
-1
Je komentář přínosný?

V domácí pekárně se dobrý chleba udělat nedá, zkoušeli jsme čtyři typy a vždycky z toho byla taková divná pěna. Na hnětení těsta jde.

+1
+1
-1
Je komentář přínosný?

Třeba si nejdřív pořídili pekárnu a časem zjistili, že chleba pečený v troubě je lepší.

(Jednu chvíli jsme měli ještě lepší systém, když pekárna přestala péct a ve skříni byla stará, která pekla a nehnětla. Takže jedna pekárna na hnětení a pak přehodit do druhé pekárny na pečení :-D )

+1
0
-1
Je komentář přínosný?

Taky jsem nejdřív pořídil pekárničku.
Ale použivali jsme ji na celý proces a navíc i některé alternativní způsoby využití (marmeláda).

Pak jsem se naučil používat robota na hňácání a troubu na pečení.
Klasické kynuté věci jsem před tím dělal v ruce. S robotem to zabere méňe (mého) času.

+1
0
-1
Je komentář přínosný?

Chleba? Kdo by jedl takovou nezdravou sračku?

+1
-4
-1
Je komentář přínosný?

Kváskový chléb jest tvořen za pomoci kvásku, ve kterém proběhlo alkoholové i mléčné kvašení. Moc pečiva zdravějšího než tohle neexistuje. Ale ano, v principu jsou všechny obiloviny zlo a bavíme se jen o míře toho zla ;-).

+1
-1
-1
Je komentář přínosný?

85% (*) lidí zemřelo do 24 hodin po požití chleba

(*) udáj platí pro tzv "západní" kulturu. U asiatů to platí pro rýži.

+1
+3
-1
Je komentář přínosný?

"Ale ano, v principu jsou všechny obiloviny zlo"

A proto je nejlepší je nejíst vůbec...

+1
0
-1
Je komentář přínosný?

Chtěl jsem reagovat obšírněji, ale po hlášce "procesory generace Alder Lake odvedou ne o moc horší práci ve hrách" asi ani není třeba. :-P
Blog docela divný teda....

+1
+12
-1
Je komentář přínosný?

Pan Ježek je taky divný, ale máme ho rádi. Člověk, který vždy fandil outsiderům napříč spektrem. Ovšem, má to své kouzlo, vždy dokázal vypíchnout zajímavá fakta, které by normálního člověka co nebaští hořké čokolády ani nenapadla. Musíte si ten článek v hlavě přefiltrovat a pak si to musí sednout......

+1
+4
-1
Je komentář přínosný?

Pokud člověk čte mezi řádky a vyznění vynásobí koeficientem přístupu autora, jde asi o široko daleko nejpozitivnější hodnocení 5800X3D. Chtěl jsem AM4 již zcela přeskočit, ale asi to ještě přehodnotím. ;-)

+1
+4
-1
Je komentář přínosný?

Už vydržte.. do další generace..

+1
-1
-1
Je komentář přínosný?

Ten čip 5800X3D je hlavne pre servery určeny tie maju stale malo pamate a ta ich dosť brzdi s tymto to bude bonba. Preste povedane 5800X3D je testovacia vzorka čo bežne aplikacie povedia na viac pamate? povedali nič, prinos je len v hrach a aj to len v niektorych.
Mam pocit že AMD planuje dve CPU ZEN4 a ZEN4c bežne aplikacie nepotrebuju vela pamate, ale silne procesory čo zvladnu vela inštrukcii za takt, a serveri opačne pamate nieje nikdy dosť, ale maju radšej viacej jadier ako velkych.

+1
-13
-1
Je komentář přínosný?

Bože, ty si jebo na entú...

+1
+8
-1
Je komentář přínosný?

Snajprik vy si skutečně pletete paměť a paměť / Cache a RAM? Zbytek nemá cenu komentovat.

+1
+6
-1
Je komentář přínosný?

Osazení AM4 128GB(4x32GB) u řady KITů s sebou přináší nižší rychlosti DIMMů (horší takty i latence). S 3x vetší L3 cache u případů s významným cache-hit-ratio to nemusí tolik bolet.

Byl jsem strašně překvapen chováním Epyc 7343(16c) v GIMPu. Přestože dosahuje maximálního boostu 3,9GHz, chování při velkém zoomu obrázků bylo jak z jiné planety. Stále netuším zda to šlo na vrub Zen3, 512GB RAM (8-channel), či 128MB L3 cache (RTX A4000 s 16GB by na to snad neměla mít vliv).

+1
+2
-1
Je komentář přínosný?

Právě proto existují nižší modely ThreadRipper, velká Cache, 4 nebo 8 kanálů DDR4 a 64 nebo 128 PCIe linek mají všechny. Samozřejmě u některých kombinací může být Epyc zajímavější.

+1
+3
-1
Je komentář přínosný?

Zen3-based Threadripper je ostuda AMD. Nechápu jak může přijít s top produktem pro ty co potřebují a platí vyšší marži za maximální výkon víc než 1,5 roku po jeho nasazení v desktopu. Doufám, že se Intel vzpamatuje i v HEDT segmentu.

+1
+1
-1
Je komentář přínosný?

To je snadné, měli takový odbyt Epyc, že okrajový HEDT segment musel počkat. Ostatně proto je jen PRO a obyčejný ani nebude.

+1
0
-1
Je komentář přínosný?

Nepřekvapilo by mne kdyby ThrPro a Epyc byly ve skutečnosti jeden fyzický produkt a pouze podle TDP a dosahovaných taktů se určí na co bude použit.

+1
0
-1
Je komentář přínosný?

To je klidně možné, když pominu na sběrnici datové i paměťové ořezaný základní ThreadRipper je PRO model prakticky jako pouze jednopaticový EPYC P. Dokonce jsem četl že by ThreadRipper mohly fungovat s dvojicí patic. Ale to odlišné taktování má důvod. Na workstationu málokdy běží plná zátěž tak dlouho jako na serverech nebo superpočítačích. Samozřejmě, že modely s 3D cache jdou jen do EPYC řady. A modely s nižším počtem jader, ale plnou cache taky, ale ty už se dají selektovat během testování.

+1
0
-1
Je komentář přínosný?

<cite>Pan Ježek je taky divný, ale máme ho rádi.</cite>

Hovor laskavo za seba. Ja jezka nemozem vystat na serveroch, ktore s oblubou navstevujem (Diit, Root). Ten clovek mi vylozene vadi a snazim sa vyblokovat akykolvek obsah, ktory toto individuum produkuje.
Zatial to iba preskakujem ocami, ale casom mozno pride nejaka extension do browsera, ktora to zariadi za mna.

+1
-1
-1
Je komentář přínosný?

Taka presne typicka jezkovinka. Viz jeho komentare pod clankom o testoch v 720p. Chapik ktory este donedavna onanoval nad 15 rocnym pc s tym ako mu staci a je to supet ma problem s testom v 720p ze to nikto nepouziva.. Ked da intel svoje dokladne povyberane testy tak sa roztapa. Ked je priekazne AMD lepsie tak tie testy su onicom... Uz len rozdiel v tej spotrebe na masine ktora pojde 18/5 (2 smeny) staci na to preco si zvolit AMD.

+1
+10
-1
Je komentář přínosný?

https://www.techspot.com/review/2449-amd-ryzen-5800x3D/
Už kvůli té spotřebě v Blenderu bych tomu AMD odpustil i o třetinu nižší výkon než má NeoNetburst.

+1
+3
-1
Je komentář přínosný?

Nepsal bych NeoNetburst. Core se přece vrátilo k PIII a dál se vyvíjelo. Jakkoliv mám rád AMD, tohle je třeba upřesnit. NetBurst je něco úplně jiné a pokud narážíte na multithreading, tak Intel nebyl ani první, kdo s ním přišel.

+1
+5
-1
Je komentář přínosný?

Tipnul bych si, že ta asociace jde na vrub spotřeby.

+1
0
-1
Je komentář přínosný?

Jistě, ale modely s velkou spotřebou a navíc i neodpovídajícím výkonem mělo i AMD.

+1
+3
-1
Je komentář přínosný?

Presne malo. Uz nema. Ked to bolo naopak tak si pametam tie "pr" kecy v style AMD vam moze zapalit dom.

+1
0
-1
Je komentář přínosný?

Je rozhodně zajímavé, jak moc v případě spotřeby AMD pokročilo jak u procesorů, tak i u grafik. Přitom u grafik to není zase až tak dávno, kdy na tom naopak AMD bylo hůř. A je zábavné, jak to tenkrát AMD fans obhajovali, že přece na těch "pár Wattech navíc" nezáleží. A teď naopak kvůli vysoké spotřebě šijí do NVidie. Sice oprávněně, protože ta spotřeba v poměru k výkonu je dnes u "zelených" grafik šílená a bohužel bude hůř, ale to neznamená, že mě tato argumentační otočka o sto osmdesát stupňů a krátká paměť AMD fans nemůže pobavit, kdykoliv ji vidím LOL

+1
+2
-1
Je komentář přínosný?

Jenže tento paradox se objevuje i na druhé straně barikády. AMD a Nvidie si akorát prohodili strany jak při hraní nějakého sportu. Je to docela vtipné v obou případech. Nvidia fans pořád připomínali kudy chodili, jak jsou jejich grafiky úspornější a efektivnější a když se to najednou otočilo o 180 a je to nyní přesně naopak a je to teď pro ně snad ještě horší než tehda pro AMD a ten rozdíl je větší, tak to najednou není problém, že to je o dost topivější a ani to není o moc výkonnější, takže i míň efektivnější než AMD.

+1
+1
-1
Je komentář přínosný?

Pravda, argumentační faily druhé strany jsou často podobně zábavné LOL

+1
0
-1
Je komentář přínosný?

Já právě na svém pečivu64LC naměřil podstatně veselejší údaje, než jsem vídal u recenzí a testů. Jasně, netestoval jsem ty dané hry, protože je nemám a nebaví mne, ale když jsem tenkrát rozhodoval, jestli 1080 v nějaké fajné edici, 1080Ti a nebo V64, tak mi to vyšlo, že V64 je někde mezi těma dvěma kartama s tím, že tu a tam to spadlo na úroveň 1070. Cenově to bylo taky nějak podobně (kryptohorečka najížděla) a spotřebu, tam jsem to byl ochotný nějak prominout s tím, že si tu kartu přiškrtím když bude třeba, hlavně že nebudu mít nějakej "zelenej" bordel ve sčotu - tím myslím ten softwarový.

Dopadlo to tak, že jsem byl překvapen, jak málo ta karta žere a vyhnal jsem to do TDP limitu jen v jednom testu. Vzhledem k tomu AIO vodníku a jeho vlastnostem jsem byl ve finále velmi rád za tuhle volbu, protože jsem si jak radiální, tak 3 ventilátorové edice karet vyzkoušel.

Takovej nepříjemnej vřed na kráse byla jen jedna věc - z prvu jsem nechápal proč, ale po letech mi to došlo. Pokud došlo na intenzivnější zátěž grafiky, vypínal se mi stroj. Nejdřív jsem myslel že je to nějaká nelibost desky, posléze padla vina na grafiku (měnil jsem jen tu), až jsem zjistil, že je to pouze kombinací moderního řízení zdrojů na grafice a "starého" zdroje, který ty prudké a rychlé změny vyhodnocuje jako zkrat. Obdobně by se to chovalo s moderní nV kartou, dokonce jsem byl nahlodanej, že bych snad tu kartu nějak zreklamoval nebo vrátil, ale neudělal jsem tak. Teď už prakticky nehraju, tak se takové věci nedějí. Ono tomu pomohlo zkrocení pracovních kmitočtů a řízení napětí, ale tu a tam to stejně zdroj vypnul.

+1
0
-1
Je komentář přínosný?

No, já tedy nevím, ale ale nechat si v počítači zdroj, který se sám vypíná, to bych tedy neriskoval. Takový zdroj by okamžitě letěl do šrotu, protože bych se bál, že mi jednoho krásného dne odnese i další komponenty. Se zdroji nejsou žerty a už jen z důvodů vlastni bezpečnosti bych si takový zdroj v počítači nenechal. A je úplně jedno, jakou mám grafiku a procesor, pokud je zdroj nezvládá, je čas ho vyměnit.

+1
0
-1
Je komentář přínosný?

Špatně čtete a zmiňuji to tam. Zdroj je dobrý, ale byl navržen v době, kdy zdroje měli podstatně pomalejší reakci, stejně jako logicky všechny čipy měli mnohem pomalejší řízení spotřeby. No a já jak na potvoru upgradnul systém z HD7970 na V64, kde ty produkty sice dělí jen nějakých 5 let? ale systém řízení se posunul úplně do nebes a zkrátka pokud grafika, plácnu, v 1ms krocích je schopna cyklovat s zatížením 12V větve v rozmezí 0,1-30A, tak v době "dávné" to bylo schopné cyklovat (opět plácnu) co 5ms. Výrobce zdroje aby zajistil co nejlepší ochranu proti nadproudu vzal jako etalon tehdejší nej HW, oměřil si jeho chování a podle toho nastavil chování té ochrany. Když pak za 2-3 roky výrobci vydají HW, co se chová jinak, jak to asi dopadne, žejo.

Blbé je, že jsem to zjistil až po letech, v době kdy se mi to stalo poprvé, jsem akorát narážel na všelijaké problémy způsobené chybným SW/drivery, případně takové ty duchařiny spojené s určitou kombinací HW/SW. Štve mě to, je to drahej a velmi kvalitní zdroj, ale vzhledem k tomu jak často se to dělo a že teď už prakticky nehraju, tak to už nijak řešit nebudu, neb další upgrade počítám s AM5 a rovnou i na nějakou novou GK a tak. Ono už ten Haswell-E má taky to nejlepší za sebou, ale výkonově mi to pořád stačí, rozhodně to pociťuji tolik, jako před 6 lety Nehalem.

+1
0
-1
Je komentář přínosný?

Nečtu špatně a to, na co a jak byl zdroj navržený, nemění nic na tom, že nechávat si v počítači zdroj, který nezvládá váš aktuální hardware je riskantní. Ale pokud vám nevadí riskovat život svůj, své rodiny a svých sousedů, pak je to vaše věc. Já bych takovou odvahu ale neměl a zdroj už dávno vyměnil. Zas tolik peněz to není, aby to opodstatnilo to riziko.

+1
0
-1
Je komentář přínosný?

Nechápu pořád, proč bych měl tenhle zdroj vyměnit, je naprosto vpořádku a funguje naprosto přesně tak, jak má. Mimo jiné jsem HW dev, takže do toho vidím víc než do blackboxu, ze kterého leze nějaké napětí a tím asi většina končí. Problém je pouze v tom, že šel vývoj HW mezitím kupředu a v rámci ekologie a lepší regulace pro vyždímání ještě více výkonu z už tak vyhoněného HW, udělali takovouhle věc. Čili stačilo by pouze "zpomalit" reakci ochrany vůči zkratu, dá se říct, že naopak je tenhle zdroj bezpečnější než to, co se prodává teď, protože vypne mnohem dřív, protože ono to jinak nelze řešit. Samozřejmě není to jen u tohohle typu, ale i jiné zdroje zkrátka vypínali s novějším HW, kde byla právě takhle rychlá a prudká regulace.

Je dost možné, že to bude ještě horší a detekce zkratu bude už tak pomalá, že se to ani nebude vyplácet implementovat, protože ve většině případů pak zahoří spíš ten HW, než to stihne regulační smyčka sejmout. Mimochodem, dva roky zpět jsem řešil trochu výkonější DC-DC měnič v produktu, nenavrhoval jsem to celé diskrétně, to se dneska prakticky nedělá, bylo zajímavé pozorovat, jak se s ochranama každej výrobce popral. Mimochodem, zvítězil paradoxně nejlevnější obvod, což mě i trochu potěšilo.

+1
0
-1
Je komentář přínosný?

Pokud máš na mysli nějakého konkrétního fanouška, tak ho uveď. Pokud jsi to myslel obecně, tak opravdu nevím, kde bereš tu jistotu, že to jsou ti samí, co obhajovali vysokou spotřebu.

+1
0
-1
Je komentář přínosný?

Myslím to obecně a nejen ve vztahu k těmto stránkám. A ano, nemohu vědět, že to jsou ti samí, ale prostě když ty argumentace, na obou stranách barikády, jsou najednou přesně opačné, než bývaly, tak mě to prostě pobaví. To je celé. Víc v tom nehledejte.

+1
0
-1
Je komentář přínosný?

Až takový AMD aktuální mít bude určitě ho někdo ozdobí vhodnou přezdívkou např. neoFX (aka FX 9590).

Majitelé Threadripperů využívající aktivně PBO s TDP >>400W si kupodivu nestěžují.
https://www.youtube.com/watch?v=fIRWzMnfMPY&t=730s

+1
0
-1
Je komentář přínosný?

No vidíš Ježku, a kdyby jsi místo 8 jádra použil 4 jádro s HT a k tomu přepnul do 4K, tak by ti to dávalo v podstatě stejný výkon.

Ty testy v HD byly a jsou o tom, aby se ukázalo, že poslední Intelí bašta padla. Doposud intel zaostával ve všem, až na hry (optimalizované na intel CPU), ve kterých AMD bylo poráženo při nízkém nastavení. Většinou v řádu vyšších procent, ale byla to prostě porážka.

Jinak jsou herní nasazení, kde se na efektivitu moc nehledí a alfa omega jsou fps. To je příklad CSka, kde čím rychlejší snímky, tím větší kadence zbraní. Takže profi hráč si nový AMD procík koupí.

Jinak platí co jsem napsal výše, na normální, efektivní hraní s >30 fps stačí Ryzen 5 4500 co stojí 3600 korun. Protože aktuálně není grafika, kterou be neukrmil v nastavení namax.

+1
0
-1
Je komentář přínosný?

"Z hlediska herního oceňuji Honzu za provedení testu s hi-end Radeonem. Ukazuje totiž krásně, že vliv nového Ryzenu s velkou cache die je prakticky mizivý."
Pretože test ukazuje limit grafickej karty, ala procesory sa flákajú. Preto je relevantný test v 720p/1080p. Na jeseň s novou 7900XT budú fps minimálne raz také veľké a rozdiely budú výrazne v prospech 5800X3D.

+1
+10
-1
Je komentář přínosný?

Když někdo testuje grafiku, a doslova to vydává za test procesorů.

+1
+5
-1
Je komentář přínosný?

Dneska uz chapu lidi, co se do Jezka drive navazeli. Jezek vezme jabka a vydava je za pomerance. Jak nekdo trefne poznamenal v jedne z diskusi..je s podivem, ze s tim co predvadi ma jeste redaktorsky ucet...

+1
+10
-1
Je komentář přínosný?

Povíme si to, až to přijde.

+1
0
-1
Je komentář přínosný?

Budeš testovat v 8K a bude zas vše tak, jak má býti, to je v klidu, neboj.

+1
+3
-1
Je komentář přínosný?

Nebudu.

+1
0
-1
Je komentář přínosný?

Tak to pak nevím, co budeš říkat na to, až se pak později začne víc projevovat ten rozdíl mezi těmi procesory s výkonnějšími grafikami? :D

+1
+3
-1
Je komentář přínosný?

... presne tohle mi napadlo.

Navic, predpokladam ze clovek si kupuje CPU na vic nez rok. GPU generace ktera prijde ted, ma zdvounasobit vykon. V 2024-25 prijde dalsi, ktera bude mit tak ~3x vyssi vykon nez dnesni 6900XT. Tipoval bych ze i v QHD zacne byt brzda procesor, alespon v nekterych hrach.

Takze muj zaver je: pokud se na to divate optikou dneska, pokud kupujete procesor s tim ze za rok PC vymenite, je to jedno. Pokud ale chcete CPU na hrani v QHD / 4K na dalsi 2-3 roky, 5800X3D je lepsi volba.

+1
0
-1
Je komentář přínosný?

To jenom potvrzuje obecně rozšířený názor, že "DD čísliciová zhouba" neumí testovat.
(Provádět testy by mohla zvládnout i cvičená opice. To na čem záleží je výběr testovascího scénáře a interpretace naměřených dat)

Ať se to Ježkovi líbí nebo ne, v rozlišení 1440p už se netestuje herní výkon CPU ale sestavy (lepší případ) neno GPU jak uvádí TechSpot.

https://www.svethardware.cz/ryzen-5-5600-vs-core-i5-12400f-jake-grafiky-...

+1
+1
-1
Je komentář přínosný?

Test od Gamers Nexus ukazujed čosi iné: https://www.youtube.com/watch?v=hBFNoKUHjcg

Navyše, pri použití DLSS/FSR hra beží v tom "stupídnom" rozlíšení ako je 720p.

+1
+2
-1
Je komentář přínosný?

D.Jezek je podle mne priklad cloveka, ktery se zasekll a nedokaze uz asi prekrocit svuj stin. Neustale omilani jednoho a toho sameho pohledu bez schopnosti prizpusobit svuj pohled dle ruznych scenaru a pozadavku ruznych uzivatelu. Ruzne nahledy samozrejme existuji bez toho jestlI je D.Jezek schopen pojmout-akceptovat nebo ne..
Ps: vybrat si "4testy", z toho 3 ne-herni i presto, ze AMD primo 5800X3D marketuje jako herni CPU, jen odpovida tomu, co bylo reveno vyse.
Ale tak proc ne, preci za 'svoji pravdu' se kazdy bije :)

+1
+10
-1
Je komentář přínosný?

Jak píšu níže a jak píšu v blogpostu: mě je jedno jak AMD "marketuje" ten produkt. Je to obecný procesor, který plní i jiné úlohy než jen hraní her. Je správné jej posuzovat komplexně. Stejně jako je třeba správné posuzovat 12900K(S) taky komplexně, tj. včetně kritiky spotřeby. Nikdo neargumentuje tím, že "Intel marketuje 12900KS jako nejrychlejší desktop CPU, takže se nesmí hodnotit jeho spotřeba, protože o té Intel nehovoří".

+1
-3
-1
Je komentář přínosný?

Jezuski Davide, preci se podivej, jak to srovnavaji redaktori, kteri delaji testy i stovek her mesicne. Tvuj pohled je samozrejme taky validni, ale neni jediny "spravny". Z pohledu hernoho CPU nebo srovnavani TOP hernich CPU nemas pravdu. To neni jen o marketingu, tady je cela skupina uzivatelu, pro ktere je tohle relevantni scenar. To ze pro tebe neni, nebo treba pro mne taky ne, to neznamena, ze neexistuje a ze neni validni.
Pripominas mi trochu pany jako Obr a DD, kteri maji taky jeden spravny pohled..

+1
+1
-1
Je komentář přínosný?

Myslym, ze je dolezite prihliadat na to ako sa dany CPU "marketuje". Urcuje to jeho primarne zameranie, v ktorom by mal vynikat. A tiez to urcuje dolezite a nedolezite parametre porovnania.

Je to ako keby ste chceli komplexne posudzovat auta Ferrari. Ferrari ich marketuje ako sportove auta zamerane na vykon, zrychlenie, max rychlost a s tym spojeny zazitok z jazdy. Nikto pritom neriesi spotrebu, velkost kufra, priechodnost terenom, nosnost, priestor na detsku sedacku v zadu alebo moznost pripojneho vozika. To su parametre mimo jeho zameranie (ano, moze byt zaujimave ich poznat, ale zaujemca sa podla nich zrejme nebude rozhodovat).

Ked uz sme pri aplikacnom vykone, tak napr. serverovym CPU Epyc Milan-X cache naviac vcelku pomohla, takze aj 5800X3D ma potencial zvladat podobne ulohy lepsie ako ine CPU (samozrejme vramci istych hranic, viac jadier je viac jadier, tie neoklames vacsou cachkou), takze mozno len treba vybrat tie "spravne" aplikacie a otestovat vykon.

+1
+2
-1
Je komentář přínosný?

tak hlavně k CPU kolem desítky málokdo koupí grafiku za 30Kk. Jako cvičení hezké, ale prakticky k takovému procíku půjdou většinově nižší karty které už se cenou dostávají na snesitelnou úroveň, zvlášť RX 6600 už se blíží doporučené ceně. A fHD rozlišení bych také nekritizoval, jsou rychlé panely kde na nakrmení 144Hz+ bude mít procesor dost práce.
Jinak, velkou cache už mají od ZEN 3000 dvoučipletové modely a tam ten nárůst výkonu moc znát není, tady se zdá to konečně dopilovali ale zase to sráží teploty, tedy frekvence není tam kde by mohla. Asi si to šetří na ZEN 4.

+1
-2
-1
Je komentář přínosný?

Jde o to, že u 5900X/5950X má 6/8 jader CCX má stále k dispozici pouze 32MB L3 cache. Pokud by běžící vlákna migrovaly přes obě CCX velkou rychlostí byl by obsah obou L3 cache prakticky shodný. Naopak náhlá migrace vlákna schedulerem na druhý CCX může způsobit snížení výkonu (dočasné snížení cache-hit-ratio).

+1
0
-1
Je komentář přínosný?

jj a proto raději preferuji bez 50 na konci, přecijen ta migrace pak není tak častá jako při všech aktivních jádrech - nižší pravděpodobnost zahlcení když jsou o 4 vlákna méně.

+1
0
-1
Je komentář přínosný?

Asi Vám nic nebrání si na 5950X stanovit afinitu procesu k vybraným jádrům/threadům a tak zajistit že vlákna aplikace/hry neopustí konkrétní CCX. Samozřejmě pokud aplikace intenzivně využívá více vláken než disponuje CCX jader, může jít o kontraproduktivní krok.

+1
0
-1
Je komentář přínosný?

Cache dvoučipletových modelů je menší 5800 - 32 MB / 5900 a 5950 - 64 MB / 5800 3D - 96 MB L3. Navíc u dvoučipletových modelů je dělená a ne v kuse. To vážně nejde srovnávat.

+1
+1
-1
Je komentář přínosný?

to chápe i vůl že je to vylepšené, to mělo být rýpnutí na slogan AMD u 3900X na "gamecache".

+1
0
-1
Je komentář přínosný?

Až na to, že tu srovnáváme ZEN 2 a ZEN 3. 3D Cache měla být už u ZENu 2, ale ještě nebyla vyladěna.

Mne spíš překvapuje, že Intel nenapadla varianta s velkou cache, když v kategorii x86 procesorů s ní přišel ještě u Pentia Pro v roce 1995, kdežto AMD mělo velkou cache až u AMD K6-III v roce 1999.

+1
0
-1
Je komentář přínosný?

Samozřejmě to Intel napadlo (muselo) velká cache měla zachránit nechranitelné Itanium (24MB již před 15ti lety).
https://ark.intel.com/content/www/us/en/ark/products/34655/intel-itanium...

+1
+3
-1
Je komentář přínosný?

Jenže u Itania je jiný problém. HW návrh je v pořádku, ale výkon těch procesorů stojí a padá s kompilátorem. To cache nezachrání. viz wikipedia: "Procesor je výjimečný použitím pokročilé instrukční sady typu EPIC, která vznikla vývojem z instrukční sady typu VLIW. Tato architektura umožňuje maximalizovat výkon v jednom vlákně. Jedná se o jednu z nejpokrokovějších architektur mikroprocesorů. Její nevýhodou je náročné programování v případě použití programovacího jazyka Assembler."

+1
0
-1
Je komentář přínosný?

Pochybuji, že někdo programoval pro Itanium v Assembleru. Vzhledem k tomu, že na Itaniu běžely OS (MS Windows, HP-UX, Linux) napsané převážně ve vyšších programovacích jazycích (dtto samé platí pro aplikace). Velká cache Itanium nezachránila, ale výkon bez ní by byl asi ještě horší.

+1
0
-1
Je komentář přínosný?

To byl právě ten problém, proto byl velký rozdíl mezi teoretickým a praktickým výkonem. Sranda je, že v Rusku taky vyvíjí podobné procesory s širokým jádrem, ale pouze pro servery, kde není takový problém kritické části Linuxu dobře optimalizovat.

+1
0
-1
Je komentář přínosný?

Jakože protože je ten procesor jen za 10K a ne 20, tak se do herního hi-endu nehodí, i když je nejvýkonnější? A jinak jsi v pořádku, nebyl jsi třeba moc dlouho na sluníčku?

+1
+2
-1
Je komentář přínosný?

Mohl bych si dovolit OT dotaz na autora? "Odpůrce sw patentů a omezování občanských svobod ve prospěch korporací."

Mé občanské svobody legálně omezuje samospráva (obecními vyhláškami), státní správa (zákony), Evropská unie (nařízeními, směrnicemi, rozhodnutími), nelegálně třeba spoluobčané (břitvami), ale nejsem si vědom toho, že by mi je omezila nějaká korporace. Panu Ježkovi se to už stalo, nebo bojuje preventivně?

+1
-1
-1
Je komentář přínosný?

Sice nejsem autor, ale tohle bylo heslo Pirátské strany. v době kdy byl pan Jeřek aktivní ve své první epoše.. No a pak se Pirátská strana dostala k veslu a začala Vás omezovat. Na původní program a to jak vyrůstala mezi ajtáky rychle zapoměla..Dneska strana hájí korporace ostošest.

+1
+2
-1
Je komentář přínosný?

Chcete naznačit, že korporace jako Apple, Google, MasterCard, PayPal žádná omezení práv nedělají?

+1
+5
-1
Je komentář přínosný?

Ano, to naznačuji.

Zaprvé, co se týče formální stránky: jejich podmínky jsou v souladu se zákony, a pokud někdy v něčem ne, může situace vyústit až v soudní spor a tam se rozhodne podle práva (přinejmenším teoreticky podle práva).

Zadruhé, a to považuji za výrazně důležitější: jsem bytostný liberál, zastánce kapitalismu a odpůrce antimonopolních regulací. Za odporný relikt minulosti považuji např.právo na stávku. Komu se nelíbí podmínky, ať na ně nepřistupuje nebo ať smlouvy vypoví. Mě např. zásadně nevyhovuje Apple, proto jejich produkty a služby nepoužívám. Např. k Microsoftu mám výhrady, ale nic lepšího PRO MOJÍ OBLAST POUŽITÍ není, proto ho používám. Google pro mne je zčásti nejlepší varianta a používám, zčásti mi nevyhovuje a používám produkty konkurenční. A např. Operu budu bojkotovat do konce světa za jejich uplakánkovské kňourání, kterým si vymohli upozornění na možnost instalace konkurenčních prohlížečů do produktu soukromé společnosti.

+1
-6
-1
Je komentář přínosný?

Nebýt antimonopolních regulací asi by jsme se hodně divili, v jakém světě by jsme žili. Např. AMD už by asi neexistovali a všem by stále musela stačit 4 jádra. To by jste chtěl? Konkurence pohání vývoj. Monopol nechce konkurenci.

+1
+8
-1
Je komentář přínosný?

Naopak. Často se např. tvrdí o obchodních řetězcích: nasadí nízké ceny, konkurence zkrachuje, a potom zdraží a zákazníci "spláčí nad výdělkem". Jenomže právě v tom okamžiku je přece snadné řetězcům konkurovat: jsou drahé, tak si otevřu levný obchůdek. Trh si to vybalancuje sám a jakákoli umělá regulace ho jenom křiví.

Škodlivý je jenom umělý monopol typu socialistického hospodářství nebo RVHP.

+1
-8
-1
Je komentář přínosný?

Vsechno funguje jen do casu. Pokud jsi maly zivnostnik, ktery "konkuruje" velkemu retezci, jsi vetsinou pod jeho 'rozlisovaci' schopnosti. To by se samozrejme zmenilo v momente, kdy by jsi se stal vetsi a pro nej 'konkurenci'.
Regulace ma svuj smysl, stejne jako ne-regulace. Zalezi na konkretnich podminkach.

+1
0
-1
Je komentář přínosný?

Kdysi jsme v českém zastoupení evropské firmy řešili, co s jedním konkurentem, který nás "zlobil". Navrhl jsem mateřské společnosti: tak ho kupte. Finančně by to problém nebyl, ale můj skvělý zahraniční šéf mi vysvětlil, že to není řešení. Jednoho koupíme, a hned se objeví další, stejný. Je potřeba vymyslet jinou strategii a být lepší.

Dotace, regulace... Ne, nechci. Transfúze z levé ruky do pravé, při které se polovina vybryndá na zem.

+1
-3
-1
Je komentář přínosný?

Jenže dodržování pravidel u opravdu velkých firem se špatně kontroluje a ještě hůř vymáhá. Kdyby AMD nesáhlo tehdy po žalobě, Intel by jej klidně zničil, nebo trvale udržoval jen živořící. Tady je krásná ukázka toho, kdy trh sám o sobě nestačí.

+1
+5
-1
Je komentář přínosný?

Tohle ukazuje, jak jsi jako typický libertarian naivní. K tomu obchůdku, by jsi si totiž musel ještě otevřít celý dodavatelský řetězec, víme? Chceš vědět proč? Protože ten monopolista totiž všechny dodavatele přinutí k tomu, aby ti nedodávali a nebo dodávali tak draze, že to ten monopolní řetězec bude mít levnější.

A přesně tohle dělal Intel AMDčku v době, kdy se poprvé AMDčko utrhlo a bylo technicky i cenově lepší (2000-2010).

+1
+5
-1
Je komentář přínosný?

AMD(2000-2010) nemělo problém s dodavateli, ale s vlastní výrobou. Oni prostě neměli takové výrobní kapacity jaké potřebovali.

+1
+3
-1
Je komentář přínosný?

Jako malý obchůdek nemůžete provádět nekalé obchodní praktiky a vydírat dodavatele (zvláště např. malé zemědělce) a sdírat jim kůži s těla.

+1
0
-1
Je komentář přínosný?

Trh si to vybalancuje? Ano, možná. Je ovšem "vtipné", když pak ten, kdo podpokopával konkurenci takovýmito podnákladovými cenami, najednou okusí vlastní medicíny a s brekem se obrací na úřady, které předtím kritizoval, když jeho plácly přes prsty, aby tomu učinily přítrž. A že takových případů, u nás i v zahraničí, nebylo zrovna málo. To IMHO pak křiví trh stejně, jako onen umělý monopol RVHP. To mi těžko někdo vymluví.

+1
+1
-1
Je komentář přínosný?

Tolik naivity bych od čtenáře technického webu nečekal... Trh si dokáže vybalancovat spoustu věcí, jen ne "významnou kupní sílu" která má schopnost diktovat ceny a podmínky. Prostě pokud někdo nakupuje cca 60+% dostupného zboží nelze mu klást podmínky a sám tyto určuje. Pokud si myslíte, že otevřete obchůdek, pak řetězec zareaguje nižší cenou mají na materiálu o 150% vyšší marži než vy, takže sleva 50% je neohrozí, ale pro Vás bude likvidační, to je také důvod, proč se vyspělé ekonomiky "významné tržní síle" brání, třeba i zákony kde významné akciové nákupy musí posvětit stát.

+1
+1
-1
Je komentář přínosný?

Část věty "... omezování občanských svobod ve prospěch korporací." nepojednává o tom, kdo svobody omezuje ale o tom, v čí prospěch se tak děje. V jiném komentáři zmiňujete případ prohlížeče Opera, kde svobody byly omezeny nikoliv samotnou soukromou společností, ale Evropskou komisí ve prospěch soukromé společnosti.

+1
0
-1
Je komentář přínosný?

Korporace to řeší primárně lobbyingem, přes který si protlačí zákonné i jiné státní normy. Takže to omezení není primárně vidět, ale je. Ale to by bylo na delší debatu, mimo téma.

+1
+7
-1
Je komentář přínosný?

Když tak koukám na tu tabulku, začínám tušit, jak by to vypadalo, kdyby dělal Babica hw testy.

+1
+4
-1
Je komentář přínosný?

Tak tak. A když koukám na ty komentáře tak jako by mu u toho asistovala Bohdalka.

+1
+3
-1
Je komentář přínosný?

No, kdyby Bohdalka Babicovi při vaření asistovala, tak by třeba i konečně dokázal uvařit něco slušného LOL

+1
+1
-1
Je komentář přínosný?

Tak na 3 hry 3D ok, aplikačně těžkej fail, při voltáži 1.25 a navýšení taktů o 300MHz se peče ve vlastní šťávě, takže položit opatrně na hnůj a rychle utéct. Od AMD opět skvělej produkt.

+1
-15
-1
Je komentář přínosný?

Věřím, že budou i jiné aplikace kromě her kde si své místo obhájí. Třeba virtualizaci by velká L3 cache mohla prospět. Obecně úlohy s živějším rozsáhlejším kodem/datasetem.

+1
0
-1
Je komentář přínosný?

AMD se aspoň nebojí zkoušet nové věci. Další 3D cache v kombinaci se ZEN 4 už může být daleko výše taktovaný. A pokud se vám to nelíbí, nemusíte si to kupovat.

+1
+1
-1
Je komentář přínosný?

Jensen je NVdot..

+1
+1
-1
Je komentář přínosný?

A jak se koukáš na pečení Intelů ve vlastní šťávě, ty modrozelenej mamlase? To asi ignoruješ, že? :-D

+1
+6
-1
Je komentář přínosný?

Ty už musí být dávno zahrabané hluboko ve hnoji, takže už není jak se na ně dívat.

+1
0
-1
Je komentář přínosný?

Proto se v zimě z hnoje kouří :-)

+1
+6
-1
Je komentář přínosný?

To co mě na tom testu vadí: Nejsou zde u herních testů minima FPS, přitom ta mají na hratelnost největší vliv.

+1
+7
-1
Je komentář přínosný?

Ta nikoho nezajímají, protože se hraje jen ve 4K, tam to limituje grafická karta a procesor je tak zcela irelevantní.

+1
0
-1
Je komentář přínosný?

A proto minima nikoho nezajímají. Zadruhé ne všichni hrají ve 4K. Někdo naopak žádá maximální FPS v menším rozlišení. Třeba já 4k monitor ani nechci. Už tak někdy v FHD na 24" někdy musím text zvětšovat. A takových lidí je víc, nikdo nemládne.

+1
+4
-1
Je komentář přínosný?

Tak si kup telku. A myslím to vážně, hry vypadají ve 4K skvěle na úhlopříčce nad 127 cm a text přečteš i z na dva metry.

+1
0
-1
Je komentář přínosný?

Asi jsem si měl pořídit vetší 4k obrazovku (jenom 108cm)
A na 2 metry text nedám.

Na druhou stranu ... ze 4m mi už nevadí "kostičkování" filmů v DVD rozlišení.

+1
+1
-1
Je komentář přínosný?

Takze mate test na zaklade ktoreho sa da maximalne povedat, ktory procesor je este dostacujuci. Ale o hernom vykone a rozdieloch vo vykone vam to nepovie nic, pretoze ste najvykonnejsie CPU zabrzdili grafickou kartou. Fakt super. A este si to obhajovat dokola opakujucou sa mantrou, ze len to je realisticky test. Honza Stach to tiez zaklincoval nezmyslom, ze testy v nizkych rozliseniach neukazu vykon CPU a ze je to len vyhovorka. Co sa da na to povedat? Asi radsej nic. Test v podmienkach, kde su vykonne CPU brzdene a nemozu ukazat co dokazu, nie je testom ich vykonu. :-)

+1
+2
-1
Je komentář přínosný?

Ano, výkon toho CPU je patrně brzděn tou grafickou kartou. Ale co s tím chcete dělat, když žádný rychlejší Radeon prostě neexistuje? Holt 5800X3D předběhl dobu. Jeho potenciál je příliš velký a než budou na trhu GPU schopná jej pustit na 100% výkon ve hrách, tak bude za prvé 5800X3D zastaralý šmejd a za druhé budeme zase moci nadávat, že výkon Radeonu RX 8950 XTX je brzděn tím pomalým Ryzenem 5800X3D.

+1
-6
-1
Je komentář přínosný?

Nepisem teraz iba o 5800X3D. Ale to, ze ked vykonne procesory, ako je aj tento spominany, zabrzdite a nedovolite im ist naplno, tak vysledkom nebude graf s porovnanim herneho vykonu CPU. Ale graf, ktory napovie akurat to, ktory CPU je dnes este dostatocny v tom 4K. Potom si niekto o rok kupi 144Hz monitor alebo o 2 roky 2krat vykonnejsi GPU a bude sa divit, preco ho procesor brzdi, ked predsa podla testov bol podobne vykonny ako ine drahsie CPU. Podobne vykonny ale nebol a o tom sa cely cas bavime a co sa mi nepaci.

+1
+2
-1
Je komentář přínosný?

Z hlediska všech jedné hry co je pro mne zajímavá si vede dobře (lépe než 12900 K) i když zatím je jen jeden test:
https://factoriobox.1au.us/results/cpus?map=4c5f65003d84370f16d6950f639b...

A mé rozlišení je 1920x1200.

+1
+1
-1
Je komentář přínosný?

AMD začalo ve Factoriu bodovat až s příchodem Zen 3, předtím to bylo žalostné díky pomalé cache.

+1
+1
-1
Je komentář přínosný?

Jak jste 5800X3D sehnal?

+1
-1
-1
Je komentář přínosný?

To nejsou mé výsledky. Já sedím doma šťastně na 3600. :)

+1
+1
-1
Je komentář přínosný?

Mam pocit, ze sme sa dostali do situacie vzajomneho nepochopenia (pan Jezek vs. oponenti) ala "Ja o koze a ty o voze".
Ten povodny test mal za ciel porovnat vykon 5800X3D vramci specifickej domeny - hry. Pan Jezek by naopak chcel vidiet zrejme vseobecne testy blizsie realite ala hry v 4k a aplikacny vykon.
Porovnavat aplikacny vykon (CB, Blender, ...) je asi v tejto situacii irelevantne, pretoze povodny test hovoril len o hrach a AMD prezentovalo 5800X3D ako herne CPU. Na aplikacie tu mozu byt ine vhodnejsie alternativy.
Porovnavat herny vykon v 4k - bolo viac-menej jasne ako to dopadne, lebo limitujuca je GPU a nie CPU, teda ocakvany je cca zhodny vykon.
Takze zatial je jediny relevantny test, ktory ukazuje potencial tohto CPU a fakticky potencial novej technologie, test hier v nizkom rozliseni (napr. v tom 720p). Ked niekedy v buducnosti budete mat v ruke GPU, ktore v 4k da 1000 fps, tak mozte testovat aj v 4k. Potom sa pravdepodobne prejavi potencial a ukaze sa realny rozdiel.

+1
+4
-1
Je komentář přínosný?

Idealne by bolo testovat v takom prostredi, v ktorom ziadne CPU v teste nedokaze vytazit GPU na 100%. Ale to je teraz jedno. Nejde podla mna k nedorozumenie. David Jezek a aj Honza Stach, na ktoreho sa teraz odvolava, tvrdia, ze testy v 720p su nerealisticke a Stach dokonca pridava, ze tie testy nemeraju vykon v CPU v hrach. To su ale nezmysly. To su prave jedine realne testy vykonu. Aj ked suhlasil by som este s tym, aby sa v 720p uz nenastavovali minimalne detaily. To je ale asi tak vsetko. Inak obaja spominani testuju len to, ake CPU su este dostacujuce. Nie ake su skutocne vykonne a uz vobec nie aky je medzi nimi skutocny rozdiel.

+1
+4
-1
Je komentář přínosný?

Doplnim a zvyraznim, ze test v 720p ukazoval potencial herneho vykonu, nie to co realne dostanete v hrach.

Je to ako keby ste mali 2 auta, jedno ide max 200 km/h, druhe max 250 km/h. Zial u nas je rychlostny limit na dialnici 130 km/h takze ani jedno v realite neukaze svoju silu. Ale ked sa u nas niekedy zrusi rychlostny limit, tak ako v Nemecku, tak potom sa ukaze, ktore je rychlejsie .

+1
+2
-1
Je komentář přínosný?

"Ked niekedy v buducnosti budete mat v ruke GPU, ktore v 4k da 1000 fps, tak mozte testovat aj v 4k."

Tou dobou bude 5800X3D asi ve stejné pozici jako dnes AMD K5-133.

+1
-1
-1
Je komentář přínosný?

To ale nie je argument na to, preco dnes treba testovat herny vykon v 4K a na plne detaily.

+1
+1
-1
Je komentář přínosný?

pochopil jsem pane Ježku, že to nemáme kupovat, možná stačilo napsat jen tohle. Čím více zabředáme do detailů, tím více bychom totiž zjistili, že X3D koupit máme. A teď z jiného soudku třeba Gamer's nexus kde to Steve podrobil opravdu pořádně, zjistil zajímavosti jak ta cache třeba proráží v rockstar enginu (GTA V) poprvé v historii fps cap, že nezáleží ani tak na průměrných fps (jiné Stach neměřil), ale X3D krásně zvedá minimální, dokonce měří i frametime, který je nepřekonatelný. Taky Steve říká, že cena 12900KS je 800$ zatímco X3D je za 400-450$, přičemž KS dostává více než jednou na zadeček. A spotřebu raději neřešíme že, hlavně jak jsme mnohdy ECO a používáme 7+ let starý hardware.

Takže tak. Ten Váš článek bych přirovnal trochu k propagandě jednoho nejmenovaného státu, který prohlásil ,že přišel o loď. V zásadě nelhal, je to pravdivé tvrzení, nicméně vynecháme-li to vše "okolo" (frametimy, min fps,spotřeba), nelze si nevšimnout že čistě náhodou? pak vypadá 5800X3D v tom nejhorším možném světle, kdy přidat jen jedinné malé proti němu by znamenalo lhát. Takové "zpravodajství" není sice lživé,ale rozhodně ho nelze považovat ani za vyrovnané. Odkazování se na kontroverzního Stacha to jen potvrzuje. Je to asi jako citovat RT místo ČT24. Nevím proč vůbec máte tu potřebu.

Do čistě herních buildů je to aktuálně nejlepší možný procesor a je jedno v jakém rozlišení.

+1
+8
-1
Je komentář přínosný?

"... Steve říká, že cena 12900KS je 800$ zatímco X3D je za 400-450$, přičemž KS dostává více než jednou na zadeček."

No a co? Já snad někdy horoval za 12900KS? Vždyť tu konzistentně a nyní už asi posté tvrdím, že 12900KS je zbytečnost a totéž i o 12900K, 11900K, 10900K atd. Vždycky zdůrazňuju v kontextu konkurence k CPU AMD (které nemají GPU) modely jako (za aktuální generace) 12900F či 12700F. Takže laskavě nepřevádějte řeč tam, kde já ji vůbec nevedu. Samozřejmě že 12900KS je zoufalost, která nemá smysl.

"A spotřebu raději neřešíme že, hlavně jak jsme mnohdy ECO a používáme 7+ let starý hardware."

Spotřebu já osobně řeším v kontextu toho, co a jak já používám. Takže mě třeba nevadí, když mi celé PC (s 2xSSD a 1xHDD a Radeonem) bere ve 100% CPU zátěži ~130W, protože to nejsou tak časté momenty, víceméně jen když kóduju nějaké video atd. Koupě tehdy výrazně dražšího Ryzenu by se mi vyplatila oproti 10400F asi tak až za 5 let (spočítáno).

"... pak vypadá 5800X3D v tom nejhorším možném světle, kdy přidat jen jedinné malé proti němu by znamenalo lhát."

Tady nevím, na co narážíte. Vybral jsem od Honzy několik měření, které JÁ POVAŽUJI ZA RELEVANTNÍ (píšu to velkými, pokud si tohle info v blogpostu přehlédl, teď se tak snad nestane). Mě samozřejmě jako občasného hráče zajímá, jak si CPU vede ve hrách. Ale vedle toho mě taky zajímá, jak rychle mi zpracuje video, jak rychle slepí panorama v Huginu. Nedělejte z 5800X3D produkt, tkerý se smí posuzovat JEN A POUZE v oblasti her. Je to CPU, obecný procesor realizující všechny typy úloh a jako takový by měl být posouzen i v jiných oblastech, ne jen hrách, natož 720p, narož vypichování min1%fps.

"Takové "zpravodajství" není sice lživé,ale rozhodně ho nelze považovat ani za vyrovnané. Odkazování se na kontroverzního Stacha to jen potvrzuje."

Svůj příspěvek jste napsal pod osobní blogpost. Fakt jste si nevšiml, že nejde o článek DIIT? A Honza Stach? Jsou uvedené výsledky zfalšované? Já za to ruku do ohně samozřejmě nemohu dát, za zády jsem mu během měření nestál, už 8 let nebydlíme ve stejném městě (totéž platí o měřeních jakéhokoli jiného CPU, provedené jakýmkoli jiným recenzentem). Ale nemám důvod naměřeným hodnotám nevěřit. A zdůrazňovat něčí kontroverznost v situaci, kdy jeho recenze je de facto kritikou nového výstavního produktu jím oblíbené firmy, může fakt jen ........

"Do čistě herních buildů je to aktuálně nejlepší možný procesor a je jedno v jakém rozlišení."

Ano, tady se shodneme. Do čistě herních PC je to výborný procesor. Tečka.

+1
-5
-1
Je komentář přínosný?

Až na to, že tu cenu 12900KS Steve moc netrefil. V reálu je to "jen" 739 $. Sice to na výsledcích nic nemění, ale od Steva Burkeho bych čekal, že si pro své vlastní dobro dá na takovýto detail pozor. Zvlášť když pak v té recenzi několikrát opakuje, že 12900KS je "skoro dvakrát dražší", než 3800X3D, co ale ve skutečnosti není pravda. Chápu, že chybička se může vloudit, ale zrovna na tuto chybičku si měl Steve dát pozor.

+1
0
-1
Je komentář přínosný?

Ježek v obsáhlém příspěvku v diskuzi u předchozího článku psal o tom, že u No-Xe je patrná absence jiného pohledu. Nazýval to mantinely, které si poskytovali v rámci redakce.

Souhlasím a dodám, že u jeho tvorby určitě také a to nejen u jeho provokativních příspěvků zde, ale i na Rootu, kde provozuje to zmiňované a odsuzované sloupkaření.

+1
+6
-1
Je komentář přínosný?

Tady se někdo naprosto zhulil...

Apríla už dávno bylo, jestli to někdo nepostřehl...

+1
0
-1
Je komentář přínosný?

Maly bug v redakcnom systeme:
V zozname clankov sa pri clankoch oznacenych ako "blog" neda kliknut na obrazok, len na nadpis clanku. Pri inych typoch clankov sa da kliknut aj na obrazok aj na nadpis.

+1
-1
-1
Je komentář přínosný?

To není bug, to je funkce, aby byla menší šance, že se ti tady ty myšlenkové pochody Ježka naprosto mimo mísu podaří rozkliknout, je to pro tvé dobro. Mám rád, když jde někdo proti proudu a má i jiný názor, to je takový alternativní pohled, který ještě aspoň tak nějak dává hlavu a patu... no ale pak je tady ještě ten ježkovský, kterému to vždy tak trochu schází a očividně má už asi o kolečko navíc...

+1
0
-1
Je komentář přínosný?

Myslím, že se zvýšila šance odhalit pravý původ termínu "Ježkovy oči!".

+1
+5
-1
Je komentář přínosný?

Tak hlavne X3D je hodne niche produkt. Pretoze nikto, kto uz pouzitelnu dosku doma nema, si to asi nekupi. Bola by to hodne mastna jednorazova investicia bez upgrade path. O tom, ze ta cache bude mat pri inych ako hernych pouzitiach mizivy vplyv (na moje sklamanie) sa uz pomerne dlho vie.

Tipol by som si, ze AMD to pustila von cisto ako experiment, ktory si asi mohla dovolit. Technologiu mozno primarne vyvinuli kvoli Epycom a tu ju hodili na dozivajucu AM4 platformu, ako sa uchyti. Zaroven im to umoznilo si este aj s odchadzajucou platformou kopnut do Intelu. Ak sa to uchyti, tak proste v buducnosti budu existovat "herne" CPU so Zen4/5 + V-cache, ak nie, tak sa na to zabudne.

+1
+3
-1
Je komentář přínosný?

"Ak sa to uchyti, tak proste v buducnosti budu existovat "herne" CPU so Zen4/5 + V-cache, ak nie, tak sa na to zabudne."

Je pozdě, kdyby s tím přišli v původním termínu, tak by se ze zájmu asi nějaké závěry dali udělat, ale teď pár měsíců před novou platformou to bude dost zkreslené.

+1
+1
-1
Je komentář přínosný?

Predpokladam, ze vacsina vyvoja na to, aby slo V-cache na Zen4 nalepit je uz hotova. Minimalne ta lacnejsia cast. A podla toho ako sa V-cache etabluje sa to bud hodi zo stola, alebo posle do vyroby.

Fakt, ze Zen4+ uz bude AM5 prave veciam ako X3D predlzuje zivotnost. AM4 nam konci, ale nejaky ten piatok sa este predavat bude. Jednak v dopredajoch, ale aj na 2nd hand trhu budu k mani trocha lacnejsie AM4 dosky a ak ma naozaj to X3D taky herny potencial, tak sa casom s lacnejsimi doskami a DDR4 moze stat "budget gamer" s potencialom par rokov este podrzat.

Dnes to je dajme tomu celkom nezmyselny procesor, pretoze u AMD sa da vyskladat lacnejsia (nie nutne lepsia, ani horsia) zostava. Ale viem si predstavit, ze ak to dnes miestami dava +30% fps na hrach v zataziach, ktore su obmedzene procesorom, v buducnosti s dopredajovou fosnou a o desiatky % lacnejsimi DDR4 oproti DDR5 a dajme tomu aj trocha nizsou cenou za CPU samotne, to este moze byt konkurencieschopne. A nejaky ten piatok to vydrzi, maximalne sa tomu casom nasupe silnejsia grafaren (a dopredu poviem: nie, PCIe4 tomu fakt nebude robit brutalne hrdlo).

+1
0
-1
Je komentář přínosný?

Nehodnotím procesor, ale to, že když byl vydán těsně před novou generací, nelze z jeho prodejů odhadovat úspěch 3D cache u té nové generace.

Spousta lidí s nákupem počká na vydání nové generace jen proto, aby měli možnost srovnání/výběru.

+1
0
-1
Je komentář přínosný?

Možná že částečně dá. Pokud to "výpočetně slabý" 5800X3D (s nízkým taktem i IPC) nandal v řadě herních testů vysoko taktovanému 12900K(S) s vyšším IPC, dá se vyvodit že i taktem/IPC zrychlený Zen4 na tom při zachování velikosti L3 cache patrně bude podobně. Při "nárazu do zdi" v podobě nízkého cache-hit-ratio vyšší takt/IPC nepomůže. Proti Intelu je snad Zen více citlivý na rychlost/latence RAM což může působit také negativně (v latencích k DDR4 3800CL16 není u DDR5 ekvivalentu).

+1
+1
-1
Je komentář přínosný?

Jedině v případě, že se po uvedení ZEN4 zvedne výrazně prodej 5800X3D. Jinak těžko. A i to může spíše souviset s předchozí platformou než se zájmem o 3D cache. Respective ten zájem o 3D cache může být svázán s AM4 a u AM5 to může být jinak.

+1
0
-1
Je komentář přínosný?

Tak to určitě ne.
1. Aktuálně jde o nejvýhodnější top herní CPU.
2. Lze očekávat, že si svůj herní výkon podrží poměrně dlouho.
3. Příkonově to je nenáročné řešení, takže není problém s nutností nákupu drahého chlazení, jako v případě konkurence.

Ergo: Kdo chce jen hrát, nechce upgradovat, tak je to CPU vyloženě ideální volba. Dtto pro lidi co hrají a už mají desku s AM4. Své kupce si to IMHO najde.

Navíc si musíme uvědomit, že podle Intelistů se PC přece neupgraduje... :-D :-D

+1
+2
-1
Je komentář přínosný?

No, ano, je pravda, ze pre ludi, co uz AM4 maju a len sa chcu hrat, moze mat vyznam. Ale mnozina tychto ludi sa dalej orezava o ludi, ktori maju nejaky dostatocne dobry CPU (uz upgradovali na Zen3), ktorym sa ten upgrade uz proste neoplati.

Takze si myslim, ze to niche procesor je.

+1
0
-1
Je komentář přínosný?

No já ti nevím... a co jiného chceš koupit s lepší upgrade path? Snad ne wintel, ano, sice tam bude, jenže ten se ti stejně tak prodraží, že to je ve výsledku stejně jedno, zvlášť když se nečeká, že to Zen4 překoná a nezapomínat na to, že musíš jít do DDR5. Ale co vyjde líp je opravdu věštění z křišťálové koule, ale neřekl bych, že koupě X3D musí být nutně takový průser, i když AM4 nemáš, a dávat ruku do ohně za to, že LGA1700 máš do budoucna lepší deal pokud plánuješ když tak upgradovat, tak to aby se člověk škaredě nepopálil, pokud nakonec zjistíš, že bys chtěl nakonec přeci jen rači tu Zen4 a musel bys pak stejně přejít na AM5.

+1
0
-1
Je komentář přínosný?

Pointa je prave v tom, ze Zen je teraz vo faze, ked jeho dlhy upgrade path, ktory mu daval vyhodu, je eliminovany, pretoze kto kupi dosku + procesor pre AM4 teraz, uz je odsudeny na vymenu vsetkeho. Takze sa straca ten efekt toho, ze "kto si v roku 2018 kupil dosku s mal v nej Ryzen 1600, do nej dnes moze za par `susnov` kupit 3600vku, pri troche stastia aj 5600vku a pojde mu". Takze ma usetrene jednu dosku a nebude mat omoc horsi ikspirienc, nez keby za nu dalsie peniaze zaplatil.

+1
0
-1
Je komentář přínosný?

Na druhou stranu naskakovat nyni na DDR5 vagon s jejich cenami/latencemi či první generaci AL/Genoa také nemusí být výhrou (cena/vykon). Pokud výměnou dejme tomu 3600 za 5800X3D umozni prezit dva roky, muze to byt nejlepe utracenych 9000Kc (-2500 za prodej 3600). Zajimavejsi v soucasnosti muze byt priprava budgetu na novou generaci GPU.

+1
+1
-1
Je komentář přínosný?

A co ziskas nakupem AL..moznost upgradu na RL.cimz ziskas cca 10+% rychlejsi CPU za cenu vyssich porizovacich nakladu? Takovy upgrade, pokud si nezacal na AL 12400 nedava moc smysl

+1
0
-1
Je komentář přínosný?

Na celém tom blogovém článku mě nejvíce udivuje, že ještě někdo čte ddw.

+1
+6
-1
Je komentář přínosný?

Confirmation bias is a b!tch.

+1
-1
-1
Je komentář přínosný?

Já DDw nečtu. Podobně nečtu ani PCT, ani Zive, ani SHW a cojávím, jaké další cz hw weby dnes existují. Stejně tak už nějakou dobu nečti Digimanii. Paladix se zabil sám. Já prostě na DDw občas nahlédnu a obvykle do 2 sekund odcházím dál. Tady mě zaujalo, že to byl první test 5800X3D, který jsem někde potkal, takže jsem si jej přečetl. Prostě výjimka.

+1
+1
-1
Je komentář přínosný?

Já asi vím, proč se skoto všude testuje v nesmyslně nízkých rozlišeních s low detaily. Protože prostý fakt, že na procesoru ve skutečnosti nezáleží, bolí jak intel tak amd fanboye.

+1
-1
-1
Je komentář přínosný?

Samozrejme ze na procesore zalezi. :-) Otazne akurat je, ci si chces kupit iba dostatocne vykonny CPU s prihliadnutim na cenu (a tu ti daju skor odpoved testy vo vyssich rozliseniach a detailoch) alebo chces vediet herny vykon CPU a rozdiely medzi nimi (tu ti daju zasa odpoved testy v nizkych rozliseniach, kde procesori nebude brzdene). Tak isto ti testy v nizkych rozliseniach povedia, ktory CPU ta bude menej brzdit, ak si k nemu casom kupis novsiu vykonnejsiu GPU alebo ktory CPU ti lepsie pomoze dosiahnut vyssi framerate ak si namiesto 60Hz monitoru kupis 120Hz a vyssie. Na tieto otazky ti testy procesorov vo vysokych rozluseniach a detailoch nedaju odpoved. Toto nema nic spolocne s fandenim.

+1
+3
-1
Je komentář přínosný?

Dej nějaký příklad kdy na procesoru záleží (tzn. rozdíl je člověkem rozeznatelný) v běžném a realistickém scénáři. Před odesláním odpovědi se zamysli, zda jsou podmínky splňeny nebo zda jsi vymyslel něco bizarního aby ti to vyšlo.

+1
0
-1
Je komentář přínosný?

Co je podla teba bizarne? Ved si pozri testy CPU a rozdiely medzi 2jadrom, 4jadrom, 4jadrom s 8 threadmi, atd... To, ze vo vysokych rozliseniach sa najvykonnejsie procesory zrovnaju, neznamena, ze su rovnako vykonne a ani to, ze na nich nezalezi. Ako som pisal. Kupis si vykonnejsiu graficku kartu alebo vysokofrekvencny monitor a uvidis rozdiely v dosiahnutych framemoch. Ono ak by dnesne graficke karty dokazali vyprodukovat 100vky FPS, videl by si podobne rozdiely ako v 720p. Resp. co si predstavujes pod tym, ze na CPU nealezi? Hovoris iba o vykone alebo aj o niecom inom? Pretoze podla toho ake mas CPU, budes mat aj priemerne a minimalne FPS a teda stabilnejsi framerate.

+1
+2
-1
Je komentář přínosný?

Das mi tady jeden priklad, nebo to budes furt jen okecavat? Dvoujadra sem nemichej, to uz jsi v tech bizarnostech, jako zaklad berme 12400f / 5600.

+1
0
-1
Je komentář přínosný?

To nie je ziadne okecavanie. S vykonnejsim CPU mas lepsie priemerne aj minimalne FPS, stabilnejsi framerate a aj tie cinnosti, ktore spomina tynyt nizsie a teda lepsia responsivita a ine. Toto nie je sutaz o najlepsom priklade. Bizarne je iba to, ze si myslis, ze na CPU nezalezi. Presne ako pise aj tynyt nizsie, aj s tou istou grafickou kartou mozes mat vdaka lepsiemu CPU lepsi zazitok. Sam som mal kedysi SLI z 2ch GTX 460 a CPU Phenom II 940 BE co bolo 4jadro na takte 3GHz. Ked som potom kupil i7 3770K, mal som nielen priebehy FPS vyssie a stabilnejsie, ale aj vyssi vykon celkovo, pretoze Phenom uz obe karty brzdil. Plus mozem byt rad, ze som kupil vtedy 3770K a nie 3750. Vdaka 8 threadom a 4K sa este ako tak drzim s GTX 1080. Ale som si isty vzhladom na vlastne skusenosti, ze ak by som kupil platformu s modernym CPU, tak aj s tou istou GTX 1080 je to o niecom inom. Neviem co tu chces popierat.

+1
0
-1
Je komentář přínosný?

Ja chci jeden priklad, ktery potvrdi tvoje slova. Porad jsem se ho nedockal. Staci link na test/yt video, kde bude rozdil mezi 5600/12400 a 5800x3d/12900ks clovekem rozeznatelny ( tedy alespon 10 % a fps nad 200 se nepocitaji) ve 2k ve vysokych, nemusi byt ultra, detailech nebo 4k na strednich. Klidne nemusi jit o avg, staci 1% low. Je fakt tak tezke neco takoveho najit? Neni to nahodou tim, ze mam proste pravdu a nic takoveho neexistuje? :)

+1
0
-1
Je komentář přínosný?

Tady máte například +20% FPS v AVG a +16% v 1%min FPS proti 12900KS.
https://www.youtube.com/watch?v=O0gbfvJDsv4&t=200s

Zde jsou rozdily ve MS FS proti 12900K ještě větší, ale obojí běželo na pomalých DDR4 (to asi rozdíly zvýraznilo).
https://pc.watch.impress.co.jp/img/pcw/docs/1402/702/html/g33_o.png.html

Již od dob MS FSX patří tento simulátor mezi CPU nejnáročnější hry, případný progres ve FPS nešel až tak na vrub taktů a počtu core jako spiš generačnímu pokroku (zprůchodnění celého CPU).

+1
-1
-1
Je komentář přínosný?

Tohle je ale 3090ti v rozliseni fullhd, tohle k beznemu scenari moc blizko nema.

+1
0
-1
Je komentář přínosný?

V testu níže se RTX 3090 a 5700XT se ve Flight Simulatoru dosahované FPS liší v 1080p o pouhých 29% (na Techpowerup ve The Witcher 3 i o 104%). Z toho vyplývá, že bottleneck není na straně GPU, ale pravděpodobně CPU (značný FPS rozdíl 5800X a 5800X3D ukazuje, co jej pomohlo eliminovat).
https://www.guru3d.com/articles_pages/ms_flight_simulator_(2020)_the_2021_pc_graphics_performance_benchmark_review,6.html

+1
+1
-1
Je komentář přínosný?

Ty chces presne ten scenar, o ktorom sa bavime, ze nereprezentuje herny vykon CPU, preroze vykonnejsie pocesory su v nom brzdene. Urcite nie su 5600/12400 a 5800x3d/12900ks rovnako vykonne len preto, ze to v takomto teste vide. A to dobre vies. Ale ked si kupis o rok, dva vykonnejsiu GPU z novej generacie, ktore procesory ju podla teba vyuziju lepsie? Naozaj si myslis, ze na nich nezalezi a ze to bude stale rovnako? Pretoze to tieto testy vobec nehovoria.

+1
0
-1
Je komentář přínosný?

Hypoteticky herni vykon, tedy mereny s nekonecnevykonnou gk me nezajima a nemel by zajimat nikoho. Zajimave jsou realne fps s realnymi kartami v realnych hrach v rozlisenich a nastavenich, se kterymi je chci hrat.

Budoucnost do toho radeji nemichejme. Pokud se potvrdi zvesti o zen 4, tak je nakup 5800x3d jeste vetsi blbosti nez kdyz uvazuju jen soucasny stav.

+1
0
-1
Je komentář přínosný?

Mě v současnosti přijde jako blbost koupě Zen4, když se ukazuje jaký potenciál se může skrývat za Zen4 s V-cache.

+1
+1
-1
Je komentář přínosný?

Ten vykon ale nie je hypoteticky. Testy robis s realnymi CPU aj GPU. V nizkych rozliseniach zistis ako sa od seba realne vykonovo tie CPU lisia. A o to predsa ide. Vo vysokych rozliseniach akurat zistis, aky CPU je na aktualnr pomery este dostatocny. To je nieco uplne ine. Ak by som si chcel kupit CPU, co mi dlhsie vydrzi, tak sa nebudem riadit testom, v ktorom su procesory vykonovo brzdene.
Ja by som inak tiez dnes nekupoval ani CPU a ani GPU. Tento rok vychadzaju nove generacie a za aktualne ceny sa dnesny HW kupovat neoplati.

+1
+1
-1
Je komentář přínosný?

Otázkou je, zda Zen4 vůbec 5800X3D překoná. Pokud jsou v určitých scénářích rozdíly 5800X a 5800X3D i přes 40% nemusí na to ani Zen4 (7800X) stačit.

+1
0
-1
Je komentář přínosný?

Ja by som novy PC staval az na konci roka ked bufu vonku Zen4 a nove generacie GPU od NV aj AMD. Keby som mal ale kupovat dnes, isiel by som z z aktualneho Intelu zasa spat k AMD a do 5800vky s 3D cache alebo 5900. Realne ma to ale uz nijak netrapi. Pocas poslednycn rokov som presiel na konzolyn a cloud s GeforceNOW. Pride mi to praktickejsie ako davat vela penazi do PC HW. A na pracu mi staci obycajny NTB.

+1
0
-1
Je komentář přínosný?

Jakože by nepřekonal ani i9 12900K, když už pak bude ještě víc výkonnější i9 13900K? Tak to byl teda slušný failíček.

+1
+2
-1
Je komentář přínosný?

https://www.svethardware.cz/ryzen-5-5600-vs-core-i5-12400f-jake-grafiky-...

V některých hrách ty CPU už brzdí RTX 3080
V jiných až 3090
Pokud další generace GPU opravdu dodá 2x výkon ... tak ty CPU budou omezovat už xx70.

+1
+2
-1
Je komentář přínosný?

Já ti dám úplně jednoduchý herní příklad: Jakýkoli modernější Battlefield. Technicky vzato, ono se to v singlu bude hejbat, dokonce i průměrné FPS v multi budou vypadat OK, ale až do okamžiku, kdy ta hra spustí něco jako levolution, nebo se začne dít 'nadefest v nějakém uzavřeném prostoru. Ten efekt na CPU je extrémní - ačkoli ti grafika je schopna dodávat FPSka, tak procesor musí počítat všechny kolize, exploze, změny v geometrii (protože BFko je taky o desktrukci). Ověřil jsem si to prakticky - upgradoval jsem desku a CPU z 2600K@5GHz na stock 3800X, grafika zůstala stejná. A přesto, že framerate je +/- stejný, tak responzivita hry samotné je neuvěřitelně jiná - s novým procesorem se to celé hejbe a reaguje na ovládání daleko lépe. A to se jedná o "střílečku." Upozorňuji, že u starších BF (4 a 1) jsem ručně upravil počet využívaných threadů, jinak jsou defaultně nastaveny na "intel-positive" 4 thready.

+1
+2
-1
Je komentář přínosný?

Psal jsem, ze scenar nema byt bizarni. Kdyz do toho zamichas 11 let stary procesor, tak to je ultrabizarni.

+1
-3
-1
Je komentář přínosný?

Nechápu co je na tom "bizarního?" Je to důkaz toho, že vliv CPU existuje, a jestliže to je patrné u toho 11 let starého CPU (který ovšem až donedávna nebyl od hiendu dál, než o cca 30%), tak nějaký vliv bude i u soudobých CPU.

Mimochodem, ten vliv máš naměřený i na tom odkazovaném DDW.
5800X3D vs 5800X je to 115 vs 105 fps ve FC6 a 1440p například, to je rozdíl téměř 10%, chceš ještě nějaký jiný důkaz? Je to pro tebe dost nebizarní?

http://www.ddworld.cz/images/stories/procesory/AMD%20RYZEN/RYZEN%205000/...

+1
+1
-1
Je komentář přínosný?

Má to podobnou bizardnost, jako když závodník co ve skoku do dálky skončí druhý vznese protest proti vítězi: "Že se moc odrazil.".

+1
0
-1
Je komentář přínosný?

Lidi, tomo po vás chce odkaz na testy, které potvrdí jeho názor a vy to tady ukázkově sabotujete, mějte přece soucit ;)

+1
0
-1
Je komentář přínosný?

Já čekám hlavně na jediný test 5800X3D: srovnání s 5800X a 5900X

Nic jiného mě nezajímá. Ale tipnu si, že nakonec to u mně vyhraje X3D, protože pár procent dolů vůči 5800X mi vadit nebude a 5900X bude ve hrách horší. Ačkoli na hraní už nemám tolik času, přece jen si myslím, že X3D bude nejvyváženější volba pro finální CPU do mého stroje. Pravděpodobně s ním přeskočím první generaci Zen4. O Intelu ani neuvažuji, jednak bych musel měnit celou platformu a pak ta spotřeba je jednoduše kentus humus.

+1
-1
-1
Je komentář přínosný?

Tipnul bych si, ze z pohledu budoucich her a GK bude X3D z AM4 CPU asi nejvice future-proof. Co nikdo netestoval, je například kolik sil(zdrojů) takovému CPU zůstane při v-sync na určité FPS. Pokud více paralelních úloh soupeří o omezeně velikou L3 cache, může zhoršené cache-hit-ratio mít dopad na obě úlohy.

+1
+1
-1
Je komentář přínosný?

Koukal jsem na testy u DD-ho, zatím ještě nejsem pevně rozhodnutý. Ale herní výsledky X3D jsou tedy impozantní. Uvidíme podle cen, láká mě docela 5900X, budu si to muset ještě vyhodnotit z aplikačního hlediska.

+1
-1
-1
Je komentář přínosný?

Své příznivce si asi najde mezi uživateli MS FS, ten náskok je docela impozantní. Vypada to, ze to bezelo na hruze 3200CL22. Mozna proto takovy naskok.
https://pc.watch.impress.co.jp/docs/column/hothot/1402702.html

5900X bych se osobně bál, že již 7 thread aplikace budou trpět během na více CCX. To bych už volil 5950X.

+1
0
-1
Je komentář přínosný?

Vubec jsem sem na ten Jezkuv clickbajtovy blogysek nechtel psat, ale tynyte jses preci chytrej clovek. Odkdy vykon ve hrach urcuje CPU!
Porid hlavne kvalitni GPU. S tim je ted trochu potiz, RX6800 uz se nevyrabi a doprodejove karty jsou hrozne drahe, RX6800XT je silene predrazena podobne jako RTX3080. Doporucil bych ti RTX3070Ti, ktera ma pomer vykonu a ceny pomerne slusny a ikdyz take neni levna, preci jen se to da. Pozor ale ma pouze 8GB VRAM, coz nevadi pokud nehrajes 4K, nicmene verim, ze to kde koho odradi.

Jestli mas 5800X, 5800X3D nebo 5900X je na hry, pokud nehrajes benchmarky, totalne sumafuk. Jestli vyuzije vykon vice jader v jinych aplikacich nez hrach, jdi do nej (5900X). Jinak si myslim, ze pomer herniho vykonu a ceny bude 5800X vyhodnejsi. Chapu ale, ze si muzes chtit udelat radost a potom penize za 5800X3D neresis.

+1
-4
-1
Je komentář přínosný?

Protože jsou hry, kde je CPU klíčovým. Zde je krásně vidět, kde je ve FlightSimulatoru limit CPU a kde GPU(RTX3090Ti). Rozlišení 1080p a 1440p dosahovaly shodných FPS (brzda CPU) a ve 4K se stalo brzdou GPU (přesto 5800X3D nahnal na 12900K +3FPS).
https://asset.watch.impress.co.jp/img/pcw/docs/1402/702/g33_o.png

Spodní graf s vyššími FPS by měl být snad při menší komplexnosti scény.

+1
+4
-1
Je komentář přínosný?

Ano, benchmarky benchmarky, ty nekteri miluji, ze.
Pokud si hrac porizuje RTX3090Ti, tak obvykle zaroven prechazi na 4K. Jinymi slovy limit GPU. Pokud hrac hraje se slabsi grafikou a nizsim rozlisenim, obvykle zase narazi prvne na limit GPU. Limitace herniho vykonu skrz CPU je teoreticke a dosahuje se prakticky jen v benchmarcich. Ano, FS2020 je trochu vyjimka, sam jsem hral a vim, ze i na nizke rozliseni se ten limit CPU nedosahuje uplne bezne, ale ano v teto hre to mozne je.

+1
-4
-1
Je komentář přínosný?

Ma si podla teba hrac s RTX3090Ti kupit ako CPU 5600XT alebo 5800 3D resp. ich ekvivalenty u Intelu? Podla nuektorych diskutujucich asi 5600XT lebo ved na CPU nezalezi. No a teraz ak si kupi to 5600vku a o rok ci dva si kupi nastupcu svojej GPU, ktory ma byt minimalnd 2krat tak vykonny, bude ta 5600vka stacit? Stale podla vas nebude na CPU zalezat? Lebo ja so myslim, ze 5800vka bude odvadzat ovela lepsiu pracu s vykonnymi GPU aj dalsej generacie ako 5600vka.

+1
0
-1
Je komentář přínosný?

K RTX3090Ti bych koupil bud R5800X3D nebo R5900X. Duvodem by bylo to, ze pri celkove cene PC s takovou grafikou neni cena procesoru az tak podstatna a snazil bych se pri maximalizaci vykonu GPU, maximalizovat i vykon CPU.
Nicmene cele to zalezi i na chovani toho konkretniho uzivatele. Jsou uzivatele, kteri meni procesor s pomalu kazdou generaci, v tom pripade by to nemelo vubec cenu resit a jsou uzivatele, kteri meni procesor treba jednou za 4 - 5 generaci, potom je samozrejme lepsi koupit vykonejsi, ktery vydrzi dele.

+1
-1
-1
Je komentář přínosný?

Presne. A testy vo vysokych rozliseniach a detailoch ti nepovedia, ktore CPU su vykonnejsie. Podla nich sa takto neda rozhodovat. To mozes povedat iba z testov, v ktorych nebudu CPU brzdene. Ale zasa podla testov vo vysokych rozliseniach vies, ktore CPU este staci a do akeho mas ochotu dat peniaze. O vykone a hlavne rozdieloch vo vykone tieto testy nie su.

+1
0
-1
Je komentář přínosný?

při vyšších rozlišeních 1440p+ již nejsme CPU limitováni a dle měření skutečně kombinace 5600X + 3090Ti/6900XT je lepší volbou než 5800X+ slabší 3080/6800XT. Hodně recenzentů tento fakt neumí přijmout a to i ti, co si to sami změřili. Prostě jim takové "levné" CPU přijde k těm "drahým" kartám neadekvátní. Přitom "neadekvátní"pro hráče který chce nej GPU výkon není to "levné" 5600X, ale ty karty 6800XT/3080 které prostě nejsou top

+1
0
-1
Je komentář přínosný?

Tak pokud jsi na 4K a zdímeš z GPU maximum, nepotřebuješ top CPU... jistě. Jenže opravdu ne každý nutně potřebuje 4K... ne každý má takový velký monitor, aby to využil nebo to prostě nepotřebuje tak moc sharp...

Spíš už se dost často setkávám s názorem, že průměrných 60 FPS už lidem moc nestačí a je to pro ně už hůř hratelné... no je to docela pochopitelné, když minima máš pak třeba jen 50, to už máš pak docela slow a řekněme si to na rovinu – ani RX 6900 XT nemá všude ve 4K zas tak krutopřísný výkon, jak se na to ježci tváří a nebývá zas tak často nějak výrazně nad těmi 60... takže potom se výkonný CPU poměrně dost hodí, pokud máš rád raději rychlé reakce, chceš to co nejvíc smooth a nemít to při rychlých pohybech takové mázlé... tak místo 4K chceš raději 144 Hz panel a pokud možno ho chceš co nejvíc času krmit těmi 144 fps, ať opravdu využiješ jeho potenciál... takovým hráčům se i procesor typu Ryzen 7 5800X3D pak opravdu hodí a třeba ten classic 5800X opravdu nemusí stačit tak, jak by si oni představovali...

Prostě celé je to jen o tom, jak ten počítač využíváš, někteří spíš nepotřebují zas třeba tu RX 6900 XT, pokud nejedou na rozlišení, ale spíš na ten high refresh rate – když stejně neexistuje CPU co by vytřískal z RX 6900 XT v 1440p víc než třeba z 6800 XT (třeba)... tak taky... taky nevím na co tak výkonnou grafiku... úplně stejná logika... tady se ale prostě furt jede jen ten jediný správný názor, že kdo má RX 6900 XT, musí hrát ve 4K a nijak jinak se to líp využít nedá... ježkovy voči stejně asi nevidí víc než 60 fps, že... takže ano... v tom případě by mu pak mohl být Ryzen 7 5800X3D zcela ukradený.

+1
+1
-1
Je komentář přínosný?

Kdy výkon ovlivňuje CPU? Odjaktěživa. Prostě jsou hry, ve kterých se nehýbou jen naskriptované NPC, ale reálně se tam i něco počítá, kupodivu se jich dá najít poměrně dost. Typicky můj oblíbený BF.

Osobně čekám na 7700XT, to bude IMHO asi nejlepší karta budoucí generace, nvidia je pro mě předem odepsaná vysokou spotřebou (uvidíme, jak na tom bude RTX4060, ale moc šancí tomu nedávám, vypadá to zatím, že proti AMD museli jít s takty až moc nahoru), víc pro své rozlišení nepotřebuju, když mi dnes stačí skvělá a nežeroucí 5600XT od Sapphire. A hlavně mám dobré zkušenosti s ovladači od AMD, většinou není třeba zuřivě upgradovat pokaždé, když vyjde nová hra, prostě to funguje.

+1
+1
-1
Je komentář přínosný?

Asi tak. Ludia su nejak zmagoreny testami z vysokych rozliseni a nadobudli dojem, ze na CPU nezalezi alebo ze je malo podstatny. Ale ved je to sakra komponenta, co krmi graficku kartu datami, pocita fyziku, AI a kadeco ine. Fakt sa mame dnes tvarit, ze nema vplyv na herny vykon?

+1
+1
-1
Je komentář přínosný?

Nema, bezny CPU je natolik vykonny, ze i 1080p dava malou moznost, ze neco ovlivni. Nekteri proto CPU testuji na 720p, aby se rozdily v procesorech projevily a teda nic, cim by se bezny hrac musel zabyvat.
Otazka je snad jen, co je to bezny CPU, pro nekoho Atom, pro me cokoli nad R3600.

Edit: monitory mam QHD a 4K, mozna jsem tim ovlivneny, ale pro me je tim padem herni vykon dan tim GPU.

+1
-3
-1
Je komentář přínosný?

Myslíte si, že se v budoucích hrách v horizontu 5 let množství výpočtů/frame(3D_engine,AI, ....) bude zvyšovat, nebo snižovat?

+1
+1
-1
Je komentář přínosný?

Zvysovat, ale dnesni procesory maji velke rezervy a da se ocekavat, ze postupne uzivatele budou ke 4K dotlaceni, jine displeje nebudou a tudiz soucasny procesor v pohode dalsich 5 let vydrzi bez nejakeho zadychavani se, narozdil od graficke karty.

+1
-3
-1
Je komentář přínosný?

To je odvážné tvrzení, když jak NVidia, tak AMD, tvrdí, že příští generace grafických karet bude dvakrát výkonnější. Ano, můžeme se hádat, jak moc je to marketing, ale výkony grafik jdou nahoru a s třetím hráčem na trhu (a díky bohu za něj), bude ten tlak na na zvyšování výkonu grafik ještě vyšší. Proto, jestli si dnes někdo myslí, že za pět let budou takové Ryzen 5 5600(X) nebo i5-12400(F), dnes nejžádanější procesory do herních sestav nižší střední třídy, pro hraní stále relevantní a nebudou ve 4K brzdit nové grafiky, pak opravdu nevím, co si o něm myslet. Já se totiž reálně obávám, že za pět let si pořádně nezahrajete nejnovější hity ani na dnešních hi-end procesorech, i když k nim budete mít tu nejvýkonnější grafiku té doby. Ostatně, zkuste si dnes zahrát třeba Cyberpunk 2077 na R7 1800X, tedy nejvýkonnějším AM4 procesoru z roku 2017 s RTX 3090 Ti, tedy nejvýkonnější současnou grafikou na nejvyšší detaily ve 4K a myslím, že nadšením moc hýkat nebudete ;-) A to je už přes rok stará hra.

+1
+1
-1
Je komentář přínosný?

Co se tyka grafik, tak o tretim hraci na trhu se hodne mluvi, ale nikdo ho zatim nevidel. Nedelal bych ukvapene zavery, do roka Intel grafickou divizi zrusi. :-)
Co se tyka AMD, taky zadnej zazrak zatim, RDNA2 se zase az tak moc neokotilo a co se tyka NVidie, tak od doby Pascalu mela ne moc povedeny Turing a ted maji Amperu, ktera se nam tak trochu rozezrala a pry to s dalsi generaci bude jeste horsi.
Takze ne, ja tvrdim, ze zadna revoluce nebude, zvysovani vykonu grafik se bude brzdit a za 5 let si na soucasnem osmijadru vsichni v pohode zahrajou.

+1
-2
-1
Je komentář přínosný?

No, uvidime az RX7700XT bude, ja nepredpokladam, ze by hraci s R5800X narazili i s touto GPU na limit CPU. Urcite ne bezne, ale jestli jedes BF na 144FPS ci jeste vice, tak asi se to stat muze, ikdyz s tvou grafikou tech FPS nedosahnes, takze zase jen teorie.
Chapu, ze si nekteri nakup financne nevyhodneho produktu musi zduvodnovat, ale neni lepsi si proste rict: "udelal jsem si radost"?

+1
-3
-1
Je komentář přínosný?

A jsou ty cca 3kKč navíc mezi 5800X a 5800X3D v kontextu celkové ceny sestavy opradu tím cenově nevýhodným? Mě přijde nevýhodných těch +30kKč za RTX 3090(52kKč/2022) versus GTX 1080Ti(22kKč/2017).

+1
0
-1
Je komentář přínosný?

U nove sestavy to zakaznika prilis trapit nemusi, to je pravda, psal jsem to i o neco vyse. Ale menit v sestave jen procesor, bych delal jen tehdy, kdybych mel opravdu stary, ktery to nedava. Rozhodne bych treba nemenil 5800X za 5800X3D. Ona je to akademicka diskuze, protoze vetsinou je to tak, ze zakaznik ma rozpocet, do ktereho se musi vejit a ja v omezenem rozpoctu doporucuji jit do slabsiho procesoru, muze byt 5800X, ale muze byt i 5600X a radeji pridat penize do grafiky. (Samozrejme predpokladem je herni sestava, jakmile na tom clovek dela i neco jineho, bude mit jine priority.)

+1
-4
-1
Je komentář přínosný?

Řeknu ti to takto: s 3800X na ten limit narážím i teď, i když už o dost méně. A opakuji, že nejde o FPS, ale o to, jak ta hra reaguje. Blbě se to vysvětluje, pokud jsi to nikdy nehrál, a nevíš, co je to za bordel, když se potká 40 hráčů z 64 na prostoru úzké chodbičky a začnou po sobě házet granáty, světlice a kouřáky a do toho všichni střílí... :-D

ilustrace zde, okolo 1:48:30: https://www.youtube.com/watch?v=CGCGWJMnNgw
Ze záznamu nejsou vidět FPSka, ale je vidět, že hity z granátometu to dává se zpožděním. Prostě si nedokážeš představit, jaký výpočetní bordel dokáže rozpoutat několik desítek lidí na malém prostoru. :-)

+1
+1
-1
Je komentář přínosný?

To je asi takový zážitek jako Doom na 386DX40 ve fullscreenu, otázkou je nakolik v tom Vašem odkazu nehrají hlavní roli síťové latence zúčastněných.
https://youtu.be/9_2qGaIOvjs?t=213

+1
-1
-1
Je komentář přínosný?

Jo, taky si myslim. Pravdepodobnejsi je, ze ma uzivatel uzke hrdlo v sitovem pripojeni.
No ale za pokus ta vymena procesoru stoji, treba mu to na 5800X3D bude delat taky a protoze to hrajou pripojeni na paterni optice, prijde s pravdepodobnejsi moznosti, ze blbe naprogramovane hre pomuze leda zazrak. :-)

+1
-3
-1
Je komentář přínosný?

Takhle - to není můj záznam, je to jen ilustrace toho, co se na scéně běžně děje. Jak píšu, mám to ověřeno na upgradu svého PC, kdy vše ostatní zůstalo stejné - připojení do netu, grafika, atd., změnila se jen deska, RAM a CPU. Oba opomínáte faktor multiplayerové hry, kde se najednou řeže 64 lidí, a to nejen puštičkama, ale i granátomety apod., a to prostředí na tu řežbu reaguje (sice omezeně, ale reaguje). Přitom každý projektil se počítá zvlášť.

Jinak DOOMa jsme síťově hrávali na 486SX + 4MB RAM někdy kolem roku 1994-5 a rozhodně se hýbal lépe (samozřejmě 320x200 a okno zmenšené o jeden skok.) O dva roky později už Team Fortress pod NT4 na P2 a hejbalo se to o dost lépe, a ve vyšším rozlišení :-D :-D

+1
0
-1
Je komentář přínosný?

Overeno mas co?
Mel jsi nejaky nevykonny procesor a menil jsi ho za 3800X, pokud chapu spravne, co pises. Zlepsilo se to. Ted ocekavas, ze se to zase zlepsi pri zmene z 3800X na 5800X3D. Jenze to nastat nemusi. Pokud narazis na uzke hrdlo jine komponenty, nezmeni se nic.
Ale prosim, ozkousej to a pak dej vedet, jak to dopadlo. Ikdyz, pokud te funkcnosti zmeny tak silne veris, tezko rict, jestli to nebudes obhajovat, ikdyz v realu nic neuvidis, jen budes verit, ze je to lepsi. Ovsem i vira muze pomoci tvem lepsimu vykonu ve hre, zjevne se ti upgrade vyplati.

+1
-3
-1
Je komentář přínosný?

A že se to nezlepší usuzuješ podle čeho? testu, ve kterém se neměří ani žádná minima, 1%, 0,1% fps... nic, pouze avg fps, které ti v reálu o tom jak to opravdu běží řeknou stejně totální govno, jestli tam je nějaký (micro)stuttering, zpoždění... já nevím co... prostě nezjistíš absolutně nic a podle toho se tady vyvozují závěry, jak je ten zážitek úplně stejný. Govno stejný, i když je průměr stejný, řekněme 60 fps, a je toho nějak dosaženo pomocí různého HW, který se ve hře chová každý trochu jinak, tak na jednom je ten framerate třeba stabilní, ale na druhém to může být klidně zcela nehratelné, pokud tam je plno lagu. A to může poměrně často způsobovat právě nedostatečně rychlý CPU, i když to na první pohled tak nemusí vypadat, možná většinu času to běží v pohodě, ale jakmile se ti v nějaké hře začne sypat celý barák, protože do něj někdo střílí z RPG a najednou se musí počítat plno fyziky pro každý dílek omýtky co lítá vzduchem zvlášť, tak už to pak najednou nemusí stačit, pokud tam nejsou žádné rezervy a CPU je na limitu.

Jak už někdo poznanenal předtím, na takové „testování“ se dá říct jen jedno: ježkovy voči.

+1
+2
-1
Je komentář přínosný?

Citujem Honza Stacha z DDW a z clanku, na ktory sa David odvolava:

"Módou některých procesorových testů je dnes testování naprosto nerealistické nepraktické konfigurace, kdy použijeme ultra silnou grafiku, pro ultra nízké rozlišení někdy ještě se staženými detaily. Výmluvou je, že pak se ukáže prý procesorový výkon. Neukáže! Ukáže se jen, jak daná hra neumí výkon procesorů využívat a na těch několika málo jádrech/vláknech, co částečně využívá. A tak záleží jen na výši taktu na části čipu, nikoliv na skutečném výkonu procesoru jako celku. Skutečný výkon procesorů ale využit u her dnes není, tudíž test nízkého rozlišení s výkonnou GPU ve hrách neřekne to nic o tom, jaký výkon procesory skutečně mají."

"jinak ta minima jsou vedlejší (žádný produkt s dobrými středními FPS nebude mít špatná minima), většinu lidí bude zajímat hlavně ten průměr a na ten se soustředíme ... prostě takhle to děláme a pokud se vám to nelíbí, můžete si dělat vlastní testy a obětovat tou ten čas a všechno ..."

+1
+2
-1
Je komentář přínosný?

Když lenost s hloupostí přiloží ruce k dílu, výsledek podle toho vypadá.

+1
+1
-1
Je komentář přínosný?

jj, interpretace výsledků je stará známá bolístka DDW. :-)

+1
+1
-1
Je komentář přínosný?

Neskutečně debilní argumentace, právě že avg fps nemůže říct o minimech absolutně zhola nic – je naprosto běžné, že když máš slabý CPU bez rezervy, tak sice avg fps můžou být vysoká, když se nic náročného nemusí počítat, ale jakmile přijde scénář co se nastínil výše, kdy je toho prostě potřeba najednou počítat trochu víc, můžeš narazit na limit a fps letí střemhlav dolů.

A ano... utilizace ve hrách je bídná a kdyby se dala využít ta 16C na max, samozřejmě by bohatě stačila... ale kdyby... a co jako... prostě takhle hry nefungují, a proto musíme všeci používat „slabé“ CPU, protože ta výkonná nejedou na max (a stejně pak dosahují i přes to lepších výsledků)? No to je teda blbost na druhou, co se dokáže vymyslet opravdu snad jen na DDW, pak si to tam někdo přečte a tento nesmysl papouškuje i zde, přitom to je taková neskutečná ptákovina...

+1
0
-1
Je komentář přínosný?

Tak ještě jednou: ten "nevýkonný procesor" zase tak nevýkonný není.

https://www.gamersnexus.net/hwreviews/3412-intel-i7-2600k-revisit-2018-b...

Připomínám, že to je 5GHz allcore (4C/8T) a je +/- srovnatelný s Haswellem. I přes své stáří je to stále docela použitelný stroj i dnes. Jen to hraní už nedává.

Co se týká upgrade 3800X -> 5800X(3D), tak čistě na 5800X by to mělo být +15% cca, na 3D pak dalších 15%, což dává lehce přes 30% nárůst, a to je už docela zajímavý nárůst, pokud bereme fakt, že 3800X rozhodně žádné ořezávátko není.

+1
-1
-1
Je komentář přínosný?

5800X3D(3800CL16) versus 12900K(6400CL32) ve ctyriceti hrach v 1080p,1440p a 2160p.
https://youtu.be/9XB3yo74dKU

+1
+1
-1
Je komentář přínosný?

zajímavé, síla Intelu se objeví vždy v náročnějších titulech na výpočty a ve Warzone dostává X3D doslova výklep. Dál víceméně dle očekávání - komplexní hry jako Cities už zatěžují cpu víc a je otázka zda pomáhá víc fyzických jader nebo jen rozložení zátěže a udržení vyšších taktů u Intelu. Ještě by to chtělo nějakou další strategii, třeba i starší Rome 2 kde to počítání tahů dává procíku dost zabrat.

+1
0
-1
Je komentář přínosný?

To je vcelku logicke, 12900K je výpočetně silnější a 5800X3D zas uspěje tam kde je misto vypoctu brzdou nizke cache-hit-ratio. Takže při výběru, který z těchto dvou je lepší bych si vsadil na Zen4_3D_cache.

+1
0
-1
Je komentář přínosný?

Tak na ten si ještě počkáš, má být zas až později někdy po Zen4, stejně jak Zen3D po Zen3 a asi je do toho nic netlačí... bohužel.

+1
0
-1
Je komentář přínosný?

Zen4 s V-cache je snad ohlášen na příští rok. Očekával bych, že Epyc Genoa-X přijde po Epyc Genoa podstatně dřív než Milan-X (ten přišel až cca rok po Milan). Podle zájmu o Milan-X vůči Milan bude muset AMD přizpůsobit nabídku(dodávky).

+1
0
-1
Je komentář přínosný?

To je docela mazec, 12900k potrebuje skoro 2x drazi Top nejlepsi soucasne DDR5 6400, aby ten 5800X3D vyrovnal. Se slabsima pametma bude pomalejsi. Kdyz se k tomu pricte 2-3x vyssi spotreba AL, tak 5800x3d je asi nejzajimavejsi herni CPU za posledni roky s jeho efektivitou.

+1
+1
-1
Je komentář přínosný?

Je docela pravděpodobné, že 5800X3D by si slušně vedl i se slabšími DDR4, právě díky většímu cache-hit-ratio. Takže i u starší sestavy s pomalejší RAM by asi byl znát. Japonský test byl na vcelku děsivých latencích 3200CL22 (latence typicke spise pro RDIMM ECC ci SO-DIMMy do NTB).
https://pc.watch.impress.co.jp/docs/column/hothot/1402702.html#g33_l.png

Ale jak bylo výše(níže) poznamenáno u her co se "vejdou" do 32MB cache nepřinese nic, naopak horší výsledek díky nižším taktům (proti 5800X). A pokud u budoucich her vzroste výpočetní náročnost, může mu dojít dech (proti 12x00).

+1
+1
-1
Je komentář přínosný?

Co tu plácáš za nesmysly, ten procesor kromě pár her je nepoužitelný, hodně lidí na pc i maká a tam slavný X3D vyhořel jak papír, Raptor Lake tuto zdechlinu i s novým Ryzenem pošle do kolen, Raptor 5,8 GHz v turbo režimu a 68 MB game cache, toto bude jak pracovní, tak herní král na velmi dlouhou dobu Matěji.

+1
-2
-1
Je komentář přínosný?

Těch 68MB game cache má být u RL údajně součet L2 a L3 cache. L3 cache má být u RaptorLake 36MB (L2 cache 32MB), přičemž AlderLake má L3 cache 30MB (L2 cache 14MB). Takže nárůst v L3 tam je, ale ne tak markantní jako 32MB=>96MB u 5800X3D. Navýšení velikosti L2 cache jistě na výkonu přidá, ale nezajistí krytí pro rozsáhle datasety. Na nížší cache-hit-ratio může RL trpět podobně jako AL.

+1
+2
-1
Je komentář přínosný?

V poradku NIdote :D
ps: neboj, vzdycky ti zustava nadeje, ze Intel prijde s necim rychlejsim ;)

+1
-1
-1
Je komentář přínosný?

To musí být hrozný, na AL takovej hypetrain, takový ultimátní herní procesor to měl být prej říkali... a nakonec to AMD dorovná i se Zen3, jen na něj nalepí chiplet s cache a to si ještě Intel pomáhá pomocí DDR5 a s vyšší spotřebou, takže nevím co víc teda vyhořelo, ale kouří se spíš víc z i9 12900K. :) A opravdu mě velice zajímá, jak budou konkurovat 3D Zen4.

+1
+1
-1
Je komentář přínosný?

Chudak to psychicky nezvlada..
:D

+1
0
-1
Je komentář přínosný?

...tedy já aspoň v té jejich roadmapě nic nevidím, Meteor Lake už má být proti Zen 5 a s RL budou asi rádi, když dorovnají Zen4, natož aby překonali... těch 5,8 GHz není typická game boost frekvence, ta bude asi jen 5,5 GHz, a Ryzen taky zrychluje na 5 GHz a doprovází to ještě o 20% vyšší IPC, u Intelu se očekává jen něco kolem 10... no a co se týče cache, ta se má přeci také rozšiřovat (a to teď nemyslím pomocí 3D Zen4, ten to pak navýší ještě víc) a to víc než u RL. Takže zas tak jednoduché to RL mít asi nebude.

+1
+1
-1
Je komentář přínosný?

to už pak záleží i na množství jader, proto jsem bral sice starší ale 12c 3900X. Nu a pokud ti na pozadí ještě něco běží třeba jen prohlížeč s 30+ taby tak si to ukrojí další kapacitu z cpu která v danou chvíli může chybět, pak už 8c je na hraně možností.
Nu a teď jsem jen zvědav jak si daný procík povede s objednanou RX 6600 ve fHD kdy se mi ji podařilo získat prakticky za doporučenou cenu .-)

+1
-1
-1
Je komentář přínosný?

To shrnutí je naprosto v pořádku ... Problém (?) je, že to bylo zjevné už dávno před tím, než se objevily první testy. Přinejmenším já mám ten dojem.

+1
0
-1
Je komentář přínosný?

No neviem,ak dakto chce procesor prevazne na hry a nie na pracu tak ten novy 5800x3d je vyrazne lepsia volba ako intel ked v min.fps dosahuje to iste co intel v priemernych fps a s o polovicu nizsou spotrebou...a min.fps su dolezitejsie lebo to su najnarocnejaie sceny ktore chcete na 144hz monitore mat plynule

+1
0
-1
Je komentář přínosný?

Já pořád tvrdím, že 5800x3d je cvičení, aby si AMD vyskoušelo tento typ pouzdření, nasbíralo zkušenosti a pro další generaci získalo další úroveň škálovatelnosti. S cenou se ničemu ani nepokouší konkurovat, protože není důvod a myslím, že to ani nemají v úmyslu prodávat jako hlavní model.

+1
0
-1
Je komentář přínosný?

Yes, I believe so as well. It's more probable that the network connection is congested because of the user.
But the effort to repair the CPU is worthwhile; he'll have to do it on the 5800X3D as well, and because they're playing backbone optical connections, he'll come up with a more probable chance that a badly built game would only assist magically. https://fivenightsatfreddys.online

+1
-1
-1
Je komentář přínosný?

"v reálných smysluplných herních testech"

LOL, tak to jste mě opravdu rozesmál. Hovořit v souvislosti s počítaočovými "hrami" o smysluplnosti je naprostý oxymoron.

Bohužel skutečně smysluplné testy jsem u 5800X3D ještě neviděl, především co to udělá s výkonem nějaké větší databáze (např. u PostgreSql).

+1
0
-1
Je komentář přínosný?

Cache ma masivny vykon tam kde to hra aplikacia vie vyuzit. Prikad Factorio.

Kazdy boomer testuje avg fps. min 0,1% je podstata. Tam to ma potencial tiez.

+1
+1
-1
Je komentář přínosný?

S odstupem času se ukázalo, že i po vydání Zen4, je 5800X3D nejúspěšnějším CPU vůbec, jen tohoto modelu se prodá na MF více než všech modelů Intel CPU dohromady!
Hráči honící fps zůstavají na AM4 a přechod na AM5 zvařují až s příchodem Zen43D. Je to právě X3D který se páruje s výkonnými GPU 4080/4090/RXTX.
Není roztomilé jak jsi se ve všem zmýlil?

+1
+2
-1
Je komentář přínosný?

Vždycky, když vidím recenze X3D čipů, tak mě mrzí, že prakticky nikdo neměří simulační hry (rychlost simulace) jako Stellaris, Hears of Iron, Supreme Ruler, Rimworld apod. Výkon tam bude pravděpodobně značně vyšší. Teď jsem 5800X3D koupil namísto 5800X, které jsem měl krátce po vydání a udělám z něj upgrade mé ženě (má stařičký 1600), tak uvidím :)

+1
+1
-1
Je komentář přínosný?

Tak tak: https://forums.flightsimulator.com/uploads/default/original/4X/9/1/4/914...

obrázek mluví za vše a to mě lidi nadávali do hlupáků že když jsem neměl AM4 desku tak jsem si měl koupit místo 5800x3D "stejně" rychlou 7600 s AM5... což by bylo k ničemu protože výkon který jsem chtěl v kritickém scénáři dosáhnout by se s 7600 ani žádným non 3D Ryzenem nepovedlo.

https://www.youtube.com/watch?v=zBPf2sm1FjY
Tady 5800x3D dosahuje o 50% vyšší 1% low a o 50-70% vyšší AVG v CPU intenzivních scénářích proti 5600X

+1
0
-1
Je komentář přínosný?

no vážně je pěkné si přečíst s odstupem času článek a uvědomit si jak se někdo sakra zmýlil :D
jeden si pak uvědomí že se i technicky založení nechají řídit podle svých pocitů

+1
+1
-1
Je komentář přínosný?

Jj já koupil 5800x3D před "pár" dny, po 7800x3D není lepšího procesoru pro MSFS. Upgrade na 7800x3D vycházel na 17 tisíc, (cpu, deska, 32GBRAM, chladič) na 5800x3D 10 tisíc (deska+cpu) takže nemělo smysl kupovat AM5, které dá cca 10% výkonu navíc, které reálně nepoznám a hlavně ani nepotřebuji,

Možná jsem mohl pár set ušetřit za 5700x3D, Ale jak ho nikdo ve spojení s MSFS nezmiňboval, tak jsem ani nevěděl že se u nás prodává

+1
0
-1
Je komentář přínosný?

no u nás asi AM5 přeskočíme
zajímavé je jak si AM4 desky drží cenu (nové i bazar)
mě se podařilo koupit na mallu tady v diskuzi zmiňovaný 5700x3D za tech prijemnych 5200kč nebo kolik to tehdy bylo - na CPU support listu jej deska ani nemela (ted uz tam uveden je) a fungoval bez update biosu

ted mi přinesli synci kamaradovo pc (intel h61) nevim co tomu muze byt, zamrzne to na uvodnim logu gigabyte BIOS, nepomaha nic (svecenou vodu jsem zatim nezkousel) a tak si pohravam s myslenkou namisto nakupu h61 fošny mu to předělat na AM4... placnout tam R5 1600AF/2600

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.