Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Ryzen 7 7800X3D vydán: Herně ~7 % nad Core i9-13900K při 3× nižší ~50W spotřebě

přehled trapnosti pokračuje - apríl už byl a z vážnou tváří prodávat výkon procesoru v 720p, to už chce hodně alkoholu v krvi.
Je to jen pár let zpátky co Obrmaier strašně schytával za to že testuje DOSbox a hry v nízkém rozlišení. Uběhlo trochu vody a je to v bleděmodrém z druhé strany, holt lidská paměť je hodně krátká.
A ještě něco, ty Intely co jsou nepatrně pod těmi X3D jdou slušně popohnat, což ovšem u čipu s extra cache bez rizika likvidace nejde. 13900K má na GB deskách 6Ghz mód. Sice to pak žere jak kyselina, ale slabší jak ten X3D rozhodně nebude. A reálně i s 13700K to bude v běžném rozlišení plichta (pochopitelně když nebude škrcen na oficiální TDP - ale na které desce krom OEM je že?), takže ty oslavné články jsou jen přehled trapného fandovství.
P.S: kdyby to byl jeden článek tak si ten koment odpustím a dělám že jsem neviděl, ale čeho je moc toho je příliš a DIIT začíná být "light" verzí DDW....

+1
-23
-1
Je komentář přínosný?

Je to jedině dobře, intel potřebuje spadnout na dno jak financemi tak reputací aby konečně udělal zásadní změny a začal pořádně inovovat místo nekonečných prolhanych slibů.

Jen s chutí do něj, vše říct na rovinu a vysvětlit proč jsou intely oproti konkurenci absolutně zaostalé

+1
+11
-1
Je komentář přínosný?

zaostalejší je u Intelu výroba, ale architektura rozhodně ne, ani pár desítek MB extra keš paměti na tom nic nezmění. Jednoduše jádra byla navržena na to co fungovalo léta- že výrobny budou dál na špičce. Tedy ne chyba desingérů architektury.

+1
-17
-1
Je komentář přínosný?

Ano, muset mít 2x větší jádro, abych dosáhl stejného výkonu konkurence... zkrátka ukázka špičkové architektury v praxi. Ale u AMD bude závidět V-Cache... LOL.

https://diit.cz/clanek/intel-pry-s-meteor-lake-snizi-pocet-velkych-jader...

+1
+6
-1
Je komentář přínosný?

Musim dat za pravdu ddr0-ovi, ze prehled trapnosti pokracuje. Tezko nazvat jinym slovem tvrzeni, ze procesor s horsim vykonem pri 3x vetsi spotrebe je lepsi, protoze jde popohnat tak, ze konkurenta dotahne, nebo mozna i preskoci a pritom skromne nezminit, ze to bude za cenu dalsiho, velmi vysokeho narustu spotreby.

To musi byt velmi silna motivace k psani takovych prispevku. Vzdyt to intelske zoufalstvi si uz nedovoli oslavovat ani jejich vlajkonos Adams, ani Obr.

Ale jinak ma ddr0 pravdu, už ze testovani se spickovou grafikou v rozliseni 720 je pitomost, ktera slouzi jen k umelemu vytvareni rozdilu tam, kde za beznych podminek zadne zasadni nejsou. Jen je pozoruhodne, ze tu metodiku ddr0 nekritizoval stejne hlasite, kdyz v ni intel dosahoval o par procent lepsi vysledky, nez amd.

+1
+8
-1
Je komentář přínosný?

jj.

Titíž lidé, kterým druhdy zásadně vadilo že Polaris má ve hrách proti konkurenci o ~50W větší spotřebu dnes omlouvají >100W rozdíly u CPU... :-D

+1
+9
-1
Je komentář přínosný?

Po pravdě bych víc ocenil 200W procesor, který bude o dvě třetiny rychlejší než 50W šmudlu, na které jsou všechny běžné aplikace stejně líné jako před pěti lety.

+1
-9
-1
Je komentář přínosný?

A jak to souvisí s tím, co Tynyt napsal nebo číslama z článku? Dnešní situace je taková, že ten 50W šmudla má o něco málo vyšší herní výkon než 140W hovado. Mám AMD raději než Intel, ale pokud by se situace s čísly (výkon-cena-spotřeba) kompletně prohodila, tak koupím Intel a v diskuzích držím hubu. Co fandové intelu musí mít za úchylku, že se snaží obhájit i takovou absurditu?

+1
+3
-1
Je komentář přínosný?

To nevím.

Já jenom říkám, že když budu stát o úsporné procesory víc než o výkonné procesory, tak si koupím notebook.

Ať si 50W procesory v desktopu nacpou do špic, když to znamená, že výkon není tak vysoký, jaký mohl být, kdyby to mělo vyšší takty.

+1
-6
-1
Je komentář přínosný?

Když on ten notebook co má slušný CPU výkon a zároveň má v plné zátěži dlouhodobě snesitelnou hlučnost je asi tak 3x dražší než stejně výkonný desktop.

Kritizovat AMD, že zoufale netaktuje až na krev jako Intel a tak ve hrách žere jen 50 W?! Hele já nejsem psycholog, takže ti nedokážu pomoct.

+1
+3
-1
Je komentář přínosný?

Myslíš stejně pomalý desktop. :D

Kritizovat AMD s dovolením budu. Kdyby tu kešku nalepili vedle místo nad to, tak to nemuseli škrtit na 50 W kvůli tomu, že mezi chladičem a procesorem je ještě destička s cache.

+1
-7
-1
Je komentář přínosný?

To by bylo dražší řešení a ještě k tomu technicky horší (latence, propustnost). Kromě toho ten procesor není škrcen na 50 W, ale má průměrnou spotřebu ve hrách 50 W.

+1
+2
-1
Je komentář přínosný?

No ano, je uškrcený na 120 W, takže po většinu času poběží někde mezi 20–50 W. A 200W procesor někde mezi 50–100 W.

A vedle toho je grafika, co chramstne v zátěži 350 W a trochu větší monitor s vyšším jasem dá dalších 130 W.

Pak je celkem úsměvné řešit, kolik ušetřím tím, že to výrobce uškrtí na TDP 120 W, když zároveň shodí maximální takt o 400 MHz oproti tomu, co dává 7700X.

+1
-4
-1
Je komentář přínosný?

Monitor co má 35 W a ne 130 W.
https://www.czc.cz/aoc-q27g2u-led-monitor-27/357446/produkt
Undervolt grafik je běžný, tudíž v herní zátěži 350 W na grafice skoro nikdo nemá - jo jsou to debilové co nevědí, že vyšší spotřeba je plus...

+1
+2
-1
Je komentář přínosný?

LOL, pobavilo.

Jo, pivot to má, jako pomocný monitor na vejšku vedle 43" 4K je něco takového super. :D

A 35 W to má možná v nějakém ekonomickém režimu, kde to místo těch slabých 250 cd/m² má 150. :D

+1
-2
-1
Je komentář přínosný?

Ty seš fakt exot co umí jen přebíhat z jednoho bizarního extrému do druhého. Monitory 43" 4K jsou ještě méně rozšířené než herní spotřeba grafiky 350 W.

+1
+2
-1
Je komentář přínosný?

To je možný, ale nic to nemění na tom, že sedmadvacítku (resp. osmadvacítku) se 1440p jsem měl jako hlavní monitor naposled před pěti lety.

Monitory... možná, no, zato takovejch televizí byl vagón. Za devět klacků to na práci není vůbec špatný. :D

+1
-1
-1
Je komentář přínosný?

Ty budeš velký skill a znalec Adamsi :D Doporučuji nechat se po studiu zaměstnat někde ve firmě, kde se skládají PC :D

+1
0
-1
Je komentář přínosný?

Copak se nám na tom nezdá?

+1
-2
-1
Je komentář přínosný?

Tady se někdo pomátl. Třeba můj 42" OLED LG C2 má typicky spotřebu kolem 60W (SDR s jasem na maximum toho, na co se dá bez únavy očí dlouhodobě dívat) a i v HDR zřídka proleze 100W. A to fakt není z nejúspornějších. Druhá věc je, že většina lidí bude spíš než spotřebu řešit chlazení skříně, takže řešit monitor je úplně mimo. A grafiku na 350W si nechá běžet jenom blázen. A i kdyby, tak 100W dolů na CPU i v tomhle případě značně pomůže chlazení a nižší hlučnosti.

+1
+4
-1
Je komentář přínosný?

No, to je typická spotřeba. A pak jsou atypické spotřeby, když na tom člověk otevře bílé okno přes celou obrazovku: :D

https://pctuning.cz/article/alienware-aw3423dw-jak-se-hraje-na-panelu-qd...

A pak jsou LCD, která svítí permanentně naplno, pokud člověk povypíná ty úsporné blbiny, které jsou tam v defaultu aktivní jenom kvůli energoštítku. 50" LG Nano s qdot LCD mi žere jen 105 W. 43" samsung 95 W, ale u něj mám další tři pomocné monitory s 40–60 W. :D

S těmi 130 W uznávám, že jsem se přestřelil, to dělaly velké monitory s CCFL. :D

+1
-1
-1
Je komentář přínosný?

Ty jsi prostě troll. Opravdu věříš, že má někdo nastaven na trochu větším OLED monitoru 100% jas a většinu času zobrazené bílé okno na celou obrazovku tak, aby to malo nezanedbatelný vliv na spotřebu? Opravdu považuješ za příčetné argumentovat konfigurací, kterou nemá ani promile uživatelů (>2 monitory)? ... Naneshledanou.

+1
+2
-1
Je komentář přínosný?

Na dell alienware bez problémů. Ono to totiž při zobrazení bílé plochy nedrží maximální jas, víme? Ten to má jenom na malých objektech, s rostoucí světlou plochou to maximální jas tlumí.

Zrovna u toho Dellu to ze špičkových 1000 cd/m² padá na 260, a to už je v podstatě jas nejlevnějšího LCD.

https://www.rtings.com/monitor/reviews/dell/alienware-aw3423dw

Ani promile uživatelů nemá dva monitory? Jakože ani jeden z tisíce lidí nemá na dva monitory? A já jsem tady troll. :D

Jak se pak říká uživatelům, co mají čtyři?

+1
-1
-1
Je komentář přínosný?

"Ani promile uživatelů nemá dva monitory?"
tak kdyby jsi do monitoru pocital i displaye notebooku, tak si myslim, ze s tim 'promile' co ho maj, budes jeste dobre.

+1
0
-1
Je komentář přínosný?

Doplňuji, jsi troll a psychiatrický pacient. Prostě budeš donekonečna vymýšlet, jak obhájit nereálný nesmysl (velký monitor na maximální jas), abys podpořil jiný nesmysl (že nevadí mít o 100W zravější CPU, když monitor má dalších 100W). Navíc neumíš číst, protože jsem napsal ">2 monitory" tj. víc než 2 monitory. Vyhledej odbornou pomoc. Dál už na tebe fakt nebudu reagovat.

+1
+1
-1
Je komentář přínosný?

Ty jsi vul Adamsi :D

+1
+5
-1
Je komentář přínosný?

No když to vezmu do důsledku, tak zase uběhl rok a půl, a v podstatě jsme si na výkonu opět polepšili spíš o jednotky procent.

+1
-1
-1
Je komentář přínosný?

no pokud se bavis o Intelu, tak mas pravdu. Rozdil mezi 12900k a 13900k je maly. Rozdil Zen3 vs ZenX3D je masivni. Zen5 mas udajne za dverma - 1H 2024. Vzdyt se dostavame k hratelnym fps, i pokud mas dneska Zen2. Rodil mezi Zen2 a Zen4X3D je ale fps brutalni a to je jen rozdil 4 let. Tady si klidne 100% navic najdes, a to v 1080p. Dokonce i 1440p najdes takove tituly.
Tohle pro tebe neni dostatecny pokrok? Srovnej si to s pokrokem v dobe 2011-2018

+1
0
-1
Je komentář přínosný?

No, není. První tři generace Ryzenů byly s výkonem na jádro i s takty za Intelem pozadu. To se pak dá mezigeneračně báječně růst. Mezigenerační nárůst mezi Ryzeny 5000 a Ryzeny 7000 je taky luxusní. Jenomže to nebylo za rok ani za dva.

Než AMD uvedlo Ryzeny 7000, Intel přihodil pár procent na Core 11000, pár procent na Core 12000 a pár procent na Core 13000, a ve finále je to po stránce výkonu u modelů bez cache zase víceméně plichta. A to X3D oproti tomu aktuálnímu Intelu zase znamená jen jednotky procent nahoru, a teď se u AMD přes rok nebude zase dít velice nic.

Jo jestli dokáží po roce a půl od sedmitisícovek v Q1 2024 dostat na trh něco, co zvedne výkon na jádro o víc než čtvrtinu, jak se teď hypuje, tak možná začnu taky jásat.

+1
0
-1
Je komentář přínosný?

Zen2 mel podobne, vetsinou o chlup vyssi IPC nez (vyjma her) nez Skylake a jeho derivaty, Herne, byl zen2 velmi poodbny 9xxx rade, Intel mel par procent navrch.
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_ben...
Presto byl herni skok Zen2->Zen3 velky. X3D pridalo Zen3 tm, kde mel navrch AL a ted u Zen4 je to podobne.
Takze tvoje tvrzeni, ze Zen2->Z4(X3D) je maly, neni postaveny na realite, ale na tvem pocitu.
se podivej tady traba..
https://youtu.be/B31PwSpClk8?t=826

+1
0
-1
Je komentář přínosný?

Já jen vím, že mi třítísícové Ryzeny hrách oproti Intelu srážely výkon highendových karet. AMD to v té době uhrálo v průměrech na (výrazně) vyšší počet jader.

Skok Zen2 -> Zen4 není malý. Problém je v tom, že Zen2 měl pořád ještě hodně slabé IPC a nízké takty.

A že tam byl velký mezigenerační skok je čočku platné, když obě architektury AMD dělí tolik let, že to pořád jenom víceméně kopíruje výkon Intelu (plus minus jednotky procent), který jde tempem jen pár procent nahoru za rok.

+1
0
-1
Je komentář přínosný?

Intel udelal taky velky herni skok, sice zere u toho v top konfiguraci jako tank, potrebujes 1x tak drahe pametove moduly, ale udelal. Cili vyon se znatelne posouva, jen ne tak rychle, jak by jsi si pral :D

+1
0
-1
Je komentář přínosný?

Tak s těmi dražšími pamětmi máš problém spíš u AMD řekl bych... k temu když nedáš pořádné, tak ti kvůli latencím výkon dost klesá, pokud teda nemáš 3D, které ti v tomto dost pomůže a už to pak není tak závislé na rychlosti paměti... toto už je holt nevýhoda toho jejich chiplet. systému. No a Intel sice umí hezky využít i velmi rychlé a dokáže z toho ještě cosi vytřískat navíc, ale pořád to už nedělá tak velké rozdíly jako u Ryzenu.

Jinak Zen2 měl zas ještě problém hlavně v tom, že byl jen v konfiguraci 4+4 cores (neměli jednotnou tu L3), což opět dost zvedalo latence, takže jakmile jsi potřeboval využít víc, tak tě to opět dost brzdilo, čili ve hrách to tehda ještě dokázali s klopýtáním uhrát na plichtu jen tak s 6C i5 (vs. Ryzen 5), pokud si dobře vzpomínám, ale takové 8C i7 a i9 už tomu utíkali, protože to blbě škálovalo a Ryzen 7 a 9 ti už moc nepomohly. Nejlíp na tom byly Ryzen 3, které i3 úplně rozdrtily... prostě 4C vs. 4C byla pro to ideální situace, protože je to nezpomalovalo (výjimka teda byl jeden ten nižší model, kde to bylo zas rozdělené jen na 2+2, takže pro hry znova zbytečné zpomalení...)... nebýt tam ten problém s rozdělením jader jen na 4, tak už se Zen2 by měl Intel velké potíže, ten výkon
jinak vlastně nebyl vůbec špatný, ale holt to spojili až se Zen3.

No a další věci, díky které Intel vyhrával, je samozřejmě ta spotřeba... muset spotřebu stáhnout na nějaké rozumnější hodnoty, řekněme aspoň kolem max. 100W v herní zátěži ať je to trochu srovnatelné s AMD a ne 3x vyšší, tak by jim ten výkon o něco klesl a hned by vyhrával o něco míň a někde zvítězit by už nebylo zdaleka tak jednoduché. Tak ale taky kdyby je něco z nějakého důvodu nutilo mít tu spotřebu nižší, tak ten vývoj by i nejspíš směřoval úplně jiným směrem než takovým zvyšováním frekvencí jako nyní... Intel ale tady toto očividně moc netrápí a je to pro ně takový boost „zdarma“.

+1
0
-1
Je komentář přínosný?

Ty pameti byly mysleny pro X3D modely. Tam, Zen4 (i Zen3) uz tak vybiravy neni. U ne-X3D v opancem priopade ano, potrebujes neco rychleho s lepsim timingem, nez u Intelu.

+1
0
-1
Je komentář přínosný?

Mě ten tvůj způsob uvažování vážně baví. To "pomalé" AMD je rychlejší než cokoli od Intelu a JEŠTĚ to žere míň, takže nepotřebuješ vodníka, nepotřebuješ drahý vzduchový chladič, ale postačí levná střední třída (něco jako Fera). K tomu je nutno připočíst faktor stabilního výkonu nezávislého na čase nebo teplotě (oproti intelu). A přitom jsi IMHO byl jeden z těch, kdo tvrdili, že "Intel vlastně ve hrách tolik nežere" :-D Nyní můžeš tvrdit totéž o AMD. :-)

Ale tak jo, klasický doublethink, to známe.... :-D

P.S.: vyšší takty zřejmě nejsou v daném návrhu jader a 3D cache možné (ale ono to není potřeba). Mimoto se zde jasně ukazuje, že to není výrobní technologie, která se musí přizpůsobit návrhu CPU, ale návrh, který se musí přizpůsobovat fyzikálně-technickým parametrům výroby tak, aby vzniklo nové výkonové a kvalitativní paradigma (TM tralalalalák)

+1
+6
-1
Je komentář přínosný?

Rychlejší než cokoliv od Intelu. O závratných sedm procent. A mezigenerační nárůsty výkonu na jádro kolem 15 % at best.

Tímhle tempem stačí vydržet pouhých šest sedm let, a rázem tu máme možná i dvakrát rychlejší procáky než dnes, že jo.

Tak sorry, že nehýkám nadšením jako všichni ostatní, že herní výkon procesorů roste tempem sedm procent za rok, když vidím, jak jsou už teď těmi procesory RTX 4090 uškrcené všude s výjimkou 4K s ray tracingem.

+1
-4
-1
Je komentář přínosný?

Adams Adams, CPU vykon roste? A to vazne? Cetl si o Spectre a Meltdown? Tvuj CPU klidne mohl jit o nekolik procent az desitek procent dolu ani o tom nevis.

+1
+2
-1
Je komentář přínosný?

".. jak jsou už teď těmi procesory RTX 4090 uškrcené všude s výjimkou 4K s ray tracingem .."

Jo jistě.
I ta RTX 4090 brzdí procesory už ve 1440p.
S RT i v nižším rozlišení. Proto se vymýšlí DLSS a podobné ohýbání reality.

+1
+1
-1
Je komentář přínosný?

DLSS vzniklo primárně kvůli ray tracingu. A ray tracing je něco, co se tady neuznává.

+1
-2
-1
Je komentář přínosný?

Až bude mít RT význam pro hraní, tak ho začnu uznávat. Zatím je tak max. o 5-10% lepší než podobně (a vážně) řešená rasterizace, a to je prostě při dané náročnosti málo. Programátoři si možná zjednodušili práci, ale za cenu extrémního nárůstu HW požadavků, plus jsou tyto "(de)fekty" používány zcela idiotsky. A to já neberu.

+1
+2
-1
Je komentář přínosný?

".. Programátoři si možná zjednodušili práci .."

Ani to ne. To by platilo u čistého RT.
S aktuálním NEvýkonem RT musí dělat rasterizaci jak byli zvyklí + RT navíc + úpravy do rasterizační části když je RT zapnuto.

+1
+4
-1
Je komentář přínosný?

dokonce jsou videa s vyvojari na cistý ray tracing prostě není výkon, to se tady tlačí je pro ně spíše utrpením.

+1
0
-1
Je komentář přínosný?

To není vůbec pravda já ray-tracing uznávam a doufám že se stane časem standardem, ale rozhodně ne když nejlepší karta na trhu za 42000+ stojící marketingem na ray tracingu už třetí generaci v řadě a v Cyberpunku v titulu s oproti unreal 5 projektům naprosto prachbídnou geometrií nabízí za tu cenu 44fps průměrně ve 4k native... To jaksi může mít desetkrát lepší ray tracing než konkurence a přece to nic nemění na tom, že je ten výkon trapnej, nepraktické prostě. Přišlo to moc brzo, herní vývojáři to očividně vidí stejně... celková spořivost cena výsledku obrazu za výpočetní výkon a cenu výrobku samotnou... to je mimochodem problém i silných Intelu procesoru 7% navíc je možná málo ale levněji a na procesoru co žere při hraní nějakých 52watu, takže ještě ušetříte na energii a chlazení, popřípadě hluku ze skříně to si nemohu pomoci, ale je velmi dobré a specializaci na hry to ospravedlňuje více jak dostatečně.

+1
0
-1
Je komentář přínosný?

Herní vývojáři se těší jak malý děcka, až si budou moct odpustit opětovné zapékání scény s každou změnou, fejkování světel a na to, až ve scéně zapečené věci nezůstanou viset, když se ta scéna změní.

A ray tracing není stavěný na plnou kvalitu v nativním rozlišení. Od začátku je stavěný na to, že bude využivat AI na zahlazování artefaktů a DLSS, protože hrubý výkon na něco takového v reálném čase nestačí a ještě dlouho by nestačil a používá se méně paprsků, než by bylo nutné pro plnou kvalitu.

Ale ono prakticky nic ve 3D grafice není stavěné na plnou kvalitu. Už úplně na začátku je i ten pitomý polygonový model poskládaný z trojúhelníků jen náhražka plné kvality. Nerenderuje se ve voxelech, nahrazuje se to trojúhelníky. Má to nějaké LOD, takže když je to dál od kamery, model se zhorší. Nemá to plnohodnotný strukturovaný povrch, fejkuje se to pomocí map (a některé z nich nemívají plné rozlišení). Stíny nemají plné rozlišení, ale je to nějaká mapa s nižším rozlišením, která je následně rozostřená. Mapy pro ambient occlusion nemájí plné rozlišení. Světla nesvítí, jak mají. Antialiasing (TAA) se nedělá, jak by se dělat měl, fejkuje se to přes víc frejmů. Textury mají kolikrát nižší rozlišení, než je nativní kvalita. Když se na tom pustí VRS, některé dlaždice se renderují v polovičním nebo i ve čtvrtinovém rozlišení. A nikdo VRS nevypíná s tím, že grafika nerenderuje v nativním rozlišení. V podstatě nic v tom „nativním“ rozlišení nefunguje tak, jak má, a scéna není vykreslená v „nativní“ kvalitě. Ani s tou rasterizací.

+1
-1
-1
Je komentář přínosný?

"Od začátku je stavěný na to, že bude využivat AI na zahlazování artefaktů a DLSS, protože hrubý výkon na něco takového v reálném čase nestačí a ještě dlouho by nestačil a používá se méně paprsků, než by bylo nutné pro plnou kvalitu."

A protože ta AI žere spoustu prostředků, tak je celý ten koncept blbost. RT jedině pro profíky, ve hrách je to slepá ulička, která akorát dál poškodí PC gaming. Tvoje snaha házet špínu na rasterizaci je ubohým pokusem, protože ty mínusy co jsou spojené s DLSS3-RT jsou mnohem větší a výsledek výrazně horší. RT si bez rasterizace ani neprdne, zatímco obráceně to neplatí. Proč asi...

Hoši si s RT pro hry ukrojili moc velký krajíc. Stoupají frekvence monitorů a jejich rozlišení, křemík je v krizi a do toho ještě zvýšené nároky na RT s minimálními vizuálními přínosy? Bez šance.

+1
0
-1
Je komentář přínosný?

Vypínáte v každé hře v nastavení variable rate shading, který se tam sám zapíná?

Celé je to jenom o pocitech, že "dlss" nějak šidí obraz, což je s přihlédnutím k tomu, jak funguje celá 3D grafika třicet let, docela komické. :D

+1
0
-1
Je komentář přínosný?

Porad to stejny dokola Adame, nejsi ochoten si priznat, ze by nekod mohl veci videt jinak i presto, ze jsou tak zjevne. Dokonce soucasna generace NV karet nema na poradny RT vykon. Simple as that. Od toho se pak odviji vse ostatni, to znamena,tvoje vyplakavani nad tim, co vsechno musi developeri delat pouzivanim rasteru misto RT nema smysl. Protoze jej RT jednoduse nemuze nahradit. Az bude vykon RT na urovni RT, tak to bude jina, ale to si nejspis dalsich 5 let pockame.
RT je dobra technologie, ale v soucasnem stavu nikomu praci neulehcuje, naopak dela vyvoj komplikovanejsi, protoze musis stejne pouzit "fakovani" s rasterem a k tomu pak muzes prilepit RT. Takze si zadnou praci neusetris, naopak.

+1
0
-1
Je komentář přínosný?

Ale ušetříš. Už dnes si můžeš náročné fejkování s rasterem odpustit a nechat tam jen to, s čím je míň práce, a na vyšší detaily už použít ray tracing.

Viz nexgen Witcher 3 nebo Metro exodus EE. A superveselá bude smrť titulů protažených přes RTX remix.

+1
-1
-1
Je komentář přínosný?

Neusetris, porad je to prace navic. Kdyz by jsi si radeji poslechl aspon nejake videa, kde se bavi o tom, co se aktualne za fakovani dela a kdy by mohla hypoteticky nastat realita vetsiho pouziti RT, tak by jsme si tyhle diskuse mohli usetrit.
Witcher3.. hral jsi ho? Ja ha mam, zkousel jem RT on/off. Propad vykonu obrovsky i na GF kartach 3xxx generace, nemluve o Radeonu. Prinos..lhal bych, kdybych rekl, ze tam zadny neni. Jsou sceny ktere vypadaji trochu lip, z toho co jsem nahral, ale neni to jako den a noc a za ten proapad vykonu to nestoji + horsi hratelnost.
Metro EE jsem nehral ani nezkousel, tak nevim. Ale treba Cyberpunk je to stejne, obrovske propady pri pouziti RT.
https://youtu.be/Isn4eLTi8lQ?t=5407
Ve videu se mimo jine se bavi i o tyvch oblibenych 8GB VRAM.. a ne, nebudou stacit ani na 1440p pro UE5 ;) Majitele NV karet budou urcite poteseni.
A RT se fakuje mimochodem taky, protoze ten vykon je prilis maly, tak se to ruzne 'orezava', atd.

+1
0
-1
Je komentář přínosný?

No u RT je největší potíž právě i s tím, že i když je viditelná nějaká větší změna ve vizuálu, tak v některých případech to některým může připadat i horší nebo je to může otravovat... když je pak scéna kvůli tomu třeba moc tmavá a není pořádně nic vidět, může to být pro hratelnost celkem problém... toto napodobování reality celkově bývá ve hrách dost takové ošemetné a někdy to může spíš akorát škodit, proto takové věci prorazí dost těžko a potřebuješ opravdu silný marketing, abys lidi dokázal přesvědčit, že to je nějaké „must have“... a to že na to potřebuješ „speciální“, hodně výkonný HW, který není zrovna levný, to tomu taky moc nepomáhá... RT je teď spíš jen v takovém stádiu „nice to have“, ale asi nic, na čem by nějak extra záleželo.

+1
+1
-1
Je komentář přínosný?

To je pochopitelně nesmysl. 8GB karty nejsou mé oblíbené, má oblíbená karta je 24GB RTX 4090, a její nákup můžu každému doporučit.

Ta je nejvícfutureproof ze všech uvedených karet a skoro v žádné hře se vám nestane, že by byla nehratelná, takže jděte a vražte do toho těch čtyřicet tisíc.

+1
-1
-1
Je komentář přínosný?

Ja myslel, ze jsi celou dobu tady psal, ze NV rules a 8GB staci :)) a ze jen idioti z youtube maji s tim problem :)
Mimochodem venku je dalsi video na HWU, ktere srovnava 6800 a 3070 po "2 letech".. cece, nevychazi to vubec dobre pro 3070, zvlaste v momente, kdy zapnes na 3070 RT a dojde ji pamet ;)

+1
+1
-1
Je komentář přínosný?

8 GB stačí na to, aby se i ty nové hry daly hrát na snížených detailech.

Stejně jako 16GB paměti na Radeonech 6800 stačí na to, aby se ty nové hry daly hrát na... snížených detailech, protože GPU pro změnu nedává ray tracing.

+1
-1
-1
Je komentář přínosný?

"Stejně jako 16GB paměti na Radeonech 6800 stačí na to, aby se ty nové hry daly hrát na... snížených detailech, protože GPU pro změnu nedává ray tracing."
.. ony ten RT davaji 3xxx karty? :))
https://www.youtube.com/watch?v=Rh7kFgHe21k
Ty u 6800 snizujes "detaily"? To je mi novinka..mozna by jsi mel zavest nejakou novou ter minologii, co znamena slovo "detail". Ja vychazel doposud z toho, ze detaily se mysli bud lepsi textury, pripadne lepsi 3d model.
A jinak opet..nez by jsi zase priznal, ze jsi rekl hovadinu pred tim, tak to proste otocis a jedes vesele dal.. troll jako vysity.

+1
+1
-1
Je komentář přínosný?

O pět sekund později je tam slajd, kde má RX 6800 ve 1440p s RT na 1% lows 33 fps.

A před nákupem 8GB karet jsem varoval před dvěma a půl lety!

https://pctuning.cz/article/test-nvidia-geforce-rtx-3070-fe-rtx-2080-ti-...

Dřív, než to zjistil hardware unboxed! Říkejte mi prorok.

Hardware Unboxed odvedl skvělou práci a konečně předložil jasné důkazy, že když se hra na 8GB kartě nastaví tak, aby jí nestačilo 8 GB paměti, tak se hraje líp na 16GB Radeonu. :D

+1
-1
-1
Je komentář přínosný?

"Dřív, než to zjistil hardware unboxed! Říkejte mi prorok. "
.. opet vedle, oni tohle tvrdili u techto karet v dobe vydani.
"Hardware Unboxed odvedl skvělou práci a konečně předložil jasné důkazy, že když se hra na 8GB kartě nastaví tak, aby jí nestačilo 8 GB paměti, tak se hraje líp na 16GB Radeonu. :D"
.. opet vedle. Karta je tema 8GB limitovoana, presto ze ma vykon, ktery by jinak stacil. Ale tak tohle by asi pochopil uz i kun, jen ne Adams..

+1
0
-1
Je komentář přínosný?

Ano, i GTX 980 má výkon, který by dnes ještě na spoustu her stačil, kdyby měla 12 nebo 16 GB paměti. WoTko na tom šlape hratelně na 1440p víceméně na středních až vysokých detailech až na textury, které padají na low res. Dají se na tom hrát prakticky všechny MMO. Má to výkon, který na spoustu her stačí, akorát té paměti se nedostává. Furt to neznamená, že měla jít GTX 980 do prodeje se 16 GB paměti.

Prakticky vždy se několik let po vydání karet objeví hry, na které by nějaké čipy měly výkon, kdyby ty karty měly dvakrát víc paměti, než dostaly.

Prakticky nikdy to stejně na těch starých kartách nepůjde hrát na maximálních detailech a prakticky vždy to trvá několik let do doby, kdy ty karty stejně většina lidí začne měnit.

Lidi mohli na RTX 3070 hrát dva roky všechno s texturama na max až na hry, s jejichž vývojem intenzivně pomáhalo AMD. Po dvou letech se musejí snížit k nižší úrovni nastavení kvality dílčích grafických efektů a zapnutí DLSS (je to lepší než napsat snížit detaily, že jo?), nebo to můžou strčit někomu jinému nebo do bazaru a vzít místo toho 12GB RTX 4070 s o polovinu vyšším výkonem. Tragédie.

+1
-1
-1
Je komentář přínosný?

To uz ani nema smysl cist (byt jsem to precetl).. jedina zahada je, proc jsi si neotevrel svuj blog, jak to ma DD, protoze debata s tebou je priblizne na stejne urovni..
ps: od urciteho momentu je problem zevseobecnovani tak velky, ze clovek zacne rikat nesmysly..

+1
0
-1
Je komentář přínosný?

Je to fakt strašně komplikovaný. Chci mít příští dva tři roky vyšší výkon a za tři roky pořídit něco rychlejšího, koupím si výkonnější kartu s menší pamětí.

Chci mít dva roky kartu, co má třetinu paměti k prdu s vidinou, že potom budu moct na stejné kartě hrát ještě další tři roky na středních detailech, koupím si kartu, která má teď šest giga paměti na nic.

+1
-1
-1
Je komentář přínosný?

bla bla..

+1
+1
-1
Je komentář přínosný?

Představ si, že byla spousta idiotů, co si za čtyři tisíce v roce 2019 koupili 4 GB RX 570. A fans jim ty karty ještě cpali jako nejvýhodnější kauf, co můžou udělat.

Kdyby si místo toho koupili 8GB RX 570 za šest, vydržely by jim o dva roky dýl!

+1
-1
-1
Je komentář přínosný?

bla, bla..
Ja jsem jeden z tech co si koupili 4GB RX 580 na prelomu 2017/2018 v dobe krypta. Byla to karta, kterou jsem koupil asi za 6.5k, coz v te dobe byla super koupe, 8GB verze byli predrazene daleko vic a celkove to byla za tu cenu i tehda haluz. .
Nicmene dneska po 5 letech je ta karta na nejnovejsi tituly smazorejme slaba, 4GB ji dela rekneme slabiu, nez by byt mohla, ale vykon ani na FullHD v novych titulech s plnymi detaily uz stejne nema, nema dokonce ani na high a v nekterych pripadech mozna ani ne na medium a nejsem si jisty, jestli v techto 'super duper titulech' da vubec aspon 1080p low. Takze tvoje srovnani podle mne opet nesedi 2 roky vs 5 let (4 roky pro 570, ale ta je jeste slabsi), jako je v principu cela diskuse s tebou .. takze ani nevim, co by jsi s tou 570 chtel delat..

+1
0
-1
Je komentář přínosný?

Tak důležitý je, že RX 6800 díky té paměti ten výkon na full HD s plnými nebo high detaily na hry, co vyjdou za tři roky, mít bude, že jo. Nativně, bez FSR. Prostě investice do budoucnosti. :)

+1
-1
-1
Je komentář přínosný?

mne fakt nebavi, odpovidat jak diteti v materske skolce, ktery si dokolecka bud upravuje a nebo vyrabi nove argumenty tak, jak zrovna potrebuje, aby mu ten jeho pindour stal rovne a mel ho nejvetsiho ze vsech...

+1
+1
-1
Je komentář přínosný?

Já si nevymýšlím furt nové argumenty. Od začátku tvrdím jen to, že je na palici argumentovat tím, jak se za pět let bude člověku strašně hodit o šest nebo osm giga větší paměť, když stejně bude muset ty detaily shazovat někam na střední kvůli tomu, že ten vyšší mainstream na hraní na vysokých detailech už nebude mít výkon.

+1
0
-1
Je komentář přínosný?

bla, bla..zase mimo
Nikdo neargumentuje 5 lety.. to jsou opet tvoje "upravene" argumenty, aby jsi si mohl toho sveho pindoura oprit a nespadl ti.
Kazdy normalne uvazujici clovek co hraje chape rozdil mezi srovnanim 2+ roky stare karty, kterym dojde vykon proto, ze maji malo VRAM a staly jeste pred par mesici 15-17-20k a nebo se bavis o obecnem trendu u 5-6 let starych kartach (Rx580), ktere v te dobe staly polovinu a nemaji dnes stejne vykon, ani kdyby tu VRAM uz meli. To jsou rozdilne scenare, ktere vetsina populace chape. Dokonce je chapou i uzivatele NV karet, jen ty si nejak opozdeny a mas s tim neustaly problem..

+1
0
-1
Je komentář přínosný?

Dnes je pět a půl her, ve kterých nestačí 8 GB paměti na to, aby se daly hrát na maximálních detailech.

Až bude za tři roky třetina nových her, které se kvůli paměti nebudou dát hrát na 8GB kartách na obstojných detailech, bude už RX 6800 výkonnostně stejně tak na pozici té „nepoužitelné“ RX 580. S tím výkonem, jaký v ray tracingu má, bude dost v loji v čemkoliv jiném než v nižších nebo středních detailech. Paměť to nevytrhne. Bez ohledu na to, že při uvedení stála víc než dvakrát tolik, co ta RX 580.

+1
0
-1
Je komentář přínosný?

Bud jsi s prominutim opravdu regurelni troll (letadlo) a nebo mas nejakou dislektickou poruchu osobnosti. Evidentne bud nemas kapacittu cist s porozumenim a nebo nechces chapat, co ti kdo pise.
To je jedna hovezina za druhou co tady sazis.. nekonecny tok odpovedi jako od predskolaka, kdyz se hada s kamaradem, kdo ma lepsiho tatinka.
Sorry ale tohle je posledni prispevek na tve koniny.

+1
0
-1
Je komentář přínosný?

Celé to není o ničem jiném než o tom, že na staré kartě s hafo paměti navíc bude sice stačit paměť, ale stejně už na ty detaily na ultra nebo na max nebude stačit výkon, takže bude zralá na výměnu tak jako tak.

+1
-1
-1
Je komentář přínosný?

Nějak mi není jasné, že když mám 2 grafiky řekněme za stejnou cenu akorát jedna má 2x tolik paměti a je navíc třeba ještě výkonnější, proč bych si měl vybrat tu s nižší? Třeba RX 6800 vs. RTX 3070 Ti... nikdy jsem nepochopil proč brát 3070? Anebo teď RX 7900 XT vs. RTX 4070 Ti... proč 4070? A neříkejte mi, že jen kvůli nějakýmu RT či DLSS potažmo DLSS3, co stejně nevyužiju/nutně nepotřebuju, si dobrovolně koupím něco horšího, u čeho mi pak bude v budoucnu něco jiného dost chybět (vlastně pak kvůli nedostatku VRAM budu nucen vypínat i ten samotnej RT, jen kvůli tomu, že žere plno VRAM, kterou pak ovšem nemám.

+1
+1
-1
Je komentář přínosný?

Nevím, čím to je, že když se objeví člověk, který RT, DLSS a DLSS3 nevyužije a nepotřebuje, nepozná rozdíl mezi hrou bez RT a s RT, zato pozná rozdíl mezi hrou bez DLSS a s DLSS a trápí ho to tak, že to musí vypínat, obvykle je to majitel Radeonu.

Proč teď brát RX 7900 XT? Co to má kromě těch 20 GB paměti, které budou k něčemu za čtyři roky?

A tak jako jo, RX 7900 XT za cenu RTX 4070 Ti je super kauf, ne že ne. Lidi, co to před třemi měsíci koupili za sedmadvacet, musí být fakt rádi.

+1
-1
-1
Je komentář přínosný?

No otázka je co má RTX 4070 Ti proti RX 7900 XT. DLSS je sice fajn věc, ale jelikož s tím dostanu slabší raster. výkon, tak to tu výhodu tak trochu umazává, akorát jsem to pak nucen víc využívat kvůli nedostaku výkonu. No a DLSS3, sry, ale toto je dost o ničem, ve většině případů se to nedá moc smysluplně využít, toto není žádný argument.

S 12GB bude za chvíli problém stejný jako teď s těmi 8GB u 3070 či dokonce u trapné 4070, která je má mít taky, to je dost dobrej joke, takže si koupíš aktuální grafiku a už teď to nebude stačit ani na max. textury a hry s tím budou vypadat jako trash. S takovou je pak i ten RT dost takovej gimmick, když to žere plno VRAM, ale té už bude málo i bez toho, k čemu mi to pak vůbec jako je, když to je doslova nepoužitelný? Nebo to jako mám s tak drahou grafikou hrát jen na fullHD nebo jak? To snad ne.;)

Já chápu, že DLSS > FSR, atd., atd... jenže když to vezmu tak kolem a kolem, tak připlácet na tady toto mi připadá jako blbost... být to za stejnou cenu jako konkurence a toto mít jako bonus, tak OK, ale takto za příplatek to je na dvě věci.

+1
0
-1
Je komentář přínosný?

12 GB nebude příští dva tři roky stačit akorát na hry, s jejichž optimalizací pomáhá AMD. Hádejte, proč. Čistě shodou okolností jsou to dvě z těch tří nových problematických her. :D

A v některých možná z nějakého důvodu nebude ani to DLSS, jenom FSR. :D
Jako v RE4. Na ty budou fakt GeForce na houby, no.

+1
0
-1
Je komentář přínosný?

Nějak nechápu, co má společného výkon GPU s nastavením textur, když to závisí především na velikosti VRAM... takže buď máš dost, teď třeba asi těch 12GB je takové optimum, takže můžeš mít ultra detaily a vypadá to furt aspoň tak trochu normálně i na nižší detaily nebo nemáš a máš to pak celé máznuté jako shit. Obecně jak pak musíš ve hrách začít nastavovat střední textury, abys neměl stuttering jako kráva, tak pak už ty hry vypadají, jakdyby vyšly tak o dekádu z5 (což je teď přesně případ těch 8GB zázraků), i kdybys měl mít vše ostatní na ultra... textury vždy dělají na tom dojmu z grafiky asi tak nějak nejvíc, pokud je máš na full a zbytek stáhnutý třeba jen na high až na pár detailů, většinou to furt vypadá dobře, není nutné mít vše na ultra, takže pak ti výkon třeba vystačí.

Hry se už tak nedají optimalizovat na 8GB byla by to akorát spoustra zbytečné práce a času navíc, který by pak vývojáři nemohli věnovat hře... prostě hry se dělají podle toho jak je výkonný HW, pokud to na normálním mainstreamu jede, tak se to prostě neřeší a nechá se to být, protože to bys něco mohl optimalizovat furt... optimalizuje se na nižší nároky jen když to nestačí a nikdo by to pak nerozjel, protože tu práci na optimalizacích musí taky někdo zaplatit. Prostě 8GB grafiky jsou už mrtvé, s tím je třeba se smířit a je blbost nadávat vývojářům, že nesmyslně neoptimalizují na pouhých 8GB nebo dokonce tvrdit, že to tak chce údajně AMD, aby hry vyžadovaly víc (to už je opravdu k smíchu), to spíš nadávejte milované Nvidii, proč není ochotná zvedat velikost VRAM, aby ty jejich grafiky byly použitelné i na moderní hry... sry, ale pokud si to někdo koupí, tak to je jedině jeho problém, že se sebou nechá vymrdávat... nechcete rovnou požadovat, aby hry pořád jely dobře i na 8GB RAM?

Jinak osobně mi FSR nevadí, pokud nejsem nucen používat nějaké ty nižší módy... třeba 4KQ v podstatě furt vypadá jako nativ. a je to srovnatelné s DLSS, takže to pak fakt není problém, co by člověka nějak trápil... když si ale koupíš dobrovolně slabší GPU, tak holt už budeš muset pro stejný výkon nastavovat třeba balanc a to už bude samozřejmě horší a nemyslím si, že DLSS je potom furt lepší než FSR.

+1
0
-1
Je komentář přínosný?

"12 GB nebude příští dva tři roky stačit akorát na hry, s jejichž optimalizací pomáhá AMD"
.. a mame tu ultimativni dukaz, za vsechnoy problemy s pameti muze AMD :))
..aneb zeleny DD z PCT opet v akci,
Nezlob se, ale ty nejsi normalni.

+1
0
-1
Je komentář přínosný?

Tak pochopitelně je to možná jenom neuvěřitelná shoda okolností, že se každá druhá hra, u níž nestačí 8 GB VRAM ani na 1080p, objeví v bundlu k produktům AMD a je prošpikovaná technologiemi FidelityFX odshora až dolů. :D

+1
0
-1
Je komentář přínosný?

No vidíš já radši toho šmudlu co ušetří a přitom by měl být násobně rychlejší než ty před 5i lety. Problém je v tom že HW zrychluje a zefektivňuje jenže OS a SW to stejně rychle za*írá blbostma a veškerý pokrok defakto zazdí.
Jinak když jsme u těch líných aplikací tak znám poměrně dost kousků kde je např. GUI uměle bržděno aby to nepůsobilo blikavě nebo nedej bože že by lidi pracovali rychleji :-)

+1
+2
-1
Je komentář přínosný?

Násobně rychlejší než pět let starý procesor to opravdu není.

+1
-1
-1
Je komentář přínosný?

Pláčete na špatném hrobě. Na Intel nadávám už v podstatě od uvedení třítisícových Core. Stejně jako na AMD.

https://www.cnews.cz/rok-2013-ocima-redaktoru-cnews-a-extrahardware-co-s....

Jenom kvůli nim jsou na trhu v desktopu šestnáctijádra, u kterých je po většinu času deset jader celkem k prdu, pokud člověk nechce zrovna masturbovat nad cinebenchem.

To, co posledních deset let předvádí ten duopol výrobců procesorů, je taková zoufalost, že tomu už úspěšně konkurují i procesory do mobilů.

+1
-6
-1
Je komentář přínosný?

Pokud si někdo kupuje 16jádro jen na hry, tak je trochu blbej. Stejně jako ten, co nechápe něčí, třeba i pracovní, potřebu si vícejádrový CPU koupit. Pokud někdo využije 16jádro, tak ani nejlepší procesor v mobilu vynásobený 2x nemá šanci.

+1
+3
-1
Je komentář přínosný?

Nejde jen o hry. 90 % aplikací i většina operací v systému jede v drtivé většině času na jednom jádru, občas si to uleví na dvou třech dalších. Takže zobrazení náhledů ve složce se soubory trvá stejně dlouho na čtyřjádru i na šestnáctijádru. Otevírání 100mb souboru trvá stejně dlouho na čtyřjádru jako na šestnáctijádru. Přechroustání webové stránky trvá stejně dlouho na čtyřjádru jako na šestnáctijádru. Většina operací trvá stejně dlouho na čtyřjádru jako na šestnáctijádru.

A většinu těch věcí, které smysluplně využijí potenciál šestnáctijádra, už je pro změnu lepší dělat na grafikách, protože to zvládnou i řádově rychleji. Ať už je to enkódování videa, rendering, filtry, nebo nějaké simulace bůh ví čeho. V podstatě jediné vícevláknové věci, co se na těch grafikách nedají dělat líp, jsou ty, co se jim nevejdou do 8–24 GB paměti.

+1
-1
-1
Je komentář přínosný?

Já to vzdávám. Na jedné straně tady oponuji extrémistům co tvrdí, že moderní dvoujádro 2C/4T na 5 GHz by nestačilo ani účetní a 16 jader bude za pár let mainstream a na druhé straně extrémistům jako seš ty.

"A většinu těch věcí, které smysluplně využijí potenciál šestnáctijádra, už je pro změnu lepší dělat na grafikách, protože to zvládnou i řádově rychleji.
V podstatě jediné vícevláknové věci, co se na těch grafikách nedají dělat líp, jsou ty, co se jim nevejdou do 8–24 GB paměti."

To myslíš vážně?! Takže ti lidé co si koupí víc jak 4jádro nevědí co dělají?! Majitelé threadripperů jsou exhibicionisti co chtějí jen machrovat v diskuzích? Jsi blázen co ví o existujícím SW úplné hovno.

+1
0
-1
Je komentář přínosný?

Lidi, co si kupují osmijádra, je mají na menšinu operací, které to urychlí, a na ty hry. Nic to nemění na tom, že jim to osmijádro při většině běžné práce nijak nepomůže, pokud náhodou nechtějí zároveň na pozadí enkódovat videa.

Majitelé threadripperů jsou většinou ti, co je buď rozsekají na virtuální čtyřjádra, anebo ti, co potřebují vagón paměti.

+1
-1
-1
Je komentář přínosný?

Koukám druhej Ježek. To že ti pro udržení konstatních 90 km/hod stačí cca 15 kW v praxi nevede k většinovým prodejům aut co mají výkon pod 40 kW. Proč asi.

Spousta megavláknového SW jede stále přes CPU. Např. při vývoji SW, fyzikální simulace atd. Důvod? Když si Hurvínek přestane představovat válku, tak zjistí, že programování na GPU má i podstatné mínusy.

+1
+1
-1
Je komentář přínosný?

Páč devět z deseti domácích uživatelů doma kompiluje céčkové programy, dělá fyzikální simulace a provozuje domácí databázové servery, že jo.

A proto už ve třetí generaci cpeme do stolních PC šestnátijádra.

Jediná pozitivní věc na tom asi je, že si uvědomili, že šestnáct jader a 32 vláken by prozatím asi mohlo na word, excel a surfování na webu stačit, na 32jádro asi už velice nikoho neutáhnou a zkouší zase zvedat IPC.

Ještě by za to osmijádro nemuseli chtít dvanáct litrů.

+1
-2
-1
Je komentář přínosný?

Devět z deseti domácích uživatelů nemá highendový procesor v mainstreamové platformě. On ti nikdo 16jádro necpe - je pro lidi, co jim to něco urychlí a díky tomu si jsou ochotni připlatit.

Nejlepší osmijádro na hry zlevní až postupně časem nebo když by Intel překvapil a vydal něco zajímavého.

+1
-2
-1
Je komentář přínosný?

Hele, já jsem doma udělal slepý test. Manželce, co měla Pentium G3258 vytočené k 5 GHz (na které už Adam nadává) což je 2C2T jsem nahradil synátorovým "zbylým" řízkem 1600AF (což je "degradovaná" 2600). Systém jsem naklonoval 1:1, přehodil drivery atd. Změnu zjistila hned poté, co spustila "blbý" prohlížeč ("jen" FF, ne pažravé srajdy typu Opera, Vivaldi nebo Chrome). Následovala otočka a otázka: "ten počítač je nějaký rychlejší!? Dělal jsi s tím něco?"
Po mé kladné odpovědi přišlo: "Díky, ono to bylo už strašně pomalé a místy zasekané."

+1
+4
-1
Je komentář přínosný?

Jestli je to reakce na moje "dvoujádro 2C/4T na 5 GHz co by dle extrémistů nestačilo ani účetní", tak dnešní architektury s 2C/4T jsou dost jinde než Haswell 2C/2T. Jinak hezký příběh a ve spojení s Win10/11 mu věřím.

+1
0
-1
Je komentář přínosný?

Software, ovladače i Windows už jsou tak zasekané telemetrikou, antivirama a vůbec zbytečnýma srágorama, že to staré dvoujádro stačí s bídou tak na systém s wordem.

Ale to je zase na jinou debatu.

Rozdíl mezi šestijádrem a dvanáctijádrem už by nepoznala.

+1
-1
-1
Je komentář přínosný?

Jo, jenže čurat proti větru nemá smysl, když 6-jádro s pro kancldesktop brutálním výkonem stojí pár drobných...

+1
+1
-1
Je komentář přínosný?

Jenže to 1600AF je dle velikosti a výkonu spíš takový lepší Atom než Zen4 a šest velkých jader na nejdražším procesu už není za pár drobných. Jádro Zen5 má zase povyrůst a pochybuji, že tento trend dokážou zvrátit i u Intelu.

+1
0
-1
Je komentář přínosný?

"Takže zobrazení náhledů ve složce se soubory trvá stejně dlouho na čtyřjádru i na šestnáctijádru."

Aneb když víš o dané problematice úplný kulový a pleteš si io bound úlohy s cpu bound.

"A většinu těch věcí, které smysluplně využijí potenciál šestnáctijádra, už je pro změnu lepší dělat na grafikách, protože to zvládnou i řádově rychleji."

Lež. Zdaleka nejde většinu algoritmů počítat (efektivně) na GPU. Příklad ze života běžného uživatele (žádný rendering videa): úprava fotek. Otevřu si nějaký slušný editor s nedestruktivními úpravami (třeba Zoner Photo Studio). Ne všechny jdou spočítat na GPU, takže žádné řádové zrychlení se nekoná. Zato je sakra poznat u těch úprav, co se počítají přes CPU, zda máte 4 jádra nebo 16 jader.

Takže jenom doporučím všem ostatním, aby si dávali na jedince, co s bezhraničným sevědomím zas*rají zdejší diskuse haldou bohorovných prohlášení. 1000x opakovaná demagogie je pořád demagogie.

+1
+1
-1
Je komentář přínosný?

Tak určitě. On je totiž v době SSD strašný problém natáhnout do paměti šestnáct půlmegových jpegů a pak na ně souběžně generovat náhledy každý na jednom jádru, musí se to dělat postupně jeden po jednom a na jednom jádru, aby se navzájem neutloukla.

Fakt zvláštní, že když člověk chce ty soubory konvertovat, tak není problém hrnout jich šestnáct najednou na každém jádru jeden (viz XnViewMP, dávková konverze, použít více jader procesoru), ale když na to chci vygenerovat náhledy, tak se to musí postupně. Hezky jeden po jednom, aby se to SSD se 100K IOPS náhodou nezadejchalo. :D

+1
-1
-1
Je komentář přínosný?

ddr0 nema pravdu ani ze ze testovani se spickovou grafikou v rozliseni 720 je pitomost.

Vykon CPU se testuje VZDY v nizkem rozliseni grafiky, aby grafika nevytvarela vykonnostni strop pro CPU.

+1
0
-1
Je komentář přínosný?

Pro porovnavace pindiku vzyvajici nesmyslne pojeti "cim vic prouzku, tim vic adidas" to mozna pitomost neni, ale pro normalni uzivatele to pitomost je. Jde o umele vytvareni zdanliveho rozdilu v provoznim rezimu, ktery nikdo soudny pouzivat nebude.

Pro porovnavani vlivu procesoru by se melo pouzivat mereni treba 1% fps v rozlisenich, ktera se s testovaci kartou bezne pouzivaji, protoze tam to muze mit skutecny prinos. Prumerne fps pri rozliseni 720 je dobre opravdu jen pro honice pindiku.

+1
0
-1
Je komentář přínosný?

Intel ma zaostalejsi jak vyrobni proces, tak architekturu viz Meltdown a Spectre, kde vice problemu sla za nima.
A to co udelali s tema poslednima hybridnima procesorama, kde nemuzete podobne jako big.LITTLE presouvat procesy mezi malyma a velkyma jadrama, protoze tyto skupiny podporuji jine instrukcni sady, tak si rikam to vedeni je podplacene, aby Intel utopili.

+1
+1
-1
Je komentář přínosný?

Nic ti nebrani porovnavat procesory v 4K. A staci i jedna hra, technologicky hrot, ktory najviac odraza realitu pouzitim RT cores, ano je to Cyberpunk. https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/cyberpunk-2077-rt-3...

+1
-3
-1
Je komentář přínosný?

Ano, když hru v podstatě zastavíš tím, že si dáš v Cyberpunku 4K a ještě ten jejich RT na ultra, co pořádně nezvládá ani RTX 4090... tak pak je výkon stejný... wow, nice.:)...

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/min-cyberpunk-2077-...

Ale v něčem má kolega pravdu... jako fanoušek si ten svůj předražený teplomet asi musí nějak obhájit že...:) tak ať si ty závody slimáků užije... aspoň zde Intel třeba o 0houvno vyhraje...:P no a co, že to je na obou stejně nehratelné, Intel je stejně jen o pocitu.

+1
+3
-1
Je komentář přínosný?

o to přece nejde, reálně jde o velice vyrovnané soupeře. Ty názvy článků jsou tak oslavné jako kdyby intely byly deklasovány, přitom je to přetlačování jednotky fps kde jednomu enginu víc svědčí cache a jinému zase frekvence...

+1
-10
-1
Je komentář přínosný?

No tak minimálně to je deklasování ve spotřebě... proč by si kdokoliv měl cpát do PC takový teplomet, který už i ve hrách žere 150W, což je o 100W víc než konkurence... a ještě k tomu když je výkon reálně slabší... to teda fakt nechápu.

+1
+8
-1
Je komentář přínosný?

Pokud si někdo koupí herní sestavu za vyšší desítky tisíc, která při hraní má spotřebu kolem 500W. Tak jak ekonomicky, tak v celkové spotřebě ten CPU hraje nepodstatnou roli. Zde je to v článku vytrženo z kontextu tak, aby to autorovi vyhovovalo do jeho vidění světa. Ale realita je jinde.

+1
-10
-1
Je komentář přínosný?

To nie je pravda. Nad určitú hranicu je každý watt v case naviac poznať a je ťažšie / hlucnejsie ho dostať z case von. A keďže grafiky žerú, koľko žerú, stále uvítam, keď sa k tomu CPU veľmi nepridáva.

+1
+5
-1
Je komentář přínosný?

Přesně tak, Váňa tu hází stovkama Wattů a evidentně ani neví co to pro něj v reálu znamená, že bedně bude o 100W větší vyzařované teplo, které musí chladič převzít a větráky vytáhnout ven, takže teplo, hluk, spotřeba.
Ale klidně ať si zapne jednu starou 100W žárovku vedle počítače, třeba z té spotřeby bude mít dobrý pocit, o tom Intel je, ne? O pocitech...

+1
+3
-1
Je komentář přínosný?

To je naprostý nesmysl, dnes sice jedna grafika baští 300-400W ale před pár lety v takové sestavě těch grafik bylo několik a baštily 500-750W. Třeba takové tři GTX980Ti nebo TitanX. A ejhle lidi to naprosto v pohodě chladili.

Dneska na to stačí jedna grafika s celkově nižší spotřebou.. Tyhle grafiky pak lidi běžně používali s 6-8c HEDT, obvykle dost vytaktovaným, takže si spotřebou nezadalo s tím co je teď

A že se to dá chladit vzduchem, ano, půjde to slyšet, ale nic hrozného to nebude pokud nebudeš tlačit teplotu pro svůj dobrý pocit zbytečně nízko. Třeba 65 CPU a 75W grafiku uchladíš v jedné, dokonce iATX skříňi, ať to je trošku challenging pasivně. 300W uchladíš v mATX bedn tak že slyšíš maximálně ševelení vzduchu ve skříni, když se na to soustředíš.

+1
-4
-1
Je komentář přínosný?

Nesmysel je to, co si napisal, aspon pre mna a vyzera, ze nie som sam. Viem, co mam pod stolom, viem, ako sa to chova a viem, ake mam naroky na ticho. A nepresvedcis ma, ze 500-750W v skrini je v pohode. A uz vobec nie v lete a neklimatizovanej miestnosti.

+1
+3
-1
Je komentář přínosný?

Jirkovy komentáře ber jen jako blouznění. On to nemyslí vážně, protože v životě takové PC v reálu nestavěl a neprovozoval. Maximálně to někde viděl... :-D

+1
+3
-1
Je komentář přínosný?

Ano může to být 400W vs 500W třeba, což není úplně málo a zatímco Ryzen si vystačí se stock chladičem (rozuměj chladič který se dodával k 105W CPU), tak Intel potřebuje AIO na ten výkon, při stock chladiči už bude tředa o 15% níž. 100W reprezentuje vpodstatě osvětlení celého bytu.

+1
-1
-1
Je komentář přínosný?

AiO? Proč 13900k s 285W navýšeným power limitem uchladí bez problémů chladič za 20 dolarů, proti AiO je to rozdíl 3-5%. nejkvalitnější 12cm noctua to uchladí se ztrátou 1,5%
Podotýkám to je CPU běžící nad specifikacemi Intelu, na specifikacích bude mít chladič ještě menší problémy
https://www.youtube.com/watch?v=7o74u1u642I

+1
-3
-1
Je komentář přínosný?

:D

+1
+2
-1
Je komentář přínosný?

Jiříku. Nedávno jsem tu měl intelí HP Omen a uchladit to měl problém i ten vodník, co tam HP osadilo. Řev chlazení při 100% zátěži která trvala cca 20 minut, byl nehorázný a i když venku mrzlo, tak jsem musel větrat, protože za těch 20 minut se mi v kanclu zvedla teplota o 2 stupně.
Dost pochybuju, že tyhle intelí teplomety uchladí bez throttlingu jakýkoli vzduchový chladič.

+1
+1
-1
Je komentář přínosný?

No, tak uchladí. NH-D15 je v podstatě ekvivalent pouze dvouventilátorového AiO. 13900K jsem tu neměl, ale u těch starších to s trochou ladění i při desetiminutových cinebenchích spadne o 100–200 MHz (ale opět, to je v defaultu BIOSu, který bývá na deskách nastavený na ty vodníky, tzn 250W+ PL2 neomezeně. Báječná prasárna od těch výrobců desek, mimochodem, nastavit default s předpokladem, že tam má člověk 360mm vodníka).

S větším laděním mi v běžné zátěži ve hrách ve hrách udrží přetočená 13700K 5400/4200 MHz na všech jádrech i s větrákama staženýma na 1150 ot./min a jde to na nějakých 76–78 °C na nejteplejším core.

V cinebenchi se to po delší zátěži nějak doškrábe na tu stovku.

Taky už by Noctua mohla uvést něco lepšího, ta NH-D15 je z dob, kdy ty krámy žraly o 100 W míň.

+1
0
-1
Je komentář přínosný?

Zopakuj si fyziku šesté lidové.
Pořád motáš teplo a teplotu.
Mezi nimi opravdou jsou jisté nenápadné rozdíly.
.. pro některé jedince až moc nenápadné.

+1
+4
-1
Je komentář přínosný?

Božíčku, tos mi to nandal. A něco k věci bys neměl?

+1
-3
-1
Je komentář přínosný?

Možná jsi v reálu chytrý, inteligentní člověk s rozsáhlými znalostmi a širokým rozhledem. Akoráta to v těch diskuzích není vidět.

I přes to necítím potřebu ti to nandat.

+1
+3
-1
Je komentář přínosný?

Tak je fain testovat AIO verzus ventiky a mit to polozeny na stole. V tohle setupu vodnik nema mnoho vyhod, ale i tak se procesor pece ve vlastni stave s jakymkoliv vzduchovym chladicem (vpodstate kazdej dosahne na teplotni limit) A ze by tam mel stock chladic sem si nevsiml. Myslim, ze jsou to vsechno vezaky se 2 ventilatorama, coz mohl otestovat vpodstate jeden z nich a prejit na dalsi chladice. Chtel bych videt tenhle test v nejakym standartnim miditoweru s filtrama proti prachu. Pak by se ukazalo, kde stoji vodnik a zbytek osazenstva. Ryzena by uchladil asi i nejlevnejsi boxovej chladic od AMD, pokud nekomu prijde v poho, že je na procesoru 100C

+1
-1
-1
Je komentář přínosný?

Mám v práci 12700K, bohužel. Chtěl jsem ukecat na nějaký Ryzen, 8jádro. Intel, když mu naložím, řve jak teplomet a rálně z něj fouká dost teplý vzduch. Teď v zimě je to v pohodě, máme v kanclu tepleji. Ale v léte je tu "nachcípnutí" normálně, natož s těmi přímotopy na steroidech. To fakt nechceš. Zlatý AMD, ticho a snesitelná teplota.

+1
+2
-1
Je komentář přínosný?

Ono v podstatě stačí vlézt do BIOSu a vypnout časově neomezený PL2. Na výkonu to prakticky není poznat.

+1
-3
-1
Je komentář přínosný?

To ses zase trochu upsal ne? Teď jsi popřel svou hlášku o tom, že jsou potřeba vysoké takty které to hloupé AMD nezvládá.. :-D
A jen tak mimochodem, když vypneš PL2, projeví se to na výsledcích benchmarků? A když s Obřikem testujete Intely, je PL2 vypnutý nebo zapnutý? Promiň mi ty všetečné otázky, ale prostě mi to nedalo.

+1
+3
-1
Je komentář přínosný?

Ano, vysoké takty jsou potřeba. Nepotřebuju procák, co má v zátěži 50 W, abych pohoňkával nad tím, že to uchladím towerem za pět stovek. Na výsledky v benchmarcích celkem upřímně kašlu.

Když jsem testoval procesory, tak jsem je testoval v defaultu desky s aktivním XMP, protože fakt neznám nikoho, kdo by si koupil procesor a pak v biosu lovil, co a kde v biosu změnit, aby to běhalo tak, jak to má běhat podle specifikací Intelu. Asi podobně úchylná představa, jako že si někdo koupí OC grafiku a bude ji nastavovat na referenční takty, aby to běhalo, jak má.

Ale taky jsem zkoušel, co to udělá, když se to dá na ty specifikace Intelu.

Na krátkodobou zátěž v peaku, kdy se počítač na pár sekund zachroustá, ten standardní limit stačí a nezmění se nic, a na dlouhodobou spadne výkon o pár procent, ale příkon o 100 W a tolik to netopí.

Obr dává limity na specifikace Intelu. Nebo to aspoň tvrdí.

Ale když někdo brečí, že se mu default desky nelíbí, protože to topí tak, že je to k nevydržení, tak si to může shodit na nastavení, na kterém to má vyšší efektivitu.

+1
-2
-1
Je komentář přínosný?

intel byl ale deklasovan

spotrebou a cenou pri stejnem hernim vykonnu
proto ty oslavne recenze a oslavne proto, protoze hraci pc her kupuji vetsinu retailu na ktete jsou zamerene vetsina magazinu
takze ano procesor se bude prodavat jak rohliky jeste aby 7600 stal 4k a intel zas muze cekat dalsi rok a pul nez vyleze s necim novym, ale to uz vetsina bude mit am5 a intel budou ignorovat ikdyby byl o neco lepsi

+1
+7
-1
Je komentář přínosný?

Bude se prodávat jak rohlíky na krámě a ta sptořeba je určitě velké plus. A také bych neopomínal to, že je to procesor teprve do budoucna s dlouhodobým výhledem. Až se k němu postaví o dost výkonnější karty a hry budou náročnější, pak se nůžky rozevřou, stejně jako tomu bylo u 5800X3D. Takže toto je investice na delší roky dopředu se skvělou spotřebou. Kdo se chc sebemrskat 13900K a odvádět ze skříně to odpadní teplo navíc, tak jeho volba, ale spíše blbost.

+1
+1
-1
Je komentář přínosný?

A kde se ty o dost výkonnější karty vezmou? Nvidia teď udělala slušný skok díky tomu, že přešla ze Samsungu zpátky na TSMC. A s tím ještě zvedla spotřebu. V příští generaci už to bude zase mírný pokrok v mezích zákona jako u AMD, jestli ty karty nemají mít 750 W.

+1
-1
-1
Je komentář přínosný?

Tak oni tam těch +- 30% výkonu naženou otimalizacemi, lepším výrobním procesem a přitom to nemusí žrát o nic víc.
vždy´t to stačí, dvě generace a šup už je to 60% a kdo ví, co zase vymyslí :-)

+1
+1
-1
Je komentář přínosný?

Oni to naženou. Na technologiích typu DLSS. Jenže to tady soudruzi zásadně vypínají. :D

+1
-1
-1
Je komentář přínosný?

DLSS 4 si nebude vymýšlet jenom vložené snímky, ale rovnou celou scénu.

+1
+1
-1
Je komentář přínosný?

A v dlss 5 uz nebudes muset hru ani poustet, protoze nvidia ai si ji celou vymysli ;-).

+1
+1
-1
Je komentář přínosný?

Můžeme spekulovat o kolik se meziročně posune výkon grafik, ale ten procesor si nekoupíš na 2-3 roky, ale čekáš třeba přesah 5-6 let, kdy vyměníš třeba ještě 2 grafiky. A pokud již na silné začínáš, dostáváš z grafiky maximum, plus těžíš tam, kde se využije 3D cache. Takže nevidím problém v tomto procesoru, je to konečně TOP s minimální spotřebou. Není vhodný pro každého, ale nadšenci a ti co často mění grafiku jej určitě ocení. Viz. už vidíme jak si vede delší dobu 5800X3D.

Ale jinak souhlasím, že pokud je to procesor pro nadšence, tak se mohlo AMD odvázat a nechat vyšší frekvence za cenu vyšší spotřeby. Ale jak píšeš, asi to bude daň za tu 3D cache, kdy je umístěna na CPU.

+1
0
-1
Je komentář přínosný?

No, a proč tak asi člověku procesor vydrží 5–6 let a přežije tři grafiky.

Byly doby, kdy mělo smysl měnit procesor každé dva roky.

486, Pentium, Pentium MMX, Celeron 300, P3, Athlon XP, Athlon 64, Athlon X2, Core 2 Duo, Core 2 Quad, Core i7 2600K... a to už vydrželo přetočené šest let, a od té doby v podstatě nemá význam upgradovat častěji jak jednou za čtyři roky.

+1
-2
-1
Je komentář přínosný?

"No, a proč tak asi člověku procesor vydrží 5–6 let" ?
Pred 6 lety bylo nemyslytelne mit CPU serveroveho vykonu v desktopu viz 3950x a 5950x. Takze ti, kteri na to meli toto 6-lete pravidlo porusili. Ja minimalne 2x a tudiz jsem stale u 2-leteho cyklu upgradu cpu. Nebo mi nekdo chce rict ze pokud ho bavi jezdit na kole tak si koupi ukrainu?

+1
0
-1
Je komentář přínosný?

Já si pamatuju na oslavné články o Intel Core... a protože to reálně byla tehdy jasná elita trhu CPU, tak si to zasloužily. Stejně tak je dnes elitou Ryzen... se s tim smiř..

+1
+9
-1
Je komentář přínosný?

To máš určitě TyNyTe pravdu, ale přesto tam jeden rozdíl a to dost podstatný byl. S každou generací Ryzenu se významně posouváme ve výkonu, kdežto v dobách mezigeneračního nárustu výkonu 8%, stále na čtyřech jádrech, nebylo moc co oslavovat. Oslavovalo se, protože nebyla dostatečně silná konkurence. Kdyby dnes někdo uvedl nárust výkonu u nové generace 8%, tak by ho snad rozcupovali :-)

+1
0
-1
Je komentář přínosný?

Ale na hry už ten výkon navíc vůbec nepotřebuješ, většina her stejně trpí na nedostatečný výkon grafické karty, navíc už se nebavíme o tom že hra s jedním cpu běhá 40 FPS a s druhým 60FPS, bavíme se o tom že s jedním je to 190 a s druhý 200, běžný uživatel takový rozdíl při použití nejvýkonnější grafické karty na trhu stejně nepozná žádný rozdíl pokud si nenechá vypisovat FPS.

+1
-4
-1
Je komentář přínosný?

stejná demagogie: CPU by nám vlastněš stačilo jedno, když zbytek je na GPU.
Auto: to by nám vlastně taky stačil jeden model. Rychlost je omezena na 130, a to zvládne i stará Felda.

+1
0
-1
Je komentář přínosný?

".. na hry už ten výkon navíc vůbec nepotřebuješ .."
To píšeš o těch 3~5 let starých věcech, co hraješ?

".. hra s jedním cpu běhá 40 FPS a s druhým 60FPS .."
Mám pro tbee špatnou zprávu, takových her je pořád ještě dost.
Některým herním studiím už se daří (alespoň trochu) rozložit tu zátěž na více jader, ale pořád jsou stavy, kdy hlavní vlákno limituje dosažitelné fps.

+1
0
-1
Je komentář přínosný?

jj, já myslel recenze na první Intel Core. To tehdy prostě byla bomba (a taky jsem hned koupil Sandyho jako druhou, víceméně odladěnou generaci)

+1
-1
-1
Je komentář přínosný?

Jo to tak přesně bylo a od Sandyho, hurá přetaktovali jsme +10%, pak další generace, ještě kousek jsme přetaktovali, hurá 8% :-). A pak.... pak nebylo nic a přišel ZEN :-) A od té doby pohádka o Intelu skončila. Dobrou noc milé děti :-)
Viz: https://procesory.heureka.cz/

+1
+1
-1
Je komentář přínosný?

naprostý souhlas Core dvě byla pecka a dneska je pecka Ryzen, takové produkty jsou vždycky výhrou pro spotřebitele, bránit se tomu je uplnej úlet.

+1
0
-1
Je komentář přínosný?

DDR0 teď jsi se reálně usvědčil sám. Ano herně jde o vyrovnané soupeře s rozdílem 7%. Pak tu tedy máme další parametry: spotřeba ale ta přeci není o +- 7% vyšší, nýbrž o kolik 100, 150% v neprospěch Intelu. Další cena, ta se přeci také neliší o 7%. A poslední je tebou zmíněná architektura. Pokud CPU běží o skoro 2 GHz pomaleji a přesto dosahuje výkonu CPU, které běží na 6GHz, tak už ani ta architektura není úplně supr. Ale na druhou stranu, zase klobouk dolů, co dokáže Intel vymačkat ze starší architektury a procesu. Ale i přesto to nic nemění na tom, že nadpis článku je úplně v pořádku. Pokud vezmeš veškeré parametry, tak jeden parametr kde to je +- plichta, nedeklasuje druhý procesor z piedestalu krále.

+1
+2
-1
Je komentář přínosný?

Procesor testovat v 4k je blbost protoze tam zalezi na grafice.

+1
-1
-1
Je komentář přínosný?

To tvrdim i ja. :)

+1
0
-1
Je komentář přínosný?

Diskuze na DIIt za takových 30 let:

Proč to testují ve 4k? Vžyť je to nereálný scénář. V tom už nikdo nehraje!

;)

+1
0
-1
Je komentář přínosný?

Jasně... 6 GHz... a mohla bych je vidět, pane Antone Pavloviči...? A nezdá se vám to nějak málo...? bude to stačit?

+1
+3
-1
Je komentář přínosný?

jistě, jde o běžně vyráběný hw. A když se výkon nebude zdát tak do 14 dnů odstoupíte od smlouvy a hw vrátíte .-)

+1
-9
-1
Je komentář přínosný?

No mně by jen zajímalo, kde se bere ta jistota, že kdyby Intel vyměnil výrobní proces, tak že bude mít najednou výkon furt stejný akorát při 3x nižší spotřebě, aby dorovnal AMD... a teď prosím tu o Karkulce. Pokud vím, tak Intel používá co používá aby na tom dosáhl těch svých 6 GHz, protože jinde by měl smůlu... tak aspoň trochu může konkurovat výkonem, i když hodně na úkor spotřeby... pokud by se nějak nedotáhl ani výkonově, konkurovat může těžko... v tom je ten problém, holt to mají celé postaveno jen na hrubé síle a moc efektivně jim to nefunguje.

+1
+9
-1
Je komentář přínosný?

Nevím, školy nemám, ale cosi mi říká, že ten mnoho let oprašovaný a v podstatě stále tentýž 14nm/10nm výrobní proces je hlavní příčinou momentálních problémů Intelu se spotřebou podobně, jako mělo AMD problémy se svými procesory, když si je dělalo ve vlastních fabrikách, které zamrzly na starých procesech.

Jenom nevím, jestli bude pro trh výhra, až kvůli tomu Intel začne taky dělat procáky u TSMC. :D

+1
-4
-1
Je komentář přínosný?

i samsung ma lepsi proces nez intel takze to neni jenom o tsmc
vsichni vedi jak to bylo s 7nm kdyz se tam prali procesory grafiky i konzole, intel by tohle nikdy nedopustil aby se pral s amd o omezeny vyrobni kapacity, ktery nejdou nafukovat, skoda v cine by zvladli ty obemy, ktery svet potrebuje

+1
+1
-1
Je komentář přínosný?

Už se nějak zapomnělo, že si Intel u TYSMC zaplatil stavbu jedné továrny? Nebo to zase zrušili?

+1
+1
-1
Je komentář přínosný?

>aby se pral s amd o omezeny vyrobni kapacity,

Ale AMD má z toho únikovú stratégiu, ak bolo "bol problém" Presunie mobilné GPU
k Samsungu a už to nebude 1. generácia a ukazuje sa ako vhodný predaj divízie mobilných GPU Qualcomm-u, lebo dnes by bez toho predaja malo AMD na krku vyšetrovanie protimonopolných úradov. Dnes môžu argumentovať, že predaj by ich zbrzdil, ale nezastavil

Samsung Electronics and AMD Extend Strategic IP Licensing Agreement to Bring AMD Radeon™ Graphics to Future Mobile Platforms
Thu, April 6, 2023 at 1:00 AM GMT+2

multi-year agreement extension to bring multiple generations of high-performance, ultra-low-power AMD Radeon graphics solutions to an expanded portfolio of Samsung Exynos SoCs. Through the licensing extension, Samsung will bring console-level graphics quality and optimized power consumption to more mobile devices, offering an incredibly immersive and long-lasting gaming experience.

https://finance.yahoo.com/news/samsung-electronics-amd-extend-strategic-...

“We are excited Samsung selected multiple generations of our leadership high-performance Radeon graphics to advance the next generation of Samsung Exynos solutions,” said David Wang, senior vice president of the Radeon Technologies Group at AMD. “The extension of our work with Samsung is a testament to our strong technology partnership and commitment to bring the best experiences possible to mobile users.”
https://www.businesswire.com/news/home/20230405005623/en/

January 20, 2009

Advanced Micro Devices has agreed to sell its struggling handset division to Qualcomm for $65 million, which should help AMD as the chip maker looks to strengthen its financial position and concentrate on its core business of processors, graphics and chip sets.
https://www.eweek.com/mobile/amd-sells-handset-division-to-qualcomm-for-...

+1
+2
-1
Je komentář přínosný?

Intel hlavně dneska nemá úplně zájem out-sourcovat výrobu svých čipů na Tchaj-wan, už dávněji Biden podepsal dotace pro Intel na stavbu FABů v USA. Ale to je specifikum samo o sobě. Ono jestli to napětí mezi Čínou a Tchaj-wanem praskne do nějakého ozbrojeného konfliktu, dá se čekat, že čipy se nějakou dobu vyrábět nebudou nebo jich bude podstatně méně. To může být voda na mlýn právě pro Intel a jeho FABy v bezpečí v USA, ale pokud vím nemá je ani zdaleka hotové/modernizované a taky je otázkou, co z nich doopravdy poleze za křemík, přeci jen Tchaj-wanci si na tom udělali mega byznys za posledních 20+ let kdy naopak pro Intel+AMD bylo výhodné nechat výrobu na nich..

+1
+3
-1
Je komentář přínosný?

Ano, Adame, školy nemáš.

Výrobní proces je jen ta menší část problému. Ta zásadní část je postavená na tom, že intel svou uarch šlechtil tak dlouho, až ji přešlechtil. Vysoko taktovaný monolit obřích rozměrů se směšným IPC dnes už nemá šanci.

+1
+2
-1
Je komentář přínosný?

Přesně. Je desítky let známá věc, že výrobní proces nemá prakticky na nic vliv.

Kdyby to rozsekali na tři menší 10nm čipy, tak jim rázem spadne spotřeba na třetinu. :D

+1
-4
-1
Je komentář přínosný?

Vyrobni proces samzorejme ma vliv, ale pokud je Intel 7 nekde podobne jako TSMC 7nm, mozna o neco horsi, tak i tak jde videt, podle velikost tech jader, ta architektura neni 'efektivni'.

+1
0
-1
Je komentář přínosný?

Tak soudě dle plochy čipu a té spotřeby zjevně není. A 7800X3D je kombinace 5nm a 6nm.

+1
0
-1
Je komentář přínosný?

Hezká demagogie. :-D
Tak u pálení tohoto ukázkového slaměného panáka být opravdu nemusím.

+1
+1
-1
Je komentář přínosný?

Monolit s tím nemá co dělat. 5700G na tom není se spotřebou o nic hůř než čipletové Ryzeny, a taky je to monolit.

Problém je v tom, že točí furt dokola víceméně stejný proces a snaží se ho dotlačit na vyšší takty, to je celé.

AMD jde s tím zvedáním taktů dolů s výrobními procesy dolů.

+1
0
-1
Je komentář přínosný?

Polož si otázku PROČ AMD může následovat evoluci výrobního porocesu? Není to třeba proto, že své čipy navrhli jako malé, modulární, v podstatě stavebnici a pro případ extenzivního využití s možností lepit k sobě poměrně jednoduše celé chiplety?

Když si uráčíš všimnout, teprve v posledních dvou iteracích přidávají tranzistory proto, aby mohli navyšovat frekvence. Do té doby se snažili hlavně navyšovat efektivitu a IPC.

+1
0
-1
Je komentář přínosný?

Protože TSMC na nové procesy přechází? Na rozdíl od toho Intelu?

Jak je možný, že je 5700G na stejném procesu jako ty geniální čiplety v 5800X, když je to ten odporný nemodulární monolit?

+1
0
-1
Je komentář přínosný?

Intel ale nové procesy také doručuje. Jen jaksi má ten problém, že ty své mega-lo-teplomety na nich není schopen vyrobit.

A k tvé otázce:
5800X: 124mm2 (spojeno ze dvou 74mm2 chipletů)
5700G: 180mm2
10900K: 206mm2
13900K: 257mm2

Fór je v tom, že 5700G se vyrábí na 12nm v době, kdy tento proces dospěl a má chybovost potlačenu na samotné hranice možného. Do té doby byl "vrcholem" 74mm2 chiplet. Oproti tomu Intel šel přesně opačným postupem, implementoval nejnovější výrobu na produkci těch největších čipů. Tohle všechno bys ale měl vědět.

+1
0
-1
Je komentář přínosný?

Ale no tak, 5700G šel ven později proto, že to šlo nejdřív do noťasů. Jinak tam ta časová prodleva za pětitisícovými Ryzeny nebyla zase tak dramatická.

A k tomu Intelu, takže Jiřík v těch článcích, ve kterých už několik let opakuje, že Intel vyrábí nové výrobní procesy upravováním a přejmenováváním těch starých, vlastně kecá?

https://diit.cz/clanek/intel-prejmenoval-10nm-proces-na-intel-7-7nm-proc...

https://diit.cz/clanek/intel-do-dvou-let-muzeme-projit-7nm-4nm-3nm-20a-1...

+1
0
-1
Je komentář přínosný?

Navíc je to pekelně drahý, krájet takovej velkej wafer.... Adam nám zkostnatěl nedochází mu, že hardware pro domácnosti , nemůže mít vlastní elektrárnu, dusíkovou komoru a stát na výrobu víc než celej byt či barák tak se pokroku obsahujícímu kompletní změnu technologie bude bránit, aby hájil něco na čem by sám pak tratil, protože je to prostě starý dobrý a asi Intel. Namísto toho aby měl radost,že májí tyhle firmy konkurencní prostředí u odvětví, kde je s podivem, že vůbec nějáká konkurence existuje a můžem za to být všichni jen rádi. Tam je to marný už napsal dost a mě to taky nebaví, když si někdo nechce sám pomoc a radši trpí a haní okolí.

+1
0
-1
Je komentář přínosný?

Žije v bludu, kde každý druhý má nejméně RTX 4070 Ti.

+1
0
-1
Je komentář přínosný?

O běžně výráběny HW nejde. Ty 6GHz kousky jsou to nejlepší z nejlepších. Asi jako Porsche 911 GT3 RS je vpodstatě normální auto, které si koupíte jak rohlíky v samoobsluze.

+1
+1
-1
Je komentář přínosný?

O spotřebu by ještě tak nešlo, kdyby bylo skutečně standardem mít doma účinnou klimatizaci - jasně můžeš to tak dělat a asi i nic jiného nezbývá, pokud provozuješ výkonný hardware 12h/den+, jinak se v té místnosti pomalu uvaříš a mně není úplně příjemné dělat v létě u takového přímotopu jen v trenkách a s nohama v lavoru. A ta klima taky něco stojí, taky něco žere a osobně po ní bývám nachlazený, takže "výhra"... Tudy cesta fakt nevede.

+1
+4
-1
Je komentář přínosný?

To mi přijde kapku na prd, ohřívat vzduch v místnosti a klimou to chladit. Jediné co ta klima udělá, je to že s patřičnou ztrátou to teplo přesune ven, takže v součtu doslova a do písmene vyletí oknem 300W naprosto zbytečně. To mi přijde smysluplnější přestěhovat Intela na léto do psí boudy, pak by těch 100W nebylo až tak tragickejch.

+1
+1
-1
Je komentář přínosný?

Jasně souhlasím, metody jsou různé. Já mám potenciálně možnost "vyvést" PC na terasu, budu potřebovat jen dostatečně dlouhý síťový kabel a DisplayPort + USB prodlužku na hub, toto léto to budu poprvé testovat :-)

+1
+1
-1
Je komentář přínosný?

Mno jo, ale kdo pak bude poslouchat to vytí psa. A až vás sousedi napráskaj, přijede veterina a dostanete - v lepším případě - pokutu za týrání zvířat.

+1
0
-1
Je komentář přínosný?

"kdyby bylo skutečně standardem mít doma účinnou klimatizaci "

A klimatizace je nějaký nadstandard?

+1
-1
-1
Je komentář přínosný?

To jsme to teda dopracovali... kvůli tomu, že Intel není schopný udělat úsporný/efektivní CPU, tak budem muset z toho vedra zapínat klimatizaci... super... anebo prostě koupíme AMD... to mi přijde asi krapet rozumnější řešení než si zbytečně zatápět v baráku a pak to tahat ven přes klimu... ale možná si na tom někdo aspoň třeba ohřeje polívku a ještě to teplo nějak využije.

+1
+3
-1
Je komentář přínosný?

Mike123, tem lidem to nevysvetlis. Ja jim ten Intel preju, protoze svoji hloupost plati na splatky v cenach energie. A pak bud fanouskem Intelu.
Jinak ja mam Intel rad pokud kupuju SSD, ale cpu uz nekolik let od nich nekupuju od te doby co jsem mel v laptopu AMD Ryzen. Vykon sel nahoru znatelne, protoze laptopy je segment, kde jejich lzi o TDP neplati. Vyrazne by sla dolu vydrz baterie. A kdyz se museji drzet vydrze, tak jim to udelalo vykonovy strop na frekvencich cpu.. Tam kde meli 4 jadro s HT (i7), tak s AMD jsem mel 8 jadro s HT, ale jeste na 4GHz. A pak uz to slo desktop 3950x, pak 5700G a ted 5950x. Jsem clenem CNT, takze jadra se hodi. Intel je zoufalost co se tyka CPU a at se nekdo podiva na yoho@home top computers a je po diskuzi:
https://www.rechenkraft.net/yoyo/top_hosts.php

+1
0
-1
Je komentář přínosný?

Proste niekto za dlhe roky nepostrehol, ze ked sa testuje vykon a vplyv CPU na hry, testuje sa v nizkych rozliseniach (co dnes reprezentuje 720p a 1080p). Staci mainstreamova grafika.

Ked sa testuje vykon a vplyv GPU na hry, testuje sa vo vysokych rozliseniach (co dnes reprezentuje 1440p a 2160p). Na to ale treba high-end CPU, aby nebol brzdou.

+1
+5
-1
Je komentář přínosný?

Nemyslim si, ze staci mainstream grafika. Treba co najvykonnejsiu GPU aj do nizkych rozliseniach, aby bol test vykonu CPU presnejsi. Taka grafika totiz poskytne vacsi vykonovy rozptyl a bude CPU v teste brzdit minimalne alebo vobec.

+1
+3
-1
Je komentář přínosný?

Tady jde ale smysluplnost toho testu. Koupíš si top herní CPU na hraní her v 720p? Jako proti gustu, ale ty top herní CPU lidé obvykle nekupují ani k levnějším grafikám a high end grafiku si zase normálně nekupují lidé kteří chtějí hrát nejnovější AAA tituly na nízkých detailech v nízkých rozlišeních.

Takže je hezké že se high end grafika otestuje s top procesory aby co nejméně brzdily, ale top procesor v 720p fakt nedává žádný smysl. K čemu je člověku informace že to ve hře na nízkých v 720p dělá 500FPS, když on bude hrát na max v 4k a má třeba 80 FPS.

Při hraní ve vysokých rozlišeních je třeba grafika a stačí k tomu levné CPU, ke kompetitivnímu hraní ve FHD je zase primárně třeba ten silnější procesor a grafika může být slabší, hlavně ale v kompetitivním titulu bude celkem jedno zda 250 nebo 500 FPS, ten přínos v latencích je bezpředmětný. Normální hráč z toho nevytěží vůbec nic a i spousta profi hráčů už nebude mít prostor ke zlepšení ty nízké jednotky ms jsou za limitem lidského těla a mozku. Největší posun je z 60 na 120/144 a pocítí ho víc normální hráč než profík, který kolem toho umí hrát, posun z 144 na 200/240 je už pro normálního hráče irelevnatní a trénovaný jedinec z toho už nevytěží moc, ale na to člověk dneska nepotřebuje high end mašinu.

Takže takové testy jsou sice fajn při porovnávání pindíků, ale doba kdy volba procesoru znamenala hratelné vs nehratelné FPS je už dávno pryč protože když s jedním CPU dostanu v AAA hře 200 FPS a s druhým mám nehratelných 190. I kdyby to bylo 150 tak je to hodnota kterou hráč nepozná pokud si nenechá FPS zobrazovat.

A takhle je to dnes s počítači obecně. Klidně i násobně výkonnější CPU nutně neznamenají vyšší výkon pro uživatele .

+1
-2
-1
Je komentář přínosný?

Je to jenom líná alternativa ke hledání herních lokací, kde je výkon skutečně limitovaný procesorem.

+1
0
-1
Je komentář přínosný?

Miesas teraz viacero veci naraz. Zalezi predsa od toho, co ma byt vysledkom testu. Ci to je test vykonu CPU, alebo ci chces zistit aky CPU ti este staci v danom rozliseni alebo v nejakych inych specifickych podmienkach. Ak chces merat vykon CPU, potrebujes ho merat tak, aby bol co najmenej brzdeny inymi komponentami PC. Inak sa ti len vysledky zrovnaju a nebudu realne ukazovat ake su vykonove rozdiely medzi procesormi. Moze byt sice pekne, ze ti grafy napriklad ukazu, ze CPU za 500E ma "rovnaky" vykon ako CPU za 200E. Ale co na tom, ze ten prvy ide na 20% svojich moznosti a druhy na 60%. Potom naprikad za 3 roky kupis novu vykonnejsiu graficku kartu a budes prekvapeny, ze ten druhy CPU ti novu kartu brzdi zatialco ten prvy nie. Preco asi?

+1
+5
-1
Je komentář přínosný?

Tady tohle se vysvětluje neustále, ale někteří to prostě stále nechápou...

+1
+3
-1
Je komentář přínosný?

Argumentovat tím, že se highendové procesory mají testovat na 4K, a ne na nízkých rozlišeních, naučili lidi AMD fans v době, kdy IPC Ryzenů stálo za pendrek.

Tak se jim to teď vrací, no. :D

+1
-1
-1
Je komentář přínosný?

Honza Stach to stale tlaci aj dnes a obhajuje "v suvislostiach". Ale mozno teraz zmeni nazor. Ako vzdy podla situacie a kde sa zrovna dari AMD. Stratos detto.

+1
0
-1
Je komentář přínosný?

Tak to asi nejsem AMD fan. :-D :-D
Já vidím zásadní rozdíl v tom, jestli testuju CPU nebo testuju sestavu CPU+RAM+GPU.

Jakkoli mají oba testy svůj význam, jeden nevylučuje ten druhý, protože oba testují dvě naprosto odlišné věci.

+1
+3
-1
Je komentář přínosný?

Jj. Bohuzial to je stale dokola to iste. Vtipne je, ze to v danom case nechapu vacsinou ludia ktorych oblubeni vyrobca CPU zrovna v testoch vykonu nevyhrava. Potom sa utiekaju k testom vo vyssich rozliseniach, kde sa vykonne CPU zabrzdia a maju z toho potom lepsi pocit. :-)

+1
+3
-1
Je komentář přínosný?

Já naprosto chápu kombo test CPU+GPU, protože ten ukazuje kolik herní kvality dostanu za nějaké peníze, které stojí daná sestava. A tam se ukazuje, že např. pro běžné hraní stačí nějaké výkono-cenové optimum sestavené ze střední třídy a každý frame/s navíc už stojí docela hodně peněz.
Ale už to neukazuje, jak se bude takový CPU chovat s výpočetně náročnější hrou nebo lepší grafikou za pár let

+1
+3
-1
Je komentář přínosný?

Hlavně CPU + GPU si také pořizujeme proto, že tak nějak tušíme co s tím a hlavně co s tím chceme krmit a na jak dlouho dopředu s tím počítáme a do té rovnice ještě promítneme, kolik peněz do toho chceme vrazit a jak velkou efektivitu od těch peněz očekáváme.
Nebo máme prostě druhou skupinu lidí, která chce mít to nejlepší, bez ohledu kolik do toho vrazí a že efektivita vložených prostředků se bude blížit nule.

+1
+2
-1
Je komentář přínosný?

Vidim to rovnako. Kazdy spominany typ testu je uzitocny. Len sa zameriavaju na nieco ine a nemali by sa medzi sebou zamienat.

+1
+3
-1
Je komentář přínosný?

Intel jde popohnat.... A pak nebude zrat 3x tolik co AMD, ale treba 4x. V soutezi o zravost zcela jiste vitezi.

+1
0
-1
Je komentář přínosný?

Testoval sa vykon CPU a nie GPU. Preto tie nizke rozlisenia. Nechces predsa aby ti testy brzdila GPU. Potom by sa ti CPU iba zrovnali a realne rozdiely vykonu by si nenameral. Riesi sa to kazdu generaciu CPU a vzdy si jedna strana, ktorej to v teste nevide, stazuje na to iste. Vo vysokych rozliseniach sa sice CPU pekne zrovnaju, ale taky test nema vahu, ak jeho vysledkom ma byt vykonovy rozdiel medzi nimi.

+1
+3
-1
Je komentář přínosný?

A k čemu je pro hráče v QHD, 4k nebo i FHD výkon v 720p? Kdo si koupí top herní CPU a hraje hry na nízké detaily v nízkém rozlišení?

Praktičnost těch testů je v podstatě nulová. A k čemu je kupovat top proceoir na 4k hraní AAA titulů kdy high end grafika bude ráda když se vším všudy udělá víc než 60 FPS 1% low, když to zvládne nakrmit i low endový procesor.

Uživatel může ušetřit nemalé peníze, nebo ze stejného bugetu vytlačit vyšší výkon když místo silnějšího CPU koupí silnější grafiku.

Ano pokud si potřebuješ porovnat pindíka a vědět že 720p ten procesor dává XY výkon, tak samozřejmě, proti gustu...

+1
-1
-1
Je komentář přínosný?

Co si pamatuju tak slabší výkon RTX4090 někteří nV fans sváděli na to, že procesory k datu uvedeni jsou slabé. No teď tu máme nejrychlejší procesor pro hry a výkon RTX409 se nezvedl nějak dramaticky
Jinak souhlas jestli ten který procesor má o 5fps víc nebo míň nemá smysl řešit, ale spotřebu jestli něco má 3x vetší spotřebu nebo v celku o 20% větší spotřebu už smysl řešit má.

+1
0
-1
Je komentář přínosný?

Jestli nebude problém v tom, že se ani výkon procesoru nezvedl nijak dramaticky (a jak a na čem to vlastně testovali, ví jen bůh).

+1
-1
-1
Je komentář přínosný?

Tak jsou 2 typy testovacich scenaru.. jeden ktery tvrdi, ze 720p CPU herni test je super, protoze zadna limitace GK, bla bla. Pak je druhy, ktery rika, ze je to vlastne realite vzdaleny test. Oba tabory maji svou pravdu a kazdy z tech scenaru ma sve pro a proti. Osobne si myslim, ze test v 1080p ma vetsi smysl, nez 720p, kde limitace CPU stale hraje roli a neni to uplne mimo misu.
Nicmene k tvemu prispevku, myslim, ze by jsi mel v prve rade adresovat redakce, ktere testy v 720p provadeji a nikoliv DIIT. Places na spatnem zahonku ;)
A jinak 7800X3D je herni king, uz jen diky tomu, ze dosahuje podobneho vykonu pri skoro jen tretinove spotrebe. 13900k je ciste na hrani je proste mimo, pokud vezmes v potaz efektivitu tech chipu.

+1
0
-1
Je komentář přínosný?

A tak je to testování správně. Můžeme si ukázat, že nám do 4K dnes stačí prakticky každý procesor nové generace, ale je také potřeba ukázat, jaký potenciál se v procesoru skrývá do budoucna a to se děje v testech na nižších rozlišeních. Výhledově je 7800X3D herní procesor s dlouhou životností a jeho chvíle větší slávy teprve přijde. Kdo jej koupí, získá do her to nejlepší s výbornou spotřebou a v klidu si počká na další upgrade GPU a nic ho nebude trápit.

+1
+5
-1
Je komentář přínosný?

"také potřeba ukázat, jaký potenciál se v procesoru skrývá do budoucna"

Jaký má pro 4k hraní potenciál do budoucna víš přesně, stačí ti kouknout třeba na QHD.

Hlavně jaký potenciál? Ty víš co bude za pár let? Kolik lidí kupovalo třeba první ryzeny s 8 jádry jako obrovský future proof na hraní her, přitom už v době koupě to mělo herní výkon srovnatelný s čtyřjádrem konkurence a dnes je to dávno za zenitem ve srovnání s procesory za 2-3 tisíce a polovinou jader.

Potenciál do budoucna je ti ukradený, protože než na ten potenciál dojde, bude tu dávno něco výkonnějšího a ten nevyužitý potenciál nedorovná ani low end.

+1
-1
-1
Je komentář přínosný?

Co sleduji vaše komentáře, tak prostě máte stálou potřebu obhajovat Intel, i když už to jde za rámec. Potenciál do budoucna je to, co vám testy odhalí. Stejně tak to bylo u 5800X3D, který nyní může směle konkurovat nové generaci procesorů a dříve tam podobně velký rozdíl nebyl. Takže vím, jak to bude vypadat a při náročnějších hrách se může objevit to, co třeba ve Factorio apod..

Jinak zde není větší futureproof o jádrech, kde to honí plno amatérů v dobrém pocitu. Ale v té cache. A rozhodně mi potenciál do budoucna ukradený není, jelikož si zase za 2 roky můžu bez problémů koupit novou grafiku a nemusím měnit CPU. Že tady bude něco výkonnějšího mi může být někde a to je ta přidaná hodnota.

Ale jinak jde jít samozřejmě i jinou strategií. Pořídit např. Ryzen 7600 a v roce 2025 dát do desky třeba něco nového a pokračovat. Cenově to může vyjít podobně. Každopádně pořád to jsou 2 ideální cesty, kde Intel jaksi nefiguruje.

+1
+4
-1
Je komentář přínosný?

Jaká obhajoba Intelu?

Jde o uživatelský zážitek, když byl rozdíl 40 vs 60 FPS tak mělo smysl CPU řešit, ale jestli dnes mám 200FPS tak hra s výrazně slabším CPU a 150 FPS rozhodně nebude nehratelná.

A je jedno zda budu srovnávat aktuální 3D Ryzen se starým 3600 nebo aktuální Intel s 10. generací. žádný moderní procesor dnes ve hrách není slabý.

A potenciál do budoucna... však i Zen 3 nebo 10 gen Intel má do budoucna pořád víc výkonu než je pro hry nutné, natož když dnes koupím nový Ryzen a nový Intel. Průměrné stáří počítače je cca 7 let.

Nebál bych se dát ke své 10400 4090, protože vím že mě bude pořád limitovat grafika a ne CPU, ale reálně to provozuju s násobně slabší grafikou. A i kdyby mi náhodou časem přestalo stačit CPU, tak si zase za 3,5 koupím levné CPU s bezmála dvojnásobným výkonem.

+1
-2
-1
Je komentář přínosný?

Když si dnes koupíš grafiku za ty krásné ceny a dáš třeba 30k, tak pak nechceš, aby ji procesor brzdil. A trochu nechápu co tu řešíš. Bavíme se o novém Ryzen, který je do her to nejlepší na trhu. Pokud se pro něj někdo rozhodne, chybu neudělá, plus má výbornou spotřebu a přesah. Takže má tzv. pohodu !

Kdo si jak bude měnit nech na každém. A kombinace 10400 + 4090 je tedy slušná prasárna. Procesor s výkonem Ryzen 3600. Dám 50 za grafiku a budu šetřit na procesoru :)

Zkrátka AMD nyní v procesorech dominuje. Mají zde Ryzen 5500 / 5600 za lepší ceny. Mají zde 7600 / 7700. A nyní přišla třešnička na dort. Intel by se musel snažit minimálně cenově konkurovat. Ale znalý člověk dnes do Intelu nemá proč jít, pokud se bavíme o herním využití.

+1
+3
-1
Je komentář přínosný?

JirkaK je znamy svymi "neortodoxnimi" nazory. Myslim, ze pokud nekdo napise, ze sparuje RTX 4090 s 10400, tak je mu zbytecne uz odpovidat ;)

+1
+4
-1
Je komentář přínosný?

Tombomino na Jiříčka a jeho duševní zvratky by bylo nejlepší absolutně nereagovat. Pak snad by si našel jinou zábavu, než psát nesmyslný komenty. Něco blíž k jeho rozumu, třeba Sluníčko, nebo Mateřídoušku. :-)

+1
+3
-1
Je komentář přínosný?

Přesně tak už to dělám já. Jsou tu diskutující, u kterých jsem si řekl, že odpovědí na jejich příspěvky už nehodlám ztrácet svůj čas. To jsou lidé, kteří raději ohnou přímku do kruhu, aby jim prostě vyšlo, že ten jejich oblíbený výrobce (mnohem častěji se to poslední dobou děje při obhajobě Intelu a nebo nvidie) je přece jen v té jejich ohnuté a někdy až do absurdna pokřivené realitě lepší. Pak to cpou horem dolem i ostatním s představou, že ten jejich pokřivený pohled přece musí všichni sdílet.

+1
+2
-1
Je komentář přínosný?

Prostě testování a teď je úplně jedno jakého procesoru, jaké grafiky smysl dává jen tehdy, když je to v use case, pro který si to člověk pořizuje.

Pokud budu koukat na herní využití a hrát hry ve vyšším rozlišení tak výkon v 720p mi nic neřekne, dokonce mi neřekne ani nic o potenciálu do budoucna protože jak můžu vědět jakým směrem půjde vývoj her a jaké nároky bude klást? A jaký HW v té době bude dostupný?

Koupit si za 1/3 - 1/2 ceny procesor bez "potenciálu do budoucna" je daleko lepší volba, protože třeba ten potenciál v budoucnu ani nebudeš potřebovat, a když ano, tak si ušetřil tolik, že si zase můžeš koupit něco aktuálního bez potenciálu, přitom výkonnějšího než bylo to staré s "potenciálem"...

A co je za problém s 10400 a 4090? Když potřebuju grafický výkon například nové hry v kombinaci s nějakým pěkným 38-40" 5k/2k ultrawide nebo 49" 1440p super ultrawide, ta karta se zapotí aby dala 60 FPS, přitom procesor dá klidně 2-3x víc. Ano pokud si někdo koupí 4090 na hraní v low 720p, tak bude potřebovat ten nejvýkonnější procesor na trhu...

+1
-3
-1
Je komentář přínosný?

V nové hře (nebo i náročnejší starší) to grafika nestíhá a tak ji pro jistotu přibrzdíme i pomalešjím CPU.

A to se vyplatí.

+1
+1
-1
Je komentář přínosný?

Tak a teď když je tu konečně procák, který Intel poráží na hlavu nejen ve spotřebě, ale i v absolutním výkonu, se teprve uvidí kolik má Intel pravověrných fanoušků. :-D
Jako Ryzen 7800X3D je teda naprostá bomba, famozní výkon, AMD předvedla, proč v procesorech tak umí a Intel se může jít s celým svým okopčeným biglittle zahrabat!

Jedna vada na kráse tu je. Výkon 7800X3D ukázal, že ten nápad s 1+1, teda jedno multijádro s 3D cache a druhé bez, se nepovedl. 7950X3D si svou cenu obhájí, ikdyž herně je jen těsně nad 7800X3D, ale 7900X3D zcela propadl. Kdo potřebuje multicore výkon, tak jednoznačně 7950X a kdo herní výkon, tak 7800X3D. Obojetný procák 7900X3D nedává ani jedno a tenhle procák jako jediný z rodiny 3D je Intel se svým vymazleným i9-13900K schopen překonat za cenu "jen" dvojnásobku spotřeby.

+1
0
-1
Je komentář přínosný?

Ono i ten 7900X3D si najde své kupce. Jen ta množina kupujících není tak veliká. Tohle CPU je spíš vhodnější pro člověka, který preferuje jednovláknový výkon a přitom si chce občas zahrát a ještě chce ušetřit nějakou kačku oproti 7950X3D. Očekávám, že 7900X3D půjde ještě o nějakou tisícovečku níž a pak začne být zajímavý.

+1
0
-1
Je komentář přínosný?

Presne tak, jsou ulohy, kdy se hodi slusny jednovlaknovy vykon, ale take jsou nektera vlakna narocna na pamet. AMD jde smerem big.bigger, Intel zravy.zravejsi.

+1
-1
-1
Je komentář přínosný?

Všechno má své kupce, realita je ale taková že tyhle procesory stejně kupuje jen zlomek lidí protože jim je jejich výkon naprosto k ničemu. A je irelevantní jestli se bavíme o Intelu nebo AMD.

Jestliže si dnes člověk koupí pasivně chlazenou i3-1210U, tak je to výkon který, vzhledem k průměrnému stáří počítače cca 7 let bude nadstandardní ( výkon lepší než 7. gen Intel, mezi i5 a i7 8. gen) a ještě pár let to bude nadprůměrný výkon a pro běžné uživatele má obrovskou výkonovou rezervu.

+1
-2
-1
Je komentář přínosný?

Obrovskou výkonovou rezervu?
"The performance core has a base clock of 1GHz and a boost clock of 4.4 GHz the efficiency cores, on the other hand, have a base clock of 0.7GHz and a boost clock of 3.3GHz."
Obávám se, že dnešní běžně rozšířený SW není ve stavu SW určeného pro vesmírný program, tudíž nemohu souhlasit. Pasivně chlazený bude při baseclockovských 9 W a ne těch turboboostovských 29 W.

+1
0
-1
Je komentář přínosný?

A přesto to má single podobný jako aktivně chlazené Učka, Pčka a Hčka s daleko vyššími power limity. V multi to pořád nabízí víc výkonu než spousta desktopů i laptopů, které lidi mají doma. Pro zajímavost je to výkonově lepší než 1135G7 a to je zase lepší než 7. gen desktopových intelů... tzn. právě cca průměrné 7 leté CPU, což číselně reprezentuje přinejmenším 1,5 miliardy počítačů starších 7 let aa i ne všechny nové budou výkonnější, takže se klidně bavíme o 2 miliardách pomalejších strojů.

+1
-2
-1
Je komentář přínosný?

V pasivním režimu? Těžko.

+1
0
-1
Je komentář přínosný?

Dobrý postřeh. Si říkám, jestli by pro obě strany nebylo lepší udělat místo 12jádra 6jádro X3D. Ono je to pořád o tom samém - výrobci procesorů nechtějí přiznat, že na hry není třeba moc jader a potom vznikají tyhle křeče, které sice i tak Intel jasně porazí, ale proti vlastní stáji už ukazují nesmyslnost.

+1
-1
-1
Je komentář přínosný?

Tam se obávám, že při tom šestijádru + spešl cache, by asi ta cena nebyla kdovíjak zajímavá. Asi by byla hodně blízko 7800X3D a špatně by se to šestijádro prodávalo. Pokud by udělali cenový odskok, tak by zase asi ta marže nebyla dle představ. Ono přidání té cache bude nejpravděpodobněji to nejdražší, co na tom CPU je.

+1
+2
-1
Je komentář přínosný?

Jaké křeče? Buď jsem trouba a koupím si předimenzované CPU pro nevhodný účel, nebo si vyberu CPU adekvátní účelu. Mě třeba bohatě dostačuje 10. gen i5, a kdybych stavěl dnes tak bych silně uvažoval, zda mám koupit 12. nebo 13. gen a 3070Ti nebo zase 10. gen a 4070Ti. Myslím že v podobné celkové ceně bych šáhl po té 10. generaci, protože 3070Ti se živením UWQHD hodně zapotí a dvakrát výkonnější CPU mi přinese leda horší herní výkon protože ve stejné ceně to bude s výrazně slabší grafikou.

+1
0
-1
Je komentář přínosný?

Hezký, no, ale rychlé osmijádro s velkou cache mohli zkusit už před třemi generacemi, a ne to brát oklikou přes šestnáctijádra.

+1
-4
-1
Je komentář přínosný?

No te je pravda, taky nechápu proč nejdřív byly lokomotivy na uhlí a neudělali je rovnou na naftu. To je stejná logika.
A rychlé osmijádro s velkou cache už udělali minulou generaci a teď k tomu dodělali to, co si retail žádal. Či-li žádná oklika se nekonala.

+1
0
-1
Je komentář přínosný?

Jojo, přilepit k osmijádru velkou cache je něco tak revolučního jako přechod z uhlí na naftu.

+1
-1
-1
Je komentář přínosný?

Ne ale v tvém podání to tak vyznělo. Přečti si po sobě svůj koment. Proč to neudělali před třemi generacemi, protože to neuměli, respektive TSMC to ještě neumělo. Takže když byly lokotky na uhlí, tak taky neuměli naftu. Kapišto ? A to trapné opomenutí, že toto je druhá generace a podsouvání okliky přes 16jádro, to jsi se taky spletl, viď :-)
Tak zase je pravda, u tebe se to opomenutí nechá pochopit, ty do toho HW moc neděláš :-) :-) :-)

+1
0
-1
Je komentář přínosný?

Ale uměli, soustředit se víc na IPC mohli kdykoliv.

Ale když chce člověk krásný výsledky v recenzích, ve kterých se „průměrný“ výkon procesoru počítá de facto z testů komprese, renderingu a enkódování a nějakých krásně škálujících vícevláknových syntetických testů, tak je prostě jednoduší přilepit pár jader než se mazat s nějakou optimalizací architektury. Nic v takové recenzi nezvedne „průměrný výkon“ procesoru o 40 % tak, jako když se k osmijádru přilepí další čtyři jádra.

To je ostatně nejspíš hlavní důvod, proč Intel cpe do procesoru e-cores. Na cinebench to funguje bezvadně, a jinak to v podstatě nikoho nezajímá.

+1
-1
-1
Je komentář přínosný?

To není tak snadné jak to vypadá, jedna věc je dostat nápad druhá jej realizovat dát na chiplet ,který je nesmírně náchylný při nedokonalém engineeringu na latency mezi chiplety a teploty při snahách o redukci téhle latence, ještě v-cache která zvyšuje jak latenci tak teploty... to není tak lehké jak se zdá, vyžaduje dost pokročilé stádium vývoje jinač takový processor shoří , hned jak ho vystavíte vyššímu napětí. To je konec konců také důvodu proč tenhle processor nezvládá vysoké napětí a při dosažení 1,35v+ prostě chcípne.

+1
0
-1
Je komentář přínosný?

Byl bych rád, kdybyste tady na diit vytvořili nějaké herní testy těch aktuálně nejvýkonnějších procesorů. (i9-13900K, 7800X3D, 7900X3D, 7950X3D, 7900X, 7950X, 7900, 7700)

+1
+1
-1
Je komentář přínosný?

Máte jich málo v zahraničních recenzích ? Zdejší weby nebudou mít zdaleka podmínky, aby jim někdo poslal všechny jmenované procesory, nemají adekvátní vybavení atd.. Takže tohle je přání mimo realitu, naučte se větší testy sledovat na renomovaných zahraničních webech.

+1
0
-1
Je komentář přínosný?

Máte nějaký tip na takový web?

+1
+1
-1
Je komentář přínosný?

Mě se dlouhodobě líbí recenze od Techspot, kde rozebírají často netradiční věci. Zde test - https://www.techspot.com/review/2657-amd-ryzen-7800x3d/

A zde třeba pěkný test, jak pro X3D procesory nehraje až tak důležitou roli rychlejší RAM, přitom běžným Ryzen zásadně pomáhá - https://www.techspot.com/review/2635-ryzen-7950x3d-memory-scaling/

Případně mají youtube kanál pod HWunboxed. Zde pak další osvědčený - https://www.youtube.com/watch?v=nj4gn7od0jY&fbclid=IwAR3TAEPg4Ahw1jnze1V...

A pak weby třeba jako Techpowerup, Tomshardware, 3D Guru..

+1
0
-1
Je komentář přínosný?

U toho škálování paměti vidím že paměť nic nerozhoduje, jestli mám 160 nebo 190 FPS je rozdíl který v podstatě nikdo nepozná.

+1
-2
-1
Je komentář přínosný?

U Intelu ne, u AMD ano. A jestli ti 30fps nic neříká, tak jsi ignorant. To je v nějaké hře pořádná porce výkonu navíc vzhledem k tomu, že za rychlejší RAM dáš třeba o 3 stovky více. A nebudu ti vysvětlovat něco o 165Hz nebo 240Hz monitorech.

+1
+1
-1
Je komentář přínosný?

A ony jsou to tak nedostatkové věci že si to recenzent nemůže koupit? Je normální že recenzenti nespoléhají na to že si na ně někdo vzpomene a prostě si to zboží koupí za své a pak buď vrátí nebo prodají. Kopáč si taky musí koupit krompáč a lopatu aby mohl pracovat.

+1
-1
-1
Je komentář přínosný?

Víme jaká je realita a recenzent dá těžko třeba kilo do hobby recenze, z které bude mít nakonec prd, jen týdny práce. Zamysli se, tohle je realita. Proč u nás již většina webů netestuje ? Případně se věnují jendoduchým věcem, jako třeba otestovat jednu grafiku apod..

A pak tu máme vybavení, metodiku testování, kde se ti to pak rozrůstá o další modely atd.. Nebudeš mít vybavení na test zdrojů, nebudeš mít vybavení na test monitorů. Nevím, jestli ti to vysvětlovat jak malému.

+1
+3
-1
Je komentář přínosný?

DDR0 musíš přidat, zatím na největší šašky kandidují JirkaK a Adams. :-D :-D

+1
+7
-1
Je komentář přínosný?

Koukám, že některé herní testy vycházejí lépe pro Ryzen 7800X3D než pro Ryzen 7950X3D, byť by měli mít stejné hodnoty. A v některých hrách je zas lepší 7950X3D. V některých pak jsou na stejno. Vysvětluji si to tak, že plánovač nepřiřazuje správně vlákna. (časem) Po optimalizaci bude 7950X3D buď stejně výkonný a v jiných hrách více výkonný. Nikdy nebude méně výkonný.

+1
0
-1
Je komentář přínosný?

Záleží na tom kdo a jak bude ty optimalizace dělat.

Pokud to bude dělat m$ dle pokynů Intel, tak by to mohlo věci i zhoršit.

+1
+2
-1
Je komentář přínosný?

To tak asi bude ,možná to půjde trochu softwarově poladit v budoucnu, já stavěl letos čistě herní mašinku , ušetření kaček se nebráním takže jsem si počkal na 7800x3d:) dorazí v ůterý, téměř tři měsíce jsem si protrpěl na starém ryzenu v kombinaci se 7900xtx nebylo to "to dobré" ale, počkat si mi přišlo rozumné málo co nebottleneckuje tuhle grafiku na 3440x1440 vlastně pouze 7000x3d řada (intel jsem nechtěl žere to a proč se připravit o S.A.M) navíc jsem odskočil z pcie3 rovno na kompletní pcie5 do budoucna, upgrade pc dělám jednou za 5 az 7 let obyčejně, tak uvidíme tenhle procík by vydržet mohl :).

+1
0
-1
Je komentář přínosný?

To byla hoňka 7800x3d je na cestě ke mě domů :), jen se po nich zaprášilo.

+1
+3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.