Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia: CPU Grace se výkonem blíží AMD Genoa při 2× vyšší energetické efektivitě

Hmm, Nvidia holt není Intel a podobně jako v grafikách i v serverech s ní má AMD co dělat.
Je pak vtipné, když fanoušci AMD řvou na Intel, jaké mají přímotopy a když přijde NVidia, tak mlčí jako zařezaní někde v koutě.
Co se týká výběru Genoa, tak zjevně si ho NVidia pořídila na test a nebudou kupovat každou půl generaci, aby zjistili, jak na tom jsou. Možná, že návrh Grace vznikal právě na Genoa mašině. :-)

A hlavně je Nvidia takto prezentována v lepším světle, přeci si nebudou na první srovnání brát konkurenci, která má odstup minimální.

+1
-19
-1
Je komentář přínosný?

To je zajímavé, že když takovouhle prezentaci (použití starého modelu konkurence ve specifickém případě) udělá Intel, tak všichni chápou, že je to špatně a sesype se na Intel hněv všech diskutujících... ale když to udělá nVidia, tak to tady snad ještě budou obhajovat... neuvěřitelný.

+1
+19
-1
Je komentář přínosný?

Ciste hypoteticky: RedMaX trolluje

+1
+4
-1
Je komentář přínosný?

Jen hypoteticky?

+1
+5
-1
Je komentář přínosný?

"intel ... přímotopy a když přijde nVidia..."
Tak to pobavilo. XD
Právě řeším problém prohnuté grafické karty.
Protože moc velký chladič na nVidia kartě páčí PCIe slot.
Nechtěl jsem to veřejně rozmazavat, ale když mi Redmax přihrál na smeč. Tak škoda toho nevyužít.

To mi dnešní svátek pěkně začal :-D
Hezký pátek přeji všem.

+1
+13
-1
Je komentář přínosný?

Na tu moji jsem dostal speciální "držák".

+1
0
-1
Je komentář přínosný?

Držák, nebo samo domo používám už od minulé generace a je klid.

+1
+3
-1
Je komentář přínosný?

Děkuji za rady. Zkusím jim to při reklamaci gameboxu vysvětlit.

+1
+1
-1
Je komentář přínosný?

Ja koupil stavitelnou tyčku asi za 100kc na ali a dal ji do rohu a myslim ze mam klid ;)

+1
-1
-1
Je komentář přínosný?

Jako sorry, ale kdo normální si kupuje gamebox.
Máš si jako ostatní lidi složit herní PC sám. Když si ho sám navrhneš, složíš a samo doma upravíš, tak se ti nic prohybat nebude!!!

Jinak lidi chtějí grafiky skoro pasivně chladit bez hluku, nediv se výrobcům karet, že tam dávají několika kilové chladiče, když takové grafiky mají odbyt. Tohle rozhodně nejde za NVidií!

+1
-8
-1
Je komentář přínosný?

1) Kupované to bylo v době kdy gamebox stál stejně jako samotná grafika.
2) Nekupoval jsem to já.
3) Skoro každý chce tichý PC.
Zvedat výkon tím, že zvednu spotřebu, je špatně.

+1
+2
-1
Je komentář přínosný?

Takže poprvé jsi to nezvládl, když jsi koupil gamebox, podruhé jsi to nezvládl, když jsi koupil gamebox s příliš těžkou grafikou, potřetí jsi to nezvládl, když jsis nezkontroloval, že ti pod grafiku nedali podpěrku, ale za všechno může NVidia, protože nevyrobila ani gamebox, ani grafiku a ani nedodanou podpěrku. Tak jo.

Jo a vlastně jsi to ani nekupoval a jen blbě remcáš.

+1
-5
-1
Je komentář přínosný?

Vždy je třeba odlišovat, kdo vyrobil čip, kdo ho osadil na desku plošných spojů a zkompletoval s chladičem a kdo pak na závěr udělal cekovou montáž.

+1
0
-1
Je komentář přínosný?

nVidia chtěla mít za každou cenu nejvýkonnější HW.
Donutila výrobce osadit velké chladiče.
A NEupozornili na to, že jejich GPU potřebují berličky aby fungovali.

+1
+1
-1
Je komentář přínosný?

Proč mne to nepřekvapuje. Asi jako když výrobcům dodává čipy i s paměťmi a pak sama vyrábí na těch čipech grafiky, které prodává za ceny, kdy výrobci u levných edic nemůžou konkurovat.

+1
0
-1
Je komentář přínosný?

To jsou právě jen tvé spekulace. Prostě jsi se rozhodl, že viníkem je NVidia a ikdyby to bylo stokrát jinak, svou mantru budeš opakovat stále dokola.
Nápověda: ještě před pár lety potřebovala grafická karta s 200W TDP mnohem menší a lehčí chladič než je tomu dnes u RTX 4070. Rozhodnutí dávat lepší chladiče ponechává NVidia v rukou výrobců GK.

+1
-4
-1
Je komentář přínosný?

A hlavním důvodem je samozřejmě nižší hlučnost. Pokud by se někdo chtěl vrátit do minulosti a mít současný výkon s tehdejším zvukovým doprovodem, nechť zkusí grafiky pro pracovní stanice s blowerem a pochopí okamžitě.

+1
0
-1
Je komentář přínosný?

Recenze z časopisu Bajt
Někdy z minulého století.

.. cvrkot hard disku nebylo slyšet přes rachot ventilátoru ..

+1
0
-1
Je komentář přínosný?

Jenže u WS grafik se to stále používá, aby jich mohlo být víc najednou na desce. Blower ventilátorům totiž nevadí katry těsně u sebe.

+1
0
-1
Je komentář přínosný?

Pár WS grafik mi prošlo rukama.
Blower se dá udělat i kultivovaně.
Má svoje výhody. Horký vzduch jde ven ze skříně. Ano, hlavní výhoda jsou rozměry a váha.
Moji WS kartu slyším jen při zapnutí, kdy roztočí větrák na 100% což připomíná vrtulník. Jinak si přede na 50% což je neškodné šumění větru.

+1
0
-1
Je komentář přínosný?

Hodně záleží na větrání skříně a zabordelení prachem.

+1
+2
-1
Je komentář přínosný?

Právě blower větrání skříně usnadňuje.
A nějaký hluk se dá na tom ušetřit.
Prachové filtry na vstupu jsou fajn izolace hluku. Blower se odhlučnit nedá. Ale WS mám tak aby výdech byl daleko od uší.

Právě to roztočení větráku na 100% je sice test funkčnosti. Ale s prachem to pohne a ten vyletí že skříně ven. (Když v místnosti nikdo nehulí. Dehet dokáže prach pěkně přilepit. )
Interval čištění to prodlouží na dvojnásobek.

+1
+2
-1
Je komentář přínosný?

Pamatuji dobu, kdy na grafikách jiné chladiče nebyly.

+1
0
-1
Je komentář přínosný?

Tak já pamatuji dobu, kdy kraloval voodoo 3DFX a začínala nVidia TNT2.
Doba blowerova mě minula, protože v té době jsem řešil jiné problémy, než kdo má víc FPS.
Pamatuji si jen slibné začátky. A pak pár grafik které už to měli vychytaný.
Takže dost možná subjektivní názor.
ALE blower bych rád vrátil do hry.
Protože:
1)AMD ukázala že slušný CPU může běžet na 65W (díky undervoltu se dá dostat na 50W skutečné spotřeby) .
2)Vymřeli SATA disky.
=>
Největší tepelný výkon má GPU a je nežádoucí aby foukal horký vzduch na M2 disky a do CPU.

Moderní PC by mělo mít:
1)zdroj dole aby nesál teplý vzduch z bedny.
2)Úsporné APU do 100W
3)Vpředu 12cm větrák na sání s prachovým filtrem.
4)Perforovanou horní stranu aby PC mohlo fungovat semipasivne.
5)Pro náročné hráče možnost přidat GPU s blowerem. Do 200W lze udělat i tiché.

+1
0
-1
Je komentář přínosný?

NVME mezi CPU (s jeho napájecí kaskádou) a GPU ... je z toho všeho nejvíc "nadšené".
Některým výrobcům už to došlo a osazují ten slot na druhou stranu.
Jen je pak potřeba mít i bednu, která s tím počítá.

+1
0
-1
Je komentář přínosný?

Osobně mám radši m.2 mezi CPU a GPU než pod chladičem grafiky. Jestli myslíš na druhou stranu PCB u MB tak to opravdu vyžaduje spešl case, s normálním case je to opruz nejvyššího kalibru.

+1
0
-1
Je komentář přínosný?

Ne z druhé strany GPU (tedy pod jejím chladičkem),
ale z druhé ("spodní") strany MoBo.

+1
0
-1
Je komentář přínosný?

S celkovým TDP PC do 100W je naopak lepší mít zdroj nahoře, s takovým TDP se vzduch v bedně skoro nezahřívá

+1
0
-1
Je komentář přínosný?

"cvrkot hard disku nebylo slyšet přes rachot ventilátoru"
No to bylo v době kdy úsporné režimy prakticky neexistovali a ani regulace otáček se neřešila.
Protože CPU i GPU jeli na plné takty i v idle.

+1
0
-1
Je komentář přínosný?

".. Protože CPU i GPU jeli na plné takty i v idle .."
A bez chladiče.
Jediný ventilátor byl ten ve zdroji.

Jak jsem psal nahoře ... minulé století.

+1
0
-1
Je komentář přínosný?

výkonově podobné grafiky:
ASUS TUF GeForce RTX 3070 GAMING V2 O8G 1,1kg hmotnost karty
SAPPHIRE NITRO+ Radeon RX 6800 16G 1,2kg hmotnost karty
Přitom Radeon má 250W a GeForce 240W TDP (u NVidie to Asus zbytečně posunul o 20W nad doporučení NVidie).

Takže zjevně obě konkurenční karty výrobci nadimenzovali stejně. Souhlasím, že kvůli požadavkům lidí na nižší hluk, ale fyzika funguje. Nedivte se, že se to prohýbá, když vám tam visí přes kilo váhy a působí na to gravitace. Proto tam patří podstavec a pokud ho tam výrobce gameboxu nedal, stěžuj si u něj, ani NVidia ani AMD za to, že nějaký idiot nechápe fyziku, nemůže.

+1
0
-1
Je komentář přínosný?

OK. To zní rozumně.
ALE 3070 byla na trhu dříve než 6800.
AMD nemá na výběr. Jen drží krok s nVidii.
Což platí v GPU.
Mohlo být hůře. Například intel se nedostatky snaží dohnat spotřebou. Stejně tak nVidie drží náskok v high-endu díky spotřebě.
A to je peklo.
Naštěstí AMD na tuto politiku přístupuje opatrně. Až se ukážou slabiny nenažraných řešení. Jako je prohybani a tavení kabelů.

+1
+1
-1
Je komentář přínosný?

No ještě kdyby měla 3070 výkon 6800. Nepleteš si náhodou výkon 3070 s Ti, že ne? Ale dokonce i 3070 Ti je furt slabší, takže nechápu co to furt blábolíš něco o konkurenční grafice, když 3070 svým výkonem tomu nemůže konkurovat.

+1
+1
-1
Je komentář přínosný?

Záleží jaké hry porovnáváš a jakou k tomu bereš metriku. když vezmeš jednu nebou druhou stranu, zjistíš že s RT efektama se RX 6800 nechytá ani na RTX 3070 a soutěžila by spíš se 3060Ti. Obráceně můžeš zase vzít pár extrémně náročných her na paměť a umístit díky nim RX 6800 nad RTX 3080. Já proto hodnotím nějaký průměr a v něm je RTX 3070 těsně pod RX 6800, dají se srovnávat. Výkonem nad je RTX 3070Ti, proti které vlastně nic nestojí a potom je ještě výkonější RX 6800XT, proti které stojí ještě o chlup výkonější RTX 3080 nad kterou je už jen RX6900XT a RTX 3080Ti.

Co se týká toho, že si NVidia drží prvenství díky extrémní spotřebě, je to tak, ale většinou NVidia držela i druhé místo, kde už spotřeba byla rozumná a výkonem to pořád bylo kousek nad nejvýkonější od AMD. Myslím si, že Huang prostě potřebuje porovnávat pindíky a ví, že takto nemá AMD šanci držet krok. A já zase myslím, že je od AMD rozumné se o to nesnažit a začínat své grafiky na výkonu sice stále výkonného highendu, ale ne za každou cenu.
Na druhou stranu ale vidíme, že AMD i to dává jen s vypětím všech sil a ještě ne v každé generaci grafik a díky tomu nemá ani námitek proti vysokým cenám u konkurence a pravidelně se jim přizpůsobuje.

V grafikách je fakt hrozně nutná na konkurenci ještě jedna firma aspoň. Jenže aktuálně má snahu jen Intel a ikdyž mu to hrozně přeju, vidíme, že se to úplně (vůbec) nedaří.

+1
0
-1
Je komentář přínosný?

RT sice rychlejší je, ale výkonu to má pořád velmi málo a je to ve výsledku úplně stejně nepoužitelné, takže to už je spíš jen taková teoretická výhoda.

+1
0
-1
Je komentář přínosný?

Jako to řikáš ty, jenže je spousta her, kde i RTX 3070 na odlesky dosáhne, kdežto AMD nic. Jistě teď Starfield vás fanAtiky hodně potěšil, když RX 6800XT je vysoko nad RTX 3080 i RTX 4070 včetně Ti, ale jedna třešnička ještě celý dort nedělá. :-)

+1
0
-1
Je komentář přínosný?

Když si někdo kupuje novou grafiku, předpokládám, že to chce nejspíš na nové hry. Možná si v nějakých starších bude moct užít RT, ale pokud pak bude mít v nových hrách problémy i bez RT, je to podle mého názoru dost na hovno stav, protože lepší výkon na RT ti potom nijak nepomůže, takže nakonec RX 6800 je potom ta, co vydrží z těch dvou déle, protože v konečném důsledku vždy záleží hlavně na rasterizaci a tu má o dost lepší, bez RT se obejdeš, to je zcela vedlejší věc k řešení výkonu.

Považovat tedy RTX 3070 jako výkonnější je min. na pováženou, protože její životnost je citelně nižší – co 3070 nerozjede, pořád možná může ta 6800. Navíc tam máš větší VRAM a nemusíš šahat ani na kvalitu textur.

+1
0
-1
Je komentář přínosný?

A nebo někdo má fakt starý PC, stačí mu malé rozlišení, staví nový stroj, ale zas aby vydržel 5-6 let.

+1
0
-1
Je komentář přínosný?

A zvlášť když to je jen občasný hráč a netrvá na nových hrách.

+1
0
-1
Je komentář přínosný?

Ale v nových hrách je RT a s AMD grafikou si ho neužije. Rasterizační výkon potřebuješ nějaký, nechci sem psát, že stačí 60 FPS, protože je to individuální, ale nějaký potřebuješ. Co ti bude platné, že RX 6800 dá 90 FPS, když je to něco, co nevyužiješ.
Takže za mě teda počítat jen s rasterizací také nejde.Nehledě na to, že u většiny her ten rasterizační výkon při použití RX 6800 není vyšší než o pár FPS. Spíš se u novějších her podílí na navýšeném výkonu karty od AMD vyšší paměť a pak je samozřejmě otázka, co hráč hraje, protože jsou hry, kde je vyšší paměť hodně podstatná a jsou hry, které stejně víc jak 8GB nevyužijou.

+1
0
-1
Je komentář přínosný?

Občasný hráč spíše starších her možná RT využije, ale není to žádná nutnost.

+1
0
-1
Je komentář přínosný?

RT není nutnost, ale kdyby hráči nežádali realistický obraz, měli bychom tady stále pixelovou grafiku. Sám upřednostňuju příběh a hratelnost, ale podívej se na internet, jak moc hráčů chce jako první grafiku. NVidia se tomuto požadavku přizpůsobila lépe, o tom snad ani tady nemůže být diskuze.

+1
0
-1
Je komentář přínosný?

Tak s tou pixelovanou grafikou to je teď docela trefné, když už ty grafiky nezvládají pořádně ani nativní fullHD a potřebuješ ještě upcaling z nižšího rozlišení, aby se to vůbec aspoň trochu hýbalo.:)

https://youtu.be/rPCw6zzYxpw

+1
0
-1
Je komentář přínosný?

".. kdyby hráči nežádali realistický obraz .."
Někdy se podívej, kolik místa na čipu zabírají vektorové a AI jednotky (Ať už je jejich marketinkový název jakýkoliv).
Piksle šejdre, ROP a další věci pro rasterizaci zabírají místo. Hodně místa. A místo na křemíku je čím dál dražší.

+1
0
-1
Je komentář přínosný?

Větší paměť ale přece nezvyšuje výkon, spíš můžeš mít akorát kvalitnější textury a nezpůsobuje ti tolik microstutteringu, protože ti nedochází. Že je třeba hrát hry náročné na paměť, aby byl výkon vyšší, je pochopitelně naprostý nesmysl, ten rozdíl tam dělá to, že je to GPU jednoduše výkonnější.

Pořád nevím v čem je výhoda mít lepší RT, když momentálně v nových hrách tomu dochází paměť a s RT se to ještě víc zhoršuje. Navíc jak ti dochází výkon a máš ho nízký, těžko to vylepšíš zapnutím RT, zas tak rychlý to ještě není, aby to zvyšovalo výkon a bylo to tak efektivní řešení výpočtu, furt je to pro tu grafiku velmi náročné a výrazně to zpomaluje.

Samozřejmě pokud někdo teoreticky touží hrát něco staršího s RT co to ještě zvládá, tak je pro něj koupě 3070 skutečně lepší, ale to bych řekl, že je asi dost specifický scénář a asi málokdo toto někdo reálně tak vyžaduje, pokud mu kvůli tomu pak jinde bude docházet výkon v náročnějších hrách i bez RT, protože je ta grafika jinak o dost slabší.

+1
0
-1
Je komentář přínosný?

Pokud ti dojde paměť a začne se dít například doskakování textur, tak ti to ten výkon omezí, protože je úzké hrdlo právě nedostatek paměti. Čip se může flákat, protože dokud data nedolezou do paměti, nemůže provést výpočet.

Co se týká RT, tak se obávám, že jsi nenastudoval rozdíl v přístupu obou konkurentů na poli grafických čipů. AMD má obecné jednotky pro všechno a tak RT ubírá výkon rasterizaci. Vypneš RT a konkurence se nechytá, zapneš RT a AMD grafika se nechytá. NVidia na to šla jinak, vytvořila speciální RT jednotky, které když RT ve hře nebude, tak stojí a nedělají nic, ale zase jsou stvořené přímo pro RT, takže když tam je, dokáží ho urychlit oproti obecnému přístupu na všechno.

Závěr je zřejmý, Na Nvidii, pokud mám dostatek výkonu a nebude se projevovat "stuttering" v rasterizaci, RT mi za nulovou cenu (výkonu) zlepší obraz. U AMD naopak často je to tak, že zapnutí RT má za důsledek "stuttering", protože je RT ještě příliš náročná technologie.
Oba přístupy mají své výhody a nevýhody a záleží na individuálních preferencích každého hráče, ale vynechat to z testování úplně není možné, protože se to na kvalitě obrazu podílí.

+1
0
-1
Je komentář přínosný?

Tak to ale právě musíš vyřešit stáhnutím těch textur, aby se to nedělo a výkon se vrátil do normálu, takový jaký má být a stíhalo to, takto to stejně nemůže být hratelné. Holt když to má jen 8GB, asi už nemůžeš mít všude textury na ultra, když to nestačí, to je nevýhoda, se kterou u každé takové grafiky už musíš počítat.

AMD už má taky RA na počítání RT, jen nejsou tak výkonné a stejně jako u Nvidie, pokud RT nepoužíváš, tak ti jsou naprosto k ničemu, jen to tam je a nic to nedělá. Pořád to je o hodně lepší než jak se řešil RT u RDNA1, ale pořád opravdu velmi pomalé.

„RT mi za nulovou cenu (výkonu) zlepší obraz.“

Tak za nulovou cenu to zatím není ani zdaleka a zapnutí RT výkon pořád o hodně sníží. O tom, že to zvýší nároky na paměť a tím to tu grafiku většinou úplně odrovná jen tady tímto už rači ani nemluvím.

+1
0
-1
Je komentář přínosný?

".. Tak to ale právě musíš vyřešit stáhnutím těch textur .."
Což může, ale taky nemusí pomoci.

U několka nových her to mám vyzkoušené. Další jenom z médií.
Zkrátka některé hry jsou blbě optimalizované (pokud vůbec), že používají stejné textury pro všechna rozlišení. A to i pro objekty, které ve výsledném obraze zaboru 2x2 body (Ano, je to extrém. Přesto se vyskytuje).
Jediné rozdíly v fps pak dělají efekty, které se v nižších nastaveních nepoužijí.

+1
0
-1
Je komentář přínosný?

Jj, jasný, já taky tohle na NVidii kritizuju a sám radím lidem - nekupujte si grafiku pod 12GB na hraní. Takže nějaká 4060(Ti) k ničemu dneska, raději RX 6750XT.
Ono ve skutečnosti, souhlas s melkor, 8GB by často stačilo, ale když vývojáři her neoptimalizují, tak co pak s tím dělat jiného než holt dávat víc VRAM.

+1
0
-1
Je komentář přínosný?

AMD RX 7xxx má dedikované RT jednotky. Máte staré informace.

+1
0
-1
Je komentář přínosný?

Jo, má to grafika za 25.000 Kč a jedna ještě dražší. Nezapomeň, že ta grafika za normální cenu, kterou má NVidia s dedikovanýma RT jednotkama několik let a v poslední generaci půl roku, jde do prodeje až za 3 dny, takže ne, ještě u grafiky za normální cenu nemá.

Aby nedošlo k nedorozumění: normální cena = cena někde okolo ceny konzole. PC obvykle máme tak jako tak, pokud je cena do ceny konzole, považuju to za ok. Víc už beru, že je spíš pro profesionální účely než na doma.

+1
0
-1
Je komentář přínosný?

Ty jsi zas nějaký zmatený, vlastní RT výpočetní jednotky má AMD už od RDNA2, takže nechápu o jaké grafice až za 25k se tady teď zas bavíš, vždyť to už měl i low end.

+1
+1
-1
Je komentář přínosný?

Někdo asi je zaměřený čistě na nvidii a o AMD ví jen pomluvy... Ale nikdo nezná vše.

+1
+1
-1
Je komentář přínosný?

Tak to sorry, opravdu jsem myslel, že vlastní RT jednotky jsou od poslední generace RDNA3. Popravdě ale, pokud víme, že RDNA2 na NVidii nestačilo, nechápu, proč v RDNA3 není těch jednotek víc, aby konečně konkurovali NVidii i v tomto. To je teda opravdu zase faux pass AMDečka. :-/

+1
0
-1
Je komentář přínosný?

AMD naprosto jasně a nahlas dává najevo, že RT pro ně není priorita.

+1
0
-1
Je komentář přínosný?

Navíc když se podíváte na analýzu snímku GCD, tak je patrné, že jak Ray tak AI akcelerátory jsou navázané přímo na Compute Units. Zkoušet hýbat jejich počtem asi nebude nijak snadné. V generaci RDNA 3 AMD jednak zvýšila hustotu tranzistorů a hlavně udělala dual issue shadery, aby dohnala výpočetní výkon NVidie. Taky velké změny front endu pro lepší využití výkonu. Patrně jediná možnost navýšení výkonu RT by tedy bylo zdvojnásobení počtu RT jednotek a to by znamenalo tranzistory a plochu navíc o vnitřní složitosti čipu nebudu spekulovat.

+1
0
-1
Je komentář přínosný?

Od ktoreho vyrobcu GPU ta karta bola? Kto predava zostavu s tazkou GPU bez toho, aby ju nepodoprel? Co s tym ma vlastne spolocne NVIDIA okrem cipu na grafickej karte?

+1
0
-1
Je komentář přínosný?

Výrobce GPU patří do velké čtyřky. Výrobce sestav patří mezi největší ve střední Evropě.

Dnes jsou tyhle berličky standard.
Za covidu (2021) se asi řešili jiné problémy.
Prohybani se řešilo až kolem roku 2022.

Chip potřebuje velký chladič.
Nebo mi chcete tvrdit, že výrobci tam ty velký chladiče dávají pro to aby to dobře vypadalo?
RGB ano, ale nevzhledné lamely chladiče určitě ne.

+1
0
-1
Je komentář přínosný?

"Nebo mi chcete tvrdit, že výrobci tam ty velký chladiče dávají pro to aby to dobře vypadalo?"

To urcite tvrdit nechcem. Myslel som iba na to, ze pri vacsich chladicoch by sa pri skladani zostavy malo na to mysliet a ked nie, tak za to nie je zodpovedna NV, ktora ma na tej GPU iba svoj cip.

+1
0
-1
Je komentář přínosný?

OK. Rozumný pohled.
Opačně bych mohl říct, že kdyby chipy tolik nežrali, tak by nebylo třeba tak velký chladič a ani berličky. Ale pravda že AMD už má taky karty s 350W :-(

+1
0
-1
Je komentář přínosný?

"Co se týká výběru Genoa, tak zjevně si ho NVidia pořídila na test a nebudou kupovat každou půl generaci, aby zjistili, jak na tom jsou."

Já to chápu, já taky nemám na to kupovat si každou půlgeneraci - refresh Intelu.....(každý jejich procesor už asi tak 10 let od doby 10nm++++++++++++++++-*)

+1
+1
-1
Je komentář přínosný?

Testovací oddělení velké firmy s multi-miliardovým obratem cenu procesoru ani nezaregistruje. Takže srovnání nekulhá na obě nohy, ale brodí se po krk v bahně.

+1
+3
-1
Je komentář přínosný?

Tady je na miste pripomenuti, ze Nvidii se palej konektory "dimenzovane" na 600W takze to s tou spotrebou u nV neni az tak ruzove.

+1
+7
-1
Je komentář přínosný?

Ano, populární konektor NVidie dimenzovaný na 600W, který se při odběru nad 350W začne pálit je totální ojeb a trapné faux pas NVidie. Nejsem nekritický fanoušek, který by to tu hájil.

+1
0
-1
Je komentář přínosný?

„A hlavně je Nvidia takto prezentována v lepším světle, přeci si nebudou na první srovnání brát konkurenci, která má odstup minimální.“

Stejně pochybné jako když jsi sám nedávno srovnával RX 6800 s RTX 3070 a prohlásils, že mají prý „stejný výkon“ a pak porovnával jejich příkon a řešil podle toho nějakou efektivitu (https://diit.cz/clanek/amd-portfolio-gpu-s-rdna-3-je-nyni-kompletni/disk... – „RX 6800 (250W) = výkon RTX 3070 (220W)“)... aneb zmatený RedMaX a jeho ranní myšlenkové pochody... to je pak jasné, že AMD v těchto očích nemůže nikdy efektivně moc dobře vycházet, když jim ještě ubíráš výkon, aby ti vyšlo co potřebuješ... by mě pořád zajímalo, v jakém vesmíru mají tyto 2 grafiky stejný výkon?

+1
+2
-1
Je komentář přínosný?

Odpověď je jednoduchá - v jeho vesmíru ;-)

+1
+1
-1
Je komentář přínosný?

grafy jsou od toho, aby ukazovali to co maji, ne pravdu
byl jsem svedkem toho jak kolega dostava kazdy rok zebricek nejlepsich 5ti a vzdycky dostane asi 20 merenych parametru a musi vymyslet metodiku jak spocitat, aby vysla presne dana petka pomoci vah jednotlivych parametru nebo ubiranim/pridavanim a to se bavime o celkem velke neverejne akci v b2b

vzdycky se cisla daji ohnout jak je potreba, protoze dabel je v detailu

+1
+5
-1
Je komentář přínosný?

Já grafům věřím.
Ale jen těm, které jsem zfalšoval sám.

+1
+9
-1
Je komentář přínosný?

To srovnání kromě výběru hardwaru taky mlčí o konkrétním software, který na oba druhy procesorových jader rozhodně nebude stejný.

+1
0
-1
Je komentář přínosný?

Nvidia jádra moc (vůbec?) neupravuje a i tak zajímavý výsledek. Qualcomm o produktu získaném s Nuvií básnil, předběžné úniky nicmoc, tak do konce roku očekávám aspoň něco zhruba na úrovni M1. Jak dopadne M3 taky uvidíme do konce roku.

Vzhledem k tomu, že AMD (natožpak Intel) dosud nepředvedlo nic srovnatelného ani s původní M1 (slušné parametry i při TDP kolem 10 W), tak má šanci i slibotechna Qualcomm, jen jako obvykle nesmí přestřelit cenu. Škoda toho pájeného SSD u Applu, v kurvítkách je Apple vždy na špici.
"Apple's soldered-in SSDs are engineered in the WORST way possible!"

+1
-4
-1
Je komentář přínosný?

Hodila by se ještě rozšiřitelná RAM. Ta jejich "jednotná paměť" je sice fajn, ale člověk si musí rovnou připlatit šílené prachy za 8GB navíc, aby to aspoň k něčemu bylo. A i 16GB je kolikrát málo, ať si jablíčkáři melou co chtějí

+1
+6
-1
Je komentář přínosný?

Vzhledem ke zhoršující se situaci i u notebooků Win/Linux bych pájenou RAM asi i odpustil - ano, příplatky jsou u applu tradičně k popukání. Kromě pájeného SSD mně osobně podstatně vadí i příplatek za normální velikost displeje (15") přes deset tisíc.

+1
+1
-1
Je komentář přínosný?

".. slušné parametry i při TDP kolem 10 W .."

Ryzen Z1, Ryzen 7 7840HS ... jsou konfigurovatelné od 9W.
Ale není to desktop, tak to pro červícky neexistuje.

+1
+4
-1
Je komentář přínosný?

Ani ta M1 nebyla mnou myšlena v desktopové verzi, tam žere víc.

Prosím o seznam notebooků na českém trhu, kde mohu mít AMD či Intel nakonfigurované nebo nakonfigurovatelné v BIOSU (ne z Win10, protože Win11 to už neumožňují, tudíž neperspektivní) na cca 10 W. Papíroví draci "ale amd je má na svejch webovkách" či "to není věc AMD, ale výrobce notebooku" mě přirozeně nezajímají.

PS: Zastaralé dvoujádrové atomy vynecháme, to není konkurence pro M1 a už měly být dávno rozdány jako notebook zdarma k nějakému dražšímu notebooku. Se čtyřjádrovým Atomem bych asi něco našel, ale vzhledem k nízkému výkonu je tam větrák za trest.

+1
-3
-1
Je komentář přínosný?

2016 Q3 - N3350 - . 6W * plně pasivní. žádný větrák
2016 Q3 - N4200 - . 6W
2019 Q3 - Ryzen 3500U - 15W - polopasivní
2023 Q1 - Z1, Z1 extreme - 9-30W * exclusivita pro ASUS
24.03.30 - 7x40HS - 35-45W - tyhle má i zelený vřešťan

Zbytek si najdi sám. Neplatíš mi.

PS: ntb s N3350 (2T atom) a 3500U mám a používám je. 7840HS půjde děckám (2x) pod stromek.

+1
+1
-1
Je komentář přínosný?

Za tohle bys nedostal ani korunu.
Minulost mě nezajímá a z mého požadavku to je jasné.

2019 Q3 - Ryzen 3500U - 15W - polopasivní - polopasivní je dnes už snad každý notebook, 15 W není cca 10W

2023 Q1 - Z1, Z1 extreme - 9-30W * exclusivita pro ASUS - To není v notebooku.

24.03.30 - 7x40HS - 35-45W - tyhle má i zelený vřešťan - To není cca 10 W.

Takže prostě nic. Apple M1 zůstává ve své kategorii bez konkurence i dlouho poté, co AMD přešlo na stejný proces.

+1
-3
-1
Je komentář přínosný?

".. Minulost mě nezajímá .."

Kdo záváhá, nežere.

+1
+1
-1
Je komentář přínosný?

Ale jdi. AMD sice ma u mobilnich CPU minimum 15 W, ale urcite pujdou i nize. A pokud trvas na 10W za kazdou cenu (proc 10W a ne 15W - pasivne se da uchladit obe...), tak je tu AMD CPU Z1 Extreme, ktery jede od 9W.

https://www.amd.com/en/product/13226

+1
+2
-1
Je komentář přínosný?

Než aby si něco pořídil.
Tak tady raděj bude brečet, že nic není.

+1
+1
-1
Je komentář přínosný?

Napsal někdo, kdo mně na jasně definovanou otázku odpoví úplně blbě. Žádný notebook, jen zbytečné informace.

+1
-4
-1
Je komentář přínosný?

Jestli to není těmi otázkami ...

+1
0
-1
Je komentář přínosný?

".. Žádný notebook, jen zbytečné informace .."
Protože jsem (navzdory počasí) v dobré náladě ... poskytnu ti další pár informací.

Ryzen 7x40HS a Ryzen Z1 (extreme) je ten samý křemík (více-méně).
Pokud bys sis pořídil ntb s Ryzen 7x40HS, mohl bys požádat výrobce, jestli ti neupraví bios tak, abys tam těch 9W mohl nastavit.

Pokud ti to přijde jako moc práce, pořiď si Asus ROG Ally nebo Lenovo Legion Go a k nim monitor, klávesnici, myš a pokud to ani jedno z předchozích neumí, tak i USB Hub.
Jsou lidi, co takhle využívají telefon, tak proč ne gamepad.

Kdo to udělat nechce, ptá se proč.
Kdo to udělat chce, ptá se jak.

+1
+2
-1
Je komentář přínosný?

U těch desítek jader už nemusí jít jen o konstrukci přímo těch jader, ale obrovskou roli zde hraje propojovací logika. A co se týká té propustnosti RAM, 512 GB/s vypadá dobře ale jen do chvíle než si uvědomíme, že 12 kanálů DDR 5 ECC 4,8 GHz u AMD EPYC 9xxx dává 460 GB/s. Takže jediná výhoda toho rozhraní a použití LPDDR bude v nižší spotřebě.

+1
0
-1
Je komentář přínosný?

starý "dobrý" klamavý marketing Nvidie

+1
+3
-1
Je komentář přínosný?

A co teprve tohle
https://wccftech.com/nvidia-geforce-rtx-4060-ti-16-gb-graphics-card-now-...
Jak je mozne, ze NV snizila cenu 16GB verze o 50$, vzdyt Adams tady tvrdil, ze to neni mozne, ze tech 100$ rozdil mezi 8 a 16Gb je naprosto spravne :))

+1
+1
-1
Je komentář přínosný?

I s touto slevou je ta grafika furt předřazená, oproti 7800 XT je směšně slabá a je tam příplatek jen pár tisícovek.

+1
+1
-1
Je komentář přínosný?

Predrzene to je porad maximalne ;)
Mne jen na to zaujalo, ze NV nema vubec problem, vyslednou cenu snizit, oproti tomu, co tady neustale opakoval zeleny Adams :)

+1
+4
-1
Je komentář přínosný?

Ak je vykon v 5 MW datacentre, pri rovnakej spotrebe o tolko vacsi ako u konkurencie, tak ten slide je reklama NVidie na to prepojovacie rozhranie. T.j. s pridavanim nodov, konkurencii rapidne klesa dodatkovy vypoctovy vykon, kdezto NVidii nie.

+1
0
-1
Je komentář přínosný?

Nvidia bude mít výhodu rozhraní, ale když totéž dáme v AMD EPYC 9684X, což je 96 jader na 2,55 GHz v základu a 3,42 GHz all core boost s 1152 MB L3 Cache. Už to bude vypadat úplně jinak.

+1
0
-1
Je komentář přínosný?

No tak mi rekni teplaku No-Xi, kde je to tve bozske AMD? Soustavne zde otravujes kazdeho s tim, jak je AMD procesor energeticky efektivni a dnes tu zjistujeme, ze v te energeticke efektivite ma velke mezery.

Takze:
AMD single jadro je pomalejsi nez single jadro Intelu.
AMD je 2x nenazranejsi nez Nvidia, zase je o 50% efektivnejsi nez Intel.

Takze AMD neni ani ryba ani rak. Jak rikam, zadna dnesni hra neuzivi 16 jader, sotva 8. Takze beznemu uzivateli tech 16 monolitu je k nicemu. Na SW development spis Intel, kde jsou komplexni, velka, vykonna jadra velkym plusem. Na hry zustava AMD. Na grafiku oboji.

Jen velka skoda, ze Intel personalne propadl a posledni produkty jsou polotovary, ktere konci u i5.

+1
-7
-1
Je komentář přínosný?

Takto kategoricky to ale nejde. Dejte aspoň 15-20 typů rozdílné zátěže a až z toho udělejte průměrný výkon a průměrnou efektivitu s maximy a minimy. Pak se můžeme o něčem bavit.

+1
+1
-1
Je komentář přínosný?

Pokud nebudeš srovnávat jabka s hruškama, zjistíš, že AMD neumí energetickou efektivitu NVidie, ale rozhodně to není 2x tak méně, je to jen o něco méně.
Na druhou stranu AMD čipy jsou energeticky efektivnější a zároveň výkonově efektivnější než ty od Intelu.

Jednoduše jsou situace, kde vítězí NVidia a jsou situace, kde vítězí AMD. Intel prohrává všechno. Že ho ještě nevymazali úplně je spíš otázka dlouhodobé podpory než výkonosti a komplexnosti hardwaru. Prostě Intel vaří z dob minulých, ale je zjevné, že tohle nejde dělat do nekonečna.

+1
0
-1
Je komentář přínosný?

Ještě by šlo přidat, že za srovnatelnou cenu (nevím jak u Hi-Endu) ale minimálně v té střední třídě platí, že AMD má lepší výkon v rasterizaci a nVidia v ray tracingu. Ale je to kolem 10 max 15 %.

+1
0
-1
Je komentář přínosný?

Už sis pořídil CPU od nVidia?
Jak to funguje?
Jak moc to padá?
Kolik věcí dělaných pro Wintel na tom funguje/nefunguje?
Kolik to žere v zátěži?
Kolik v Idle?

Poděl se se zkušenostmi.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.