Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeon RX 6900XT: 80 CU, RX 6800XT: 72 CU, RX 6800: 64 CU, vše 256bit GDDR6

Tak a je to. Těším se na testy a doufám, že Nvidia dostane důstojnou konkurenci

+1
+11
-1
Je komentář přínosný?

Ty karty vypadají na docela slušný overkill.
Znamená to tedy, že pro full hd hraní tu bude pořád RX 5600 XT ?
Třeba spadne cena :)

+1
+7
-1
Je komentář přínosný?

Věřím, že až budou grafiky nové generace (ať nVidia, nebo AMD) doopravdy dostupné v běžném množství, cena (edit: starších modelů), tedy alespoň dolarová, se začne hýbat dolů.
Pokud půjde dolar pořád nahoru, mohlo by být časem výhodné koupit to třeba na německém amazonu.

+1
+4
-1
Je komentář přínosný?

Menej jadier nevadí?

+1
-5
-1
Je komentář přínosný?

Pro FullHD mi přijde 5600XT už celkem pomalá. Já mám 5700XT a i ve FullHD, když se zapne SuperSampling nebo nějaký lepší AA, jako třeba SSAA, tak to má co dělat, aby se to udrželo na 60FPS...a to jsou starší hry...

+1
+3
-1
Je komentář přínosný?

Já tyhle featury moc nepoužívám, nevidím totiž extra rozdíl. Vypínám i věci jako motion blur apod.
Mám 60 Hz monitor, takže vždycky zapnu vertikální synchronizaci a karta si jen tak tiše jede.

+1
+3
-1
Je komentář přínosný?

Bacha, takový názor tu můžu mít jenom já, protože na FHD přece tak výkonnou kartu nikdo nepotřebuje, zatím se tu ale shitstorm nestrhl :)

Mimochodem SuperSampling je co? SSAA je právě Super Sampling Anti Aliasing

+1
-7
-1
Je komentář přínosný?

Protože píšeš daleko větší kraviny. Než obhajoby 60 Hz

+1
+9
-1
Je komentář přínosný?

Protože Jirko často lžeš a píšeš nesmysly.

+1
+3
-1
Je komentář přínosný?

to jsou karty na QHD 144+ a 4k 60+, na FHD si asi nikdo nebude kupovat takovou grafiku :-D

+1
0
-1
Je komentář přínosný?

Vyzerá to veľmi dobre, teším sa na recenzie

+1
+3
-1
Je komentář přínosný?

Další zbytečně nenažrané svině kvůli přepáleným taktům. Kdyby aspoň dali lidem na výběr a udělali Silent Edici. Noctua na tom postavila celý byznis, ale AMD/Nvidia si myslí, že ten trh má nulový potenciál. Přepínač BIOSů silent-power je dobrá cesta, ale chce to na více modelech a třeba i 3 stupně - ultrasilent-silent-power.
Zůstávám na svém podtaktovaném 512 bit dinosaurovi a budu se modlit, že nebude nějaký SW problém při udržování jeho frekvencí nízko.

+1
-13
-1
Je komentář přínosný?

kdybys nebyl debil tak bys vedel ze si kartu muzes podtaktovat, snizit clock a klidne ject i pasivne kdyz to tvou uchylku uspokoji

+1
+13
-1
Je komentář přínosný?

„Zůstávám na svém podtaktovaném 512 bit dinosaurovi a budu se modlit, že nebude nějaký SW problém při udržování jeho frekvencí nízko."

+1
+3
-1
Je komentář přínosný?

Ten moment, kdy zjistíš, že si stěžuješ na něco co dokáže každý čtenář IT webu vyřešit sám.

+1
+13
-1
Je komentář přínosný?

Ty "nenežrané svině" mají podle mě jednoduchý důvod: Vrací se konkurence, tudíž "musí" nVidia a AMD jít se spotřebou u "TOP" modelů na krev.
Jako určitě by oba hráči mohli vydat karty s max. TBP/TGP do 230W.
Nicméně tipnul bych si, že by se stejně neudrželi a začali by se postupně trumfovat v tom, kdo vydá nenažranější (čti výkonnější) grafiku. No a za chvíli bychom byli tam, kde jsme "teď".
A navíc přece nikdo nikomu nebrání koupit si méně žravou kartu, že?

+1
+8
-1
Je komentář přínosný?

Skoro. Neoficiálna info hovorí, že AMD chcel mať kartu s výkonom blízko RTX3080
a až 2-3 mesiace dozadu zistili, že by mohli byť blízko 3090, ak by zdvihli takty a tak to skúsia..

+1
0
-1
Je komentář přínosný?

To vyzní jako by mezi 3080 a 3090 byl nějaký výrazný rozdíl ;)

+1
-4
-1
Je komentář přínosný?

Sa blby len robis? Ved v cene!

+1
+5
-1
Je komentář přínosný?

230W si na tech kartach nastavite v driverech, neni problem.
Snizeni frekvence, podvoltovani, popr. snizeni power limitu ..... a mate peknou 230W kartu, se vsemi RNDA2 ficurami a nejakou tou podpoprou DirectRay.

+1
-2
-1
Je komentář přínosný?

"A navíc přece nikdo nikomu nebrání koupit si méně žravou kartu, že?" <= Jasně, proto když by člověk chtěl dedikované GPU, tak se neobejde bez externího napájení, protože v nabídce jsou modely staré dvě a více generací s tím, že většina z nich prohrává s APU od AMD. V podstatě se není dostupné téměř nic co je třeba 2x výkonější než APU a není to žravá karta (s přídavným napájením). Tento segment je nepokrytý a nebylo tomu tak vždy.

+1
+1
-1
Je komentář přínosný?

Taková je doba. Nevyplatí se navrhovat GPU, které bys prodával s malou marži. Nižší segmenty se pokryjí z části částečně vadnými GPU a částečně předchozími generacemi. Polovina hráčů je na konzolích, pod nima jsou PC hráči s integrovanými grafikami a nad nima PC Master Race s highend GPU.

+1
0
-1
Je komentář přínosný?

Jo pravda, segment pod 75W je opravdu tragický:
Geforce GT710 (900 Kč+), Radeon RX 550 (1700 Kč+), Geforce GT730 (2000 Kč+ vyloženě pobaví), GF 1030 (2000 Kč+) atp., Radeon R7 430 (2200 Kč...) .

Takže pokud chcete zobrazovadlo k nějakému obyč. CPU, čekají vás při výběru "vhodného" kandidáta nehezké chvilky pocitů zmaru a beznaděje.
Bohužel konkurenční boj je v cenách kolem 1000 Kč čistě fiktivní záležitost. Tudíž čekám, že tento koutek zůstane velmi dlouho opomíjený a čím dál zatuchlejší.

+1
0
-1
Je komentář přínosný?

Tak ona je dostupná i GTX 1650, ale za nekřesťanské peníze. Předchozí generace jsou energeticky neefektivní a často pod výkonem nejlepších APU. Pro nehráče, který nemá APU je to dost prekérka.

+1
+1
-1
Je komentář přínosný?

Podtaktovat dnes fakt neni problem. Kdysi to byl problem hlavne v linuxu, ale dnes uz jak wokna tak linux na to maji tooly.

Zrovna vcera jsem videl clanek o nekom co podtaktoval nejakou 3000ku nvidiu, a usetril 100W. Navic koupit karty s nizsim TDP porad jde (1660 / radeon 5600 atd).

Takze o co ti jde ? ze sve obrovske cipy AMD/Nvidia nedava do konfiguraci kde to bezi na energetickem optimu ? ale dava - v "profi-GPU" a/nebo server-GPU segmentu. Jsou to navic vyberove cipy s milimalnim leakage. Pro plebs jde ten smejdovy zbytek.

+1
+5
-1
Je komentář přínosný?

Jde o to, že ty tooly si v mém případě nerozuměly se SW od AMD a celkově mám raději víc HW řešení jako je ten přepínač BIOSů.

+1
0
-1
Je komentář přínosný?

Co ti brání si jednoduše upravit grafiku na úrovni biosu ? Dnes jsou k tomu jednoduché přehledné a funkční tools. Určitě se na webu najde dost už upravených biosu se sníženým hlukem pro každý model karty.

Podle mě je to ještě více elegantní řešení než HW přepínač...

+1
0
-1
Je komentář přínosný?

Neni, záruka.

+1
+2
-1
Je komentář přínosný?

Jakmile upravis bios v editoru standartni ovladace s ni odmitnou pracovat, alespon u rx580 pri tezebni uprave strapu a pak pokusu o pouziti ve win na tom koncilo, rekl bych ze u Navi to bude stejne.

+1
0
-1
Je komentář přínosný?

Koupite si karty za 25-35k czk a resite jak snizit frekvence abyste usetrili 100w ? To jako fakt :-D ?

+1
+3
-1
Je komentář přínosný?

Hlučnost.

+1
+1
-1
Je komentář přínosný?

Mam Vegu 64, vlastní vodní chlazení a musim říct, že už se mi stalo, že jsem počítač zaslechl....
Takže kdo chce ticho, koupi si poradny chlazení.

+1
0
-1
Je komentář přínosný?

Já se z vodníků vracím zpátky na vzduch. Cca po 3-4 letech provozu mi začínají hromadně odcházet čerpadla a hluk je horší než u vzduchu.

+1
0
-1
Je komentář přínosný?

Lenze takty a napatie na grafike nie su zdrojom hluku.
Ked si kupujes top kartu, kupuj aj top chladenie.

+1
0
-1
Je komentář přínosný?

bola to 3090 dali ju na 240 wattov a vykon klesol o 2.5% to je super

+1
+1
-1
Je komentář přínosný?

To máš GTX 690?

+1
-1
-1
Je komentář přínosný?

Ta má dvě 256-bit GPU, spíš bude mít nějaké GPU založené na Hawaii nebo R600.

+1
-1
-1
Je komentář přínosný?

Zaujímavé, že od R9 390(X) už 512 bit zbernica nie je. Je to príliš drahá na výrobu? Dokonca ani Titani takú zbernicu nemajú. HD 2900 PRO hádam nemá. To radšej aj keby šlo o s775 kúpiť bezventilátorovú GT 1030 ako toho Matuzalema.

+1
-1
-1
Je komentář přínosný?

"od R9 390(X) už 512 bit zbernica nie je"
Fiji - 4096 bit
Vega - 2048 bit
RVII - 4096 bit

+1
-1
-1
Je komentář přínosný?

Porovnávaš GDDR s HBM?

+1
0
-1
Je komentář přínosný?

to jsi nenapsal, měl si napsat, pak se nemůžeš divit takového reakci. Podle mě ale typ paměti nehraje roli. Mohl bych se pak ptát proč porovnávás GDDRX a nonX.

HBM nemá nějakou jednodušší sběrnici, tak velká sběrnice na těch čipech opravdu fyzicky je včetně drátů, tzn. je to jak drahé, tak inženýrsky úctyhodné nehledě na to, jaká paměť je tam nakonec navěšená. A btw HBM je ještě inženýrsky úctyhodnější, zatímco GDDR a ještě k tomu nonX je jen cheap mainstream massproduce věc. Což zase zlevňuje náklady a to je jediný důvod proč se AMD rozhodla pro tuhle skromnou sběrnici - karty jako 3080 s širšími sběrnicemi tomu těžko mohou nákladově konkurovat

+1
0
-1
Je komentář přínosný?

Ještě to může být GeForce GTX 285 :D

+1
+1
-1
Je komentář přínosný?

Tiež ma to napadlo.

+1
0
-1
Je komentář přínosný?

O tom jsem ještě nepřemýšlel (csfd "Divoké včely")---

Je to mrtvě narozené dítě, 12 jader Apple A15XTX s 6 ALU to zadupe do země! Málo ROP, málo sběrnice!

+1
0
-1
Je komentář přínosný?

Nvidia chcela vysoký výkon, tak zvýšila TDP. AMD malo prísť s GK s 100W TDP? Potom by si napísal "ďalší zbytočný lowend", že?

+1
+3
-1
Je komentář přínosný?

Hmm, karta se spotřebou kolem 250W to jistí. Přímotop domů nechci ani od nVidie, ani od AMD. I když ono i těch 250W za pár hodin hraní slušně vyhřeje místnost.
Už se těším na recenze :)

+1
+7
-1
Je komentář přínosný?

Tak si TDP snížíš. Budeš mít hiend se spotřebou 200W a zas o tolik výkonu nepřijdeš. Tohle můžeš aplikovat na všechno. Nebo co vlastně chceš? U AMD i nvidie jde běžně nastavit TDP na -50%. Nebo nech TDP a omez FPS, možností je dost. 0W při 100FPS zatím nikdo nevymyslel, tak se s tím smiř.

+1
-4
-1
Je komentář přínosný?

"Tak si TDP snížíš." O tom jsem taky přemýšlel. Případně by se to časem dalo pustit zpět na původní hodnoty, kdyby bylo třeba více výkonu.
Na druhou stranu nevýhoda toho řešení je cena. No uvidíme po testech, variant přichází do úvahy dost.
Jo a ještě k těm 0W při 100FPS - to je snad jasné :D, to mě ani nenapadlo, s tím se smiřovat nemusím ;)

+1
+2
-1
Je komentář přínosný?

@no-X: Z jakého zdroje prosím pochází informace uvedené v článku?

+1
-1
-1
Je komentář přínosný?

dole to máš - videokardz

+1
+3
-1
Je komentář přínosný?

jj pravda, hledal jsem to přímo v textu. Pardon...

+1
+2
-1
Je komentář přínosný?

Me hlavne zajima, kde je pes zakopanej. Jestli tam neni zadnej pes, pak by to znamenalo prakticky dvounasobne vykonnejsi cip nez 5700XT, ale na stejne pametove sbernici. Coz je docela blby. Docela hodne.

+1
+1
-1
Je komentář přínosný?

Přesně - to je právě ta otázka - budou GDDR6 při 256 bitové sběrnici pro nejvyšší modely úzkým hrdlem, nebo ne?

+1
+2
-1
Je komentář přínosný?

něco za tím bude, když mají "jen" 256bit sběrnici a takový výkon .. komprese či jiné optimalizace/technologie o kterých nevíme ?

+1
+3
-1
Je komentář přínosný?

O té sběrnici se může pořád spekulovat, je to parametr, který hodně naznačuje kam GPU míří. Kdyby rovnou AMD potvrdilo 512 bit. sběrnici je jasné že to minimálně zaútočí na 3080. Po zkušenostech z minula je dost možné, že prostě chtějí překvapit konkurenci. Samotné GPU je opravdu velké a vytvořit tak 512 sběrnici by nebyl vůbec problém.
Na druhou stranu optimalizovaná cache může taky udělat svoje nechme se překvapit.
Jisté je to že AMD nezvedá cenu grafik drahou 16 GB pamětí bezdůvodně, určitě tu paměť využije, takže se dá počítat s výkonem aspon 3070+ jinak by to byl fail.

+1
+4
-1
Je komentář přínosný?

tak Lisa Su ukázala výkon (téměř) jako 3080 (na 99% ani ne na nejsilnější variantě), aby se předešlo spekulacím, že to bude konkurovat jen 3070 a podobným nesmyslům a někteří si to nadále myslí :-), Ty konkrétní fps demonstrovaná v těch hrách na prezentaci Ryzenu 5xxx teda jako mají být vylhaná jestli rozumím správně? Tak to chce už dobrej zelenovýmaz

+1
+2
-1
Je komentář přínosný?

Tak dokud nebudou venku nezávislé recenze a porovnání za použití stejných procesorů pro RTX 3000 i RX 6000, můžeme se pořád jen dohadovat, jak to dopadne.

EDIT: Infinity cache v souvislosti s Navi 2x nebyla pořád oficiálně potvrzena.

+1
+2
-1
Je komentář přínosný?

ano ale máme rozum ne? Jak jinak udělat takívý výkon na 256-bit GDDR6?

+1
+1
-1
Je komentář přínosný?

Jo to já nevím, nejsem vývojář AMD, takže fakt netuším.
Neříkám, že to nemůže být infinity cache a je možné, že něco takového nové radeony ponesou. Ale jako vždy, je dobré počkat na vydání.

+1
0
-1
Je komentář přínosný?

Většina lidé rozum má, ty máš evidentně křišťálovou kouly zbarvenou do rudých barev, takže debata víceméně postrádá smysl, obzvlášť když ani neumíš číst.

+1
-4
-1
Je komentář přínosný?

niekde som sa docital ze ta "infinity cache" ked tak bude mat 128MB.. pomoze to tym ddr6 myslis?

+1
+2
-1
Je komentář přínosný?

ne, podle něj nepomůže. Nestačí mu ani těch X leaků, ani fakt, že si AMD "infinity cache" zaregistrovala, ani to, že mají nějakou výkonnou kartou skoro na úrovni RTX3080 s 256-bit sběrnicí a sám nenabízí vůbec žádné vysvětlení jak něco takového mohli dokázat. Prý cache nedává smysl, prý nic nevíme, nemůžeme tvrdit a ani si nemůžeme myslet, jinak bychom prej byli "rudí"

+1
0
-1
Je komentář přínosný?

Je to podobný jako u CPU. Ty maj oproti grafikám několikanásobně menší rychlost do RAM (když nepočítám workstationy a servery - sám mám Xeon se 6 kanály pro RAM), ale maj obrovskou cache. AMD jen zúročuje, že vedle GPU vyrábí i velmi výkonná CPU.

+1
0
-1
Je komentář přínosný?

> Kdyby rovnou AMD potvrdilo 512 bit.

To je to co mi prave nedava smysl. 300W high-end, obrovskej chip - tam by se hrave vesla 320 - 512bit sbernice a cenove to v hi-end neni problem. Takze otazka proc tam nacpali 256bit sbernici...

+1
-1
-1
Je komentář přínosný?

Já si myslím, že ví, co dělají...my víme prd ;)

+1
+5
-1
Je komentář přínosný?

Ledažeby vymysleli nějakej obvod o velikosti kondenzátoru, kerej by předřadili té paměti hodně blízko a komunikovali s ní s absurdně nízkýma latencema.... Něco jako aktivní EMIB jen na PCB = podlouhlej čipulín... a směrem do čipu by to šlo PAM4 nebo po Infinity Fabric do té jejich cache??? Jakože by použili off-the-shelf SKU pamětí a vymáčkli z nich nějakej nesmysl??? Jakože hardwarový DLSS pro paměti??? To by asi bylo na Nobelovku.... Spíš to vypadá na ten Powasonic.

+1
0
-1
Je komentář přínosný?

Čoraz viac mi to pripadá, tak, že sa AMD(ATi) inšpirovalo minulosťou a snaží sa znížiť cenu karty a aj potencionálny problém s dostupnosťou pamätí tým, že použije široko dostupné DDR6 v 256bit šírke + infinity cache....a chce pri modeloch RX 6800 a RX6800XT (čiže osekané verzie) dohnať, či predohnať konkurenciu RTX 3070/3080 a rozdrviť ju cenou...tak ako to bolo kedy pri Radeon HD4870 vs GTX 260 (300$ vs 450$..150W vs 202W..256bit vs 448bit... 25.06.2008 vs 16.06.2008) a ak si dobre spomínam, tak vtedy tiež ATi mlžilo a hovorilo sa len o novej revízii čipu RV670 a "bum ho" nový čip RV770 s výkonom + 55% oproti RV670 (alias Radeon HD3870).

+1
+2
-1
Je komentář přínosný?

Já jsem HD3870 vlastnil (pasivně chlazenou sapphirku) a rozhodně nebyla silnější než HD2900XT kterou nahrazovala. Byly na tom víceméně stejně (HD3870 dokázala jet na mnohem vyšších taktech takže pomocí OC samozřejmě dokázala odskočit)

To hlavní ale bylo že ta karta stále 3500 tisíce a nechala se chladit pasivně acelerem :-)
Nvidia proti tomu časem nasadila 8800 GT ale stejně HD3870 se z mého pohledu povedla i když absolutně nestačila v té době na high end nvidie, ale komu to za ty prachy vadilo ? 5 % nakupujícím ?

Kdyby dnes AMD vypustilo RX6870 za 4 tisíce s výkonem klidně lehce pod RTX 3070 tak už klikám na objednat :)

+1
0
-1
Je komentář přínosný?

Tak tak, dôležitý pre väčšinu užívateľov bude tzv. "sweet spot" a myslím, že ňou bude Radeon RX 6800 a aj RTX 3070 ak dokáže konkurovať cenou či výkonom...to sa uvidí budúci týždeň, čo vykúzlilo AMD spoločne so Sony a Microsoftom (dali hlavy dohromady)....tie vysoké frekvencie nových Radeonov, ju môžu konkurenčne "zabiť" (už začína byť cítiť synergiu CPU a GPU divízií AMD...začalo to APU Renoir, to čo dokázali vytlačiť s integrovanej Vega-y je fakt úžasné)

+1
0
-1
Je komentář přínosný?

Jak mohou překvapit konkurenci? Inženýři co to navrhují mají stejné vědomosti jak u AMD tak NVIDIA a ví co si mohou od daného procesu výroby dovolit. Takže moc dobře tuší co mohou a nemohou vyrobit.

+1
-6
-1
Je komentář přínosný?

Třeba použitím nějaké technologie, se kterou konkurence nepočítala. Třeba nakonec nové radeony doopravdy ponesou Infinity Cache (IC), což by překvapilo mnohé. No jsem napnutej, jak kšandy, jestli se IC potvrdí, nebo ne :)

+1
0
-1
Je komentář přínosný?

Fakt si nemyslím, že jsou v AMD natolik blbí konstruktéři, že by tohle nevěděli. Takže to mají nějak vyřešené - přičemž řešení se může skládat z více dílčích opatření.

+1
+5
-1
Je komentář přínosný?

asi jste ještě neslyšel o infinity cache? Myslím že "jen" 256-bit a GDDR6 to víc než potvrzují

+1
-2
-1
Je komentář přínosný?

Jen 256 bit GDDR6 nedokazuje v tomto ohledu vůbec nic. Infinity cache doposud nebyla u RX 6000 oficiálně potvrzena.

+1
0
-1
Je komentář přínosný?

dobrá když mě chcete oponovat přijďte nejdříve alespoň s jinou teorii jak dosáhnout takového výkonu na ggdr6 256-bit.

Nic lepšího než cache Vás nenapadá? Tak podle ockhamovy břitvy si s dovolením volím tu cache před mimozemšťany a jinými teoriemi

+1
+1
-1
Je komentář přínosný?

Me napada tam vrznout 2x 256 bit sbernici, do pameti by se pristupovalo paralelne......

+1
0
-1
Je komentář přínosný?

A co je infinity cache? nějaká cache jestli je od Nissanu nebo AMD je jedno... Ale ládovat do paměti data je taky důležité a tam žádná cache nepomůže.

+1
-3
-1
Je komentář přínosný?

mě trolit nemusíš, já ti dávám pluska, vždycky se nasměju a mám tě rád, protože jsi fakt dobrej

+1
+5
-1
Je komentář přínosný?

No já netvrdím, že tam není. Já to nevím. Ani vy to nevíte. Byl nějaký nepotvrzený únik informací, AMD si registrovalo značku - ano je to možné. Ale zatím je to prostě nepotvrzené. Tečka. Proč bych proboha měl vymýšlet nějaké další teorie? Já jsem jenom nesouhlasil s výrokem, že přítomnost 256 bit sběrnice nadevší pochybnost potvrzuje přítomnost infinity cache.

+1
0
-1
Je komentář přínosný?

Ale hodne pod GF 3080

+1
0
-1
Je komentář přínosný?

Ještě by to chtělo leak ohledně modelů pro chudáky - R 6500XT/6600(XT). Snad se brzy dočkám.

+1
+4
-1
Je komentář přínosný?

jo situace chvíli bude taková, že zatímco v segmentu kolem RTX 3080 se to bude bít, tak dole chvíli nebude a zůstane to tam teda dost předražené = nenakupovat

+1
0
-1
Je komentář přínosný?

Tak podle hrubého výkonu bych to viděl že nám AMD ukázalo RX 6800XT a RX 6900XT by tu 3090 mohla +- dorovnat. Na Vánoce pod stromeček kombo AMD + AMD? Nebránil bych se tomu :)

+1
+2
-1
Je komentář přínosný?

Kombo? S jakým CPU - R7 5800X?

+1
0
-1
Je komentář přínosný?

Pravděpodobně, 6 jader do nového PC mi přijde málo a 16 už zbytečně moc, měl bych to v podstatě jen na hry, možná bych byl ochotný připlatit za 12 jader pokud by to mělo smysl, uvidím jak dopadnou testy.

+1
0
-1
Je komentář přínosný?

pokud na hry, tak urcite bez do 5800X , na hry nejlepsi co tento rok koupis

+1
0
-1
Je komentář přínosný?

3080 ma vykon 30 TFLOPs vs 24 u R6800, vykonove je to tedy slabota.

+1
-3
-1
Je komentář přínosný?

Jo to máš pravdu, mě tedy primárně zajímají finální fps, ale uvidíme no.

+1
0
-1
Je komentář přínosný?

No ale za prémiovou cenu za předpokladu že bude ok dostupnost, za 2x prémiovou cenu pokud to zboží bude nedostupné.

+1
-3
-1
Je komentář přínosný?

...tady je něco podrobněji o odhadu spotřeby (až 355+ W pro OC):
https://www.igorslab.de/en/amd-radeon-rx-6000-the-actual-power-consumpti...

+1
+3
-1
Je komentář přínosný?

Prijde mi to, ze vykonove je to docela bida proti nV...., teoreticky vykon je na urovni 3070 v FP32

+1
-2
-1
Je komentář přínosný?

A pritom jsou karty frekvencne prakticky na maximu.

+1
-1
-1
Je komentář přínosný?

Tak ještě dobře, že jen ten teoretický.

+1
0
-1
Je komentář přínosný?

Teoreticky byly už dlouhou dobu AMD karty v FP lepší než nvidia a víš jak jim to herně pomáhalo?

+1
+4
-1
Je komentář přínosný?

herně skoro nijak, ale mimo už hodně :D

+1
-1
-1
Je komentář přínosný?

Rozdíl v TFLOPs v radu 20-50% je proste hodne, tj. vs 3080 a 3090, tezko to dozenou efektivitou. Mel jsem v planu rozhodne Radeon, pockam na testy.

+1
-2
-1
Je komentář přínosný?

2080Ti má 13,5Tflops, 3080 30Tflops, tj. 2,5 tolik a je ve hrách jenom o 30% rychlejší. Radeon VII má stejně jako 2080Ti a je ve hrách o 30% pomalejší. Mezi různými architekturami se to porovnávat nedá. Ale 5700XT má 10Tflops a architektonicky by měl být s novými Radeony dost blízko, takže z toho už se něco o grafickém výkonu usuzovat dá.

+1
+3
-1
Je komentář přínosný?

Hlavně NV 30xx má tu druhou sadu fp32 sdílenou s int32 (sdílená datová cesta), takže pokud shader program (vertex/pixel/compute) má jednu jedinou instrukci celočíselnou, tak se druhá sada fp32 nepoužije (int instrukce se vykonává jen na int32 jednotce). NVidia sama řekla, že to slouží jen k denoisingu pro raytracing. Reálně skoro každý běžný shader obsahuje int instrukce. Proto taky výsledky byly, že bez RT to výkonově skoro nic nepřidá, s RT asi 30 % (ten denoising je náročná operace), ale rozhodně zapomeňte na 100 %.

+1
+3
-1
Je komentář přínosný?

Tady někdo nepochopil, jak nVidia v Ampere "nahnala" TFlops a že to s hermím výkonem koreluje u různých architektur s rozptylem klidně desítek procent.

+1
+1
-1
Je komentář přínosný?

...a tady další zajímavost k ditribuci:
https://www.tomshardware.com/news/amd-rx6000-scalper-protection

+1
+3
-1
Je komentář přínosný?

Navi 23 (RX 6500XT ?)
- 14.28 mm × 16.51 mm ≈ 235,76 mm², BGA (35 × 35 mm), 32 CU ?, 2048 SPs ?, 8GB VRAM (128 bit), RDNA2

+1
+1
-1
Je komentář přínosný?

Výkonostní rozdíl v TFLOPS mezi 5700XT a 6700XT se zdá zanedbatelný, ale mají více paměti, byť s menší propustností, tak uvidíme jak to bude v reálných testech.

Která z nich je konkurencí RTX 3070?

+1
0
-1
Je komentář přínosný?

5700XT určitě zdaleka ne.
A 6700XT? To pro změnu teď nikdo z běžných lidí nemůže vědět.

+1
0
-1
Je komentář přínosný?

64 CU 6800 nemôže mať 250 W spotrebu, keď 56 CU v Xbox X má cca 150 W.

+1
-3
-1
Je komentář přínosný?

Tak ono tie CU v XBoxe mozu bezat na nizsej frekvencii, blizsie k energetickemu optimu daneho cipu.

+1
+3
-1
Je komentář přínosný?

52 CU v Xboxe bežia na 1825 MHz, táto skutočnosť je oficiálne známa už dlho. 62 CU v 6800 majú mať base takt cca 1800 MHz. Game takt cca 2100 Mhz a 12 CU naviac podľa mňa nemôžu dať 100 W naviac.

+1
0
-1
Je komentář přínosný?

Neporovnáváš náhodou strop jednoho produktu a typickou frekvenci druhého? :-)

+1
+1
-1
Je komentář přínosný?

Taky ty nové konzole jsou výkonem na úrovni 2060 Super/ 2070.

+1
-6
-1
Je komentář přínosný?

To není pravda. DF se domnívá, že PS5 má RDNA1 architekturu s RDNA2 prvky (feature set) a ta má být výkonem mezi 2060 Super a 2070.

Pokud jde o XBSX, tak tam je plnohodnotná RDNA2 a ve 200W je i 8/16 Ryzen (cca 3800).

Těch 12TFP u XBSX dává konzistentních 60fps ve 4k a výsledný vizuální výkon si lze ověřit již na několika titulech.

Otázkou už zůstává jen RT výkon, a co to vlastně znamená.

RDNA vypadá jako velice povedená záležitost a patrně zažijeme skutečné disruptivní chování AMD na 4k/60fps trhu.

Takže jen houšť a větší kapky.

+1
0
-1
Je komentář přínosný?

Za mě spokojenost. Čekal jsem na to jako na zázrak. Minulá generace mě nepřesvědčila (a to ani u konkurence) k upgradu. V AMD nejsou idioti, aby si tu zúženou sběrnici neošéfovali nějakýma dalšíma features v architektuře. Pokud cena nebude totálně přepal, tak konečně po šesti letech dojde k upgrade i na GPU side.
Teď jsem zvědavý, co na to zelení a jejich modely s 10GB VRAM. Jestli to opravdu přebijou štědrýma 20GB, i když je to dost diskutabilní, jestli je to pro simple gaming potřeba.

+1
+3
-1
Je komentář přínosný?

Není pokud po tom člověk nechce něco velice specifického, na 4k v max detailech, RT obvykle stačí 4-6GB, některé hry jdou samozřejmě výše, ale testy ukázaly že reálný problém je v jediné hře a tam stačí snížit textury, což člověk fakticky nepozná na vzhledu ale na výkonu ano.

+1
-5
-1
Je komentář přínosný?

Já bych docela ocenil, kdyby AMD vydala nějakou kartu do 75W s podporou AV1. Tyhle 300W potvory nee. :-)

+1
+4
-1
Je komentář přínosný?

budete muset počkat na APU s RDNA2, které vám to splní elegantněji a levněji. Já chtěl manželce koupit už Renoir 4650G protože se konečně objevily 4400mhz paměti za slušných 3200kč které půjdou ještě přetočit, ale už bych raději Zen3 s RDNA2. Ten výkon už možná bude stačit i většině "fotrům" co maj hry tak okrajově nějaké to mmo, být to dnes tak už se možná na dedikovanou grafiku vykakám úplně

+1
+1
-1
Je komentář přínosný?

Jenže já už jsem asi starý a nemám chuť měnit celou platformu. Mám 4core haswell a jsem spokojený, výkonu je dost na cokoliv takže dokud tady bude fungovat asi ho nebudu upgradovat. Snad jedině nějakou tu levnější grafickou kartou s nízkým TDP a dobrou podporou v Linuxu bych si dokázal představit. Klidně bych mohl koupit třeba rx5700 ale co bych s tím dělal? Navíc to neumí AV1. Ale což třeba to do té doby elegantněji vyřeší Intel s 8core+ včetně igpu s AV1. Zase.

+1
+2
-1
Je komentář přínosný?

asi ano, proti haswell čtyřjádrům je raketa i R5 1600AF a to už je docela vousatý procík za pár peněz. Nicméně pokud používáš dobové aplikace tak určitě stačí. Já svého času měl IB Xeon, taky 4/8 na Z77 kterou jsem modnul na bootování z PCI-E SSD a taky se to hýbalo dost slušně na nějakých 3,8Ghz se Samsung MLC, 12GB DDR3 a GTX 1070, ale kde ty sněhy jsou...
Dnes 3800X s 2070 a musím říci že ten vyšší výkon na jádro je znát i v takových vykopávkách jako je Serious Sam HD...

+1
+1
-1
Je komentář přínosný?

Obavam se ze to Intel elegantne nevyresi, napali to cenou ,kdyz uz se k tomu vubec dostane. To budu vice verit,ze nam nekdo to GPU udela.
Je to presne tak, ze mnoho lidi ma sestavu ktera proste jede ale neni k tomu aktulani low end zelezo na videa za rozumnou cenu. Prusvih je ze v teto kategoriji se pere stare zelezo a to tak stare ,ze jedn zasne.
Vlastne se jen preznacuje .. Ano vsichni cekame letos zmenu ve vsech segmentech ..

+1
0
-1
Je komentář přínosný?

Nějak nechápu ty řeči o výměně platformy, V případě elegantního Intelu se platforma měnit nebude? :)

+1
+1
-1
Je komentář přínosný?

Myšleno tak, že to vyřeší až někdy v době kdy mi chcípne má lowend H81 deska a budu donucen k upg.

+1
+2
-1
Je komentář přínosný?

vzhledem k tomu co Intel převádí tak nebude lepší ani v době až Vám "chcípne" H81 deska. To bude k dispozici lowend ekvivalent dnešního 4350G Renoir, prostě to nejlevnější APU s RDNA2 grafikou která vám akceleraci AV1 nabídne - k tomu levná deska s "A" chipsetem. Co může být jednodušího než stavět holosestavu bez gpu s box chladičem? Těch pár wattů co to bude žrát možná obslouží i ten Váš starý zdroj. Pořád je to lepší než cpát drahou dedikovanou kartu do starého kompu když jak píšete ten výkon nepotřebujete. Prostě výmluvy a fotrovská lenost :D

+1
0
-1
Je komentář přínosný?

Tak na AV1 ta karta bude vesměs v idle ne? Takže 75W je neskutečně moc.

+1
-4
-1
Je komentář přínosný?

jde o to že AMD mu takovou dedikovanou kartu jakou by si představoval nevydá jednoduše proto že to nemá cenu. Pro AMD nemá smysl 35-50W holokarta s RDNA2 když tenhle segment výkonově pokryje vlastními APU - prostě kupte si rovnou celé APU když chcete takovou grafiku. Dedikované grafiky začínají tam, kde končí výkon nejvýkonnějších APU. Logicky s tím jak poroste výkon int. grafik (infinity cache/přechod na DDR5), tak i dedikované grafiky budou začínat na stále větším výkonu.

Slabé int. grafiky nemají vůbec žádný smysl. Teda respektive mají v OEM setavách a ntb. kde si to tam někdo zaplatí/marketingové důvody - wow noťas s int. Nvidia grafikou - to bude jak rtx 3080/3090 a tak si Lojza za takový notebook připlatí aby dostal o pár procent rychlejší grafiku než tu integrovanou co tam má i když mu to bude žrát 30W navíc a je to rename 3-4 generace starého jádra

+1
0
-1
Je komentář přínosný?

„Tak na AV1 ta karta bude vesměs v idle ne? Takže 75W je neskutečně moc.“

Že je 75 wattů na přehrávání videa neskutečně moc, je celkem smysluplný předpoklad. Realita je ale taková, že GeForce RTX 3090 při přehrávání 4k HDR videa konzumuje 80-90 wattů a to ještě není ani AV1, jehož přehrávání je náročnější než u stávajících kodeků.

+1
+1
-1
Je komentář přínosný?

Nejak nemam co k tomu rict. Obavam se, ze ta sracka Prymula me zabije driv, nez si pujdu novy Radeon RX 6800XT koupit. :-/

+1
-6
-1
Je komentář přínosný?

Koupit si ninkdenic nikdo nepujde, Ne jen ze to neoujde ale ani nebudou ..
Coz me desi nejvice
Chtel bych neco kolem RTX 3080 i kdyz to je na me hrani overkill ,ale Nvidia nic neprodava aspon do unora a Jestli se vytasi AMD zatim porad nevime a to jsem si myslel ,ze AMD GPU uz ani resit nebudu.. Ve finale budu rad za cokoliv co pujde koupit letos.

+1
0
-1
Je komentář přínosný?

letos si nekoupíš grafiku a budeš rád za jídlo a pár předražených respirátorů u překupníka. Tzn. grafikama se vůbec nemusíme vzrušovat

+1
0
-1
Je komentář přínosný?

A tedka jeste zjistit, ktera z tech karet prohanela RTXko na AMD konferenci. Lisa rekla jen, ze je to "big navi", ale mohl to byt i ten nejslabsi kus.

+1
0
-1
Je komentář přínosný?

bylo by super kdyby to byla nejslabší 6800, ale i ok jestli to byla 6800XT

+1
0
-1
Je komentář přínosný?

Já to hádám na ten prostřední model.
Teď ještě, aby se to dalo pořídit tak 12k.

+1
0
-1
Je komentář přínosný?

Konecne svezi vitor do plachet, doted byly plachty prilis zasrane NVIDII..., je nacase poradne vycistit chliv i na poli grafickych karet, RTX 3080 je jiz mrtva, definitivne a to jak kuli neakceptovatelnemu TDP, tak 10GB VRAM navic zbytecne drahych GDDR6X a silene nedostupnosti, 8nm Samsungu a okrikovani 7nm TSMC delaji sve ovoce...

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.