Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Seasonic: Radeon RX 8800 XT má 220W TDP

Vzhledem k tomu, že včera uvedený Battlemage B580 má mít TBP kolem 200W (+-10W dle výrobce) a ořezaný model B570 170W a výkonem konkurují RTX4060 a RX7600, tak pokud přijde Navi44 s nižším TDP, vyšším výkonem a nepřestřelí cenu, tak bude v kategorii 200-350USD zajímavá pranice o zákazníka.
Mou obavou tak zůstává spíš to, že Intel a AMD budou válčit mezi sebou, zatímco Huang se bude chechtat.

+1
0
-1
Je komentář přínosný?

No dle tohoto bude B580 nový král grafického trhu.

+1
+1
-1
Je komentář přínosný?

Hmm.. a ty bys to risknul a koupil si to do PC? Já si radši připlatím, abych nemusel řešit různé problémy a nestabilitu či "nevýkon" v konkrétních hrách atp...

+1
+2
-1
Je komentář přínosný?

Nejspíš to byla ironie.
U Karáše nikdy nevím.

Tvojí logiku bohužel uplatňuje většina hráčů.
Proto volí nV.
Přitom Radeon nabídne stejnou kvalitu.
Jestli intel makal celou dobu na ovladačích, tak to taky může být použitelný.
Času měli dost.

+1
+5
-1
Je komentář přínosný?

Já nemám nic proti kartám od AMD.. Karty od AMD také fungují v pohodě, ale narážel jsem právě na ten Intel... prostě je to pořád nováček, nemá zavedené různé postupy při vydávání her, optimalizace váznou atd... prostě klidně může být Intel levnější a zároveň o něco výkonnější než něco od AMD nebo nVidie, ale já bych si stejně vzal raději AMD nebo nVidii...

+1
+6
-1
Je komentář přínosný?

mal som doma na test 7800xt. V uplnom klude mal cely pc 50-55W, rovnako ako s (mojou) nv2070. Ale zacal si premiestnovat okna na ploche, nic ine, len pretahovat okna sem a tam.. radeon 83-103W, nvidia 53W. FHD video x264 radeon 87W, nvidia 66W. 4k video radeo 96W, nvidia 67W.. Neviem ako ostatni, ale ja asi tak 95% casu, alebo vies co, 98% casu pozeram web a filmy. Cize je mi uplne ukradnute, ze kolko to zerie v zatazi, dolezite je, kolko to zerie v klude. PC mam zapnute denne cca 8 hodin a cez vikendy 16

+1
+2
-1
Je komentář přínosný?

V tomhle je 7800 XT hrozně nešťastná a potřebuje undervolt. 7900 GRE je na tom mnohem lépe.

 

Sám v PC co běží pořád používám paradoxně starou Vegu 56, protože má HBM2 paměti a nijak je neprobouzí i při třech různých monitorech včetně přehrávání FHD videa na jednom z nich. GPU si bere třeba 4-6W a HBM2 paměti jsou na prakticky nejnižším P State.

Když jsem zkoušel třeba Radeon Pro W5500, RX 5700 XT, GeForce RTX 2060 SUPER, RTX 2070, tak všechny karty s GDDR6 VRAM při více monitorech vzbudí ihned paměti na nejvyšší P State a více pak sají.

+1
+3
-1
Je komentář přínosný?

Bral bych, kdyby na klasickou desktop práci, přehrávání videa atp. jela jen ta iGPU v I/O čipletu, zatímco dGPU by spala. A jen pro hraní nebo AI výpočty by se probouzela. Je to tak velká utopie, když má AMD iGPU téměr v každém Ryzenu od řady 7xxx a výš?

A dělají problém už i třeba 1440p monitory s vyšší obnovovací frekvencí, řekněme 100 Hz nebo 144 Hz? Máš to nějak podchycené u novějších karet typu RX 7600/7800?

+1
0
-1
Je komentář přínosný?

Bylo by to fajn.
Pro desktop, čtení webů, mp3, filmy, ... to píše odběr GPU ca 40W.
V dlouhodobém horizontu to není zas tak málo. Jak elektřina, tak generované teplo.

Ale co na to majitelé Ryzen 7500F ?

+1
0
-1
Je komentář přínosný?

"Ale co na to majitelé Ryzen 7500F ?"
Ty jsi koupili CPU bez iGPU dobrovolně, tak jejich problém.

+1
0
-1
Je komentář přínosný?

Nevím jak je to s tím vypínáním grafiky, ale já měl s 5700G B550 desku s DP, normálně na to zapojený 3440x1440 75Hz freesync monitor a dedikovanou 6800 k tomu.

Problém je u některých her, které nemají na výběr kterou grafikou mají renderovat, ale jinak na desktop a low3D jsem renderoval na iGPU (třeba i 3D deskové hry na streamu kde iGPU stačí), no a takový Doom Eternal mě pak jel na 6800. Ono to umí renderoval na té dedikované a zkopírovat do framebufferu té iGPU, fungovalo to dokonce i s RT a freesyncem.
Čili stačí si monitor(y) připojit do iGPU. A to není s AMD problém. Lepší desky mají 3 grafické výstupy, už stará B550 gigabytka uměla na dvou 4K a na třetím 5K

Nicméně to nemá MUX jak ntb. co jsou na přepínání grafik dělané, takže podle mě se ta dedikovaná nevypne nikdy úplně, ale tím že na ní nejsou připojené žádné výstupy, tak by mohla zůstat v nejnižším power statu. Stejně tak se nevypne iGPU, ale možná že ve 2D bude žrát míň, takže to nakonec může být výhodné. Na druhou stranu prý kopírování framebufferu mezi grafikami představuje performance hit. Ale budou to jednotky %, prakticky jsem si nevšiml rozdílu

+1
0
-1
Je komentář přínosný?

220W od Seasinic = 250W ostatních výrobců zdrojů.

Na co mi nestačil 500W noname zdroj, to utáhl 450W Seasonic.

+1
+3
-1
Je komentář přínosný?

Ten noname kolikrát těch 500W zvládne ale problém jsou většinou krátkodobé špičky, které generují karty i procesory, díky stále rychlejšímu řízení spotřeby a boostu. Ten kvalitní tu špičku vykrýt zvládne, ten noname v lepším případě jen vypne...

+1
+2
-1
Je komentář přínosný?

Docela zajímavé těším se na první testy :)

+1
+2
-1
Je komentář přínosný?

Když to bude mít výkon nad stávající 260W karty RX 7800XT / 7900GRE při 225 W, tak to bude supr. To půjde solidně stočit k 170 W. Dobrá karta pro TyNyTa.

+1
+1
-1
Je komentář přínosný?

Keď sa mainstream vráti so spotrebou pod 200W a vyšší mainstream pôjde ľahko nad 200W tak to bude len dobre. Za mňa palec hore pre AMD. Asi sa začnem tešiť na tie ich novinky. Ja mám rád keď sa dom vykuruje podlahovkou a nie pomocou PC.

+1
+4
-1
Je komentář přínosný?

Radeon, stačí kdyby vrátily do ovladačů pořádnej power limit +-50%, a né jako u mojí RX6600XT -6 a +4% power limit.
Vega 56 měla přepínač dvou BIOSů a ovladačích tři power limity (Balanced bylo standartní nastavení).
Primární BIOS: Power Saver 150W / Balanced 165W / Turbo 190W
Sekunární BIOS: Power Saver 135W / Balanced 150W / Turbo 173W
-----------------
Nebo můžeš GPU podtaktovat, nižší frekvence = nižší power.
Jsem vyladil PC tak (podtaktovat -1000MHz + Chill 75FPS), že hraní Kingdom Come 1080p/Vysoké /zámek Chill FPS 75, příkon PC 145-150W (RX6600XT+Ryzen 5800X3D).

+1
+2
-1
Je komentář přínosný?

Battlefield V, +4% power limit, +200MHz VRAM (cca 5% výkonu), stock GPU 2600MHz, mám 170-200FPS ve hře (Battlefield má zámek 200FPS, dá se i vypnout).

+1
+1
-1
Je komentář přínosný?

Mám referenční 7900XT a s power limitem +10(tj MAX) si sáhne na 400W. Tzn. +80W oproti základu. Sice to není 50% nahoru, ale rozhodně víc než 4% co píšeš.

+1
0
-1
Je komentář přínosný?

Nevím no, já na svojí 6600XT mám PL až +20%.
Stejně tak dual bios - silent 135W a OC 165W.
Jaký je smysl kryplit GPU o 1GHz abys ušetřil 50W? To sis rovnou mohl koupit ne-XT model.
Co že si chtěl tím postem říct?
PS: MPT je pořád funkční, pokud chceš obcházet limity toho kam tě vbios pustí.

+1
0
-1
Je komentář přínosný?

Mám MSI Gaming X RX6600XT OC edice cca 170W.

Kingdom Come hraju hodiny a nechci aby PC žral kolem cca 300W.
Podtaktoval jsem a uškrtil GPU FPS limitem Chill=75FPS a celá bedna - příkon PC 145-150W podle Wattmetru.
https://ctrlv.cz/wqBP

Battlefield neškrtim, tam chci výkon.
https://ctrlv.cz/Q5hs

Stačí nastavit každou hru zvlášť, zapnu hru a Kingdom Come se GPU podtaktuje na 1600MHz, zapnu Battlefiled - GPU stock 2600MHz a VRAM se přetaktuje na 2200MHz.

A na tu mojí sestavu používám svářečku Seasonic 850W.
Těšim se až uškrtim RX8800XT v Kingdom Come 2, dokud nebude příkon PC 150W, takže vlastně nevim na kolik FPS hrát budu.

+1
0
-1
Je komentář přínosný?

Ještě jeden důvod jsem zapomněl napsat.

"Jaký je smysl kryplit GPU o 1GHz"
Příkon PC 150W. Třeba v létě můžeš hrát a neupečeš se doma, až budou tropická vedra.

+1
0
-1
Je komentář přínosný?

Až budou třeskutá vedra, tak to bude stejně jedno (pokud nemáš klímu, která by to uchladila).
Rozdíl je na jaře a na podzim. Kdy to ze snesitelné teploty dělá hice.

+1
0
-1
Je komentář přínosný?

To funguje, max příkon PC 150W je v pohodě.

Když jsem měl Vegu56 a uškrtil jsem jí, příkon PC byl 250W. Hrát jsem nemohl, za chvilku bylo v pokoji jak v sauně.

Mám PC pořád na Wattmertu, podle Wattmetru ladim výkon PC.
Ryzen 5800X3D + RX6600XT max příkon PC v zátěži je 360W (FurMark + Aida64/Test Stability CPU).
Jen FurMark je příkon PC 255W.

+1
0
-1
Je komentář přínosný?

V září, poté co příšlo to ochlazení z 30+ °C na nějakých 15 °C, mi 5800X + 6800XT (dohromady seříznuté na 170W - dle hodnot na UPS) vytopilo pokoj na 26°C.

Aktuálně 5800x3d + 7900XT, hodně škrcené a zavřené topení. Přes den 3~7 °C. Ráno se škrábou okna na V-hiclu.

+1
0
-1
Je komentář přínosný?

Co jsem tak četl "jedna paní povídala", tak ortodox "ATiňáci" konečně po šesti letech přestanou brblat na RayTracing :)
(nebude důvod)

+1
0
-1
Je komentář přínosný?

RT je stále (zatím) úplně nerelavantní, zbytečná technologie, ať už ji někdo (kvalitně) podporuje či ne

+1
+2
-1
Je komentář přínosný?

Ano ano už 6let, je to přesně to samé jako bys v roce 2016 tvrdil, že DX11 je zbytečný a irelevantní, protože na vše stačí DX9.. ( a ona je to vlastně pravda že?)
Naprosto totožný scénář.
Neboj, přijdou 8xxx a budeš k RT shovívavý..

+1
0
-1
Je komentář přínosný?

Spíš jsi měl jako příměr uvést teselaci, která je teď všude a z počátku to byl jen dobrý marketinkový hype pro benchmarking. Bez DX se neobejdeš a prochází přirozenou evolucí.

+1
+1
-1
Je komentář přínosný?

Ano tesselace se rovná hlavní fičura DX11(spolu s bokeh efektem, který není v DX9c možný) .. Marketingový hype to byl hlavně proto, že nasazení tesselace bylo zpočátku velmi střídné (Call of Pripyat např), důvod byl jasný, nedostatečný výkon tehdejších karet na pořádnou tesselaci.

Naprosto stejný případ jako u DX12u dnes. Pokud se RT nasadí razantně, "ATinář" je úplně v kopru.
Mimochodem i u Control, kde je RT totálně nenáročný a rozjede ho i Radeon 7600, je rozdíl mezi DX11 verzí na první pohled propastný..

A pokud se bavíme zbytečnosti a nesmyslnosti této technologie (z roku 2018), tady jsou reqirements k nové 3A hře.. - Vyžaduje DX12u kartu, naštěstí ten RT lze vypnout, ale je už natvdro namontovaný do IDtech6. V RayTracing presetech AMD karta ani nefiguruje. Nula nic ujel vlak.

https://www.dsogaming.com/news/indiana-jones-and-the-great-circle-gets-o...

+1
-2
-1
Je komentář přínosný?

„s bokeh efektem, který není v DX9c možný“

Prosím?

2010: https://www2.eecs.berkeley.edu/Pubs/TechRpts/2010/EECS-2010-69.pdf
2000: https://www.voodooalert.de/de/files/whitepaper/t-buffer.pdf

+1
+2
-1
Je komentář přínosný?

Nějakou hru prosím, ne 100MB pédéefko.
Já to mám taky vyčteno ze světa hardware nebo možná i CDR..
Crysis2 vyšel jako DX9c hra a rozhodně bokeh neměl, jen klasický jednoduchý DoF, později vyšel DX11 patche, kde se tímhle mimo jiné prsili

+1
-1
-1
Je komentář přínosný?

Jako fakt někdo očekává bokeh v 3D hře, když je to něco, co vzniká v optice objektivu foťáku (video-kamery)? Nerejpu, nevidím pro to důvod. Bokeh je něco, co v reálném světě neuvidím, jenom na fotce.
Jinak není možné aplikovat RT na celou scénu bez omezení. Představme si třeba záběr na město. Reálně by se to renderovalo dlouhé desítky minut, ne-li hodin. U her bude vždy nějaké zásadní zjednodušení, podobně jako v decimaci polygonů u vzdálených objektů. Jinak to není možné. Jo, v rámci jedné místnosti ok, pohled z okna do ulice už je řádově jinde, pohled z kopce do aglomerace...

+1
0
-1
Je komentář přínosný?

Je to přesně to, co dodává hrám "filmovost"...
https://www.youtube.com/watch?v=vWq0rvwQFS0&ab_channel=HiTechLegion

Je to stejné, jako když do DX9c přibyl DoF, MotionBlur, HDR.. Přesně tyto efekty používá kamera a tudíž vypadá víc jako film. Protože když se podíváš třeba na cut scény za posledních 10let, pokud to někdo umí udělat, tak je to - FILM.

+1
0
-1
Je komentář přínosný?

Prvý krát použitý Tesselačný engine (pod názvom "TruForm" ) mala už druhá generácia Radeon-ov, konkrétne Radeon 8500 (R200, 8/2001), ale nakoľko do nebolo priamo obsiahnuté v DirectX 8.1, tak si to musel priamo vývojár hier riešiť na konkrétny model a nie na celú scénu (podporovala to napríklad hra...Return to Castle Wolfenstein, alebo po patch-y aj Counter Strike)...potom bol na pár rokov od tejto technológie "pokoj".

https://en.wikipedia.org/wiki/ATI_TruForm
https://en.wikipedia.org/wiki/Radeon_8000_series

+1
+3
-1
Je komentář přínosný?

jj jsou technologické výstřelky co předběhly dobu, vzpomínám si, jak měly některé hry na PS2 (2000) použity "SoftShadows", technologii kterou uměl až o pár let později DX9b a "proslavil" to až F.E.A.R (2005).
SourceEngine v HL2 zase jako jediný uměl HDR už v době vydání na DX9b.
Přitom tato technologie byla uvedena až s DX9c (Oblivion to uměl s kartama jako X1xxx, ale nikoli s X8xx).
Ale ten Source HDR byla nejspíše jakási velmi technicky povedená ochcávka, HDR bylo opravdu až v DX9c.

+1
+3
-1
Je komentář přínosný?

Obecně Source engine (2003) předběhl svou dobu i konkurenci (UE2). UE3 už to dorovnal. Stejný skok jako Source teď přináší UE5, který má hromadu nových technologií a neustále se vyvíjí (v5.4).

+1
0
-1
Je komentář přínosný?

Jo Source by asi v době vydání nejlepší.
Spolu s IDtech a CryEngine tvořily "velkou nextgen trojku" roku 2004 (FarCry, D3, HL2).
A jelikož mám teď rozehrané první FC a HL2 jsem hrál nedávno, mohu porovnat.
HL2 (pravda notně v čase vylepšovaný) působí nejvíce syrově "realisticky".. I dnes fantasticky.
FC1 je s ohledem na věk i dnes pecka. Míra vegetace, voda, rozlehlost map - super.
Ale je to tak jako přebarvičkované, omalovánkové. Charaktery jsou hodně "plastikové".

Doom3 nepočítám, vše vsadili na "normal/bumb" mapy a velmi ostré dynamické stíny.
Místy to vypadá super efektně, ale stačí blbý úhel pohledu a podobně a je vidět jak je to "naaranžované". Navíc D3 vůbec nepředvádí exteriéry mnoho jiného co HL2/FC umí.

+1
+1
-1
Je komentář přínosný?

Ještě Serious Sam 2 tuším. Ale vypadalo to tam, ehm, přinemenším divně. Všechno bylo takové kulaté. :)

+1
0
-1
Je komentář přínosný?

"ortodox "ATiňáci" konečně po šesti letech přestanou brblat na RayTracing"...

To je umění AMD přijít včas na trh se správným produktem.

..."jako bys v roce 2016 tvrdil, že DX11 je zbytečný"
Přirovnal bych to spíš k AI.
K čemu ti bylo NPU s 50 TOPS před rokem?
K ničemu. Protože pro to nebyl SW.

Snad jen AM5 se minul o pár měsíců.
Ceny DDR5 byli ze začátku brutální.
Ale jinak to AMD vychází dobře.
Čas na RTX uzraje v roce 2025.
Bez ohledu na to co dělá AMD.

+1
0
-1
Je komentář přínosný?

""""To je umění AMD přijít včas na trh se správným produktem"""

Včas myslíš s křížkem po funuse? Dyť Cyberpunk kde to opravdu mělo zásadní vliv na vizuál tu byl v roce 2020. Podívej, pokud by s tou podporou nepřišla nVidia, žádný RT nikdo implementovat ani nebude (není na čem by to mělo běžet) - to snad objektivně přiznáš ne?
A pokud se bavíme opravu včas - tak nejvyšší čas pro normální RT výkon byl při uvedení RDNA3 - to byl fail jak noha.

""K čemu ti bylo NPU s 50 TOPS před rokem?
K ničemu. Protože pro to nebyl SW.""

Software ti nikdo nebude vyvíjet a vydávat, pokud v té době vydání není na světě jediný hardware..
Máš v té hlavě navařeno nebo jak? Dyť tohle přeci musíš uznat.

"""Čas na RTX uzraje v roce 2025.
Bez ohledu na to co dělá AMD."""

Ne je to přesně naopak pro AMD fans "čas uzraje" v roce 25, protože tak nějak všichni tušíme, že přijde první AMD karta co to bude opravdu důstojně umět. Už teď vycházejí hry, co mají RT kartu v minimálních požadavcích, ale v dolních presetech je deaktivovaný, aby to na AMD mohlo vůbec rozumně fungovat.
Nový Indy nemá v RT presetech uvedenou jedinou AMD kartu, ani 7900XTX

+1
0
-1
Je komentář přínosný?

>> Nový Indy nemá v RT presetech uvedenou jedinou AMD kartu
https://cdn.mos.cms.futurecdn.net/cKvRfaUDf6SFKoDRcSHCrV-1200-80.jpg.webp
RTX 2060 Super, Radeon RX 6600XT, Intel Arc 580 - minimum: 1080p Native, Low, 60 fps
RTX 3080Ti 12GB, Radeon RX 7700XT 12GB - recomended: 1440p Native, High, 60 fps
RTX 4080 16GB, Radeon RX 7900XT 20GB - Ultra: 4K Native, Ultra, 60 fps

Zapomenul jsi napsat, že AMD karty nejsou spomenuty v sekci "Full RT"
Pro "Full RT" i bez něj je uveden požadavek na HW RT.
Pro "Full RT" je uvedeno DLSS3 + FG + Upscaling

Vypadá to tak, že to bude první hra (o které jsem slyšel *), která má:
- natvrdo požadavek na HW RT
- jako minimum 6 jader, 8 jader pro High/Ultra
- 32GB RAM pro cokoliv vyšší než FHD Low 60 fps
- 12GB+ VRAM pro "Full RT"

(*) Metro Exodus Enhanced Edition byla první
TL;DR - 4070 12GB je nový Low End, 5060 8GB High priced Low budget -Dead before arrival

+1
0
-1
Je komentář přínosný?

Ano tak tedy FULL RT :)
ty woe.

+1
0
-1
Je komentář přínosný?

Když si majitelé RTX 2060 mohli užívat Cyberpuňk s RT, tak si podobně budou majitelé Radeonů budou "užívat" Indiho path tracing tentokrát pod názvem "Full RT".

+1
0
-1
Je komentář přínosný?

Stále na RT (v současné totálně nedokonalé podobě, která se jen marginálně odlišuje od kvalitní klasické rasterizace) nevidím nic extra přínosného. V podstatě se jen jedna sada vizuálních hacků vyměnila za druhou.
Change my mind. 😃

+1
+2
-1
Je komentář přínosný?

z RT nevím proč mi přijde nejlepší právě stínování, který má i relativně přijatelný nároky. Automaticky to dělá softshadows a když slunce vrhá stín například budov, je opravdu realtime. U rasterizace u takových stínů často vídám zubatost i na nejvyšší nastavení (především když je budova vysoká), ale zároveň i poskočení stínu v určitém časovém intervalu ( u CP2077 asi každých 5 sec ), který simuluje denní čas, což mi paradoxně trhá oči víc, než jiné nedokonalosti.
Naopak reflections mě až na některé scény nechávají chladným. Asi se málo pohybuju v mramorových zámcích, kde je všechno nablejskaný, jak psí kule.

+1
+1
-1
Je komentář přínosný?

Nevim, mě když to někdo naaplikuje správně připadá RT scéna tak jak MÁ vypadat..
Samozřejmě je ten proces přechodu na RT postupný.. Ale jsou hry co ukazují co bude.

https://youtu.be/YWze9NdO4YI?t=41

+1
-1
-1
Je komentář přínosný?

Portal RTX je naprosto příšerná věc, totálně zabíjí design původní hry, kde prostředí bylo přehledné. Tady je všechno čisté, přesvětlené, některé povrchy vypadají dost jinak, tlačítka jsou naprosto hrozná. Takhle fakt ne.

+1
+3
-1
Je komentář přínosný?

Subjektivní

+1
-3
-1
Je komentář přínosný?

Je to demonstrace grafického pokroku - jak píše kolega, čistě subjektivní.
Vypnout to můžeš vždy, mě to přijde opravdu velmi podařené.
Ostatně stejně je na tom třeba motion blur, který hrám už skoro 20let dodává na "filmovosti" a hromada lidí to vypíná.. Subjektivní.

+1
-2
-1
Je komentář přínosný?

Motion blur a malá hloubka ostrosti jsou blbiny, které přišly s moderní hollywoodskou kinematografií a spíš škodí, protože to kolikrát přehánějí (neumí to používat). To samé vidíš u fotek... Ale zpět k filmu. Máš pocit, že filmy z 70./80. let nebo spousta televizní produkce 90./2000... let je nepodařená, protože tam není rozmazané pozadí? Těžko.

+1
+1
-1
Je komentář přínosný?

Tak rozmazané pozadí je přirozený optický jev vznikající u světelného objektivu a nabírá na razanci se zvětšujícím se ohniskem (zůůmem chceš-li) a s velikostí snímacího chipu (ten je u kamery za milion velký)..
A je to ve všech filmech, i starých :))
Nemůžeš točit filmy na clonu F16.
U fotek a statických detailních záběrů ve filmu slouží HO k definování/zvýraznění primárního/klíčového objektu na scéně .
Nafoť si někdy makro nebo portét s nulovou HO, bude to nepřirozený hnus - u makra se ti to fyzikálně ani nepovede.

MotionBlur - zase dodává scéně dynamiku (honička v autech, rychlý let z vlastního pohledu nízko nad zemí - vždy tam je, tvoje oko nevidí ostře rychlý pohyb v periférním úhlu)

Hele nebudeme tu probít techniky filmování / focení. MotionBlur ani HO nejsou u filmu nežádoucím prvkem a stejně tak je to u hry, která má působit filmově.
U CS:GO si to asi vypni, tam jo.

+1
0
-1
Je komentář přínosný?

"Nemůžeš točit filmy na clonu F16."
Proto se filmy točily/točí běžně na F4-F5.6.

+1
0
-1
Je komentář přínosný?

Pokud se točí na digitální kameru, tak jsou ta čísla jiná.
Viz Vidocq
https://www.csfd.cz/film/379069-vidocq/prehled/

+1
0
-1
Je komentář přínosný?

No a na F4 ti u obřího chipu a případně delšího ohniska (detailní záběr na tvář, květinu, pistoli, cokoli např.) vzniká co?
Malá HO.
Je to přirozený jev, a navíc jak jsem psal, často taky tvůrčí záměr pokud chceš vypíchnout dominantní objekt ve scéně

+1
0
-1
Je komentář přínosný?

Quake II RTX na R7 5700x3D + RX 6600XT fHD cca 40 fps a spotřeba jako u DOOM Ethernal on 200FPS... no a nic moc. :D

+1
0
-1
Je komentář přínosný?

No přátelé, přál bych si to, ale 220W podle mého názoru na výkon RX 7900XT nesáhne. Že bude nějaký výkonější model je spíš vroucí přání než něco, co by reálně mohlo nastat. Ledaže by se v AMD něco opravdu povedlo a přeci jen v rámci RDNA4 přišli s RX 8900XT, kde bych čekal TDP těsně pod 300W a adekvátní výkon na úrovni RX 7900XTX.
Počkáme, uvidíme. Mně by se to hodně líbilo.

+1
+2
-1
Je komentář přínosný?

Myslim si že RX8800XT ve 1080p/1440p sáhne na RX7900XT.
RX7900XT - 5376SP, boost 2534MHz = (5376SP x 2,534 = 13622)
Méně žravej monolit + nižší latence + vyšší výkon na takt - RX8800XT - 4096SP, boost ? 3GHz = (4096 x 3 = 12288)

+1
+2
-1
Je komentář přínosný?

Podle těch hrubých počtů to vypadá na ca 90% výkonu 7900XT.
Tak zbývá alespoň 10% zvýšení "IPC" na dorovnání.
Dual issue jednotky v řadě 7000 moc efektivně používané nejsou (až na výjimky), tak tam prostor na navýšení je.

Uvidíme, co ukážou reálné testy.

+1
0
-1
Je komentář přínosný?

Asi 4% udělá nová nová architektura + ?% nižší latence v monolitu.

Nevim, může v 1080p překonat RX7900XT.
Třeba v Battlefieldu je taky hodné důležitá frekvence GPU, zde mi mohla RX8800XT překonat RX7900XT v rozlišení 1080p.
Stavim PC pro sebe podle Battlefieldu, já se na RX8800XT těšim.

+1
0
-1
Je komentář přínosný?

Jak jakože to je málo 220? moje 4070ka má 1 8PIN a do 200W a to je starší karta. Naopak to je správná spotřeba!!!

+1
+3
-1
Je komentář přínosný?

Každá karta vyššího mainstreamu, co nežere 260-295 W, je úspěch. Ještě by mohla být nějaká ořezaná RX 8800 (195 W). Jsem zvědavý na tu Navi44. AMD dlouhodobě neumí úsporné herní karty pro chudé kolem 120 W. RX6600 (134 W) byl po dlouhé době výjimka.

+1
+3
-1
Je komentář přínosný?

Pozor měl jsem dvě RX6600 a vždy mi to v plném knedlíku ukazovalo jak v ovladači tak Afterburneru přesně 100W.
Vím jak je to ve specifikacích, ale tak to opravdu bylo. A pocitově to vydávalo fakt minimum tepla.
RX6600 je subjektivně velmi úsporná.

+1
+4
-1
Je komentář přínosný?

RX 6600(serie) je o hodne lepsi kauf nez 7600, stejne to plati pri RX 6700 vuci 7700 a 6800 vs 7800.

Otevrene kdyby AMD vydala z generace RDNA 3 / Navi 31 jenom RX 7800(GRE), 7800 XT a 7900 XT, udelala by lip.

+1
+1
-1
Je komentář přínosný?

Je to asi o preferencích každého uživatele.
Obecně se dá opravdu říct, že slabší iterace RNDA3 karet byly jemně řečeno nevýrazné - tak moc, až s nimi AMD čekala co to šlo a dá se říci, že jsou vlastně zbytečné. 7800XT a výš je to lepší.
Super kartu "z výprodeje" vidím jako Radeon 6800, silný rastr, horda paměti a z druhé ruky klidně i 7-8tisíc. paráda.

+1
+1
-1
Je komentář přínosný?

Pod to se podepisuji, základní 6800 z bazaru za 6-7. Ok spotřeba, 16GB VRAM, x16 linek, takže ok i do pcie3.0 only PC, vůbec jsem nepochopil když vyšla 7700XT

+1
0
-1
Je komentář přínosný?

Celá řada se úplně nepovedla, tak se snaží dostat aspoň nějaké prachy co zahučely do vývoje zpět.
A když už to vyrábí, tak i ty méně povedené kousky se pokusí udat a vzhledem k tomu jak může být drahé to poskládat se jim to asi nechtělo podstřelit aby to vůbec někdo chtěl vyrábět...

+1
0
-1
Je komentář přínosný?

RX 6800 byla nejlepší karta celé řady výkon/watt/výbava/cena. RX 7900 GRE je na tom (téměř) podobně. Třeba se zadaří i s tou RX 8800 (ne XT).

+1
0
-1
Je komentář přínosný?

Zrovna 6000 řada ukazuje spotřebu jen gpu čipu. Vynásob si to cca x1,33 , tím dostaneš přibližnou spotřebu celý karty.

+1
+1
-1
Je komentář přínosný?

Výborně, tak jsi na to kápnul, to by celé dávalo smysl a zapadá to do sebe.
Jen je pravda, že tohle slyším úplně prvně.

+1
0
-1
Je komentář přínosný?

Vubec by nebylo odveci kdyby Radeon RX 8800 XT sahl primo na paty RTX 4080(320W + 16pin), se 220W TDP a 8-pinem by ji jasne deklasoval, byl by to kral, ja osobne si takovou pozici hodne preju.

+1
+1
-1
Je komentář přínosný?

To by bylo fajn. Jako 5070 se stále jen 12GB VRAM se mi vůbec nelíbí. Snad to nezabijou cenou (viz nesmyslná launch Price 7900XT)

+1
0
-1
Je komentář přínosný?

.

+1
0
-1
Je komentář přínosný?

No je vidět, že jsi opravdu fanda.
Každopádně deklasoval 2roky po vydání.
No alespoň že vůbec.
A to se bavíme o RayTracingu, v rastru bude pomalejší.
Ale alespoň se začne RT konečně hodit do krámu.

+1
0
-1
Je komentář přínosný?

>> Ale alespoň se začne RT konečně hodit do krámu.
Pořád čekám ne hru s RT, kterou bych si pořídil a hrál.
Zatím ... nic

+1
0
-1
Je komentář přínosný?

dtto..
na druhu stranu vidim napr na pctuningu ze zeleni hraju hry len kvoli RT(x) - priemerne hry, kde sa rozplyvaju nad tym, ze vidia v noci odlesky neonov v kaluziach oleja? vody? vsetko vyzera rovnako.
Asi len preto, aby si vnutorne potvrdili ze ich investicia mala zmysel

+1
0
-1
Je komentář přínosný?

AMD že? Kup si cokoli, podporuje to 9 z 10her.
Ono nejlepší je klábosit 200příspěvků o herních kartách a pak ani nehrát hry.
Osobně by mě zajímalo, kolik mají někteří do krve pidi detaily řešící diskutéři vlastně ročně odehráno.

+1
+2
-1
Je komentář přínosný?

>> podporuje to 9 z 10her
Má témeř 2TB Steam knihovna asi není dost veliká.
Upscaling - 3
RT - 0

>> Osobně by mě zajímalo, kolik mají někteří do krve pidi detaily řešící diskutéři vlastně ročně odehráno.
Stačí 5000 hodin za 3 roky?
Nebo 9800 hodin za 2 roky?

A to část roku v podstatě nehraju, protože při 150+ dětech na škole v přírode nebo letním táboru na to není čas.

+1
0
-1
Je komentář přínosný?

a to ma byt karta pre sporadickych vikendovych hracov 2D sachu? ;-)))
2025 je idealny cas zmenit dodavatela desktopovej grafiky -co sa da robit

+1
-1
-1
Je komentář přínosný?

2D šachy by mělo utáhnout i to iGPU.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.