Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Bude rychlejší GeForce RTX 3060 Ti nebo Radeon RX 6700 XT?

Můj pohár trpělivosti už přetekl a pokud se nestane něco neočekávaného, tak bude vícenásobný upgrade až s příchodem DDR5 platformy a GPU na 5nm. Nebudu skákat, jak idioti pískaj.

V CPU lowendu AMD někam zmizelo a zastaralý neoskylake od Intela nechci. U GPU jsem se už smířil s tím, že na 7nm už nemůže vzniknout nástupce HD6450 za 1200 Kč, ale to, že zřejmě nevznikne vůbec nic? Nasrat. Něco se spotřebou 30-60W by si kupce našlo - aspoň od jednoho návrháře GPU sakra. Já vím, ve hrách prakticky nepoužitelný RT je důležitější.

Ceny a dostupnost mainstreamu a highendu jsou dalším důvodem (zde už můj slovník s nadávkami nevystačí). Třeba se během té doby čekání objeví něco s ARM atd. a já přestanu být rukojmím idiotů, co za tuhle situaci můžou. Ty jejich 300W zrůdky bych si nekoupil ani za 15 tisíc. Mám kvalitní kartu s TDP 275W a dokud nepřijde nějaká skutečná revoluce v chlazení karet, tak už víc jak 250W kartu nikdy nekoupím. Nechci podporovat závod o co největší spotřebu, která je úplně zbytečná, protože posledních 10% výkonu stojí mnohem větší procento spotřeby.

+1
+4
-1
Je komentář přínosný?

Hele já s tebou souhlasím.
Tohle mě ovšem pobavilo "Ty jejich 300W zrůdky bych si nekoupil ani za 15 tisíc. Mám kvalitní kartu s TDP 275W" :D

+1
+9
-1
Je komentář přínosný?

Každý watt se počítá! Uvedl jsem to, aby mě náhodou někdo nezařadil mezi grínpissy co mají potřebu lidem vnucovat svoje představy o spotřebě výrobků a sami sobě vyhodí pojistky na min. 12 hodin denně, aby jejich ekostopa nebyla moc velká.
Já tu svojí R9 390X 8GB s nej provedením od Asusu koupil za mnohem méně jak 15k a z její tehdejší předimenzovanosti VRAM by si minimálně nvidia měla vzít příklad. Na maximální takty jsem ji přestal provozovat po prvních pár minutách zátěže. Nutno dodat, že jsem jí dal do nevhodné skříně a zdroj má jen 520 W.

+1
0
-1
Je komentář přínosný?

Já mám R9 290x která je ale v podstatě 390x protože na ní mám 390x bios. Trošku jsem si s ní pohrál(undervolt) a teď ji mám na 1040/5500 s maximální spotřebou "jen" 200W(přitom power limit mám na +50). Vůbec není špatné na kartu 7 let starou.
Ještě mám v afterburneru druhý profil který používám mimo náročné hry: 620/3600 s maximální spotřebou 55W. S tímto profilem má karta okolo 65% výkonu prvního profilu.

+1
+1
-1
Je komentář přínosný?

Já použil jen radeon SW a tam nejde měnit napětí a frekvence pamětí a napětí GPU, jen frekvence GPU. Afterburner se mně s tím SW mlátil, ale asi ho časem znovu zkusím, protože regulace otáček je nějaká divná.

BTW při GPU@300 MHz má ta karta výkon jako nepodtaktovaná RX 550 640SP, takže i na 300 MHz se dá hodně her hrát (ve fullHD). Takový osmiválec co má na volnoběh výkon jako vytočená 1,2 TSI :).

+1
+1
-1
Je komentář přínosný?

Mají zamčený napětí, já vim.
Zkus VBE7 bios editor, verze VBE7.0.0.7b
HD 7850, podvoltování, overclock
https://ctrlv.cz/ZbpJ
-
R9 280X
https://ctrlv.cz/G2qF
-
Nastav nižší takt GPU v (software radeon), stahni bios karty v GPU-Z a zálohuj, uprav bios v editoru VBE7 (stahni napětí GPU), flešni kartu a hledej max stabilní takt GPU
při sníženým napětí.

+1
+1
-1
Je komentář přínosný?

Zamčené napětí na 390x? To je nějaké divné, nikdy jsem neslyšel že by na ní bylo zamknute a ani s jedním ze dvou Stock BIOSu co jsem zkoušel zamknute nebylo. I v Radeon software jsem napětí nastavovat mohl, je to tam jen trochu schované.
Ale Radeon SW mi nenastavoval profily on-boot takže používám afterburner, ten funguje perfektně, zatím žádný problém. V afterburneru se ale také musí v nastavení napětí nejprve aktivovat takže to může vypadat jako zamknuté.

+1
+2
-1
Je komentář přínosný?

Tak pod tohle se podepisuju. Asi by je zabilo udělat nějaký pidi-čip a-la R6450 s co já vím 2-4GB VRAM za $40-60. Ještě že mám plné šuplíky různých "HP R7 230" a "MSI G210"... A hele, teď koukám že mám i jedno Quadro P2000 :-) Ale vážně, chtělo by to pro FullHD "někdy-hráče" jako jsem já nějakou kartu do 150W s 8GB VRAM a cenou max $200

+1
+9
-1
Je komentář přínosný?

Ale takovou kartu dnes máte, GTX 1650 stojí 3900 tj vašich 200 dolarů.
Za minimální příplatek máte 5500Xt. Oboje to jsou karty s TDP do 130W a na občasné hraní víc než dostačující.

+1
0
-1
Je komentář přínosný?

A dá se očekávat že až vyjde low end na RDNA2 a Ampere, tak po 200 dolarů tu bude výkon jaký mají konzole nebo RXT2060S, Jen ten low end s malou marží půjde až jako poslední.

+1
+2
-1
Je komentář přínosný?

Ale bez podpory AV1.

+1
0
-1
Je komentář přínosný?

O tom aj ja snivam o pasivne chladenej GPU so slušnym vykonom. Ale zatial to vyzera blede...

+1
0
-1
Je komentář přínosný?

například https://www.techpowerup.com/review/palit-geforce-gtx-1650-kalmx/ ?
pasivně konzolový zážitek

+1
+1
-1
Je komentář přínosný?

Obávám se že pasivně chlazené výkonnější karty odešli s dobou HD3870 / 8800GT (stejně jako střední vyšší třída za cenu do 4000).
Dnes možná s acelerem (jestli se ještě vyrábí) by mohla jít 5500XT a 1650 ale to nejsou nějak výkonné karty...

+1
-1
-1
Je komentář přínosný?

Odhad nacenění je samozřejmě hypotetický, ale neodpustím si komentář. Ačkoliv jsem sympatizant červeného týmu, výhoda v podobě DLSS 2 na straně zelených je významná a může kartě dost výrazně prodloužit životnost.

Ve prostěch červených by měly hovořit lepší provozní vlastnosti, víc paměti, ale také lepší cena.

Je jasné, že v době kdy se prodá, vše co se vyrobí, je obchodně nepříliš prozíravé, kartu nacenit níž než konkurence. Také to ale znamená, že čas vhodný k nákupu komponent pro upgrade teprve přijde.

+1
0
-1
Je komentář přínosný?

amd dela na alternative k dlss co bude multiplatformni.. non-ai alternativy ma uz ted a muzes si vybirat.. ris pro dx12, boost pro dx11..

+1
0
-1
Je komentář přínosný?

Žádná z alternativních metod není konkurencí DLSS 2.

Co bude bude, a určitě to musí dotáhnout, protože v tom bude figurovat i Microsoft, který si kvůli podpoře neoronových sítí nechal do Xboxu přidat příslušný jádra.

Jenže teď to nemají a proto je to výhoda NV.

+1
+1
-1
Je komentář přínosný?

„Žádná z alternativních metod není konkurencí DLSS 2.“

Podkládají toto tvrzení i nějaké důvody? :-)

+1
0
-1
Je komentář přínosný?

Množství artefaktů v obraze?
Na AMD upscalingu hraju posledních několi měsíců, a i když je to přijatelné, k ideálu to má daleko a určitě se nemůžeme bavit o násobcích rozlišení.

+1
+2
-1
Je komentář přínosný?

Pokud bylo RIS/CAS označováno jako alternativa k DLSS, ačkoli podávalo lepší obrazový výstup při menší výkonnostní ztrátě, pak mi není jasné, proč by DLSS 2.0 nemohlo být chápáno jako alternativa k RIS/CAS.

„Množství artefaktů v obraze?“

To je nějak exaktně vyčíslitelné kritérium?

+1
0
-1
Je komentář přínosný?

Pokud alternativa znamená horší kvalita tak důvody nejsou. Kvalita je jediný pádný důvod a stačí kouknout na Digital Foundry kde ty rozdíly nejednou ukazovali. Prostě tam kde není informace si ji různé upscalingy nevymyslí, jen to zamaskují. AI si tu chybějící infromaci vymyslí

+1
+1
-1
Je komentář přínosný?

„AI si tu chybějící infromaci vymyslí“

Buďto se můžeme bavit o AI, nebo o DLSS 2.0. Pokud se budeme bavit o AI, pak je faktem, že ta vymyšlená informace byla často od referenčního obrazu vykresleného ve vyšším rozlišení dál než RIS/CAS, jak ukázala četná srovnání DLSS vs. RIS/CAS.

+1
+1
-1
Je komentář přínosný?

tohle asi nemá smysl. AI je teď buzzword a skoro náboženství, takže nějaké exaktní zkoumání rozdílů obrazové kvality je IMHO bezpředmětné. Hlášky "Nvidia je lepší, protože DLSS2.0" jsou na denním pořadu. "It just works" dalo by se říct.

+1
+1
-1
Je komentář přínosný?

Chápu že si musíš něco najít co kritizovat, ale proč všude na netu vidíš srovnání nějakého upscalingu s akcelerovaným AI modelem kde všichni jasně říkají že DLSS je výkon navíc bez znatelné ztráty kvality? Všichni kolem se zbláznili?

+1
-1
-1
Je komentář přínosný?

"AI" byl buzzword před třemi lety, dnes jsou to reálné technologie pro řadu oblastí.
Jednou z nich je kvalita obrazu. Hrát se s tím dá i doma, pokud má soudruh zájem.

+1
+1
-1
Je komentář přínosný?

AI se dnes masivně používá při určování kategorie porna.
Dříve byly tahounem hry, dnes scifi porno.

+1
-1
-1
Je komentář přínosný?

Samotná AMD vyvíjí svoje "DLSS".

+1
-1
-1
Je komentář přínosný?

To jistě, ale otázkou je jak to dopadne ale hlavně kdy to dopadne. Hlavně Tensor jádra aktuálně lze využít i na něco jiného než DLSS, streameři rádi používají RTX broadcast.

+1
-1
-1
Je komentář přínosný?

Tahle sranda?

[ https://videocardz.com/newz/amd-is-working-on-ai-powered-supersampling-n... ]
[ https://www.overclock3d.net/news/software/amd_has_an_answer_to_dlss_dire... ]

Hlavně mají podporu Microsoftu (DirectML je jejich technologie), kterému jde o to, aby to fungovalo pokud možno na všem s DX12.

+1
-1
-1
Je komentář přínosný?

Non AI alternativy má i NVIDIA, dokonce je měla daleko dříve než AMD. Proč to u AMD někdo vůbec vytahuje, když neměl potřebu zmiňovat alternativy NV léta před DLSS?

+1
0
-1
Je komentář přínosný?

Alternativy čeho? Nvidia měla alternativy DLSS dříve než DLSS samotné? :-)

+1
0
-1
Je komentář přínosný?

Podle někoho image sharpenig je alternativa k DLSS. Pak ale NVIDIA měla sharpening k dispozici už hodně dlouho před tím, než uvedla DLSS. Ale až když to byla "odpověď" AMD na DLSS tak někdo začal přiostřování zvětšeného obrazu řešit. NV navíc umí sharpening ovládat pro každou hru zvlášť.

+1
-1
-1
Je komentář přínosný?

Jiříku neměl by jsi jít spát? Spammovat diskuzi ve dvě ráno, to už je na karanténu.
"NV navíc umí sharpening ovládat pro každou hru zvlášť."
AMD taky.

+1
+1
-1
Je komentář přínosný?

NVidia = RTX + DLSS2
AMD = 16 GB VRAM

Prijde mi, ze je to ve vysledku vyrovnany, proto jsou i ceny podobne. Vyhoda NVidie, na kterou AMD nema odpoved jsou nektere specialni technologie NVENC a CUDA, ktere ale nevyuzije kazdy a nejsou ani zamyslene pro hrace, takze alespon ze zajemcu o nove grafiky AMD tihle lide odpadaji.
Druhou vyhodou NVidie je rozsirenost jejich grafik a teda take caste vyladeni her prave na jejich grafiky, ale s tim moc nadelat nejde, mozna ale proto by mela mit AMD nizsi ceny. Je ovsem tezke nacenit niz, kdyz to vypada, ze prodaji i tak vsechno co vyrobi.

+1
-6
-1
Je komentář přínosný?

NVidia = RTX + DLSS2
AMD = 16 GB VRAM

Ano, a přesto, i když jsem příznivcem toho, že pro 4k je potřeba víc než 10GB videoRAM, tak přeci v momentě, kdy to renderuju v 1080p celé a pak to proženu neuronovou sítí, je více RAM celkem k ničemu a prodražuje kartu.

Velké téma do budoucna je nativní rendering vs. AI podporovaný upscaling. Ono to vlastně je téma už od léta, kdy to starším kartám NV dodalo nový dech.

Já bych tenhle trend nepodceňoval. Požadavky rostou a jak se budou zabydlovat 60 a 120hz režimy, jiná cesta nebude. Teda pokud nebudete chtít mít v PC přímotopy za 2000 babek.

Jsem opravdu dost zvědavý, kam se celý obor bude v příštích několika málo letech bude ubírat.

+1
-3
-1
Je komentář přínosný?

"přeci v momentě, kdy to renderuju v 1080p celé a pak to proženu neuronovou sítí, je více RAM celkem k ničemu a prodražuje kartu"

To ma nekolik chyb.

1) DLSS take prodrazuje kartu, nemyslete si, ze R&D zdroje nejsou zapocitany, a sidi se zase nekde jinde
2) I s tou velkou VRAM je AMD levnejsi o par dolaru
3) VRAM je univerzalni, funkcni reseni, kdezto DLSS potrebuje velmi speficikou podporu od vyvojaru a kolikrat to zmrvi tak, ze to jsou akorat rozostrene textury a proste humus.

+1
+2
-1
Je komentář přínosný?

ještě bych dodal, že DLSS je nenároková "služba"

+1
0
-1
Je komentář přínosný?

S VRAM je problém, velké textury se do ní dlouho nahrávají. Poslední generace SoC čipů pro konzole v tomhle směru zkouší řadu "kouzel", komprese, rychlé disky, zkrácení vzdálenosti mezi komponenty. Nicméně stále to nestačí.

Je tu ale druhý přístup, který bere texturu v nižším rozlišení, přes neuronovou sítí podporovaný výpočet ji upscaluje a výsledek je lepší a navíc se to dá dělat "za chodu". Je-li k tomu potřeba specializovaný HW (a to je), pak samozřejmě je výhoda na straně NV a patrně třeba XSX. MS to hodlá podporovat v DirectML a hovoří konkrétně o podpoře upscalingu.

Rozumím tomu, že to není true 4k, true per-pixel precision. Jenže, tahle bitva je dávno dobojována, konkrétně v našich mobilech. Foťák v mobilu je starší bráška tohoto přístupu, foťák v mobilu, si fotku víceméně vymyslí na základě dodaných dat. Rozhodně to nelze srovnávat s profesinální zrcadlovkou s plnohodnotným objektivem kde je více skutečnosti a méně výpočtů. Jenže co vyhrává ... mobily. Proč? Protože to stačí a protože tahat sebou 5kg HW na fotky nikoho nebaví. Ta válka už skončila.

V PC HW se odehraje něco podobného. možnosti jsou limitovány výrobními procesy, jejich cenou a kapacitou.

Musí dojít ke změně paradigmatu. Je velký rozdíl hrát hru 23FPS, 30fps, ale ještě větší 60FPS nebo 120 podle žánru. Dokud to nezkusíte a nemusíte se vrátit k horšímu, neuvědomíte si to.

Tohoto výkonu nelze dosáhnout jinak než upscalingem.

Přijme to trh? Pravděpodobně. Bude specializovaný HW na PC lepší. Určitě. Bude to mít reálně význam. Nejspíš ne. Myslím, že během pár let konzole nastaví nový standard v hraní a rozdíl v ceně bude tak velký, že na to většina lidí hodí bobek a půjde do konzole.

upscalig a techniky jako DLSS nebo otevřený standard od ADM či podpora téhož v DX12 Ultimate budou důležitou součástí tohoto trendu a dost možná i jeho podmínkou. Obzvlášť, pokud rozdíl poznáte při 400% upscalingu.

editováno za účelem opravy překlepů (patrně ne všech:))

+1
+1
-1
Je komentář přínosný?

Tak konzole moc standard hraní, aspoň z pohledu kvality nenastaví. Příkladem jsou nové konzole a 4k. 4k neznamená native 4k ale dynamické, typicky cokoli mezi 1440p a 4k podle toho jak konkrétní scéna zatěžuje čip, Series X zdá se tu a tam drží vyšší rendering resolution než PS5, v každém případě když vezmeme tituly s RT, tak třeba RTX2060 Super dokáže native 4k dokonce lépe než Series X a PS5 v upscalovaném rozlišení, takže ty konzole zas tak moc výkonu nemají. Dá se počítat že výkon 2060S o něco překoná i low end Ampere/RDNA2 s cenou pod 200 dolarů

+1
-1
-1
Je komentář přínosný?

Paradigmata není třeba měnit. Komprese textur (načítá se zlomek dat) máme už desetiletí, AI to jen vylepší. Navíc konzole teď dostaly takový boost výkonu, že tyhle AI vylepšováky lze v klidu vyvíjet časem (budou potřeba až v druhé půlce života konzolí, to je až za pár let). Za mě pěkný boost rychlosti načítání na dvojnásobek je technologie, která se ve Windows nazývá DitectStorage (data se z NVMe načtou rovnou do VRAM místo do RAM, a odtamtud do VRAM).

+1
0
-1
Je komentář přínosný?

Direct Storage nezrychlí načítání 2x. Může nemusí, u konzolí je rychlejší načítání hlavně použitím SSD. Co Direct Storage přináší je hlavně úspora procesorového času, který může v případě rychlého PCIe 4.0 disku dělat zásadní snížení CPU overloadu.

Urychlení samotného přenosu záleží na úrovni komprese a ta je u těch textur cca 50%

Jinak při načítání her se obvykle rychlost disku, když pomineme plotňák, neprojeví. Daleko víc práce spočívá na procesoru apod.

+1
-2
-1
Je komentář přínosný?

Právě proto se díky DirectStorage obchází CPU, aby na něm nespočívala práce a bottleneck byla jen rychlost NVMe. I když mají nové konzole custom superrychlou sběrnici, i tak tam těch dat teče strašně hodně. Sony např. uvádí, že díky DirectStorage a obecně rychlé sběrnici a rychlému disku se zkrátí čas donačtení potřebných částí mapy z 10 s na 1 s.

Příklad od boku: Konzole má 16 GB RAM, z toho 8-10 GB je pro grafická data. Řekněme že 1/4 jsou vykreslovací buffery, 1/4 trvalá data (např. grafika panáčků) a 1/2 mapa. Tzn. jak se pohybujete mapou, tak každou sekundu proteče po sběrnici 4-5 GB z NVMe do VRAM. Kdyby to (vedle negrafické práce, např. fyzika, kolize, gameplay) teklo přes CPU, tak by to snižovalo fps, přinejmenším to mimální (občasné záškuby).

+1
+1
-1
Je komentář přínosný?

S VRAM neni problem.

Je rychla, je velka, je to zakladni, ale provereny a efektivni zpusob. Rychlost a kapacita VRAM se neustale zvetsuje stejne tak jako se lepsi i GPU.

DLSS ani ve verzi 2.0 nedosahuje vykonu, ktery nastinujete, tedy ze by to dokazalo dat 3x takove FPS. A to se ani dobudoucna nezlepsi ;)

A co se tyce kvality, tak pokud si koupim plecku, tak mam vzasade 3 moznosti, budto hrat 25/30FPS a vysoke kvality textur, nebo tak 40/50 a nizkou kvalitu, nebo 30/35 a rozblite textury po aplikaci DLSS.

Za me je jednoducha volba. Nativni rozliseni je lepsi. Kdyz mate rozumny 4K monitor a 4K rozliseni, muzete zase vypnout AA, protoze to uz kvalitu nezlepsi.

+1
-1
-1
Je komentář přínosný?

Takže Control v native 8k 8FPS a 60FPS s DLSS není 3x víc FPS? Počítám asi špatně. Samo je to best case scénář.

DLSS přidá víc s rostoucím rozlišením. Ale například poslední co jsem zkoušel byl Fortnite z nějakých 170 mě DLSS posune i na 300 FPS.

A vypnout AA na 4k? To jako fakt? Proč? Jako že to neuvidím, ale když si to pustím na velké televizi tak to bude kostičkovaná větší než na pidi monitoru. Navíc AA odstra%nuje nejen aliasing ale umí leckdy odstranit shimmering Na to 4k nezmůže

+1
-1
-1
Je komentář přínosný?

"kdy to renderuju v 1080p celé a pak to proženu neuronovou sítí, je více RAM celkem k ničemu a prodražuje kartu"

to je omyl, Raytracing sežere cca 1gb vram navíc (pro představu) a DLSS sežere vram podobně jako kdyby se to renderovalo nativně, takže i u té GeForce potřebuješ hodně vram, kor když máš tyhle firčury zaplé

+1
+2
-1
Je komentář přínosný?

zajímavé, ale dává to samozřejmě smysl.

+1
+1
-1
Je komentář přínosný?

Vcelku souhlasím. DLSS je VĚC! Obzvlášť ve verzi 2.0. Jenže z mého pohledu má jednu podstatnou vadu na kráse která mi nedá spát. Je nutná podpora pro jednotlivé tituly. A v podstatě od vydání RTX 2000 karet jsem hrál JEDEN titul, který DLSS uměl a teď si pravděpodobně zahraju DRUHÝ a to Cyberpunk.
Mimochodem, jak je to s DLSS na 21:9 monitorech? Naposledy jsem četl že musí být správná kondstalace hry/rozlišení aby šlo DLSS zapnout. Od té doby jsem aktuální info nečetl/neslyšel.

+1
+6
-1
Je komentář přínosný?

Problém DLSS je, že *autoři* hry musí naučit neuronovou síť každou kombinaci rozlišení "z" (menší) "na" (větší). Což v případě rozlišení jiných než standardní 16:9 znamená učit všechna zvolená rozlišení znova. Reálně to tedy podporují jen *některé* AAA hry (a jen pro některá rozlišení a poměry stran). Obvykle ty, kde si výrobce GPU zaplatí za logo při spuštění.

+1
+3
-1
Je komentář přínosný?

21:9 je naprosto ok, mám to doma, s DLSS 2.0 není omezení na specifické kombinace rozlišní. V podstatě od Controlu dál už není staré DLSS, těch her se starým DLSS je 5? Osobně mám Všechny RT tituly co jsou od té doby, snad kromě AMD sponzorovaného Dirtu mají i DLSS. Mám takových her asi 5 a další dvě jsem zkoušel v rámci předplatného

+1
-1
-1
Je komentář přínosný?

Principiálně je možné použít naučenou neuronovou síť i na jiná rozlišení, akorát čím vzdálenější bude situace, na kterou se to učilo, tím větší nesmysl. Např. pro 21:9 si dokážu představit, že pro prostředek 16:9 se použije naučené pro 16:9 a ty kraje už nevadí trochu nesmysly, protože to je už stejně v periferním vidění. Myslím, že takhle funguje DLSS 2.0, že je volnější než 1.0 (ne jen pro fixní předem připravené kombinace). I tak ale to jsou *autoři* hry, kdo musí naučit neuronku, nejspíš aspoň na 2 rozlišení (z malého na střední pro mainstream a ze středního na vysoké pro highend karty).

Focení na highend mobilech je příklad, jak vypadá naučená neuronová síť, když se použije na jiná data, než na kterých se učila. Např. fotka noční oblohy ukazuje krásně prokreslenou oblohu bez šumu - akorát ty méně výrazné hvězdy jsou na jiných místech ;-) Taky vím, že minimálně jedna hra s DLSS 2.0 měla neuronovou síť naučenou blbě a výsledek byl horší než by byl např. upscale + sharpening.

+1
+1
-1
Je komentář přínosný?

Díky. Já jen že 21:9 se vzdát nemínim. Nějak jsme si na sebe zvykli. A DLSS 1.0 to neuměl.

+1
0
-1
Je komentář přínosný?

RX 6800 XT ma konkurenci RTX 3080. O tom nemuze byt pochyb.
RX 6800 ma jakou konkurenci? Ta karta je o dost drazsi nez RTX 3070 a nabizi take vyssi vykon, tam o konkurenci nemuze byt rec.
Muj nazor je, ze RX 6700 XT by mela byt konkurenci cenou i vykonem pro RTX 3070 a RX 6700 by mela byt konkurenci pro RTX 3060 Ti.
Nasledne bude RX 6600 konkurenci pro RTX 3060 a RX 5500 konkurenci pro RTX 3050 (Ti).

A naopak si myslim, ze NVidia muze udelat jeste RTX 3070 Ti, ktera bude konkurovat te soucasne RX 6800 podobne jako NVidia chysta RTX 3080 Ti pro konkurenci RX 6900 XT. (Kasparkovska RTX 3090 se smesnou cenou nema u AMD adekvatne nesmyslnou konkurenci.)

+1
+1
-1
Je komentář přínosný?

sorry, ale konkurence neznamenana ze dve firmy maj dva produkty se stejnym vykonem a stejnou cenou.. navic resit 80 usd u hi-endu, kde stejnak 3070 poridis skladem od 900 usd vejs je mimo.. (:

+1
+6
-1
Je komentář přínosný?

Jiste ted je tu nejaka ojedinela situace, za par mesicu bude vse jinak. Po ustaleni cen bude platit to, co jsem napsal. Navic porad je RX 6800 o dost vykonejsi nez RTX 3070, takze ty karty nejsou k sobe konkurencni, tak jako tak.

+1
-4
-1
Je komentář přínosný?

'' za par mesicu bude vse jinak ''

jo, to ctu po diskuzich skoro tri mesice od vydani 3080.. ((:

'' ty karty nejsou k sobe konkurencni ''
jak rikam, ty mas nakou vlastni predstavu o slove '' konkurencni '' co neni kopatibilni se zbytkem sveta..

+1
+2
-1
Je komentář přínosný?

Neni tech uvozovek malo? Co treba jeste "vydani 3080" :)

+1
+1
-1
Je komentář přínosný?

Kdo mínusoval, zřejmě nepochopil. :))

+1
-1
-1
Je komentář přínosný?

Ale pochopili. Ten uvozovek tam ale neni prilis, proto ty minusy.

+1
-1
-1
Je komentář přínosný?

Ty uvozovky tam ale být mají, jedná se o citace.

+1
0
-1
Je komentář přínosný?

:)

+1
-1
-1
Je komentář přínosný?

Ano 6800 a 6800XT jsou si blízké jak výkonem tak cenou, to jsme tu ale viděli častokrát, naposledy třeba 5700 a 5700XT, kdy 5700 nemělo fakticky ani smysl kupovat. Nebo třeba 1650 vs 1650S, cena o 10(?) dolarů vyšší, výkon o třetinu. 3070 a 3080 jsou od sebe proti AMDčku dál cenou i výkonem.

V podstatě jde říct, že tu máme 4 grafiky v rozptylu 200 dolarů a cca adekvátně k jejich ceně drží i výkonové rozestupy. Já si myslím že je to super, člověk si vybere to co jeho potřebám sedí nejlépe.

I když v současné situaci spíše vybere to co sežene.

+1
+3
-1
Je komentář přínosný?

já tipuju pro 6700XT ten horší scénář, ani se neví, jestli bude ta casche celých 128MB, nebo ořezaná, pokud bude menší může se stát v některých případech, že to bude ještě pomalejší

+1
+1
-1
Je komentář přínosný?

Ví se, zda mají GPU použité v RX6800+ u InfinityCache nějaký redundatní blok(y), nebo se pro tyto GK používají pouze die s bezchybnou IC?

+1
0
-1
Je komentář přínosný?

Dalsi debata o manzelce inspektora Columba?
Myslim ze debaty co je lepsi, co je hrosi jsou uplne mimo, kdyz je spotrebitel odkazan na nakup pouze toho, co je k dostupne v obchodech.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.