Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia RTX 50 / Blackwell zůstane na maximálně 384bit sběrnici

GDDR7 (kdo ví jestli ne X), větší L3 cache a mají hotovo. Žádnej spěch. A pokud spadne byť jen jediná bomba na TSMC, budem ještě rádi za to co máme už teď.

+1
+1
-1
Je komentář přínosný?

Tipuju ze se nova RTX 5090 pod 650W nedostane, již ponese dva ty jeblé 16-piny.

+1
0
-1
Je komentář přínosný?

Stejně nejsi cilovka tak ti to může být volné.

+1
0
-1
Je komentář přínosný?

mam jeste zizen, Marus??

+1
+3
-1
Je komentář přínosný?

Ten vrcholný model bude za šedesát - nebo rovnou za osmdesát tisíc Kč?

+1
+2
-1
Je komentář přínosný?

99999,99 plus externy zdroj

+1
+1
-1
Je komentář přínosný?

a hasicak

+1
+5
-1
Je komentář přínosný?

Absolutna cena karty nehra rolu, pretoze: "The more you buy, the more you save!".
Nakupom min. 4ks, extremne usetrite ;)

+1
0
-1
Je komentář přínosný?

dokud to lidé budou kupovat, klidně

+1
+1
-1
Je komentář přínosný?

Návrat 512bitové sběrnice ve spojení s novým nasazením GDDR7 byl stejně pravděpodobný, jako užitečnost 14. generace Core.

+1
+1
-1
Je komentář přínosný?

Snad bude roku 2025.0 odpovídat i verze PCIe rozhraní GK.

+1
-1
-1
Je komentář přínosný?

Co tam po PCIe, ale výstupy by už mohli odpovídat roku vydání a ceně.

+1
0
-1
Je komentář přínosný?

Jaký výstup Vám chybí, 24G-SDI?

+1
+1
-1
Je komentář přínosný?

DisplayPort 2.1
HDMI™ 2.1

+1
0
-1
Je komentář přínosný?

Tak už je jasné proč Intel ukončil chladírenskou divizi. Prodá ji nVidii, aby měla možnost vyrobit si chlazení pro novou generaci karet RTX50xx

+1
-2
-1
Je komentář přínosný?

Vy ste si tu spravu zle vylozil. Podla nej nebude buduca RTX 5090 mat 1200W, ale iba 600-800W. To v pohode zvladne nejaky 5-6 slot vzduch.

+1
0
-1
Je komentář přínosný?

5-6 slot vzduch, pre kristove rany !!!! sak to by bolo hrube 12 cm ci viac ... a pri vahe 2 kila by to vyrvalo cely 16x pcie slot

+1
-2
-1
Je komentář přínosný?

sa mi paci ako tu nadavate na nvidiu, ale to, ze nas amd opat necha bez highendu ako pri RDNA 1 a teda ceny mozu byt opat vyssie (kedze nie je konkurencia), na to nenadavate :D

+1
-3
-1
Je komentář přínosný?

Monstra nad 250 W zajímají málokoho, tudíž to, že AMD vyklidilo pole je nám úplně volné, stejně jako to, jestli bude RTX 5090 stát 50 nebo 100 tisíc kvůli chybějící konkurenci.

Ale udělám ti radost - za Lisy vzniklo spousta chyb, které v budoucnu budou bolet. Neschopnost prorazit v noteboocích, neschopnost zaříznout včas Vegu, problémy s RDNA3, které se měly odhalit jinak a dřív a hlavně pro mě ta nejdůležitější - zaříznutí projektu nástupce božské, pasivně chlazené a levné, HD 6450:).

+1
-3
-1
Je komentář přínosný?

'' Neschopnost prorazit v noteboocích ''

lol, obcas to chce sledovat realitu a nezit ve vlastnich predstavach.. amd ma podil v laptopech vyssi nez v desktopech..

+1
+1
-1
Je komentář přínosný?

Zdroj?

+1
+1
-1
Je komentář přínosný?

Výroční zpráva?

+1
0
-1
Je komentář přínosný?

mercury research..

+1
0
-1
Je komentář přínosný?

myslis toto? :D z toho nevies moc vycitat co je GPU a co je CPU

https://www.tomshardware.com/news/amd-and-intel-cpu-market-share-report-...

+1
-2
-1
Je komentář přínosný?

1) ne..
2) co presne nechapes na nadpisu ''AMD and Intel CPU Market Share''??

+1
+2
-1
Je komentář přínosný?

1. tak preco nedodas, ale kluckujes?
2. my bad, ale kedze to nie je ta statistika, tak je to sumafuk

+1
-2
-1
Je komentář přínosný?

mam 4080 a ta malokedy ide nad 250W, vacsinou bezi na 4k okolo 150-200W (rovnako ako 6700xt co som predal), cize nepozeral by som na tu spotrebu takto prisne

ano, 7900xt a specialne XTX vedia ist nad 300W bezne (podla yt testov), ale tak to je problem AMD, ze nevie ustrazit spotrebu svojich GPU

+1
-2
-1
Je komentář přínosný?

".. mam 4080 a ta malokedy ide nad 250W, vacsinou bezi na 4k okolo 150-200W (rovnako ako 6700xt co som predal) .."
Pokud k tomu není step-by-step návod a utilita od nV, tak to nejde nastavit.
Ať ti to vydrží alespoň do příchodu nové generace.

PS: Pokud se použije ta věc mezi ušima, tak to lze nastavit i na nižší spotřebu:
6800XT .. ca 200W, celé PC i s monitorem.

+1
-1
-1
Je komentář přínosný?

co nejde nastavit? zas bluznis? strcis kartu a ides, ziadna nastavenie, merane cez nvidia overlay (nakolko je presny, tazko povedat)

"6800XT .. ca 200W, celé PC i s monitorem."
pri 720p? viidm ako pouzivas tu vec medzi usami

+1
-2
-1
Je komentář přínosný?

720p není zas tak zřídka používané rozlišení.
Velmi oblíbené pro RT na nedostatečně výkonných RTX

200W - FullHD i s monitorem, repráky, router, modem, ... a ostatní bižuterie co se tady válí
200W - 4k bez monitoru (ten si sám vezme 100W)
Měřeno na UPS. Takže i s účinností zdroje.

+1
-3
-1
Je komentář přínosný?

A mas pocit, ze sa bavime o fhd a 720p alebo o 4k? :D prosim ta netrep

https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/31.html

Average gaming: 280W
Peak: 300W+

Ukaz mi, kde a pri akych nastaveniach bude cela zostava so vsetkym zrat 200W, ked len samotna gpu zerie viac :D

Melkor, nauc sa pouzivat tu zelatinu medzi usami

+1
+1
-1
Je komentář přínosný?

Neříkej, že to nejde.
Protože přijde nějaký blb, který neví, že to nejde, a udělá to.

Pokud se ti nelíbí RT počítaný na 720p: napiš Huangovi, že bys raději něco výkonnějšího, co si nemusí 3/4 informace (6/4 při použití FG) vymýšlet.

Ad TPU)
Já nehraji Furmark na 160+ Hz
TPU použil nastavení pro co nejvýšší výkon
Já používám nastavení pro co nejnižší spotřebu při dostačujícím výkonu.

+1
-1
-1
Je komentář přínosný?

"Já používám nastavení pro co nejnižší spotřebu při dostačujícím výkonu."

A ktoremu slovu "4K ultra s RT" nechapes? Hlavne, ze sa ides vyjadrovat o 200W cela zostava :D

"Pokud se ti nelíbí RT počítaný na 720p"

DLLS Quality je ratany pri 4K z 1440p, dostudovat

Uz radsej nic nepis

+1
0
-1
Je komentář přínosný?

".. A ktoremu slovu "4K ultra s RT" nechapes? .."
Nebudu se k tomu vyjádřovat.
Nemám ve svém archivu ani jednu hru s RT. Až tak moc rozšířené to je ve hrách.

"DLLS Quality je ratany pri 4K z 1440p"
Tak to je 4k a Quality
Co takhle Balanced a Speed v kombinaci s nečím jiným než 4K?
Pokryl jsi 1 možnost z 9. (A to nepočítám wide a ultrawide rozlišení, jen ta nejrozšířeněnjší 16:9)
Dostudovat.

+1
0
-1
Je komentář přínosný?

Preco sa vyhovaras? Pouzil som nastavenia, ktore sam pouzivam a dal k nim wattaz :D a cely cas tu pisem o 4k monitore, len ty si ides 720p RT :D

Proste si napisal blbost a teraz sa to snazis obhajovat, aj ked opat uplne mimo

Takze, dostudovat, poriadne citat, potom sa vyjadrovat

+1
-1
-1
Je komentář přínosný?

Nějak ses zasekl.
4k + RT + DLSS quality není jediná možnost.
Podívej se na Steam Survey na zastoupení 4080 a 4090.
Takže si dostudj věci, které obhajuješ, ať tě příště nenachytám na hruškách.

+1
0
-1
Je komentář přínosný?

A co ma steam survey spolocne s tym ako ja hram a ake mam ja skusenosti? :D

Proste si neuznas, ze trepes blbosti a tak tu budes vytahovat takeho bludy

+1
-1
-1
Je komentář přínosný?

Tady mi přijde Steam Survey použitý nevhodně. Vzhledem k tomu, že Steam pokrývá skoro všechny desktopové hráče, tak většina toho bude Intel iGPU, dedikovaný lowend a starý mainstream a highend. Půlce uživatelů tyhle hry nepůjde spustit, ani na Low, nebo pojede 15 fps.

+1
0
-1
Je komentář přínosný?

To je v pohode, ale co to ma spolocne s tym ako ja hram a ako mne idu tie hry a aku wattaz ja zaznamenavam? :D

+1
-1
-1
Je komentář přínosný?

Asi jsem neupřesnil, že mluvím o melkorovi. Např kauza s problémy v nových hrách na NVidiích by neměla takový ohlas, kdyby někdo poukázal na to, že je to méně jak 1 % karet na Steam Survey ;-)

+1
0
-1
Je komentář přínosný?

Hmm, moje 6800XT žere v defaultu 255W max...s undervoltem 190W při stejném výkonu a lehce potočená 225W...na 280W se dostanu jen s citelným přetaktováním a zvýšeným power limitem...ale to už hučí jako vysavač, takže ji tak neprovozuju...

+1
+1
-1
Je komentář přínosný?

„mam 4080 a ta malokedy ide nad 250W, vacsinou bezi na 4k okolo 150-200W (rovnako ako 6700xt co som predal)“

:D tak určitě.
https://tpucdn.com/review/nvidia-geforce-rtx-4080-founders-edition/image...

+1
-1
-1
Je komentář přínosný?

realne skusenosti, 6700xt sla bohuzial naplno, stale okolo 90-100% vytazenost (4K robi svoje)

4080 si ide pomalsim tempom a vacsinou ma vytazenost okolo 60-80% a spotreba tomu tak zodpoveda. Najviac som mal pri CB 2077 Path racing, kde sla okolo 320W, 290W mala pri, a teraz pozor, ETS2 West Balkans DLC na jednom z hranicnych priechodov :D ale tam sa to akosi divne chovalo, kedze fps spadli na 48, spotreba vyletela na tych 290W a utilizacia behala 40-90% (spraseny engine, co povedat)

ale samozrejme, ty vies ako mne to bezi na mojom pc co mam vedla nohy :) ak chces, poslem ti foto cez imgur (ak nezabudnem, s cim rataj)

+1
0
-1
Je komentář přínosný?

Tak vidíš, nakonec jsme se k těm 250+ W dostali. Těch her které budou hnát spotřebu nahoru bude přibývat. Kromě toho objem a hmotnost je u 4080 stejná jako u 4090 a to samo o sobě někoho odradí.

+1
-1
-1
Je komentář přínosný?

Prave preto osm napisal "malokedy", ale to by trebalo citat a nie hned robit hate

Ano 4080 je hebedo a ked som ju daval namiesto 6700xt, bolo mi tej maticnej a pcie konektora luto :D ale zasa, 50C teploty su vyborne

+1
0
-1
Je komentář přínosný?

No tak to máš ale říct, že tu 4080 nevyužiješ, jak já to mám čuchat, potom může být spotřeba pochopitelně nižší než normálně, když jede jen na půl plynu, jen sis na ni připlácel úplně zbytečně... kdo si kupuje 4080, tak v tom nastavení většinou nastavuje něco trochu jiné než když má jen 6700 XT a to využití je pak větší, čili spotřeba taktéž.

+1
0
-1
Je komentář přínosný?

Cize 4k, ultra nastavenia a RT v kazdej hre je na "pul plynu"??

Nevedel som

+1
+1
-1
Je komentář přínosný?

Tvá slova ".. vytazenost okolo 60-80% .."
Skrátka a (s)prostě ... ta grafika se ti fláká.

+1
-1
-1
Je komentář přínosný?

60-80% nie je na "pul plynu" (naucme sa matiku) a nie grafika sa neflaka, flakala by si pri tvojom FHD.

+1
+1
-1
Je komentář přínosný?

Máš snad CPU, které nenakrmí RTX 4080?

+1
-1
-1
Je komentář přínosný?

7800X3D, uz som to tu pisal vela krat

Uz ked tento CPU nedokaze nakrmit 4080, tak neviem ktory

+1
0
-1
Je komentář přínosný?

To bude něco špatně protože ve 4K je to hlavně o grafice

+1
+1
-1
Je komentář přínosný?

Aj o CPU, skus ist na 4k s 4080 s nejakou r5 so slabym IPC alebo nejakym slabym intelom. Ano vela hier dnes ma utilizaciu cpu v 4k na urovni 10% (vidim to v overlay), ale mas hry, ktore vedia vyuzit (taky cyberpunk napr) a do buducna je dobre mat silne CPU

https://www.anandtech.com/show/18747/the-amd-ryzen-9-7950x3d-review-amd-...

Par testov

A ano, uvedomujem si, ze pisal "nenakrmi". Ano, vela ich nenakrmi. Ja dal svoj, ktory to dokaze

+1
-1
-1
Je komentář přínosný?

Hezká ukázka toho, jak GPU nestíhají.
Tak proč se ti ta 4080 fláká na 60~80% ?

+1
0
-1
Je komentář přínosný?

Zeby maximalna obnovovacia frekvencia monitora?

+1
0
-1
Je komentář přínosný?

...

+1
0
-1
Je komentář přínosný?

Pokud je mi znamo, tak obnovovaci frekvence monitoru sama o sobe neomezuje fps. Jedine, ze by jsi nastavil jeji limit.
To ze ti to GPU nejak "nejede naplno" mi nedava smysl, zvlaste pokud jej krmis necim jako 7800X3D, ve 4k.

+1
0
-1
Je komentář přínosný?

A naco ma ist GPU nad obnovovaciu frekvenciu monitora? Je tam zbytocny tearing alebo ako to nazvat a taktiez, zbytovne GPU ide na plne obratky, ked nemusi

+1
0
-1
Je komentář přínosný?

ale pak to mas tak malo vytizene proto, ze to mas omezene, ne proto ze ta karta tak malo zere.

+1
0
-1
Je komentář přínosný?

Samozrejme, nieco ine tvrdim? Cely cas pisem, ze mi utiahne 4k ultra s RT s vytazenostou do 80% so spotrebou v priemere 200W, tie s RT vedia ist vyssie, ale to zavisi od hry

200W mi zrala aj 6700xt s vytazenostou tiez okolo 80%, ale medium detaily (niekde aj high)

Podla mna pekny pokrok. Preto pisem, ze tych TDP sa netreba bat

+1
0
-1
Je komentář přínosný?

"mam 4080 a ta malokedy ide nad 250W, vacsinou bezi na 4k okolo 150-200W (rovnako ako 6700xt co som predal), cize nepozeral by som na tu spotrebu takto prisne"
.. v tom pripade nechapu smysl cele te diskuse

+1
0
-1
Je komentář přínosný?

Ja tiez nie, ale hej melkor sa musel vyjadrit

+1
0
-1
Je komentář přínosný?

Jsou věci mezi nebem a zemí ...

například fáze.

+1
0
-1
Je komentář přínosný?

Pro AMD je to špatná zpráva, neboť NVidia zase výkonostně odskočí, AMD bohužel potenciál nemá a sama už říká, že highend dělat moc nebudou.
Pokud se NVidii povede marketing, tak to pro AMD může být tak trochu pohřeb.
Osobně to považuju za velkou chybu, protože prostě myslím, že jsem hráč, který je ochoten sáhnout hluboko do peněženky - nejdražší moje karta byla za 23K a stejně furt na herní highend nedosáhnu a musím se spokojit s vyšším mainstreamem. Tudíž AMD by měla co nejvíc jet marketing proti NVidii na notě ceny. Do toho se AMD bohužel moc nechce, škoda no.

+1
0
-1
Je komentář přínosný?

AMD mi teď upřímně přijde v podobné pozici jako Intel v CPU – na konkurenci prostě nestačí, akorát Intel se furt marně snaží a stejně nic, AMD rači rovnou rezignuje. Možná to je ale lepší, na chvíli se stáhnout, prostě nabrat síly a potom přijít s něčím pořádným než vydávat jen jednu zoufalost vedle druhé, která na konkurenci stejně nikdy stačit nebude, to už se na to asi fakt rači vysrat než v tom topit prachy, což si AMD nemůže jen tak dovolit, tak jim to holt nechají a Nvidie aspoň může pěkně podojit a high end se ani nemusí obtěžovat vydat, když budou stejně bez konkurence a cenu si můžou dát jakou chtějí.

+1
0
-1
Je komentář přínosný?

Nestačí? Kdyby se AMD nestydělo a přitlačilo trochu na křemíku/procesu (větší plocha lepším procesem na efektivnějších taktech) mohli by s HighEndem konkurence asi klidně držet krok. Rozdíl výkonu prakticky kopíruje rozdíl počtu transistorů (AD102 76mldTr, Navi31 58mldTr .. 30%).

+1
0
-1
Je komentář přínosný?

Ale kdo to bude kupovat, když to nebude mít logo NVidie? To vždy bylo specifikum té cenové kategorie.

+1
+1
-1
Je komentář přínosný?

Tak ale oni nechcou dělat taková monstra, k čemu by jim to bylo, stejně by na tom nebyly pořádné marže a pro ně to nemá cenu, to na tom rači budou bouchat Ryzeny. Oni prostě chtěli chiplety, ať můžou využít 2 procesy a ušetřit, není pro ně cíl udělat grafiku s neuvěřitelným výkonem za nesmysl cenu.

+1
0
-1
Je komentář přínosný?

Nvidia by si měla změnit motto na "The way the progress is stopped." Udržovat status quo, brzdit výrobu, udržovat uměle ceny na úrovni z kryptománie/nedostatku čipů, zvyšovat podíl na serverech/AI akcelerátorech/ECU a kašlat na hráče. Výkonu GPU je dost (protože už dávno 640kB RAM musí stačit každému), místo renderování se bude vše upscalovat nebo rovnou generovat obraz pomocí AI podle slovního zadání a do každého caseu si vrazíme 1kW zdroj, abysme nemuseli topit radiátory. Takový mám pocit, když čtu zprávy v poslední době.

+1
-2
-1
Je komentář přínosný?

Možná by stačilo se myšlenkově přepnout se ze závislosti na grafických orgiích na upřednostnění hratelnosti u her. V takovém případě by asi bohatě stačila většina existujících GPU.

+1
+3
-1
Je komentář přínosný?

S tím problém nemám. Svoji RTX 3080 jsem naposledy "vytížil" klasikou "The Beast Within: A Gabriel Knight Mystery" 🙂 Ale pokrok je pokrok a mám rád realistické simulace, kde je výkonu pořád potřeba hodně, jak GPU, tak i CPU.

+1
+1
-1
Je komentář přínosný?

Nějaký konkrétní příklad?

+1
0
-1
Je komentář přínosný?

Elite: Dangerous, Derail Valley, Train Sim World 3.

+1
0
-1
Je komentář přínosný?

Tak snaží se vydělat co nejvíc a když je možnost to ojebat... oni by to klidně mohli vydat, ale v tomto případě by to muselo stát tak 3000$, aby to pro ně mělo smysl a je otázka, jak by takovou specialitu trh akceptoval, nejspíš bude zas „jen“ 5090 za 1500$, což by původně mohla být klidně i jen 5080, ale proč to zas nepřejmenovat a neudělat z toho vyšší model, když prostě můžou. To jim asi bude stačit pro ten „herní“ trh a zbytek půjde do AI.

Já to říkal už dávno, že oni do chipletů jen tak nepůjdou, pokud to nebude vyloženě nutné, je to zbytečné riziko a mohl by s tím nastat nějakej fail a pokud si můžou dát v podstatě cenu jakou chtějí, je pro ně jednodušší prostě udělat velkej předraženej monolit a máš to.

+1
-1
-1
Je komentář přínosný?

Do cipletu Nvidia už dlouho valí prachy ale to se jedná o produkty pro výpočty a AI, ne produkty pro hráče Pepíky.

Dle dosavadních informacích by měl být prvním čiplet produktem právě výpočetní akcelerátor Blackwell B100 který má vyjít někdy v příštím roce. Tipoval bych léto.

+1
+2
-1
Je komentář přínosný?

Přesně tak. U AMD, jejichž grafiky zaostávají, je čipletové řešení nasnadě, je to budoucnost a nemají co řešit. U NVidie, která je ve vedení, proč by šli do riskantní výroby čipletů, když monolit stále stačí na zvyšování výkonu. Je zřejmé, že NVidia čiplety vyvíjí také, akorát holt zatím nemají výkon monolitů, proto je NVidia do herních grafik nenasazuje.

+1
0
-1
Je komentář přínosný?

Chiplet není ani tak o zvýšení výkonu, spíš snaha ušetřit, protože můžeš používat různé výrobní procesy apod. Taky je jednodušší udělat víc menších částí a ty pak různě skládat k sobě než dělat jeden velký monolit, zvyšuje to výtěžnost a nemáš tolik zmetků a vlastně není to jakoby tak nákladné. Aby mělo pro AMD smysl prodávat GPU nějak ve velkém, musí být marže aspoň podobné jako má u CPU, jinak je pro ně zbytečné na to plýtvat kapacity výroby, proto to asi zatím zařízli a vrátí se s tím zpět, až to bude nějak rozumněji fungovat tak, jak se původně počítalo a opraví chyby.

Právě kvůli těmto chybám se do toho Nvidie pravděpodobně zatím moc nehrne, protože by si tím mohla způsobit víc problémů než užitku a ve chvíli, kdy si může říct o jakoukoli cenu, protože je v podstatě bezkonkurenční, tak to můžou mít zatím doceka na háku, ti prostě vemou nejlepší proces TSMC, udělají nějaké obrovské monstrum za příšerně vysokou cenu a lidi to stejně koupí, tak na co se dělat s nějakými chiplety. No a AMD, když chce dělat něco velkého, tak udělá rači nějakej EPYC než Radeon, takže to máš takhle těžko.

+1
+1
-1
Je komentář přínosný?

Na druhou stranu NVidia poráží AMDéčko i v mainstreamu, RTX 4070 je stejně výkonná jako RX 7800XT, navíc má raytracing a ještě žere o až 60W méně, přitom cena je +- stejná. V tom je hlavní problém AMD a jejich čipletového řešení, že je monolit poráží i v mainstreamu.
Kašlu na highend, ale AMD není schopno porazit NVidii téměř nikde.

+1
+2
-1
Je komentář přínosný?

No... v rasterizaci je trošku výkonnější a zároveň je trošku levnější, takto to vypadá všude o trošku, takže v podstatě stejný, ale jak si to prevedeš na poměr cena/výkon, tak je tam už prostě skok... 2 litry navíc za nižší výkon nezní zrovna jako kauf roku a nemůžeš porovnávat drahou edici 7800 XT s levnou 4070. O 60W míň topí, jenže máš ten výkon o trošku nižší a taky tam nemáš tolik VRAM a zároveň dostaneš ořezanou sběrnici, takže to mi taky nepřipadá jako nějaká extra velká výhoda, když je to vykoupeno zase tímto, navíc dostaneš malinký chladič a menší plochu na převod tepla a podle testů při normalizované hlučnosti dosahuje 7800 XT i přes vyšší spotřebu nižších teplot, takže sice je nižší spotřeba samozřejmě pořád výhoda, že nemáš tolik odpadního tepla, ale nemáš nižší teplotu na GPU, takže i z tohoto pohledu je to výhoda spíš jen tak na půl. Nevím jak jinde, ale s těmi našimi cenami mi připadá 7800 XT jako lepší volba.

+1
0
-1
Je komentář přínosný?

https://www.czc.cz/sapphire-pulse-amd-radeontm-rx-7800-xt-gaming-16gb-16...
https://www.czc.cz/palit-geforce-rtx-4070-dual-12gb-gddr6x/371733a/produkt
Aktuálně je to 14390Kč versus 14499Kč, rozdíl 109 Kč

https://gamersnexus.net/gpus/amd-radeon-rx-7800-xt-gpu-review-benchmarks...
Mimo jasné vítězství RX 7800XT ve Starfieldu jsou výsledky podobné a někde vítězí i RTX 4070, celkově bez Starfieldu je to plichta. Starfield hraju, krásná hra, ale přejmenoval jsem to na Bugfield, výsledky testů teda vůbec neberu v potaz, časem po opravách se to může ještě dost změnit.

Ve výsledku teda grafiky jsou za stejnou cenu, mají stejný výkon, vyšší VRAM se v testech jako výhoda neukázala a stále je tam 50W rozdílu ve prospěch RTX 4070. Navíc NVidia v tomto souboji zcela poráží grafiku AMD v disciplíně raytracing. Ale ten zmiňuji jen okrajově, když tady na diitu tuhle fýčuru vypínáte, nicméně i tak je RTX 4070 výhodnější karta.

+1
0
-1
Je komentář přínosný?

Ta cena je stejná, za tu cenu tam máš i Gigabyte Gaming 7800 XT s větším chladičem než takové malé prdítko a výkon máš hned vyšší. Ty VRAM se obvykle projevují až v budoucnu, jak se později zvedají ve hrách nároky na paměť, pokud by se to výrazně projevovalo již teď, tak je taková grafika mrtvá, to by bylo dost smutné a očividně dost debilní rozhodnutí si něco takového koupit, takové grafiky jsou odpad, leda že bys věděl co na tom chceš hrát a stačilo by to pro ty dané hry a byl by sis tedy jistý, že víc nikdy potřebovat nebudeš.

Vlastně Nvidie už tady takovou grafiku má, kde už tu VRAM ořezala až moc, resp. její velikost, a brzda je už spíš právě ta velikost paměti, která už vyloženě nestačí a někde to už výrazně ubírá výkon, jmenuje se RTX 4060 Ti s pouhými 8GB, i když je to už dost slabá záležitost, 8GB už je prostě málo i pro toto, takže takové naprosté minimum dnes už bude asi něco jako 10GB, takže 12GB ještě na o poznání výkonnější grafice, kde chceš nastavovat asi i vyšší detaily, nezní zrovna jako moc a nějaká extra rezerva už tam asi nebude a opět se s tím tak balancuje na hraně asi jako předtím s 3070, která tehda taky měla právě jen těch 8GB, na začátku jí to stačilo a teď už na to taky dojíždí a 4070 může pravděpodobně dopadnout dost podobně a je to tak na hranici rozumné použitelnosti, za pár let se může začít výkon znatelně propadat a chci vidět, kde pak ještě najdeš výkon pro nějaký RT, budeš rád, když to pojede bez RT a nebudeš muset snižovat detaily.

+1
+1
-1
Je komentář přínosný?

V tomhle se absolutně neshodneme, protože já hraju na RTX4070 (12GB), RTX3080 (10GB) a můj kamarád hraje na RTX3070 (8GB). Ani jeden teda příliš nehrajeme úplně ty nejnovější pecky a hrajeme na 2560x1440. Starfield teda říkal kámoš, že si tak rok počká, než to opraví, aby tam nebyly bugy. Já jsem se do něj pustil, bugy tam jsou, ale hratelné je to i na té 10GB kartě úplně v pohodě a detaily jsem nijak nesnižoval.
Jednoduše, pokud vám mám věřit, že tu opravdu potřebujete grafiku s 16GB VRAM a neříkáte to jenom kvůli tomu, že to je rozdíl mezi grafikou AMD a NVidia, tak ok, ale uvědomte si prosím, že prostě existuje nikoli malý počet hráčů, kteří prostě hrají tak, že je ta grafická paměť pro ně irelevantní a těch 16GB nepotřebují. Naopak RT efekty už jsem u dvou her využil a byl jsem z toho nadšen. Taky to není nic vysloveně nutného, ale sem tam se to hodí asi jako vám ta větší VRAM.

+1
0
-1
Je komentář přínosný?

Nějak nechápu, co furt máš s tím Starfieldem, zmiňuješ ho jenom ty, já se o žádném Starfieldu nikde nebavím a že potřebuje 16GB VRAM je nesmysl a zas jen nějaký výmysl, kvůli tomu AMD určitě výkonnější není, když se ani 4080 stejně furt nechytá a 7900 XTX válcuje klidně i 4090. Zrovna tato hra pokud vím s VRAM moc problém nemá, největší trable byly hlavně s Last of Us a s Harry Potterem nebo co to bylo, buď jsi měl nesnesitelný stuttering a musel snižovat kvalitu textur nebo se ti to rovnou nějak divně celé mazalo samo od sebe, aby se to dalo furt hrát, akorát byl problém v tom, že se na to moc nedalo koukat.

Nevím jak je to teď, třeba to už optimalizovali a už není zas takový problém, ale prostě problém to byl, sice to můžem částečně asi i svádět na vývojáře za špatnou optimalizaci, ale ono stačilo mít jen grafiku s dostatkem paměti a problém najednou nebyl, takže bych řekl, že bys měl jít nadávat hlavně výrobci grafiky, proč nechává osazovat tak málo, když to pak v náročnějších hrách zbytečně způsobuje problémy a musíš čekat na optimalizace než se to pak na těch grafikách dá hrát, které přijít můžou i nemusí.

Prostě vývojáři her se spoléhají, že už budou lepší grafiky s pořádnou pamětí a že se to nikdo nebude pokoušet rozhýbat na něčem tak slabém, jenže když Nvidie na tom furt tak šetří a lidi jim to stejně kupují, tak si pak nemůžou stěžovat, že jim něco nejede, když si neumí vybrat ani pořádnou grafiku a brzdí se vývoj tím, že se používají takové krámy, se kterými se pak furt musí počítat, aby to někdo vůbec hrál a rozjel to, i když standard už má být dávno někde úplně jinde a rozhodně ne na pouhých 8GB, které byly standard snad už 3 generace dozadu nebo kolik, jen Nvidie to odmítá posunout dál, vždycky jak je nějaký takový problém, tak je to většinou Nvidie, která holt furt osazuje naprosto nesmyslné kapacity VRAM, buď máš slabou grafiku s pamětí jak pro high end za nesmyslnou cenu, co ti pak stejně nikdo nechce koupit, protože to je takto na nic, nebo to je naopak a pak ti to zas nestačí a musíš brzo upgradovat, prostě vždy grafika, která je výhodná hlavně pro Nvidii, ale už ne tolik pro samotného zákazníka, nikdy nedostaneš takový ten střed, kdy bys dostal adekvátní paměť k výkonu tak, aby tě VRAM nikdy nebrzdila, ale zároveň jí nebylo zbytečně moc a furt si to udrželo nějakou rozumnou cenu.

Ono je sice hezké, že tady máme 4060 Ti se šťavnatými 16GB, které jinak dostaneš normálně až na 4080, jenže nechápu k čemu jí to je, pro 4080 to je tak akorát, ale 4060 Ti má poloviční výkon, akorát stojí jak 12GB 4070, takže si člověk říká, jaký to má vlastně smysl. Na 4060 Ti potřebuješ spíš tak 10 nebo ideálně 12GB, 8GB je moc málo a už je to skoro nepoužitelný a 16GB zas nesmyslně moc a už se to akorát zbytečně prodražuje.

+1
-1
-1
Je komentář přínosný?

"největší trable byly hlavně s Last of Us a s Harry Potterem"
-vidíš o tom mluvím, ani kámoš ani já jsme ty hry nehráli a minimálně já vím, že Hogwarts Legacy hrát rozhodně nebudu ani v budoucnu. Last of Us bych rád časem dal, uvidíme jak moc budu muset jít s nastavením grafiky dolu, abych to na 10GB kartě mohl hrát.

Jinak s posledním odstavcem plně souhlasím, nejsem nekritický fanoušek NVidie, který by neviděl chyby. V nižším herním segmentu každopádně všude doporučuju RX 6700XT, která se AMD hodně povedla.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.