Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 5090: 512bit GDDR7, 21 760 stream-procesorů a 600W TDP

Tipujem, ze cena zacne na 3000 EUR, because why not

+1
+1
-1
Je komentář přínosný?

Ceny mohou dát jakoukoliv do $5000.. stejně to zmizí ihned jak za krypta protože se o to porvou AI datacentra

+1
+2
-1
Je komentář přínosný?

Presne. A okrem ceny 3 tisic aj hmotnost 1 kilo, vyska 4 a pol slotu, dlzka 38 cm, 600 W standard, 900 W peak (to tam drbnu 2 tie 12 pinove 600W konektory?)...

Proste take HOVADO.

To sa bude predavat jak teple rozky, iba na Slovensku statitice kusov ...

+1
-1
-1
Je komentář přínosný?

Na těch internetech lze najít fotky karet s dvěmi 12V2x6 konektory.

+1
0
-1
Je komentář přínosný?

Rozdíl mezi 5080 a 5090 je tak masivní, že 5090 předpokládám jako herní grafiku čistě v "papírové" rovině.
Bude to názvem "herní" karta, ale jen pro youtubery, testery, vývojáře a jedince, co by kartu koupili i za půl milionu. Prostě cena nehraje nejmenší roli.
Většina karet půjde rovnou na AI do datacenter Microsoftu, Mety a podobně.
Je to doslova monstrum, ještě citelně větší než 4090. Reálnou Cenu odhaduji klidně na 3000dollarů.

+1
+3
-1
Je komentář přínosný?

Ve hrách už ten výkon ani nevyužiješ, když se podívám na rozdíl v parametrech mezi 4090 a 4080, tak rozdíl to sice udělalo znatelný, ale ne až tolik, zkrátka to už je GPU spíš na tvorbu, nikoli hraní.

+1
-1
-1
Je komentář přínosný?

Já to rozhodně nevyužiju, hraju na 1080p/60 :)))
Nicméně "egoisti" si mohou nastavit 4k + PT a chtít v nativu 120fps.
Nesmyslným nastavením utaháš jakoukoli kartu.
Klobouk dolů před tou 4090, která se ctí zvládala velmi šílené nastavení grafiky.

+1
+3
-1
Je komentář přínosný?

Ze by RTX 5090 zvladla 8K gaming se HDR, RT na Ultra, barevnym profilem 4:4:4 na 120Hz?

+1
+1
-1
Je komentář přínosný?

Nerozumím, teď píšu že dementním "ego" nastavením utaháš jakoukoli grafiku.
Ale to co píšeš, může nějaký blbec reálně chtít. (nechtěl bys to po grafice - ty že ne? :))
(s tím 8k ze zrychtuj úplně, nejprve si nech upgradovat oči a pak plynule přejdi na grafiku)

+1
+2
-1
Je komentář přínosný?

Opacny pripad kteremu staci dlazebni kostky 1080 pochopitelne nechape, ze nekdo to 4K, potazmo 8K na dostatecne velkem monitoru vyuzije.

+1
-1
-1
Je komentář přínosný?

4K vzniklo, abys neviděl rastr fontů (subpixelové vyhlazování bylo něco za něco). Ve hrách to ale většinou nepoznáš, takže tam jedeš bez problémů na menším rozlišení (2x2 pixely, "integerové" roztahování obraz ani nerozmaže, je ostrý jako kdybys měl nativně 2K). Vysoké rozlišenéí potřebuješ jen na hodně velké TV, projektor nebo VR (aby byl detailní obraz v té čočkou hodně zvetšené části uiprostřed).

Když hraju pixelart hry, tak "dlažební kostky" sjou pro mě 320x200 (320x240). 640x480 už třeba ne (resp. širokoúhlé verze těchto rozlišení).

+1
+2
-1
Je komentář přínosný?

Využil by to kdekdo, otázka je kolik lidí si za to bude ochotno připlatit. 4k monitory už nestojí tolik, ale karta co je utáhne i v nejnovějších hrách už může stát raketu i pro cizozemce... O hraní v 8k se snad ani bavit nemusíme...
Dnes kdekdo potřebuje 4k skoro i na 7" telefonu, já jsem naštěstí slepej, 4k mi přijde málo až na 75" monitoru, fhd mi vyhovuje na 43" z gauče nebo 28" z křesla asi metr od displeje.

+1
+1
-1
Je komentář přínosný?

43" 4K monitor mam 7 let, doma i v praci ... . cekam na upgrade cca 55"-65" 8K.

Rozdil v napriklad v porovnani s 27" 4K je znat. Ta 27 proste je v jemnosti mnohem lepsi na prvni pohled. Moc pekny obraz je i na "pul 8K" 57" Samsung Odyssey Neo G9 .

+1
0
-1
Je komentář přínosný?

4k je přínos pro práci - CAD, grafika blabla.
Dále pak pro VR, projektor s 4m uhlopříčkou.
Pro hraní je to egoistický nesmysl alá 4k je VÍC a JÁ jsem nejvíc a proto je to stvořeno pro MĚ..
Ještě to pochopím s upscalery, kde získáš ty tuny pixlů skoro "zadarmo"..
Jinak je to pro prosté hraní vyloženě plýtvání energií a křemíkem.
Ideální rozlišení vidím jako 1440p. A dokonalá zábava se dá prožít i v 1080p, není to o počtu pixlů.
Viz Switch.

Na 8K se vyser, ten přínos bude slabý, rozhodně pokud si vážíš sám sebe, počkal bych na 16K.

+1
0
-1
Je komentář přínosný?

Řekl ten, co to nikdy neviděl...taky jsem měl tenhle názor, než jsem si koupil 4K 28" monitor a zpátky bych už za nic nešel!! Ten rozdíl je markantní, a to ve všem. Ve Windows 200% scaling, obraz stejně velkej jako na 1080p, což mi vyhovuje, ale 4x víc pixelů na stejné ploše udělá brutální změnu v čistotě fontů, detailu grafiky, obrázky a videa jsou na stránkách 4x detailnější, ten rozdíl je okamžitě vidět. Ve hrách je všechno mnohem detailnější a čistější. Tam, kde na 1080p nebo 1440p u vzdálenějších objektů chybí detaily, na 4K ještě jsou. Strategie si zachovají detaily i při větším odzoomování, při přiblížení je tam naopak vidět mnohem víc detailů. Ono hlavně, dneska se věchno nativně dělá pro 4K, je to vidět na detailech i texturách. Takže pokud člověk nemá 4K, tak má celkem oholenej zážitek...

+1
-1
-1
Je komentář přínosný?

Ale v pořádku, výše píšu tak nějak to samé, ale pro to hraní samotné, stejně si ve 4k v pasti, protože buď můžeš hrát jen staré hry, nebo se ti to hryže, nebo musíš mít grafiku za 40tisíc a nebo stejně používáš DLSS.
Proti 4k monitoru jako takovému nic, stojí to pár kaček, proč ne, ale na hry je upscaler tvoje spása. Jinak něco hraješ ve 80fps, ale něco ve 20fps. S rostoucím nárokem hry budeš tlačený do kouta čím dál víc.

+1
0
-1
Je komentář přínosný?

To je bohužel pravda, žere to výkon jako prase. Ale DLSS/FSR jsou dneska už v pohodě použitelné. Prakticky při hraní nerozeznatelné od nativu, takže i s tím má člověk 90-95% kvalitu obrazu jako 4K nativ při stejných FPS jako na 1440p...což rozhodně vypadá mnohem líp, než 1440p nativ...

+1
0
-1
Je komentář přínosný?

Tak dostali jsem se k jádru pudla a sice definovat rozdíl mezi 4k zobrazením a 4k renderem.
To první ok, když to karty umí a monitory jsou levné..
To druhé je problém, a bude to problém i s 5080..
A rovnou ti řeknu, že kdyby neexistovalo to DLSS (které každý ortodoxní příznivce 4k nakonec ocení), jsi v prdeli.
Hraješ každou hru v jiném rastru, nevadí mi hrát v 1080p, ale vadilo by mi hrát jednu ve 4k (málo náročná) a druhou hru v 1080p (náročná hra a 4k mi komp nestíhá)..

Takže u 4k máme jasno - DLSS.

+1
0
-1
Je komentář přínosný?

Na 4K monitoru se sice dá hrát ve 1080p v nativu, ale vypadá to proti 4K dost hůř...1440p s interpolací nic moc, ale pořád lepší, než 1080p...co jsem dřív dělal bylo, že jsem hrál ve 3K (3200x1800) se sharpeningem, to vypadalo taky skoro jako 4K a ještě se to celkem hejbalo, ale DLSS/FSR je taková trochu záchrana, protože tu máme 4K monitory, ale ne grafiky, co to dávají, tak je možný mít skoro stejnej obraz, ale s nižšími nároky...

No a nebo mít 8K monitor, to je takovej lék na všechno :D

+1
0
-1
Je komentář přínosný?

Ano zase jsi to trefil, vyrobit 4k panel je totiž nesrovnatelně jednodušší než kartu, co jej nakrmí. Takže si všichni nakopili za pár babek 4k monitory a stejně na tom mastí v interpolací (grc), nebo v 20fps (grc) a nebo musíš mít kartu za 45tis (velký grc)..
Takže DLSS je skutečně spása.
Mohu tě ujistit, že jen málo lidí hraje moderní hry na 4k panelu opravdu ve 4k

+1
+1
-1
Je komentář přínosný?

Zase tak strašný to není ;) Dneska už má každá nová hra DLSS/FSR, tak je to celkem v pohodě a starší hry většinou ve 4K jedou i na starších grafikách...

Mimochodem, třeba teď hraju Horizon Forbidden West a s FSR Quality to ve 4K vypadá líp, než čistej nativ ve 4K, protože pokud se nepoužije nějakej antialiazing, tak je ten obraz plnej šumu v podobě bílých teček na přechodech a hranách, což vypadá otřesně. Pak se stejně musí použít FSR AA, jinak to není čistý. Ale jak říkám, pak to vypadá prakticky stejně, jako FSR na Quality...porovnával jsem to mezi sebou a rozdíl jsem nepoznal, jenom v jednom případě u padající vody, to FSR dělá trochu mapy, jinak nikde nic...

Ale jo, je málo her, co jedou v nativu ve 4K aspoň kolem 60FPS na jiných kartách, než 4090...

+1
0
-1
Je komentář přínosný?

God of War Ragnarök

Výkon (fps)
https://www.techpowerup.com/review/god-of-war-ragnarok-fps-performance-b...

Porovnání DLSS/FSR/XeSS
https://www.techpowerup.com/review/god-of-war-ragnarok-dlss-vs-fsr-vs-xe...
FSR má zatím problém s částicovými efekty (proudící voda, ohěň, ..)

PS:
Forbidden West - 200 hodin, dohráno jednou, rozjeto +
Zero Dawn - Vyšlo remake (zatím pro konzole) upravující grafiku na úroveň Forbodden West. Uvidíme, kdy dorazí na PC.

+1
0
-1
Je komentář přínosný?

PT při 4K na „full“ nezvládla bez zapojení DLSS ani ta 4090, musels zapnout ještě FG, jinak jsi měl v takovém Cyberpunku tuším nějakých 15 FPS, uvidíme, o kolik líp si povede 5090 bez použití AI, ale i kdyby přinesla pro toto použití jednou tolik výkonu, stejně to nebude asi příliš uspokojivé, možná pro nějaké kochače ano, ale asi ne pro někoho, kdo tu hru bude chtít opravdu hrát, to asi nebude úplně to pravé nastavení, i když z toho výpočetního hlediska to je působivé, ale už ne moc praktické.

Hlavně 5090 pro takové to „běžné“ hraní bude asi ještě víc zbytečná, ten výkon už moc škálovat nebude, podle mě to už ani tolik výkonu co přinesla 4090 nedá a hlavně to bude ještě za cenu šílené spotřeby, protože není žádný posun ve výrobním procesu a asi to tedy o moc efektivnější nebude to tak vypadá, prostě se z toho bude muset udělat už teda pořádný teplomet, aby se to dalo posunout na další level.

+1
0
-1
Je komentář přínosný?

Ano po páté píšu že bláznivým nastavením vždy utaháš cokoli, opravdu cokoli.
A rozhodně i 5090 bude ve hrách škálovat, pokud ji nesmyslně graficky zatížíš, výkon poleze lineárně nahoru a může k ní mít připojený klidně i 12400f.
Ve 4k nativu s PT ji ani průměrný procesor brzdit nebude.

+1
0
-1
Je komentář přínosný?

Jenže kdo bude takto reálně hrát to asi nikdo, jedině „hrát“... Snad mi nikdo nechce namluvit, že mu třeba bude stačit těch 20 FPS a stojí mu to za to hrát s PT, tomu teda už opravdu moc nevěřím, kvůli tomu si takovou kartu přece nekoupíš.

https://tpucdn.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-...

Při takových nesmyslných nastaveních budou rozdíly ve prospěch 5090 třeba i lepší a pak by se dalo říct, že to má smysl, jenže pak když se podíváš na výkon, tak to bude stejně nehratelné, takže vlastně nic. Jako technologická ukázka super, ale jinak k ničemu. No a když to osekáš, tak už se ti ty rozdíly zas začnou zmenšovat.

+1
-1
-1
Je komentář přínosný?

Ano, asi jsme se nepochopili, psal jsem čistě o tom, že pokud i tak silnou kartu jako 5090 adekvátně zatížíš, výkon stoupá (jaký je teď neřeším).
Není to tak, že ta karta je tak silná, že nikam neškáluje, to by se ti přihodilo v 1080p a rastru.

+1
0
-1
Je komentář přínosný?

Ale využiješ. 4090 je jediná karta, se kterou se dá ve 4K normálně hrát v rozumných FPS 70-120 bez RT v nativu. Každá nižší karta všechny hry takto nedá...

+1
0
-1
Je komentář přínosný?

Jo, akorát kvůli 25% výkonu navíc oproti 4080 potřebuješ o 70% větší specifikaci a o 40% více spotřeby.

+1
0
-1
Je komentář přínosný?

Cena nove RTX 5090 1999 dolaru.

Cena nove RTX 5080 1299 dolaru.

RTX 5080 je ukazkovej vysmech lidem, mela vychazet ze GB202 a ne z osekane GB203!

Skutecna RTX 5080 mela mit 16256 SP a 24GiB VRAM.

Holt kdyz RDNA IV nebude mit high-end tak si NVIDIA dovoluje...

+1
+8
-1
Je komentář přínosný?

aspon se všichni 3 trochu porvou v mainstreamu, koho zajíma grafika za 1000$+ ať si klidně prodávaj za 50k, když bude slušnej mainstream ať si honiči kupujou co chtěj

+1
+2
-1
Je komentář přínosný?

Pravda, možná tím, že AMD nemá highend umožní Intelu zůstat jako trojka. Kdyby měla high end tak by to Intel odpískal tutově, takto je ještě nějaká šance, takže možná, možná z dlouhodobého hlediska to má nějaké pozitivum i když je to škoda no.

+1
+3
-1
Je komentář přínosný?

Ty jsi zase fňukal, to z čeho má vycházet jaká karta si z dovolením rozhodne nVidia sama na základě nabídky/poptávky/konkurence.. blabla.
Pokud někdo "downgradoval" 5080, tak k tomu má důvod.
Prakticky žádná konkurence a 4090 to furt překonává o "měřitelnou" hodnotu.
Zeptám se už poněkolikáté?
Ty bys to na jejich místě udělal jinak?? Proč?
Myslíš že má nVidia ráda hráče? Jako ráda ve smyslu že by jim něco schválně dávala levně? (5080 pro všechny !!!)

Ztěžuj si u AMD. Chtěj ať vydají kartu alespoň o výkonu 5080, nejlépe o 25% levněji.

+1
+2
-1
Je komentář přínosný?

sorry ale obhajovat v jednom prispevku vysoky ceny nVidie a zaroven se v tom samym prispevku po amd dozadovat aby stejnej vykon davala o 25% levnejc, to je dobre mimo..

+1
-2
-1
Je komentář přínosný?

Ne já osobně vysoké ceny neohajuju, jen konstatuju proč jsou vysoké.
A rozhodně se AMD nic nedožaduju - to jsem doporučil Wafferovi pokud chce kňučet.
Jen mi to vkládáš do úst.

+1
+3
-1
Je komentář přínosný?

".. rozhodne nVidia sama na základě nabídky/poptávky .."

Berte, nebo nechte být.
Ono se to časem stejně prodá,
A už dávno to není hlavní přijem.

Jak už napsal někdo jiný ... tím že prodá čip xx02 v "herní" xx90 kartě za $2000 místo v nějaké profi kartě za $10000 nebo AI akcelerátoru za $20000 se připravuje o zisk.

+1
+2
-1
Je komentář přínosný?

Přesně tak. My nadáváme, ale NVidia dělá charitu. Asi aby si udržela jméno i mezi hráči. Ze stejného důvodu si AMD drží svých "pěkných" 12 % dGPU.

+1
0
-1
Je komentář přínosný?

Tak keď CDNA "valcuje" tak na RDNA neostávajú ľudia. s UDNA sa to zmení

AMD Releases AMD-135M: An Open-Source Small Language Model
AMD on 27 September 2024

AMD-135M features speculative decoding and was trained from scratch using AMD Instinct MI250 accelerators with 670 billion tokens. Training using four MI250 nodes took six days.

There is also an AMD-Llama-135M-code variant that has an additional 20 billion tokens of code data. AMD-135M is based on the LLaMA2 model architecture.
https://www.phoronix.com/news/AMD-135M-SLM

Sbohem RDNA a CDNA, AMD se vrací k jedné grafické architektuře: UDNA
10. 9. 2024
https://diit.cz/clanek/sbohem-rdna-cdna-amd-se-vraci-k-jedne-graficke-ar...

+1
0
-1
Je komentář přínosný?

No já doufám. Pro nás "při-zemšťany" to bude dostupné nejdříve za 2 roky, ne-li později. Takže "počekám", co za novoty vstoupí na trh grafáren v dohledné době a podle toho se zařídím. Plán je něco procesorově rozumného do příštího školního roku a grafika to může v nouzi "odkadit", s tím, že se zupgraduje v dalším kroku.

+1
+1
-1
Je komentář přínosný?

Místo čekat na 5080 bych asi rači sehnal 4090, dokud ještě jsou, bude to rozhodně lepší GPU, taky moc nevěřím, že ji toto ořezávátko nějak ohrozí, jinak ti pak už nezbude nic jiného než rovnou zas až 5090, protože to je asi tak to jediné, co Nvidie bere ještě tak nějak vážně.
//I když jak tak koukám na ty ceny, už teď je asi pozdě, 4090 už jsou prakticky vybrané, takže asi smůla.

+1
0
-1
Je komentář přínosný?

trochu mě děsí korelace mezi výkonem, počtem jednotek a spotřebou, která bez lepšího výrobního procesu se nehne směrem dolů

+1
+1
-1
Je komentář přínosný?

Sice datacentra Nvidii už přichází draze ,ale EU ještě spotřebu GPU vyrobcům nepřikazuje ,takže zatím je kam růst se spotřebou

+1
0
-1
Je komentář přínosný?

mam doma 320W a v lete to bylo peklo, sice casu na hrani uz moc neni a ne vzdy hraju narocne tituly, u ktereho se muj koutek promeni na lavou protekajici udoli, ale i tak to bylo otravne

+1
0
-1
Je komentář přínosný?

Tak záleží jaký máš barák, mé ratolesti "vytopí" pokojík s GTX1060+i7-4770...
Takže nějaké 320W nebo 600W u mě nepřipadá v úvahu.
Nemám nízkoenergetický barák, abych pak otevíral okna kvůli nenažranému PC.

+1
0
-1
Je komentář přínosný?

souhlas u mě doma v pokojíčku taky běželi nějaké staré i5ky, pak jsem jedno změnil na i7-4770 a začalo to slušně topit, teď mám 2x ryzen 5600 + 2x rx470 a je to takové maximum co pokojíček zvládne, takže čekám na navi44 abych mohl upgradovat i grafiku

+1
0
-1
Je komentář přínosný?

Dlouhodobě se tady postuje, že dGPU nad 250 W je peklo. A ty si koupíš 320Wattovku :). Proč to nestočíš o 150 MHz níž + Undervolt? Přijdeš o pár % výkonu, ale spotřeba půjde k 250 W. Další možností je frame cap.

+1
0
-1
Je komentář přínosný?

Framecap pomůže jen u nenáročných her, jak půjde doba, spotřeba poleze zase nahoru k těm 320W.
Jsem pro tu první variantu :)

+1
0
-1
Je komentář přínosný?

chtěl jsem 6800XT, ale dostal jsem nabídku dva roky nazpět na 6900XT za 13500,- tak to nešlo odolat
já nevím jestli někdo už tady reálně zkoušel dlouhodobě mít podtaktovanou 6900XT, ale
1) rock stable je to až na 1100mV dostal jsem se v pohodě i níž, ale to že ti projde jedna hra neznamená, že ti to nebude padat za pár měsíců třeba u wukonga, dobrej na tohle je uniheaven benchmark, tam vypadávali textury furt i kolem 1000mV, holt jsem nevyhrál v loterii, ale nikde jsem nečetl dlouhodobé zkušenosti s undervoltem skrz 10 her
2) ovladače radeonu se resetují kvůli nějakým chybám (asi kvůli UV) a nebaví mě co 14 dní/měsíc i nahrávat uložený profil a hlídat jestli se mi náhodou zas nezměnilo
3) frame cap používám, ale nikdy nejdu pod 120fps, a i "blbé" path of exile se sotva vyškrábe na 150fps a v endgamu je to peklo úplný

ale přežít ty dva měsíce se dá a od podzima do jara to je v pohodě

+1
0
-1
Je komentář přínosný?

Tak toto se dá řešit třeba Afterburnefem a můžeš s tím dělat co chceš, ten už dávno máš mít na takové věci, ten ti to vždy nahodí nazpět. Logicky to tam mají pro případy, kdyby si tam někdo nastavil nějaké nesmysly a pak to bylo komplet unstable a nešlo by s tím nic dělat, tak toto je taková pojistka, jak to prostě vyhodí error kvůli nějaké nestabilitě, tak to dává automaticky default nastavení, protože jinak by zas akorát v AMD byli za kkty, protože ten kdo to tam nastavil samozřejmě nikdy za nic nemůže, to jen ten blbé AMD driver. Stačí aby crashla hra a jakmile máš nějaké manuální ladění, ihned to resetuje, protože ti lidi vždy šli pak akorát hned brečet někam na fórum, jakto že to nejede, aby se nakonec zjistilo, že místo chyby v driveru je celou dobu chyba jen mezi monitorem a židlí.

+1
+1
-1
Je komentář přínosný?

1) možná smůla na kus, možná to potřebuje jinak poladit. 6800XT chodí na 950mV. 7900XT 975mV. 5500XT se podívám, na té jsem zatím UV (ani jiné ladění) nezkoušel.

2) ulož si profil

3) frame cap na 120 fps? Když jsi takhle náročný, tak se nediv.

PS:
Dobrý kauf.
Užij si dlouhé zimní večery ;)

+1
0
-1
Je komentář přínosný?

Jo no framecap na 120fps není moc framecap :))

+1
0
-1
Je komentář přínosný?

jsem holt náročnější 60fps nechci vidět ani ve windows :)

+1
0
-1
Je komentář přínosný?

Když si vzpomenu, jak jsem za mlada čučel do černobílého TV Merkur krmeného PMD-85, tak mi začnou slzet oči.
A není to smutkem.

+1
0
-1
Je komentář přínosný?

Když budeme předpokládat, že 5090 je jednočipové monstrum a GB203 je jeho poloviční kopií, tak 5080 má proti čipu 5090 dvě jednotky (2x64 SP) neaktivní, tudíž si asi nVidia nechává prostor na kumulaci dokonalých čipů pro nějaký vyšší mezimodel (třeba 5080 Ti)

+1
+1
-1
Je komentář přínosný?

Myslím že žádná 5090/5080 super/TI/Titan a podobné nevznikne.
Stejně jako u 4090 není důvod.
Tento "plán" by se aktivoval v případě ohrožení konkurencí.
Si přeci nebudu zabíjet vlastní kartu rychlejší vlastní kartou, když jakákoli konkurenční nejsilnější karta je o 50% slabší.

+1
+3
-1
Je komentář přínosný?

Tak 5080S by mohla vzniknout až nastřádají dost kvalitních čipů, teoreticky by tam ještě mělo být 1536SP v záloze, můžou to spojit i s rychlejší pamětí až bude dostupná, teoreticky i použít 3GB čipy a osadit 24GB aby to vypadalo lépe. Pokud je neprodají jako quadro za úplně jinou částku, tak můžou časem až klesnou ceny 5080 prodat tyto za původní ceny, nebo vyšší. Pokud tedy nebudou ceny regulovat sníženou dostupností aby se držely co nejdéle na msrp...

+1
+1
-1
Je komentář přínosný?

nVidia jede na vlně AI akcelerace.Tam jsou největší zisky a současně nepotřebuje diverzifikovat portfolio tím , že by rozšiřovala produktovou řadu.
Čekám , že souboj se odehraje v mainstreamu

+1
0
-1
Je komentář přínosný?

U těch spotřeb se prý neví, jestli je to TDP nebo power limit. Takže uvidíme.

Každopádně do domácího PC je cokoli nad 300W těžko uchladitelné, samozřejmě jde to, pokud mám neomezený rozpočet, ale to bude případ minima domácností.

Takže za mě - krásné, ale děkuji, počkám na grafiku s TDP 300W.
(A ano, vím, že sem chodí i lidi, kterým se i 200W zdá moc, každopádně ale 300W je maximum, co doma dokážu uchladit bez nehorázných extra nákladů nebo vysokého stupně hluku.)

+1
+1
-1
Je komentář přínosný?

'' se prý neví, jestli je to TDP nebo power limit ''

u grafik je to totez.. (presne receno tbp = total board power)..

+1
0
-1
Je komentář přínosný?

Dá se to relativně lehce odvodit, pokud se nepletu tak Ada i Blackwell jsou 4nm.
Pokud má 4090 - 16384SP a 5090 21000PS + ještě širší sběrnici...

Dá se v klidu předpokládat, že těch 600W je opravdu reálná spotřeba jakou uvidíš v Afterburneru u hraní.

+1
+2
-1
Je komentář přínosný?

Asi tak. Ještě 400 W, kdyby to byla "špička" do 5 minut při intenzivním renderování, pak třeba pokles na těch 300 až 350. Těch 300 W stabilně v zátěži (dlouhý render) je snesitelné. Ale jako je to dost. Spolu s procesorem, deskou, RAMou a další "bižu" je to na půl kilowatě, to jako není úplně ok. Na doma. V létě.

+1
0
-1
Je komentář přínosný?

Tak to konečně můžeš koupit to nejlepší co AMD nabídne ;)

+1
+1
-1
Je komentář přínosný?

".. počkám na grafiku s TDP 300W .."
Výchozí hodnota nebo po vyladění?
7900 GRE uvádí TDP 260W. A nemá 16-pin konektor

Mám teď GPU nastaveno na průměrných 160W (z původních 330W)

+1
+1
-1
Je komentář přínosný?

"7900 GRE uvádí TDP 260W"

Jo, tohle je pro pařany dobrá volba. Lze stočit pod 200 W. Ideální pro TyNyTa, který v jednu chvíli pošilhával po nějaké výkonnější NAVI, ale nakonec asi čeká na Navi 48.

+1
0
-1
Je komentář přínosný?

Taky čekám, kdy vyjde a co přinese to bájné Navi 48.
6800XT čeká na náhradu.
Tak buď tohle nebo něco ze zelené stáje.

+1
0
-1
Je komentář přínosný?

V listopadu uvidíme. Nicméně větší skok by měla přinést ta RDNA5.

+1
0
-1
Je komentář přínosný?

Pokud to bude dost dobré, tak to nahradí 7900XT.
Pokud mne to ještě bude trápit.

+1
0
-1
Je komentář přínosný?

Je otázka, jestli 7900 XTX zmizí z trhu nebo bude s tímto dál přežívat jako top model. Asi se jim to moc nevyplatí, na druhou stranu klesnout výkonem níž asi taky nebude úplně příjemné, kdyby jí to mělo nahradit, tak nová generace přinese jakoby downgrade a co to pak udělá s cenami RTX 5080 už raději nechci ani domýšlet, to XTX by tomu možná pořád mohla aspoň dýchat na záda a dělat aspoň nějaký tlak, ale takto by byl už i ten high end znovu naprosto bez konkurence, což rozhodně nebude nic hezkého, no jsem zvědav, jak to vyřeší, ale nejspíš XTX prostě zaříznou, ideálně by to chtělo, ať to XTX dorovná, ale to se asi nestane, takže kdo pomýšlí o tomto tieru, tak by měl asi jednat dřív, než zas bude pozdě a dokud je, brát to XTX, protože 5080 se potom už jen tak nedoplatí a na výběr by už moc nebylo.

+1
0
-1
Je komentář přínosný?

To by 5080 nesměla dostat přidáno moc (určitě ne tolik, aby překonala 4090).
Už 4080 je v pozici, že se v závislosti na konkrétním titulu přetahují s XTX o to, která to dá lépe.

+1
0
-1
Je komentář přínosný?

To si právě nemyslím, že to 4090 překoná a 4080 je právě o trošku pomalejší než 7900 XTX, takže pokud se 5080 nedokáže 4090 moc přiblížit, tak bude pořád na dohled 7900 XTX, parametrově je lepší jen tak o 10%, tak uvidíme, kolik to dá výkonu.

+1
0
-1
Je komentář přínosný?

Někde jsem četl nebo slyšel, že referenční karty by měly mít jeden 12VHPWR a nereferenční můžou být i se dvěma. Jeden 12VHPWR je 600W + 75W ještě z desky.

+1
0
-1
Je komentář přínosný?

Jako že by jim stačila 75W rezerva když už při 450W byly taktové problémy? Když člověk ještě vezme v úvahu špičky, které dokáží nové CPU i GPU díky agresivnímu řízení spotřeby vyprodukovat, tak mi to nepřijde jako příliš dobrý nápad, možná u 5080...

+1
0
-1
Je komentář přínosný?

ta 5080 je vysmech, mala mat aspon 20gb ked uz, ked to nebude aspon na urovni 4090 tak zbytocna

co je vsak zaujimave je info o 5080ti, ktora ma mat 24gb vram, dufam bude niekde medzi 5080/90, teda cca 16000 jednotiek, to by uz mohla byt zaujimavejsia karta

+1
+2
-1
Je komentář přínosný?

Nemyslím si, že je 16GB u běžné - byť silné herní karty kdoví jak extra limitujících.
Zaplnit ji asi zaplníš, ale ne tak dramaticky abys ti šel výkon totálně do kopru jako u 8GB karet generace Ampere.
Navíc PCIE5...

+1
0
-1
Je komentář přínosný?

Minulý rok se hlásilo pro RTX 4090 600-900W.
Myslím si že to je marketingová taktika nVidie, naplní internet zvěsti o 600W aby pak finálních 450 nebo 500W působilo lépe.

+1
0
-1
Je komentář přínosný?

Rád bych tomu věřil (i když 500W je u mě taky super zhovadilost)).
Ale jak píšu výše, 4xxx i 5xxx = 4nm proces.
4090 = 16384 SP a 384bis.
5090 = 21700 SP a 512bit..

600W tam reálně bude ani nemrkneš.

+1
0
-1
Je komentář přínosný?

Mě se ani nechce věřit že opravdu dají takovouhle plnou palbu do herní grafiky. Čekal bych, že plnou verzi čipu budou šetřit do profi verzí které prodají za násobek a do 5090 strčí jen nějaké zmetky ořízlé stejně jako to bylo u 4090.

+1
0
-1
Je komentář přínosný?

Vždyť to taky ani není, pokud už ta 4090 Ti, což už byla v podstatě Ada v plné palbě, měla mít těch 600W, tak že to bude mít nakonec až tady ta 5090 by nebylo až tak překvapivé, jak už bylo řečeno, na stejném výrobním procesu tu efektivitu už tak neposuneš a i 5090 je furt ještě o dost větší hovado než měla být i ta 4090 Ti, čili na 450W už by to asi bylo dost škrcené a ten vyšší výkon by se ti moc neprojevil, těch 600W by tomu rozhodně sedělo víc a mít ještě nějaké to Ti, tak můžem být klidně na nějakých třeba i 700W či víc, ten prostor tam pro to ještě je, opět to není plně aktivní čip.

+1
0
-1
Je komentář přínosný?

Těch 600W+ se týkalo top modelu, který nevydali, ne RTX 4090. Respektive se po čase ukázalo, že v záloze měli ještě dva modely, 600W RTX 4090 Ti a 800W? Titan.

Souhlasím ale v tom, že za stávající situace, kdy AMD nebude mít high-end, mohou nakonec výchozí TDP snížit a 600W nastavit opět jako volitelnou hodnotu.

+1
+5
-1
Je komentář přínosný?

Ja jsem zastancem, ze kdyby AMD udelal ciste grafiku bez RT a kremik co jde do RT by dala do normos bloku udelala by lepe... Dodnes jsem totiz zcela nepochopil realny prinos RT ve hrach... A jestli mam realnejsi odraz v louzi nebo jinde kde okoli ni jen oprobehnu, je mi zcela u zadele... Ale vyhodit vice jak 50% vykonu za takjovou kravinu je proste zhyralost... Snad vhodne jen pro magory co si "tipou" obrazky ze svych hernich pocinu... :D

+1
-1
-1
Je komentář přínosný?

RT (nebo chceš-li DX12ultimate) je prostá evoluce jako DX9c vs DX11.
Taky bych mohl donekonečna brblat, že DX9 stačí na super grafiku (Crysis1,2) a že tesselace+bokeh v DX11 za to nestojí..
Ale DX12ultimate je tu už opravdu víc jak 5let, takže by se myslím mohli s tím RT srovnat i ti největší "ATiňáci" a neřešit to furt jako něco "zbytečného".

Až ti vyrobí RDNA4 Radeon co bude mít RT o 30-40% lepší než RDNA3, najednou ti to RT zas tak vadit nebude a začneš hlásat, že to vůbec není zlé.

Velice blízko je doba, kdy byť jen základní RT bude ve hře "napevno" a minimální požadavky budou prostě RX6600/RTX2060..
Vždyť je to dnes už vyloženě low-end.

+1
0
-1
Je komentář přínosný?

"Až ti vyrobí RDNA4 Radeon co bude mít RT o 30-40% lepší než RDNA3, najednou ti to RT zas tak vadit nebude a začneš hlásat, že to vůbec není zlé. "

A to by mu jako jak pomohlo? RT sežere klidně polovinu výkonu v době, kdy i drahá grafika má na mainstream monitoru (2560x1440) pod 60 fps.

"Velice blízko je doba, kdy byť jen základní RT bude ve hře "napevno" a minimální požadavky budou prostě RX6600/RTX2060.."

RT který utáhnou i tyhle dvě karty je naprosto o ničem, takže je dost nepravděpodobné, že by vývojáři kvůli něčemu tak zbytečnému, odřízli všechny hráče se slabšími a/nebo staršími grafikami. A to je RX 6600 asi 2x výkonnější než nejlepší iGPU od AMD - 780M. Prej velice blízko...

+1
-1
-1
Je komentář přínosný?

A) Tak budeš muset Lisu popohnat, ať vyrobí i silné RNDA4 :)
Ono je sice pěkné, že karty budou mít silněší RT, ale když vydají jen mainstream tak je to platné asi jako mrtvému zimník :)
B) Ano ty karty budou nejspíše o ničem, proto budou v kolonce “requirements” to je klidně i 720p/LOW/30fps

+1
0
-1
Je komentář přínosný?

".. ale když vydají jen mainstream .."

nVidia má ten RT lepší v těch nesilnějších kartách.
Směrem dolů to už taková sláva není.

V nižžší cenové už i ne moc povedená RDNA3 nabízí lepší RT než konkurence. Protože proč to neořezat, když se zeleným logem se to stejně prodá a kupující z toho ještě budou nadšeni.

Kdyř se to s těmi efekty přežene, tak .. o ničem .. nejspíš bude hodně karet. Bez ohledu na barvu a cenu.

+1
+1
-1
Je komentář přínosný?

U AMD jsou totiž RT jednotky duálně s texturovými, a ty jsou proporcionálně k výkonu shaderů a rasterizace. U NVidie jsou RT jednotky odděleně, takže jich dává do lownedu neproporciálně méně. Stejně jako třeba nepoužitelné dvě PS2.0 jednotky v GeForce FX5200. Je to takový trik, v recenzích BFU vidí GF xx80 / xx90 a koupí si mainstream/lowend.

Z historie - i AMD APU bylo rychlejší v RT než NVidia lowend dGPU:
"35W APU Rembrandt v ray-tracingu rychlejší než 60W mobilní GeForce RTX 3050?"
https://diit.cz/clanek/35w-apu-rembrandt-v-ray-tracingu-rychlejsi-nez-60...

+1
+2
-1
Je komentář přínosný?

V době kdy nové hry vycházejí už s nevypnutelnym RT by tohle byl opravdu geniální nápad :D

"Tady máte grafiku s raster výkonem RTX 4090, ale nové AAA hry vám pojedou na úrovni RTX 4060 a do budoucna možná už vůbec"

+1
+1
-1
Je komentář přínosný?

Nebudu tvrdit, že hry s nevypnutelným RT nejsou.
Zatím ale pořád vychází nové hry bez jakéhokoliv RT (a dost často i bez upscalingu) ve větším počtu než hry s vypnutelným RT.

Z toho, co mám ve sbírce, 3 hry mají upscaling, RT žádná.
Asi mám divné záliby, nebo to je tak obskurní, že to vydavatelům nestojí za to.

+1
+1
-1
Je komentář přínosný?

Jenže takový lehký RT se nepočítá, protože toto ti už zvládne i AMD bez zaváhání, tam není až tolik těch počtů, že by to tu GPU zahltilo natolik, aby se výkon začal vyloženě propadat, prostě se to přechroustá a jede se dál a ani o tom nevíš, proto to ani nejde vypnout, protože to ani nemá smysl a počítá se s tím, že to prostě budeš používat.

Asi jako s každou takovou technologií, vždycky je ten nástup takový pozvolný, nějaké GPU je na to připraveno líp nějaké hůř a dělá mu to pak ve hrách větší problémy, když to musí řešit ve větším měřítku, až časem se to srovná a stane se z toho nějaký standard, který pak už zvládá každá grafika bez problému, ať je to využité jak chce a nikdo to nepotřebuje dál řešit, jaká GPU je na to lepší, protože to už nedělá žádné rozdíly ve výkonu.

+1
0
-1
Je komentář přínosný?

"""Jenže takový lehký RT se nepočítá,""""

A co je proboha "lehký RayTracing" a co těžký?

Ten lehký je "LOW" detaily?
Může být, ale furt je to RayTracing a vyžaduje 2060/6600...
V mnoha hrát lze nastavit RT na nižší kvalitu, i díky tomu mohu použitelně hrát Cyberpunk na RTX3060.
Ale na 1660 to tak ani nezapneš.

+1
+2
-1
Je komentář přínosný?

".. A co je proboha "lehký RayTracing" a co těžký? .."

Lehký RT .. není vidět
Ťežký RT .. sežralo tolik výkonu, že už nezbylo na FG

Path Tracing .. to není vyšší liga, to už je jiný sport :o

+1
+2
-1
Je komentář přínosný?

Minimálně v Cyberpunku jde “medium” RT vidět VELMI, stejně tak třeba v Control.
To je tím že koukáš jen do rohu na fps a kolik se točí vrtule a na hru samotnou nezbývá čas :)
PT je moc fajn, někde vypadá dokonale, jinde to skoro nepoznám.
Nalroky jsou ale vždy naprosto nesmysl.
Kromě 4090 nad tím nelze vůbec uvažovat

+1
+1
-1
Je komentář přínosný?

A proto jsem tam to medium nedal.

Asi budu muset pustit chlup a ten Kyberpuňk si zaplatit.
Čistě kvůli obrázkům a testům.
Sice mám ten žánr vcelku rád, ale raději zůstanu u (e-)knih.

+1
0
-1
Je komentář přínosný?

Taky jsem za tohle ještě chlup nepustil, radši mám steampunk a tak byl parní stroj jasná volba. Jen je problém že během používání klesá úroveň RT efektů. Na začátku se blejská víc než psí kulky, ale vyžaduje časté updaty hadříkem, aby se úroveň efektů obnovila...

+1
+1
-1
Je komentář přínosný?

V Cyberpunku se RT opravdu hodí. V noci to město vypadá úžasně.

+1
0
-1
Je komentář přínosný?

No já ho hrál pár minut když jsem zkoušel SteamDeck, ale věřím že to je zrovna hra, kde to extra vynikne. Uvidíme na jaře až vyjdou i karty střední až nižší třídy, třeba tomu dám šanci na železe které to zvládne pěkně nakreslit...

+1
0
-1
Je komentář přínosný?

Jinak ještě s RT doporučuju Control.
Proti DX11 verzi je to úplně jiná hra. A to RT je tam na to jak vynikne velmi nenáročné.
RTX3060 a výš nemá problém.

+1
0
-1
Je komentář přínosný?

Control asi mám ale ještě jsem ho nezkoušel. Taky to spíš nechám na novou kartu, aktuálně mám jen RX6600 a 3050M, ale nějaká 8700/5060Ti, pokud nebudou moc rozežrané, by to mohla zvládnout ;)

+1
0
-1
Je komentář přínosný?

Já si to nemyslím. Já to zapnul a v noci těch odlesků a všeho bylo až přes příliž, že to vypadalo všechno jako namrzlý. To moc reálný není...naopak v rasterizaci mi to přišlo víc přirozený...

+1
0
-1
Je komentář přínosný?

Lehký RT může být třeba global illumination (GI) a stíny. GI je tak nenáročný, že Doom (2016) ho počítal na CPU (ty paprsky jsou hodně řídké).

+1
0
-1
Je komentář přínosný?

Nevím o žádné hře s NEvypnutelným RT, nesměla by vůbec běžet na dejme tomu GTX 1660 a RX5700..
Nevím o žádné.
Jediná hra vyžaduje "mesh shader" a ta i na těchto karta běží, ale pomalu.
Pokud v nějaké hře nelze vypnout RT, tak to není hardwarový RayTracing.

+1
0
-1
Je komentář přínosný?

Pro zajímavost, RT běží i na GTX 1xxx kartách:
"Na ray tracing už nepotřebujete grafickou kartu GeForce RTX"
https://games.tiscali.cz/hardware/na-ray-tracing-uz-nepotrebujete-grafic...

Stejně tak na RX5700:
"Neon Noir - Real Time Ray Tracing On Radeon RX 5700XT"
https://www.youtube.com/watch?v=LtO8dxAsp3w&ab_channel=WccftechTV

A jestli bude hardwarové RT někdy vyžadované? Vždyť ho umí už i iPhone a Mac, iGPU AMD, nové iGPU Intel, i SoC Quallcom:

"Snapdragon 8 Gen 3: Ray tracing with global illumination on Justice Mobile"
https://www.youtube.com/watch?v=CFuSR4rVWg4&ab_channel=Snapdragon

Po nějakém čase třeba hry začaly vyžadovat multitexturing a odstranily fallback multipass renderingem...

+1
0
-1
Je komentář přínosný?

Nové iGPU to mají.
Bude snad někdo nahrazovat 6700 kartu novým procesorem kvůli RT v iGPU?

Problém jsou právě ty karty, které to nemají vůbec, nebo v množství menším-než-malém, ale zároveň je majitelům líto odnést je do sběrného dvora.

+1
0
-1
Je komentář přínosný?

Já mám v retro PC taky kartu, kterou je mi líto odnést do sběrného dvora. Ale nepožaduju, aby na ní běžely nové hry. Navíc hráči jsou naučený, že když hru opravdu chtějí, tak si novou GPU koupí. Platilo to před 20 lety, před 10 lety a platí i dnes. Vývojáři se nemusí omezovat, protože všechno nové to umí a většina staršího taky (pár let, viz obměna u lidí, kteří hrají nové hry). Kromě starších Intel iGPU, ale ty jsou většina kancelářský PC / notebook jen na internet.

+1
0
-1
Je komentář přínosný?

No když jde to RT i bez HW jednotek, tak tento model začíná dávat smysl ...

GeFoce RTX GT610
https://wccftech.com/shady-geforce-rtx-gt610-gpu/

+1
0
-1
Je komentář přínosný?

Ovladače NV umí RT jen na GTX 1xxx, plus samozřejmě aspoň nějaký výkon. Tohle je tak 4x-10x pomalejší než Intel iGPU ;-)

+1
0
-1
Je komentář přínosný?

Bych si i celkem přál, aby se v GPUčkách AMD v dohledné době povedlo něco podobnýho, co tehdá ATI předvedla s Radeonem 9700 Pro. Pamatujete na to někdo? To by byl mazec.

+1
0
-1
Je komentář přínosný?

Tehdy ale ani tak nešlo o to, že se ATi daná generace povedla, jako o kombinaci povedené generace ATi a zpackaného hardwaru Nvidie. Ta se tehdy rozhodla paralelně vyvíjet čip pro Xbox, GeForce 4 Ti a GeForce FX, aniž na to v tehdejší době měli dostatek pracovních sil. Prioritu dostaly konzole a GeForce 4, takže na GeForce FX zbylo pár lidí, kteří aby vůbec něco zvládli, tak vzali jako základ návrh od 3Dfx (který ale byl cílený jako DX8 grafika, konkurent pro GeForce 3) a ověsili to výbavou nutnou pro dosažení kompatibility s DX9. Krom konceptu bylo špatné i provedení, většině čipů nefungovaly všechny vertex shader jednotky.

Povedené byly i Radeony X1900, HD4000 a řadil bych k nim i první dvě generace RDNA, byť první přišla zpožděná.

+1
+1
-1
Je komentář přínosný?

"""Povedené byly i Radeony X1900, HD4000""".

Tak tak, osobně mám asi nej AMD vzpomínky na HD7870, za bratru 4800Kč nová karta a rohlík na ústech mi skončil až s Rise of Tomb Raider, kde nebyl problém obsadit 5.5GB VRAM.. odehrál jsem to i na těch 2GB, do té doby to nemělo slabinu.
A na taková 7970 rozjede i dnešní hry :))
Na LOW v 30fps.

+1
+1
-1
Je komentář přínosný?

V retro PC mám Radeon HD7850 2GB a v 720p Low jede i Cyberpunk 2077 (asi tak 25 fps). Držím si ji, protože má nativní podporu pro Windows XP ;-)

Fun fact, tento PC s touto grafikou jsem si koupil, když jsem viděl teaser na Cyberpunk 2077, abych měl PC, co to utáhne (do té doby jsem hrál na notebookách). Bohužel vývoj trval moc let :_)

"Cyberpunk 2077 Teaser Trailer" před 11 lety
https://www.youtube.com/watch?v=P99qJGrPNLs&t=4s&ab_channel=Cyberpunk2077

+1
0
-1
Je komentář přínosný?

Nemyslite nahodou HD 7950? protoze prave krabici od toho mam jeste jako podstavec na monitor a byla to legenda. Vyssi verze byla HD 7970.

+1
0
-1
Je komentář přínosný?

Nepředvedl Radeon 9700 Pro spíše startup, který ATI koupilo? (ArtX)

+1
0
-1
Je komentář přínosný?

Karta vyšla pod značkou ATi pokud vím, jestli někoho koupili, - je to možné, ale proto ty firmy kupují jiné firmy aby si mohly vzít jejich práci a nazvat to po svém :)

+1
0
-1
Je komentář přínosný?

Ano, udělal to tým, co koupili. Ten tým už předtím udělal 2 grafiky pro Nintendo, takže ATI vědělo, do čeho jde.

+1
0
-1
Je komentář přínosný?

jj máš pravdu vybavuju si GameCube a ta druhá možná N64? (ta mě ještě minula :)

+1
0
-1
Je komentář přínosný?

Samozřejmě je všechno krásné a přáli bychom AMD mega drtič alá 5090 s poloviční spotřebou a cenou.. Ale co popisuješ jsou dřevní doby a herní akcelerátory měly v dobách 9700pro za sebou teprve pár let.
Dneska má nV díky dlouholetým zkušenostem a hlavně naprosto neomezenému rozpočtu opravdu brutální náskok.
Je třeba stát nohama na zemi.

+1
0
-1
Je komentář přínosný?

Tak člověk se může zasnít :-) V CPU se jim ten obrat povedl na výbornou.

+1
0
-1
Je komentář přínosný?

Mazec byl i Radeon 9800 Pro, X800 XT, X1950 Pro, HD 4850, HD 5870, HD 7970, R9 Nano, RX 480, RX Vega 56, RX 5700 a RX 6800 .-).

+1
0
-1
Je komentář přínosný?

Tak jestli to chápu správně pro tebe je mazec i 2900XT a HD6990
Třeba 9800pro je prostá lehká evoluce 9700pro - nic extra nového.
X800XT je vyloženě špatná karta, (měl jsem X800gto) měla jen shader model 2.0 a byla hodně prodávaná ještě v době, kdy už na ní nefungovaly featury které hry té doby obsahovaly. Typicky očekávaný Oblivion)
A po cca roce a půl něco mého vlastnění X800gto dorazilo demo Collina: Dirt a .... čau DX9c required, karta tu hru ani nezapnula.

R9 nano, další nesmysl.. 4GB VRAM na highendu v době masivního nástupu PS4 her co uměly běžně využít 6GB VRAM (rok 2015)..

Je toho víc, ale počítám že to asi nemá cenu řešit.

+1
0
-1
Je komentář přínosný?

„R9 nano, další nesmysl.. 4GB VRAM na highendu v době masivního nástupu PS4 her co uměly běžně využít 6GB VRAM (rok 2015)..“

Tehdejší konkurenční GeForce GTX 970 měla efektivně 3,5 GB a GeForce GTX 980 4 GB. Takže pro tento cenový a výkonnostní segment byly 4 GB standard až nadstandard. Víc (6 GB) tehdy měla jen podstatně dražší GeForce GTX 980 Ti.

+1
0
-1
Je komentář přínosný?

Však já taky netvrdím, že byla gtx970 s její domrvenou pamětí dobrá karta :))
A už vůbec to není tak, že bych snad měl v lásce nějakého z výrobců. ATi/AMD karet bylo u mně v životě určo víc než nVidií.
Fury je u mě co se týče “životnosti” domrvená karta, protože vím že v roce 2015 vyšla i R9-390 a ta měla měla 8GB určitě.
Mimochodem v roce 2015 vyšel i ten Rise of tomb raider.
Takže s Fury ti chybělo dost VRAM už v době kdy jsi ji donesl domů. A to se tenkrát měřilo jen v 1080p.
Mám rád retro testy hardwaru, prostě mě zajímá jak jaký HW stárne a jak byl tedy nadčasový.
A jsem si jistý, že novějších hrách ta R9-390 roztrhá tu Fury na mikčástečky. nVidii do toho tahat vůbec nemusíme.

+1
0
-1
Je komentář přínosný?

Co si pamatuju, tak ona GTX970 uměla využít celé 4GB, ale těch 500MB nebylo přímo adresovatelných a překlad adres sebral trochu výkonu...

+1
0
-1
Je komentář přínosný?

No trochu, "posledních" 512MB mělo brutálně nižší propustnost než zbytek karty.
Takže v době vydání asi bez problému, ale na konci života té karty (a i o dost dřív) to celkem dehonestovalo výkon, protože ty 4GB byly zaplněny běžně.
Už PS4 éře neprosto v klidu.

+1
0
-1
Je komentář přínosný?

Hmm,
tak se té doby nakonec dožiju, že osobní počítač nahradí zcela sekretářku a uvaří mi i to kafe [;-)))

+1
+4
-1
Je komentář přínosný?

No když koukám na nabídky Intelu a nVidie, začínám chápat, k čemu je dobré mít v počítači 2kW zdroj. Tolik nežere ani rychovarka.

+1
0
-1
Je komentář přínosný?

Příkon 2kW a více má 129 rychlovarných konvic z celkem 149 nabízených na Alza.

+1
0
-1
Je komentář přínosný?

Taky je to výkon pomalého nabíjení elektroauta, např. přes noc.

+1
0
-1
Je komentář přínosný?

A taky to hned neznamená, že když vyjde nějaká ohavná čtyřslotová obluda, že hned musím mít 2kW zdroj v počítači...
Prostě ji stačí ignorovat. :)

+1
0
-1
Je komentář přínosný?

Pro srovnání:
Mám varnou konvici, která na štítku uvádí ... 650W.

+1
0
-1
Je komentář přínosný?

To ale není rychlovarná konvice, ale “pomalovarná konvice :)”

+1
0
-1
Je komentář přínosný?

Uvaří to vodu za stejnou dobu jako ty 2000W potvoru.
Jen místo 1.7 litru pouze 0.6 litru.

A nevyhazuje 6A jistič ;)

+1
+1
-1
Je komentář přínosný?

tohlento je zoufalost i na 5080 aby byla skříň typu bigtower aby když se ten přímotop rozběhne naplno nehučel jak pračka při ždímání. Nebo hodně výkonné vodní chlazení. Takže ikdyby nakrásně nezdražili ani o cent tak se sestava stejně prodraží kvůli lepší skříni a výkonějšímu chladícímu systému.

+1
0
-1
Je komentář přínosný?

Zvykej si, dokud budou takové malé pokroky ve výrobních procesech a bude se na nové navíc dlouho čekat, lepší to už nebude. Nvidie nechala své zákazníky namlsat skvělou efekvititou proti předchůdci, protože dovolila přechod z 8 nm Samsungu na 4 nm TSMC, takže najednou byl velký prostor pro zvýšení efektivity, nyní se už nebylo kam posunout a výkon byl maximalizovaný, takže logicky prostě musí být problém to překonat, musíš holt zvýšit příkon, abys mohl zvednout parametry a tím i výkon, jinak bys z toho už moc nevymáčkl, je to bohužel bída, takže teď buď skouskneš větší topení za spoustu peněz, jinak máš jednoduše smůlu.

+1
0
-1
Je komentář přínosný?

Zaprvé není nutné aby ty karty žraly takový masakr.
Pokud naopak podobnou kartu na příkonu omezíte, výkon neklesá s příkonem lineárně, ale daleko pomaleji.
Takže testeři už nevím z jakého HW webu vzali 4090 a místo default 450W jí dali 250W a dosahovali 84% fps původní karty !!
Ventilátory se sotva točily. Takže je otázka, jestli je nutné opravdu za metou 600W hnát.
Pokud by někdo tu 5090 omezil na těch 450W, rozdíl ve výkonu bude velmi malý.

A co týče nových procesů, ty už se nikdy nikam zrychlovat nebudou (logicky), tuhle show jste si mohli užít na přelomu tisíciletí, kdy byl málem co 9měsíců nový proces :)

Respektive, čím blíže jsi rychlosti světla, tím obtížněji dál zrychluješ :)

+1
+1
-1
Je komentář přínosný?

84 % dolů znamená obráceně 19 % nahoru, to je skoro o pětinu.

+1
0
-1
Je komentář přínosný?

Jasně, ale to už je celkem velkej skok. Předpokládám že na úrovních 320-350 W by ten pokles byl menší. Já provozuju svojí 3090 o nějakejch 80-90W pod továrním nastavením a jsem s tím spokojenej. Na upgrade bych asi pomýšlel až tu generaci další (Nv 6000 / AMD 9000 ?), ale pokud bych měl provozovat 5090, která by reálně generovala 600W tepla, a mohl bych obětovat 10 snad i 15% výkonu za cenu že bude spotřeba kolem 400W, tak bych to nejspíš udělal. V létě aby mi komp generoval kilowatt tepla do místnosti, to není moc v pohodě.

+1
0
-1
Je komentář přínosný?

Ano, záměrně to chtěli přepálit.
Pokud bys 4090 nastavil na 350W, pokles fps bude nepostřehnutelný.
Jinak obecně jsem tvrdým odpůrcem jakéhokoli kousku křemíku co vydává 250,350 - 600W.
Ne proto, že bych neměl na elektriku, ale že to chrlí horko do místnosti nebetyčným způsobem.
Nesmyslně to Prodražuje chlazení atd. Pokud nějaký CPU/GPU bere přes 150-200W, je něco hodně špatně.
Akorát jsme si už prostě zvykli.

+1
+1
-1
Je komentář přínosný?

Ladis - No jasně, ale za skoro polovinu elektriky.
Co počítáme?

+1
0
-1
Je komentář přínosný?

Když chceš opičku, musíš mít na banány.

+1
0
-1
Je komentář přínosný?

Jak už jsem psal výše, spotřeba komponent v počítači určitě není o platbu za elektriku.
Televizi by si taky nikdo s 1kW spotřebou nekoupil, i když by tu elektriku nejspíše zaplatil.

+1
0
-1
Je komentář přínosný?

Když chceš opičku, nemusíš nutně kupovat Kingkonga :-)

+1
+1
-1
Je komentář přínosný?

No pokud chceš tlačit RT, 8K rozlišení a já nevím co vše z toho nedělají, tak podle toho musíš tlačit na pilu i co se týče výkonu, prostě ho potřebují maximalizovat za každou cenu. 20% rozdíl ve výkonu už je sakra dost velký rozdíl výkonu, aby jim to v tomto ohledu za to prostě stálo.

+1
0
-1
Je komentář přínosný?

Pro úspěšný prodej je důležité aby to mělo ten inovovaný napájecí konektor.
Pak to bude zaručeně HOT zboží .-))

+1
-1
-1
Je komentář přínosný?

Pokud 5080 přináší oproti 4080 jen 10% výkonu navíc, tak je to úplně zbytečná karta. Jako adekvátní mezigenerační posun si představuju 30%...

+1
0
-1
Je komentář přínosný?

Bohužel bez konkurence se už není kam hnát, bude dosahovat nadále jen výkonu 4080, takže jim to prostě stejně stačí, spíš se jen tak kosmeticky navýší výkon, aby se neřeklo, že se nic neděje, napálí se znovu $$$ a jede se dál + do topné sezóny 400W přímotop ideál, nejspíš se budou akorát snažit nahnat nějaký výkon navíc skrz takty, ať to nevypadá až tak blbě. Nvidie celkem jasně dává najevo, že buď máš na 5090 anebo dostaneš jen kosti, že 5080 překoná 4090 můžem asi rovnou zapomenout.

+1
0
-1
Je komentář přínosný?

Jenže 5080 nenahrazuje 4090 :)

+1
+1
-1
Je komentář přínosný?

Budeme se učit nové rovnice?

5080 = 4080 Ti Super

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.