Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Výkon oficiálně: GeForce RTX 5070 (Ti) +21 %, RTX 5080 +15 %, RTX 5090 +32 %

Na výkon bez troch fakeframes serie pes. Navi48 je mŕtva. lol

+1
-15
-1
Je komentář přínosný?

Ani bych se nedivil, kdyby AMD taky OFICIÁLNĚ přidalo víc fakeframes jako odpověď. Ono totiž i AMD umí víc než jeden fakeframe v rámci FluidMotion, nebo jak se to jmenuje.

+1
+3
-1
Je komentář přínosný?

No, ak AMD pridá len dva fakeframy, pričom Nvidia má tri fakeframy, tak to je hneď o 33% nižší výkon. :-)

+1
+1
-1
Je komentář přínosný?

A co když AMD přidá 4? To by byla zase o 33% rychlejší!
Nicméně platí, že fake-frames jsou maximálně pro gamesníky. Hrubé síle to nepomůže. To už pochopitelně každý podle svého zaměření.
Rozhopádně mě bude v budoucnu bude zajímat, jak PC s příkonem 800+ W _tiše_ uchladit i v létě. V zimně to je pohoda, to se při pokojové teplotě 17 °C rozptýlí v cimře... Vidím to na vodníka s potrubím za okno... :D

+1
+5
-1
Je komentář přínosný?

V takom prípade sú mŕtve Geforsky. :D

+1
+2
-1
Je komentář přínosný?

Je to tak, RT, DLSS i FG už je běžně součást základních požadavk na hry. Třeba Indy, pokud člověk chce Full RT + ultra preset, tak pro 60 FPS bude potřeba RTX4090 s DLSS perfromance a FG enabled. Na FHD a low presetu s full RT stačí na target 60 FPS jen 4070 při zapnutém DLSS quality a FG.

Ale běží to i na plečkách, se základním nevypnutelným RT na FHD@60FPS v low presetu stačí i 2060S a v Ultra presetu bez full rt stačí na native 4k jen 4080

+1
-2
-1
Je komentář přínosný?

Než vydáš tolika peněz (méně než za nový mobil), měl bys zvážit jestli to bude mít pro tvé potřeby dost paměti.

FG nesnižuje nároky na VRAM, jak hlásáš po webech z českých luhů a hájů.
FG nároky na VRAM zvyšuje.

https://www.techpowerup.com/review/black-myth-wukong-fps-performance-ben...
Indy pro ně asi nebyl dost zajímavej, tak se budeš muset spokojit s jinou hrou s nevypnutelnými RT.

+1
+3
-1
Je komentář přínosný?

"FG nesnižuje nároky na VRAM, jak hlásáš po webech z českých luhů a hájů."
Co prosím? FG samozřejmě potřebuje paměť, nový FG z DLSS4 ale nároky na paměť o 30% snižuje.

V té tvé hře 4k RT+FG 13,5GB, bez FG 9,7GB, tzn FG sebral 3,8GB, nový FG má mít o 30% nižší nároky na paměť, už jsme na 2,7GB. To se sice pořád do 12GB nevejde, ale i kdyby 5070 vyšla stejně výkonně jako 4080, tak jsi na 30 FPS AVG v native 4k, A při 30FPS mi přece řekneš že FG je nepoužitelný, takže ho nezapnu a jsem s VRAM pod 10GB. holt s takovou grafikou budu muset ubrat detaily a už ti letí nároky na paměť dolů. Ale na takové grafice se bude něco podobného hrát spíše v QHD a tam i se současným FG stačí 12GB. I když ani v tom QHD není dost výkonu na native.

Hlavně mě je nějaký Wukong úplně u zadele, zajímá mě jen výkon v TFD, tam na moje UWQHD rozlišení stačí 4070S i s RT, RR, a dokonce i ten FG můžeš zapnout a pořád se do těch 12GB paměti vejdeš.

Až začnu hrát hru, kde budu mít výkonový problém a bude mě pálit ubrat detaily, tak koupím novou grafiku, proč bych měl teď kupovat výrazně dražší grafiku, která nezmění můj herní zážitek.. jen proto, že má na sobě více paměti? Kupuju HW dle požadavků, které mám teď, ne které budu mít... někdy, kdoví kdy. Se současným výkonem i pamětí jsem si vystačil nějakého 5,5 roku... I kdyby to byly 4 roky, tak za 4 roky tady bude úplně jiný HW

+1
-3
-1
Je komentář přínosný?

>> Až začnu hrát hru, kde budu mít výkonový problém ... tak koupím novou grafiku

Kdo rychle dává,
dvakrát dává.

+1
+3
-1
Je komentář přínosný?

No to musí být něco mít i s FG jen 60 FPS, čili reálně hraješ na 30 a ještě to je celé mázlé přes DLSS performance režim, to je určitě přesně to nastavení, se kterým chce každý hrát, když si koupí něco jako 4090...

„Na FHD a low presetu s full RT stačí na target 60 FPS jen 4070 při zapnutém DLSS quality a FG.“

Stejně tak toto musí vypadat jako shit, DLSS na kvalitu při low end fullHD rozlišení určitě nebude vypadat nějak zvlášť dobře a do toho low preset... super.:) A pořád ke všemu hraješ na 30 FPS, to tak někdo jako vážně používá...? tomu se mi ani nechce věřit.

+1
+4
-1
Je komentář přínosný?

Přesně tak, máš cca 30 FPS, na víc není výkon a musíš to máznout, případně přidat FG. Ale samozřejmě můžeš hrát na těch 30 FPS, nebo můžeš ubrat na detailech. Každý si může vybrat a možnosti tu jsou

https://www.youtube.com/watch?v=hbTcVx7BWLw&t=1084s tady máš Indiho v plné palbě, 4k native na 4090, padá to v úvodní scéně i pod 30 FPS. Někde to může padat ještě víc, s DLSS quality jsi někde na 50 snímcích... ale je třeba myslet že se na scéně nic neděje a někde může být výrazně náročnější...

+1
0
-1
Je komentář přínosný?

On zrovna Indy vypadá bez PT asi tak o 5% a pak v 1080p letí jak z praku i na 3060…
Takže tak, ne vždy je nutné za každou cenu ždímat krev

+1
+1
-1
Je komentář přínosný?

Tohle je pořád vaření z vody. Materiály nVidie neobsahují čísla. Jaks to počítal? Pravítkem jsi měřil slajdy, které každý správný markeťák přizpůsobuje obrazu svému?

+1
-6
-1
Je komentář přínosný?

Na co měřit pravítkem? To by byla velká nepřesnost. Stačí někde najít snímek s dostatečně vysokým rozlišením, spočítat jednotlivé pixely a potom dosadit do trojčlenky. A voilà, máme přesný výsledek :-)

+1
+9
-1
Je komentář přínosný?

Jen ať to tam někdo nenastřelí jen tak od oka, pak by byl takový pixel hunting celkem zbytečný, u Ady dal předtím ještě celkem normální grafy s procenty, ale tady už máš fakt totální hausnumera.

+1
+2
-1
Je komentář přínosný?

Je docela vtipné, jak AMD chtělo s Nvidií vyběhnout a nic neoznámit a počkat si co Nvidie, a tak si Huang řekl, že bude schválně mlžit jak to jen jde a tvrdit nesmysly jako 5070 = 4090 a třeba tomu někdo uvěří, teď asi tápou, co dál, dnes to měli oznámit a zas nic, asi se nakonec bude čekat až do reviews 5090/5080 na to, jak se to teda vlastně chová, ať můžou podle toho určit, za kolik to chcou asi tak prodávat, no moc jim to nevyšlo.

+1
-4
-1
Je komentář přínosný?

Zatím to vypadá na to, že Huang Jen Jsem Lhal vyběhnul
...
...
se svými fanoušky.

+1
+13
-1
Je komentář přínosný?

Fanoušky :)))
Příště by mohl mít na keynote kříslo a odzpívat ji jak Rocketman.

+1
0
-1
Je komentář přínosný?

Tak Huang uz jen funguje jen jako marketingova kecka. S technikou nema nic spolecneho. Je smutne, kam to jako drive technicky vzdelany clovek, dopracoval.

+1
+2
-1
Je komentář přínosný?

Když to funguje
tak do toho neryj.

+1
+2
-1
Je komentář přínosný?

Nejde o to, ze by sam ne o twchnickeho mel delat. To mu samzrrejme jako CEO ani nenalezi. Smutne jsou ty jeho nesmyslne pindy a vyjadreni, ktere ma. Samozrejme trhy to maji radi...

+1
+1
-1
Je komentář přínosný?

„ať můžou podle toho určit, za kolik to chcou asi tak prodávat“

To už je snad určeno, ne? Za co nejvíc to jen půjde!!!

+1
+2
-1
Je komentář přínosný?

Ano a právě proto se čeká, co z toho nakonec vypadne, protože z těch Huangových přednášek a podivných grafů se reálný výkon moc spolehlivě vyčíst nedá, asi nemůžou uvěřit, že tam je fakt tak malý rozdíl, jak je píše třeba zde v článku, tak už čekají, jestli by to nesneslo třeba větší cenu, bude možná ještě prdel, jak to nakonec dají za 20k, pokud má 9070 XT opravdu výkon jak 7900 XT nebo dokonce snad 4080, tak proč to prodávat jen za 15k, když 5070 za 17 bude třeba na úrovni 7800 XT...

+1
0
-1
Je komentář přínosný?

Však ty grafky od Huanga budou sedět jak zadek na hrnec. Jako obvykle, když si to někdo otestuje ve stejném scénáři. Není třeba nevěřit, ten dvojnásobný výkon tam bude, bude tam dokonce i ten 6-8 násobný výkon, když srovnáš native vs dlss + mfg. A myslím si že je poměrně irelevantní jestli to bude 6x nebo 8x víc. Budou to spíše vyšší násobky a to celkem stačí.

Stejně tak jestli je něco výkonnější o 90%, 100% nebo 110%, protože ten rozptyl je tak malý že nijak nezmění herní zážitek.

+1
0
-1
Je komentář přínosný?

Byla by ostuda, kdyby přechod FP8 --> FP4 nezvedl výkon.

+1
+1
-1
Je komentář přínosný?

Akorát že to tak stejně nikdo používat nebude... ale bude to tam.

+1
0
-1
Je komentář přínosný?

Je rozdíl mezi tím že si někdo čísla vymyslí, nebo scénář s těmi čísly nevyužije, nevyužít technologii můžeš, pak proč by sis měl něco takového kupovat, když to nepotřebuješ.

+1
-1
-1
Je komentář přínosný?

Protože už nic jiného (s podporou) už není.

+1
+1
-1
Je komentář přínosný?

Chtěl jsem 5080 ale ten výkon je velká bída :( Nene posun nenastal nic nebude...

+1
+7
-1
Je komentář přínosný?

U AMD je fajn jedna věc. Když prezentují grafy výkonu, tak nezávislé testy vyjdou zhruba stejně. Pokud už srovnávají jablka s hruškami, tak aspoň transparentně. Nechápu, jaký má význam, ještě v pozici lídra, lhát na pódiu. Pokud ti výrobci sází na to, že mají mezi zákazníky většinu tupců, tak to není ani smutné, ale spíš hnusné.

+1
+12
-1
Je komentář přínosný?

To nie je pravda, pri uvedení RDNA3 s tým mali dosť problémy keď tie grafy nezodpovedali realite. Ale čo sa týka CPU tak tie grafy boli vždy viac-menej to isté.

+1
0
-1
Je komentář přínosný?

Hodná AMD v prezentacích nikdy nelže!
(irony on)

+1
0
-1
Je komentář přínosný?

Podľa mňa nejde o to, že chceli vyslovene klamať, ale určitá forma zavádzania to bola.

+1
+1
-1
Je komentář přínosný?

To platilo do vydani RDNA3 a Zen5(non X3D)..
Tyhle dve vydani AMD marketingove (i cislama v prezentacich) dost zmastilo.

+1
0
-1
Je komentář přínosný?

Ukaž mi nezávislé testy NV, které nepotvrdily grafy NVIDIA?

Nebo pochybuješ že hra co dělá třeba 100 FPS kdy každý druhý snímek je přes FG, tzn 50 klasicky renderovaných, a teď, kdy FG běží v režimu vložení 3 snímků se výkon dostane na 200 FPS a klasicky renderovaných je 50FPS?

Nebo nevěříš že 3080 byla až 1,9x efektivnější? Nevěříš že 2080 při Controlu 4k s RT a DLSS nebrala 240W při 60FPS? A nevěříš že 3080 v Control s RT a DLSS v 4k při 60FPS nežrala 126W? Což právě odpovídá 1,9x vyšší efektivitě? Ukaž mi ty tvé nezávislé testy, které to vyvrátily.

NVIDIA zcela jasně uvádí jak těch výsledků dosáhla a jelikož funguje na trzích, kde by je za nepravdivou reklamu právníci sedřeli z kůže tak si marketing fakt nedovolí publikovat výsledky, které nedokáže zopakovat. A to samozřejmě není jen NVIDIA, platí to pro všechny výrobce.

Jen jako příjemce informace nesmíš koukat na jedno číslo, jako 2x apod, ale musíš koukat i na to pro jaký scénář to platí a musíš počítat s tím, že v prezentaci ti budou ukazovat hlavně to nejlepší.

Asi jako AMD ukázalo že jejich grafické řešení pod 500 dolarů překoná grafické řešení NV za 700 dolarů, aneb že 2xRX480 v CF mělo o pár procent vyšší výkon než GTX1080, vyšší spotřebu AMD nezmínilo, hlavně nezmínilo že ten výkon je jen v té jediné hře, protože žádná jiná hra neškálovala tak dobře (holt to tehdy bylo takové AMD tech demo), reálně to bývalo o desítky procent pomalejší než GTX1080 a ve hrách které vůbec CF nepodporovaly, byl výkon 2xRX480 dokonce menší než při použití jedné RX480 :)

+1
-2
-1
Je komentář přínosný?

>> Nebo nevěříš ...
Říkejte mi Tomáš.
Nevěřící Tomáš.

>> Ukaž mi nezávislé testy NV, které nepotvrdily grafy NVIDIA?
Už je nějaká nVidia RTX 50xx sehnatelná pro provedení nezávislých testů?

Už sis nějakou pořídil?
Tak si ji užij, ale nestěžuj si, žes nebyl varován.

+1
+2
-1
Je komentář přínosný?

"Už je nějaká nVidia RTX 50xx sehnatelná pro provedení nezávislých testů?"

My se ale nebavíme o testech 5000 řady, bavíme se obecně, AMD tam má pravdu, NVIDIA kecá. Klidně se k tomu vrať až to někdo otestuje ve stejném scénáři, výsledek bude +- stejný. Tak to prostě je.

A já žádné varování nepotřebuju, chtěl jsem 4070S, koupím ale téměř jistě 5070, nepotřebuju benchmarky abych věděl že to horší nebude. Jestli budu mmít +75% nebo + 80% v rastru a 200 nebo 300% výkonu v RT + DLSS, tak je to jedno. Oboje bude dělo.

+1
-2
-1
Je komentář přínosný?

Komu není vzájemné rady
tomu není ekonomické pomoci.

Nezapoměňte otevřít okno až ji budete vyhazovat.
Sklenáři se blbě shaní.

+1
+1
-1
Je komentář přínosný?

„Jestli budu mmít +75% nebo + 80% v rastru“

...ty seš prostě marnej případ, nevím, co jiného ti na tohle dál říct.;) Hlavně se neutop v těch vlhkých snech.

+1
+1
-1
Je komentář přínosný?

AMD nelže v grafech? Tak tos poslední rok asi moc nedával pozor. Však se ještě dočkáš. Navíc Huang hned dodal, že by to nebylo možné bez AI a bylo téměř všem hned jasné, že jsou to nějaký fejkový framy. AI tu už je nějaký pátek, nikdo mu ty jeho kecy nežral.

+1
0
-1
Je komentář přínosný?

"GeForce RTX 5070 Ti dosáhne asi o 1-2 % nižšího výkonu než GeForce RTX 4080 a GeForce RTX 5070 skončí přesně mezi GeForce RTX 4070 Super a GeForce RTX 4070 Ti."

Tak tím bychom měli uzavřenou diskuzi, jestli rtx 5070 překonává rtx 4070S z včerejška a z minulého týdne. Teď ještě, aby ta čísla byla potvrzena v recenzích. Nicméně nečekám, že by nvidia byla takový magor, aby vydala grafiky slabší než v minule generaci. To by To musela dát levněji.

+1
0
-1
Je komentář přínosný?

Tak pokud přesvědčíš masy, že se už máš rovnou koukat jen na testy s RT... jen teda nevím, jestli jim s tímto půjdou na špek recenze. Je pro ně ale prostě jednodušší zvyšovat výkon přes RT a zaměřit se na to, aby tam nebyly takové propady výkonu, jen ten scénář bez RT bude potom horší, jak RT kvůli tomu propadu rovnou rači vypneš, v takovém případě není moc o co stát upřímně, největší výhodou RTX 50 tímto vemeš a hodíš do koše, proto mi nepřijde úplně ideál takto (ne)zvyšovat výkon jen přes RT na úkor rastru.

+1
0
-1
Je komentář přínosný?

No ono náročnost rasteru už (zásadně) neroste. Ta náročnost je opravdu dána spíše různými RT efekty. Velikost textury spis zasira VRAM, než výpočetní náročnost.

+1
0
-1
Je komentář přínosný?

>> Ta náročnost je opravdu dána spíše různými RT efekty.
A proto nebudeme mrhat křemíkem na další jednotky pro RT (a pro jistotu ani na jednotky pro AI), ale zkusíme to ošulit přes AI.

+1
+1
-1
Je komentář přínosný?

Nezvedli výrobní node, takže by na ně stejně neměli místo. A pokud by na ně měli místo, tak přidáním plochy. A pokud by přidali plochu čipíčku, chtěli by po melkorovi více peněz. Ale melkor je přechcal a peníze jim nedá tak či tak.

+1
0
-1
Je komentář přínosný?

Kolik RT cores / tensor cores by se vlezlo na plochu těch přidaných cuda cores (256 u 5070).
Podpora pro Int32 na druhé polovině stream procesorů taky sežrala nějaké ty tranzistory.
Proč to všechno, když "rasterizačního výkonu je dost" a "zanedlouho už nebude potřeba vůbec"?

+1
0
-1
Je komentář přínosný?

Cesty Huangovy jsou nevyzpytatelné.

+1
+1
-1
Je komentář přínosný?

A proč bys neměl koukat na testy s RT nebo s DLSS, když dnes už hry RT vyžadují a nevypneš ho, stejně jako vyžadují zapnuté DLSS abys při nějakém presetu kvality dosáhl 60 FPS.

Třeba tady: https://images.ctfassets.net/rporu91m20dc/1F34VhuWxJlqAFqxZQEWoK/24db853...

HW RT required, Pokud chceš hrát s full rt, tak na target 60FPS při FHD rozlišení v low presetu potřebuješ 4070, ale... DLSS quality a FG.

Holt bez upscalingu a framegenu se pro maximální kvalitu dnes už v některých hrách neobejdeš. Takové hry budou přibývat, protože hlavně to RT znamená pro vývojáře úsporu času, protože nemusí ohýbat rasterizaci, ve finále pak to RT může mít i menší nároky na výkon než dlouhou dobu mazlená rasterizace.

+1
0
-1
Je komentář přínosný?

Na co ti je RT, když pak musíš hrát na takové low nastavení? Že se ve scéně bude vše lesknout jak psí kulky ten vizuál už stejně nezachrání v takovém případě. RT je takové to nastavení, které si máš zapnout jak už máš vše ostatní na max a furt máš v rezervě nějaký nevyužitý výkon, ne naopak.

+1
+4
-1
Je komentář přínosný?

Není pravda, když v Cyberpunku (i jiné hře) zapneš klasický rastr "jen" na HIGH, a dáš RayTracing "jen" na MEDIUM, tak ta hra vypadá o kus lépe než rastr na ULTRA a RT off..
A na s DLSS Q si normálně, opravdu normálně zahraješ i na prašivé RTX3060. (mimo jiné protože má VRAM)
Jinak hry co jsem s RT hrál na RTX3060 v 50+fps : Control, Jedi Survivor, Cyberpunk, Forza5, RE: Village, RE4.

Jenže kdo by to zkoušel že?
Přeci RT se bez 4090 přeci nehýbe - to ví každej přeci. :)

+1
-3
-1
Je komentář přínosný?

Ja som skusal Cyberpunk s RT + DLSS na 3060Ti. Nastavil som detaily nech mam 80fps a potom vlezem do vytahu a mam 40fps. Tak som RT vypol. :)

+1
0
-1
Je komentář přínosný?

A zrovna ve výtahu, jestli tam nemáš něco blbě :)

+1
0
-1
Je komentář přínosný?

Spolu s hráčom nastúpila do výťahu 100 kilová postava. :D

+1
+1
-1
Je komentář přínosný?

Jeden titul do budoucna který mě možná zajímá - Division 3 - poběží na snowdrop engine, už poslední dvě hry na něm postavené mají RT vždy zapnutý bez možnosti ho vypnout.

A i na současné 3060Ti můžu hrát v UWQHD některé tituly s plným RT a mít 60 FPS, já se ale neštítím zapnout DLSS.

A věř tomu že třeba reflexe i s nízkým presetem budou někde jinde, víš jak funguje SSR? Když objekt co má házet obraz částečně nebo zcela zmizí z kamery (něco ho zakryje), tak zmizí část nebo celý odraz, protože v rastru prostě není z čeho tu reflexi vypočítat, ten objekt/jeho část na scéně není. S RT tam ten odlesk bude. A věř tomu, je to hodně viditelné a rušivé když sleduješ jak ti mizí třeba odraz hor a mraků na vodní hladině když letíš nad jezerem asloupek cockpitu část té hory a mraků zakrývá..

Ale RT opravdu můžu zapnout jen tehdy když na to mám výkon, bohužel v jedné hře ten výkon nemám a proto si taky chci koupit novou grafiku.

+1
-1
-1
Je komentář přínosný?

RTX5090 32% vyšší výkon, ale také 28% vyšší spotřeba, to mně nepřijde jako moc dobrá věc... a to vlastním RTX4090.

+1
+10
-1
Je komentář přínosný?

Jediné, co mě láká je konečně ta podpora 4:2:2 u videa plus 32G vram na LLM.

+1
+1
-1
Je komentář přínosný?

Jestli to máš na AI, tak to asi podtaktuješ a podvoltuješ, ne? Příp. jak to chladíš, takové monstrum?

+1
+2
-1
Je komentář přínosný?

Jo, ale vedle toho vypadá jako dobrá volba DIGITS.

+1
0
-1
Je komentář přínosný?

Ty jsi viděl spotřebu 5090? Kdo a kde to měřil? V čem to měřil? Jak to měři? Že bych koukl?

Ale 132% výkonu za 128% spotřeby je pořád zlepšení efektivity, sice nepatrné, ale je.

+1
-2
-1
Je komentář přínosný?

Samozřejmě, že neviděl, když ještě nejsou oficiální testy, ale TGP 575 W je známo, proti 450 W u RTX 4090.

+1
+2
-1
Je komentář přínosný?

Jasně, ale to neznamená že to bude mít spotřebu 575W, ona i ta 450W 4090 lecdy běží výrazně pod 400W.
https://www.youtube.com/watch?v=hbTcVx7BWLw&t=1084s tady třeba native 4k Indy bez full rt, nějakých 390W, s DLSS to klesá i k 370W. nativ 4k s pt pod 430W s dlss kolem 400W. Jsi někde 10-15% pod TGP. A to je to co tě zajímá, reálná spotřeba při reálném použití. Mám 200W grafiku, ale aktuálně v náročné hře, kvůli které chci upgrade běží na 150-160W, ale v méně náročných hrách jsem někdy i pod 100W.

+1
0
-1
Je komentář přínosný?

Nesmíš tam dávat frame cap a 3060ti ti bude žrát 200W vždy.
Přeci nemůžeš tvrdit “moje 3060ti berečasto 100W - a mít zapnutý framecap”.
To si pak můžu na CPU povolit dvě jádra a tvrdit, že mi bere max 20W

+1
0
-1
Je komentář přínosný?

Tak a kde jsou ti lidé co furt tvrdí a doporučují prodat RTX 4090 a pořídit si RTX 5070(Ti) že bude stejně výkoná a úspornější ?? i když je to specificky nemožné. ( no možná ve FHD se zapnutým DLSS4 naplno pak možná )

+1
+3
-1
Je komentář přínosný?

>> a kde jsou ti lidé co furt tvrdí a doporučují prodat RTX 4090 a pořídit si RTX 5070(Ti) že bude stejně výkoná a úspornější?

V oddělení nezávislé propagandy.
Nebo ve frontě na ty prodávané 4090 ;)

+1
+5
-1
Je komentář přínosný?

Wow, smím vědět kde pořád někdo tvrdí a doporučuje prodat 4090 a koupit 5070(Ti)?

Už jsem toho viděl fakt dost, ale tohle ani jednou, natož že by to bylo "furt".
Můžu poprosit o místa, kde se tomu tak děje?

A jelikož ten claim od NVDIA existuje a žádná firma není tak hloupá aby prezentovala něco, co je nemožné, taksamozřejmě ta 5070 dosáhne na výkon 4090, stačí aby to byla jedna hra ve specifickém nastavení, konec konců stejně tvrdilo i AMD že 2xRX480 je rychlejší než GTX1080 přitom je to o 200 dolarů levnější... Skutečně to tak bylo, v jediné hře, v mnoha hrách naopak 2x480 v CF byl nižší než u jedno RX480, ale to nemění že 2xRX480 byla rychlejší než GTX1080 v jedné hře.

Vždycky u těch tvrzení musíš vědět k čemu se vztahují. 4070 taky překonává 3090 v některých případech...

+1
-1
-1
Je komentář přínosný?

ona ta 5070 asi dosáhne (možná i přesáhne) FPS jako 4090 v titulech s podporou DLSS 4. Problém je, že bude mít daleko horší input lag. Sama nvidia prezentovala, že na stejné řadě karet snímky narostou mezi DLSS 3 a DLSS 4 na 2x tolik a input lag je stejný. Takže opačně, pokud má horší karta stejné FPS s DLSS 4 oproti starší s DLSS 3, tak ten input lag bude výrazně horší - pravděpodobně odpovídající zase polovičnímu FPS s DLSS 3.

+1
0
-1
Je komentář přínosný?

Jasně že když máš 400 FPS nebo 100 + 300 přes FG, tak input lag bude vyšší, otázkou je zda ho poznáš.

Ale ono je to spíše tak že můžeš mít bez FG třeba 60FPS a s MFG 240 FPS, Input lag bude +- stejný, ale na monitoru, budeš mít větší smoothness obrazu. Pokud FG nebude generovat nějaké viditelné/rušivé chyby, tak proč to nezapnout, a získat vyšší FPS, Nemusí to být 240, klidně jen 120, záleží jaký režim MFG zvolíš.

A ještě zásadnější to bude tam, kde grafika nemá problém generovat víc, ale víc nezvládá CPU, Třeba v MSFS na některých místech mívám jen 30-35 FPS, víc to 5800x3D nevytlačí a i nejnovjěší 3D Ryzeny tomu už nepomohou, jestli 30 nebo 33 je irelevantní. Ale s FG můžeš mít 60-70 FPS s MFG ještě víc... I když žiju s 30FPS, tak si dokážu představit jít na 60 nebo 100. Bez FG je to ale nemožné
https://www.youtube.com/watch?v=vRAauhRvQrw

+1
0
-1
Je komentář přínosný?

Vůbec bych nezkoušel porovnávat grafiky se zapnutým 3fake frame proti normálnímu renderu, to je postavené na hlavu. A to dost extrémně.
Když budeme tvrdit, že 3fake frame je doslova podvod na blbečky, nebudeme daleko od pravdy.
Ať si to fps placebo používá kdo chce, ale dělat z toho “komínky” je fakt výsměch

+1
+1
-1
Je komentář přínosný?

Tak v podstatě stejný problém je DLSS 3 už. Taky má fake frame a porovnával se s předchozí generací. Není to vlastně o nic větší podvod, akorát mezi 2 reálné snímky narval další 3 falešné místo jednoho. Na stejné řadě karet to vlastně nemá proti DLSS 3 žádnou nevýhodu a navíc má prý obraz s DLSS 4 méně artefaktů. Problém je až právě u porovnání stejných FPS.

+1
+1
-1
Je komentář přínosný?

A) rozhodně souhlasím.
B) Méně artefaktů ale v jakém režimu?
Když budu mít 15fps a "vykouzlím" z toho 90, tak to bude HODNĚ artefaktů.
Když budu mít fps 60, a vykouzlím 300, tak OK. Otázka je, k čemu je to komu dobré..
Aby "využili nakoupené rychlomonitory"... Jinak na nic.

+1
0
-1
Je komentář přínosný?

„Aby "využili nakoupené rychlomonitory"...

Jenže taky záleží, jestli to vůbec bude stát za ten zvýšený input lag a zhoršenou kvalitu obrazu...

+1
0
-1
Je komentář přínosný?

Nemyslim, že je ideální dělat srovnání obgeneraci, pokud to chtěli srovnávat s předchozí generací, měli zvolit SUPER grafiky.
Na druhou stranu známe rozdíly minulých generaci, takže si to umíme dopočítat sami a výkonový posun tam je,
RTX 5070Ti bude dost skvělá karta, ani cena by mi až tak nevadila za tak hodně výkonu, ale musel bych k ní kupovat nový zdroj a to je dalších + 3.000 Kč, což už je trochu moc.

Tyhle potřeby nových zdrojů ke kartám NVidie odhalují zároveň největší přidanou hodnotu karet od AMD, kde nový zdroj potřeba není a karty pak jsou podstatně levnější.

+1
+4
-1
Je komentář přínosný?

V případě nových FE 50xx je potřeba zvážit i upgrade chlazení procesoru a NVME.

https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...

+1
0
-1
Je komentář přínosný?

Tak Nvidie má teď zatím lepší efektivitu, ale taky zas vyšší cenu, to je pravda a teď se to možná navíc zas otočí, protože u Nvidie se výkon moc nezvyšuje, spíš jen spotřeba leze nahoru a moc to nevypadá, že by se efektivita u nich měla zlepšovat, možná se dokonce spíš naopak zhoršuje kvůli GDDR7, takže pokud se AMD vleze s výkonem 7900 XT do těch 260W, je docela velká šance, že by mohli Nvidii v tomto zase předběhnout, když 5070 je 250W, přitom bude přinejlepším asi na úrovni 4070S, čili šul nul s Adou, zlepšení 0. 9070 XT by mohla být stejně výkonná jak 5070 Ti a ta je 300W, takže uvidíme, AMD by mělo stačit udělat i malé zlepšení, aby se dostalo znovu nad Nvidii v efektivitě, protože už 7900 XT je taky 300W, Nvidie prostě nějakou efektivitu, co získalo s RTX 40, nyní hází přes palubu, protože 5070 Ti asi taky těžko překoná 4080, přitom ta taky mívá spotřebu asi 300W.

+1
+1
-1
Je komentář přínosný?

>> a moc to nevypadá, že by se efektivita u nich měla zlepšovat, možná se dokonce spíš naopak zhoršuje kvůli GDDR7

Spotřeba se sice zvyšuje. +/- s mírným nárůstem počtu jednotek a frekvencí. Ale údajně to nění kvůli VRAM.
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...

+1
+1
-1
Je komentář přínosný?

Mohli to srovnat proti čemu chtěli, zvolili grafiky z doby uvedení 4000 řady, stejně jak to dělá NVIDIA už dlouhou dobu.

A ne, nové grafiky nové zdroje nepotřebují, pokud máš rozumný zdroj. Mám 650W zdroj, půjde na to 5070 a nemyslím si že potřebuji nový. Ano pro 5090 bych nový potřeboval, ale kdybych takovou grafiku potřeboval a kupoval tak si holt ten výkonnější zdroj koupím, v minulém počítači jsem měl 850W zdroj, na něj bych klidně tu 5090 dal, původně to bylo kupováno pro situaci, že bych měl druhou grafiku do sli. Ale efektivita se pak tak výrazně zlepšila, že už to netřeba.

+1
0
-1
Je komentář přínosný?

SUPER grafiky nejsou přece nová generace.
Na co nový zdroj? Grafika má ofiko TGP 300W a na sestavu doporučují 700W zdroj. Mě ty požadavky nepřipadají nijak šílené. V sestavě mám silnější už od dob R9 290X.
Naopak, stejně výkoný Radeon bude žrát víc a kvůli němu bude potřeba nový zdroj.

+1
0
-1
Je komentář přínosný?

Možná jste byl po novoročních oslavách poněkud mimo, nebo jen zahrabán prací, ale spotřeba stoupla i v tom druhém táboře.
Ve výsledku je tak jedno, jestli pořídíte něco z rozsahu 250~300W nebo 265~330W.

+1
0
-1
Je komentář přínosný?

bez AI LAG FICUR = by bolo lepsie
mna zaujima porovnavanie bez pridavnych ....tin -pardon ficur =mam obavy ze nebudem nadseny
a ceny obrovske
pre hracov co maju stare topky nv alebo amd -to bude asi dilema

+1
+1
-1
Je komentář přínosný?

Ty tvoje lag featury už holt vyžadují vývojáři her, Třeba Indy pro full RT vyžaduje aspoň 4070 na 60FPS target ve FHD, s DLSS quality a FG. Tzn bez FG má teoreticky ta 4070 na konzolových 30FPS, A jelikož FG v podstatě ten "lag" nezvedne, ale zvedne smoothness obrazu, tak zážitek bude ve finále lepší než konzolových 30FPS.

Co jsou "staré topky"? Jako že třeba pro vlastníka GTX1080Ti bude nějaké dilema co? Stejně tak pro majitele nějaké 3090 je dilema v čem? GTX1080Ti byla překonaná už v následující generaci třeba s 2070 Super, 2070 Super je v minulé generaci překonaná s 4060.

Prostě kdo má grafiku a cítí že už mu nestačí a je třeba nová, tak koupí novou. Koupí to co bude pro něj adekvátní a co bude zrovna v nabídce.

+1
0
-1
Je komentář přínosný?

Právě že FG logicky lag zvedne, protože i té AI chvíli trvá než to nějak přechroustá a něco z toho vypadne, to je právě ono, udělá ti to akorát hezké číslo na FPS counteru, ale ten fun fact je, že tě to vlastně ještě víc zpomalí, protože ty fake framy ty jakoby neovlivňuješ svým vstupem, čili nehýbe se to podle toho jak cvakáš čudlíky, resp. to chvíli trvá než se to do nich promítne (déle než bez toho). Samozřejmě je to víc smooth, jen to prostě neděláš ty. Takže při 60 FPS máš vlastně jen 30, sice vidíš jakdybys měl 60, ale input máš furt odpovídající těm 30 (skoro), pro někoho kdo se ti kouká jak hraješ přes rameno to působí dobře, vidí 60, pro samotného hráče ne až tolik, protože cítí 30. To tak ideálně asi vzít gamepad, uvelebit se někde v gauči, nahodit aimbot a prostě pohoda, pak tě to asi tolik netrápí, protože jinak sedět normálně u toho a snažit se pak s myší něco zamířit, tak je to při 30 FPS už fakt docela bolest a rozhodně to není nic, co bych úplně vyhledával, zvlášť, když to ue ještě spoheno s tím FG, takže jsi v podstatě ještě trochu slepý.

+1
+1
-1
Je komentář přínosný?

Ano jestli někde máš třeba 33ms budeš mít 34 nebo 35ms, to je vyloženě velký rozdíl, Vycházím z prezentace NV

Ano pokud máš výkon na 240 FPS bez FG a ty si to lockneš na 240 a dáš 4x MFG, tak budeš mít reálně generovaných 60 FPS a tomu odpovídající input lag + drobnou latenci navíc.
Pokud ale máš výkon jen na 60FPS, tak můžeš mít jen 60 nebo i 240 při +- stejné latenci. Osobně nevidím důvod to nezapnout pokud to nebude generovat viditelné/rušivé artefakty.

BTW v současné době hraju výhradně First Descendant, hraju exkluzivně skill based charaktery, zvláště Bunny, její skilly mají buď kruhový AoE, kde hitne vše v dosahu, nebo o něco delší dosah, který trefí až 3 nejbližší cíle automaticky, oboje funguje i když cíl nevidíš, i přes překážky. Takže jen běháš, čím rychleji, tím víc ticků skillu, build máš udělaný tak že máš unlimited loop (aneb cooldown kratší než duration), bez AoE efektu bys jinak nezabíjel i přes 400 nepřátel za minutu, zbraněmi toho nedosáhneš a u looter hry je klíčová efektivita - čím rychleji, tím lépe. Střílím jen v intercept battles a tam je zase jeden nepřítel co se skoro nehýbe a leckdy je přes celou obrazovku a tam je to ideálně na 3-5 výstřelů, za 4-6 sekund je hotovo. Nebo Freyna, použiješ jeden skill a ten během pár sekund zabíjí nepřátele na celé mapě...

+1
-1
-1
Je komentář přínosný?

Jiří, kup si last minute někde, kde nejsou žádné počítače a framegeny.
Jinak ti z toho lupne kokos.

+1
+1
-1
Je komentář přínosný?

U té RTX 5080 se to úplně dalo čekat už při pohledu na ty parametry. Ten odskok od 5090 je až absurdně veliký... ta grafika měla mít nějak ořezané jádro GB203.

Přesto jsem nějak doufal, že vymysleli něco, co ten výkon nakopne i při zmíněných parametrech... bohužel zřejmě ne a tak budu muset tuto generaci přeskočit a zůstat na RTX4080...

+1
+5
-1
Je komentář přínosný?

"co ten výkon nakopne" Veď tam dali FakeGen...

+1
+3
-1
Je komentář přínosný?

Noo... já jsem prostě asi zpátečník, ale takové věci mě moc nezajímají.. čekal jsem vyšší real výkon :D

+1
+2
-1
Je komentář přínosný?

Zákazník požaduje realný výkon a odmítá fake výkon? No tož kde to sme‽

+1
+3
-1
Je komentář přínosný?

Tak se připrav, dnes už FG začínají hry "vyžadovat" pokud chceš mít na FHD 60 FPS.

+1
0
-1
Je komentář přínosný?

Nejprve musíš mít 50-60fps, a potom můžeš mít zapnuté FG, jinak to funguje strašně.

+1
+1
-1
Je komentář přínosný?

Když nemáš FG a máš 30 FPS, nebo když máš FG a máš 60FPS, latence budou v podstatě stejné, jen budeš jen uvidíš na obrazovce více snímků.

A evidentně vývojáři her s tím počítají, viz ty requirementy na full rt u Indyho. DLSS a FG enabled...

+1
-1
-1
Je komentář přínosný?

Jo ale když máš 30fps tak to nehraješ.
BO to stojí za vyliž prdel.
FG je pro “rychlomonitoráře”, ne že budeš mít 15fps reálnem a uděláš z toho báječných 60. Respektive na počítadle uděláš, ale bude tam hrůza artefaktů a uhavností v tom obraze

+1
0
-1
Je komentář přínosný?

Když máš 30 FPS tak hraješ, tak jako ty desítky milionů konzolistů... Ano na počítači obvykle čekáš vyšší standard, tak si holt zapneš FG a máš 60 nebo MFG a máš i 120. Je to lepší než mít jen těch 30.

Stejně tak FG se hodí tam, kde nestíhá procesor, třeba mnou hodněkrát uvedený MSFS https://www.youtube.com/watch?v=vRAauhRvQrw tady s 5800x3D běží hra i kolem 25FPS (náročné letadlo a scenérie) v pravo vidíš jak debug v developer módu jasně píše limited by main thread. I když grafika zvládne víc, máš smůlu, s framegenem získáš slušné FPS.

+1
0
-1
Je komentář přínosný?

A) 30fps není o tom, že konzole jsou pro chudý a na PC čekáš "prémiovku", je to o tom, že na gamepadu limit 30fps pociťuješ mnohem méně než na myši, tam to naopak limituje každého hned, hned to poznáš. (mám pad i myš)

B) MSFS je jediná hra na světě, kde nestíhá i výkonný procesor, jinak 7600/12600 rozhýbe na 60fps naprosto jakoukoli hru na světě. Takže ano, FG je fajn na MSFS. Protože jinak prostě potřebuješ CPU za 20tis.

+1
0
-1
Je komentář přínosný?

No vidíš, už jsi na to kápl, takže stačí si k té RTX ještě sehnat akorát gamepad a můžem hrát takto všeci s DLSS FG klidně jenom na 60 a nepocitíme nic.:)) Ale jo, upřímně mě to už takto napadlo taky, teď nevím jestli jsem to tu psal, asi nakonec ne, prostě se vyválet na gauči s gamepadem, zapnout aimbot a prostě to tak „netryhardit“, taky možnost, jinak by to musela být vážně bolest a ještě ty artefakty do toho, to by bylo spíš o štěstí, jestli něco trefíš nebo ne, v pohybu určitě.

+1
0
-1
Je komentář přínosný?

Některé hry, které jsou Cross-Platform mají na konzolích standartně zapnutý "Aim Assistant".
A použítí Aim-bota na PC hlídá (měl by hlídat) Anti-Cheat.

+1
0
-1
Je komentář přínosný?

Když nVidia vydala RTX 30xx, udělali "zdvojení" pikslí šejdrem (a od té doby mají vyšší čísla než konkurence). Ale nebylo to tak úplně zdvojení, protože půlka uměla FP32 a půlka se přepínala mezi FP32 a INT32 pokud byly potřeba INT výpočty. V generaci 50xx už budou všechny FP32/INT32.
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...
Zrychlení výpočtů pro RT a zároveň snížení paměťové náročnosti bylo dosaženo přechodem na formáty nižší přesnosti a ignoraci hodnot blízkých nule.
(FP16 --> FP8 --> FP4) + Sparse
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...

A není to kvůli tomu, že by stoupla potřeba INT výpočtů. Spíš se část věcí dělaných dosud v FP32 předělala na FP16 a v tom jsou rychlejší Tensor jednotky.
Inženýři u nVidia se poučili z problémů, které měl Intel s Thread directorem a rozdělováním ůkolů mezi nestejně vybavená jádra, a sjednotil schopnosti stream procesorů .. aby mohla nasadit přerozdělování vúpočtů a dosáhla vyšší míry využití cuda cores.
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...

Zbytek je víceméně, ale spíš více než méně, o přepracování algoritmů resp. parametrizace pro AI. A mělo by být z větší části použitelné i na RTX 20xx, 30xx a 40xx.
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...

Krom toho ještě nějaká ta technologická kouzla, která nestála za to, aby je dal do 135 minut dlouhé prezentace na CES. (řízení napětí, frekvence, taktů, přechdoy do úspornějších režimů, ...).
Sice jsou po technické stránce zajímavé, ale žádné "Breaking News" pro rychlé krmení populace.

+1
+1
-1
Je komentář přínosný?

No tak grafiky sa vlastne za 2 roky nikam neposunuli a najbližšie 2 roky sa ani nikam neposunú. Nárast výkonu spojený s rovnakým nárastom spotreby nepovažujem za progres. A vlastne sa to deje už veľmi dlhú dobu. Kedysi nemysliteľných 300W je dnes normál a 400W veľa ľudí takisto už dokáže akceptovať a čo bude o 2 roky? 400-500W bude akože štandard??? Pevne dúfam, že aspoň AMD sa vydalo cestou, že síce neprinesieme extra výkon, ale aspoň zlepší efektivitu. Inak to vidím na integrované riešenia od AMD. Pri tomto vývoji vyzerajú aj tie falošne generované FPS ako schodnejšia cesta oproti 600W spotrebe.

+1
-1
-1
Je komentář přínosný?

To je tak, když nepřejdeš na lepší proces u TSMC, dalo se čekat, že ta efektivita nebude přesně kvůli tomuto žádná sláva, museli by se zaměřit na snížení spotřeby na úrovni architektury, což se jim moc nechce a potřebují nahánět spíš výkon.

+1
+1
-1
Je komentář přínosný?

Presne tak. Nvidia nezmenila výrobný proces (4nm), takže hrubý výkon bez fakeframes možno pridať len zväčšením plochy čipu = zvýšením spotreby.

+1
0
-1
Je komentář přínosný?

Zvětšení plochy je zase zvýšení ceny nebo snížení marže.
Šlo by zvětšit plochu mnohem více, snížit takty do efektivnějších hodnot a dosáhnout zvýšení výkonu i snížení spotřeby, ale to by stálo více peněz a snížilo objemy výroby. A nejspíše by to ani dost podstatná část zákazníků neocenila...

+1
0
-1
Je komentář přínosný?

Dřív nebo později budou muset změnit arch. Přidali 16 mld. tranzistorů (+ 21 %), spotřeba šla +28 %, výkon v rastru ??. Přechod na N3P příští generaci RTX 6000 moc nepomůže, jestli zásadně nezvýši efektivitu jednotek. Vytahovat to přes frekvenci už moc nejde (kvůli spotřebě). V tomhle ohledu jsem zvědav na tu UDNA, zda přinese lepší výkon/watt.

+1
0
-1
Je komentář přínosný?

Nakonec nezbyde nic jiného než optimalizace.
Než to od HW probublá až k herním enginům a do samotných her ještě nějakou dobu potrvá, ale zvedání výkonu přes přidávání jednotek a žhavení frekvencí už začíná skřípat. A to tak, že hodně.

+1
0
-1
Je komentář přínosný?

Příteli magické slovo “OPTIMALIZACE”. Oni optimalizují už 30let, kdyby šlo mávnutím kouzelné optimalizace udělat kartu na stejném procesu se stejnou spotřebou jen o 40% výkonnější, asi by to nespíše udělali ne???
Optimalizace je DLSS4, nic víc už nečekej.
Zrychlování hrubého výkonu není dávno prioritou - a ani fyzicky možné

+1
0
-1
Je komentář přínosný?

Možná se budete divit, ale optimalizacím se zatím úspešně vyhýbají především SW domy.
nVidia se sice prohlašuje za SW společnost, ale SW, který nabízí, běží pouze na jejich HW. A tak se v rámci "katování kostů" snaží z toho HW vymáčknout, co se dá.

S řadou RTX 30xx přišlo "zdvojení" stream procesorů. Které sice nebylo tak úplně zdvojení, ale v propagačních materiálech to vypadalo lépe. K jednotkám, které uměly Int32 i FP32 přidali stejné množství jednotek, které uměly jen FP32. (Protože toho počítání v FP32 bylo více).
Později vyhodotili, že nárůst výkonu nezodpovídá nárůstu počtu jednotek, protože se na Int32 výpočty čeká častěji, než byl původní odhad.
V řadě RTX 50xx už mají všechny stream procesory umět Int32 i FP32 (a další formáty, když nato přijde) a jako bonus přidali (učící se) jednotku na přerozdělení zdrojů pro úkoly.
Vše s cílem dosáhnout vyšší míry využití zdrojů.

Já nevím jak se na to díváte vy, ale v mém slovníku to spadá pod pojem optimalizace.

PS:
Autoři tvrdí o UE 5.x, že je efektivnějš/výkonnější/méně náročný na zdroje než UE 4.x
Vysoká náročnost věcí napsaných nad UE5 asi bude způsobena něčím jiným.

+1
0
-1
Je komentář přínosný?

""""S řadou RTX 30xx přišlo "zdvojení" stream procesorů. Které sice nebylo tak úplně zdvojení, ale v propagačních materiálech to vypadalo lépe. K jednotkám, které uměly Int32 i FP32 přidali stejné množství jednotek, které uměly jen FP32. (Protože toho počítání v FP32 bylo více).""""

Podstatné na tom je, že zdvojené SP jsou u 3xxx stejně prakticky výkonné jako "jednoduché" na 2xxx.
Takže ano - vypadá to dobře na papíře. Ale optimalizace se úplně moc nepovedla.

"""""V řadě RTX 50xx už mají všechny stream procesory umět Int32 i FP32 (a další formáty, když nato přijde) a jako bonus přidali (učící se) jednotku na přerozdělení zdrojů pro úkoly.
Vše s cílem dosáhnout vyšší míry využití zdrojů.

Já nevím jak se na to díváte vy, ale v mém slovníku to spadá pod pojem optimalizace.""""

Zase, pokud budou SP u 5xxx stejně rychlé (při shodném počtu a frekvenci) jako u 4xxx, je to sice "uvnitř" optimalizace - ale pro konzumenta to nic moc nepřináší.

Samozřejmě že se nV nadále snaží optimalizovat i HW (zvyšovat IPC), ale za těch 30let jsou chipy tak dokonalé, že se to daří maximálně v jednotkách procent (pokud hodláme zachovat spotřebu).

+1
0
-1
Je komentář přínosný?

Z útrob internetu se vynořila nějaká další čísla ... Geekbench OpenCL a Vulkan.
Podle nich (zatím 3 výsledky) dosáhla 5090 proti 4090 vyšší skóre
OpenCL: +6.7%, +12.4%, +15.8%
Vulkan: +26.3%, +36.98%, +37.05%
Což v nejlepším případě dává o +2.8% vyšší výkon celé té šarády.

>> Podstatné na tom je, že zdvojené SP jsou u 3xxx stejně prakticky výkonné jako "jednoduché" na 2xxx
A tak nějak to vypadá, že výkon SP se nijak závratně nezvednul ani s řadou 40xx resp. 50xx.

https://videocardz.com/newz/nvidia-geforce-rtx-5090-appears-in-first-gee...

+1
0
-1
Je komentář přínosný?

'' Pevne dúfam, že aspoň AMD sa vydalo cestou, že síce neprinesieme extra výkon, ale aspoň zlepší efektivitu. ''
proc by to delali?? udelali to se zen5 a prineslo to jenom nesmyslnej hate..

+1
-2
-1
Je komentář přínosný?

Efektivita zajímá pár geeků, co nemá na lepší klimošku, a nerdy, co chtějí narvat superpočítač do krabice od bot.

Většina populace slyší na: "Faster, Harder, ... "
https://youtu.be/j0LD2GnxmKU?t=57

+1
0
-1
Je komentář přínosný?

na desktop dnes musis robit vzduchotechniku - odsavanie tepleho vzduchu von z bytu/domu
ja to mam poriesenie davno -kazdemu to odporucam
odsavaci ventilator -regulovatelne otacky -spotreba tak do 30-60watt a vybavene -netreba predrazene vodne chladenia do bedni
a je tam odsavany aj avr zosilovac, ci router -vsetko co vyraba teplo odsavam von
teplo si nechavam do vnutra len teraz v zime
teplo je hlavny problem ale lahko riesitelny

hluk je takisto lahko riesitelny ked si natiahnes 3-5m usb a hdmi kable z vedlajsej miestnosti

spotreba nie je podstatna -tu jednoducho zaplatis ;)

+1
-2
-1
Je komentář přínosný?

Tak věřím, že by byla skupina zákazníků, která by skousla i toto:
https://www.youtube.com/watch?v=0frNP0qzxQc

+1
+1
-1
Je komentář přínosný?

ja mam rack + vzduchotechniku na to 'ready' :):):) ale staru seriu neberem :))))

+1
0
-1
Je komentář přínosný?

Třeba já bych si do PC už vůbec nedal něco co žere 250W a víc a myslím že to tak má dnes dost lidí kteří hrají na PC. Střední třída by měla brát do 160W, můj názor.
Ostatně AMD má strix halo, což mi dává celkem smysl, výkon dostatečný, spotřeba super, pokud nedělám e-sporty a nepotřebuju vysoké fps tak mi výkonné užrané herní grafiky smysl vůbec nedávají.
Nicméně chápu že něco je spotřeba na papíře, a něco jiného je skutečná spotřeba ve hrách, kde to může být úplně jinak.

+1
0
-1
Je komentář přínosný?

Kde jsou ty časy, kdy nižší mainstream bral 75-100 W, performance karty 170-200 W a high-end si vystačil s 220-250 W. AMD už pár generací umí dělat performance karty jen v pásmu 245-265 W.
Tedy: RX 6800, RX 7800(XT), RX 7900 GRE a teď ta RX 9070(XT).
I slaboučký RX 7600XT žere 190 W. Od Navi44 nečekám zázraky.

+1
0
-1
Je komentář přínosný?

>> slaboučký RX 7600XT

275W, 4.849 TFlops - R9 290
175W, 8.192 TFlops - Fury Nano
190W, 22.57 TFlops - 7600XT

+1
0
-1
Je komentář přínosný?

RX 6800 nechybelo nic, plna infinity cache, 256-bit a 16GiB, rozumne takty a spotreba.

+1
0
-1
Je komentář přínosný?

Když to vadí 300-400W grafiky tak si takové nekupuj, však tě nikdo nenutí. Kup si co ti vyhovuje, pokud na trhu takové zboží nenajdeš, tak holt budeš muset přehodnotit své požadavky, buď koupíš grafiku s vyšší spotřebou nebo grafiku oželíš, easy fix. nemáš zač.

+1
-1
-1
Je komentář přínosný?

Tak alespoň pro příště. Pokud se nezmění výrobní node, nečekejte zázraky ani u Nvidie. Nárůst výkonu je v podstatě jen malá špetka optimalizace a velká porce paměťové propustnosti.
U 5090 jako jediné došlo na rozšíření sběrnice, změnu pamětí a výraznějšího zvětšení jádra.
Pro srovnání, u 5080 narostlo jádro o DVA mm2 oproti 4080 Super.

+1
-1
-1
Je komentář přínosný?

No 5090 sice poskočila doceka hezky, ale taky dost výrazně podražila, spotřeba ti narostla a těch 30% je furt jen s RT, takže to je stejně docela slabé, i když je fakt, že v tomto tieru se řídit podle RT už asi nejde zas tak mimo mísu, ale pokud to chceš využívat na 4K, stejně to asi budeš spíš vypínat, pokud se nechceš dostávat s takovým dělem pod 60 FPS. Třeba hvězdný Cyberpunk teď jede s klasickým RT na 4K bez DLSS i na 4090 furt jen na 45 FPS, takže 5090 dá počítám sotva tak 60 a to jen v průměru, minima ti furt budou padat i pod, takže to furt nebude 60 za všech okolností a to tam nemáš ještě ani ten jejich PT. A už vidím, jak někdo s kartou za 2k$ bude mastit hry na nějakém pidi monitoru s QHD rozlišením, to mi upřímně nedává moc smysl. Je otázka, co to jejich nové slavné DLSS, jelikož zatím je furt znát, že to prostě není real 4K, hlavně při použití toho RT na tom to dost vidíš, že to stejně furt není úplně ono.

https://www.techspot.com/articles-info/2544/bench/CP2077_4K_RT.png

+1
0
-1
Je komentář přínosný?

RT už někde nevypneš, někde ale můžeš zapnout ještě víc RT, a když pak hra na 4k pro 60FPS target žádá RTX4090 pro plné detaily, tak proč ne, jo pro ten výkon to potřebuje ještě DLSS perfromance a FG enabled...

+1
0
-1
Je komentář přínosný?

Nějaký N3P moc neřeší, jestli to jádro hodlají dál nafukovat s další generací a ještě vydrtit přes frekvence. 575 W, kam dál? 650 W je také hezké číslo, říká Huang.

+1
+1
-1
Je komentář přínosný?

>> jestli to jádro hodlají dál nafukovat s další generací a ještě vydrtit přes frekvence
512-bit sběrnice, 32/64 ev 48/96 GB .. je už hezký kus HW, který mohou vesel prodávat za těžké prachy do profi nasazení nebo za ještě větší prachy jako AI akcelerátor. Jako herní karta se to nebízí jen proto, aby mohli konkurenci ukázat zvednutý prostředník.
Umožní to pokrýt část poptávky pro AI s menšími náklady a vyšší výtěžností než GB100, GB200, GB300. Resp. nová generace, která má přijít v létě.

V dalším kroku se budou pravděpodobně věnovat zvyšování efektivity. Čtěte to jako "snahu vymačkat z daného HW co nejvíc".

+1
0
-1
Je komentář přínosný?

Tak se nám ten čip AD103 s 379mm2 / 45.9 GT nafoukl na celých 378mm2 / 45,6 GT s názvem GB203.
A to se vyplatí.

+1
0
-1
Je komentář přínosný?

GTX 680, 980, 1080, 1080 Ti a RTX 3080 Ti 12 GiB byly karty z rady xx80 ktere stali za to.

Pri rade RTX 4/5000 je rozdil mezi xx80 a xx90 markantni, jednoduse si NVIDIA dela z lidi prdel.

Ve skutecnosti mela RTX 5000 rada vypadat takhle:

RTX 5090 GB202 23 168SP 512-bit 32GiB 500W 3x8pin
RTX 5080 GB202 16 320SP 384-bit 24GiB 350W 2x8pin
RTX 5070 Ti GB203 10 752SP 256-bit 16GiB 250W 2x8pin
RTX 5070 GB203 8960SP 256-bit 16GiB 200W 1x8pin
RTX 5060Ti GB205 6144SP 192-bit 12GiB 150W 1x8pin
RTX 5060 GB205 4096SP 192-bit 12GiB 120W 1x8pin
RTX 5050 GB207 2048SP 128-bit 8GiB 75W

Zadany vykonovy rozdil je 30%, ne 15 jak je u RTX 4080 vs 5080, tecka.

+1
0
-1
Je komentář přínosný?

Ty pořád nepracuješ v NV abys jim vysvětlil jak špatně to všechno dělají? Neztrácej čas v diskuzi, vyvař z toho miliony, když máš tak skvělé řešení problémů.

+1
-1
-1
Je komentář přínosný?

Ještě jste zapomněl napsat ceny: rtx 5090 $799 ... cena rtx 5060 $199
Ten seznam musel dát práce, a přitom taková ..

+1
-2
-1
Je komentář přínosný?

Proč furt někde kydáš jak co mělo podle TEBE vypadat a vypisuješ mraky nesmyslných parametrů???
K čemu to je? Koho to má zajímat?
U je to dané, tak to nepřepisuj jak to představuješ ve vlhkém snu doma pod peřinou

+1
-2
-1
Je komentář přínosný?

Dva nejlepsi vtipy jsou 5070 s 12GB a 5080 s prd prd narustem vykonu.
Treba pockat na S-refresh dalsi rok..

+1
+2
-1
Je komentář přínosný?

Kdepak, třeba počkat na UDNA, nebo UDNA2, tam už to určitě vyjde. Přinejhorším UDNA3.

+1
-1
-1
Je komentář přínosný?

U NV ze 4070 neni v podobne cenovce kam jit. pokud by byl narust +20% pri stejne cene po 2 letech, tak je to prilis malo jeste s "bonusem" omezenych 12GB a vyssi spotrebou. Dalsi karta pak stoji uz pres 22k..coz mi prijde uplne ujety..
Uvidime jestli na tom 9070XT bude vykonove lip.
Jinak cekat se da porad..

+1
0
-1
Je komentář přínosný?

Já bych už pod 12GB dneska nešel, minimum beru jako 16GB, aby to trochu vydržel, takže u Nvidie to teď bude 5070 Ti, která už má naštěstí aspoň těch 16GB v základu, ale i tak dávat na herní kartu přes 20k je už fakt pěknej randál, do kterého se mi moc nechce. Ta největší bída je na tom to, že 5070 Ti překoná max. 4070 TiS, víc už od toho nečekám, že to dorovná 4080 už moc nevěřím po tom, co jsem viděl. Problém co s tím mám, že 4070 TiS už jsi mohl sehnat dávno za 22k a oni si teď slavnostně vydají tady tu 5070 Ti za... 22k a to má být jako vše? a ještě to furt topí jako kráva. Nechtěl bych být ten, kdo na to čekal a že to bude mít sílu i rolovat asfalt a nakonec je z toho takovej fail, to se muselo asi vážně vyplatit, zklamání asi musí být dost velké, protože ses vlastně ničeho nedočkal, akorát ti 4070 TiS prakticky přejmenujou na 5070 Ti a jinak máš to samé a to ještě štěstí, že se aspoň nepotvrdilo to zdražení.

Já osobně tak trochu doufám, že ten mid tier ještě zachrání právě ta 9070 XT, to je taková poslední naděje možná něčeho normálního, myslím si, že i kdyby se potvrdily ty slabší odhady, výkon 7900 XT a tak, toto dostat za 15k místo 5070 s výkonem 5070 Ti...? shut up and take my money, není za mne nad čím dál přemýšlet.

+1
0
-1
Je komentář přínosný?

"Já osobně tak trochu doufám, že ten mid tier ještě zachrání právě ta 9070 XT, to je taková poslední naděje možná něčeho normálního,"
..vidim to podobne. Pokud by to melo vykon aspon blizky 7900XT, coz je cca 4070 +35(-40)%, tak se NV muze jit s 5070 vycpat.. ;)

ps: za cena 5070Ti (22+k) koupis 'predazenou' PS5 Pro dokonce s externi mechanikou..a pri cumeni ze 3m, na telku poznas stejne prd rozdil na bedne :)

+1
0
-1
Je komentář přínosný?

Málokdo upgraduje každou řadu. Sama Nvidia říká, že z jejího průzkumu aktualizuje většina lidí až ob generaci, já bych se nebál říct každou třetí. Takže 5070 je pro majitele rtx 3070 nebo starší a nebo nižší řady.

+1
0
-1
Je komentář přínosný?

Bylo by velice zajimave srovnat RTX 3070 Ti(6144SP) "16GiB" a RTX 5070(6144SP) 12GiB.

+1
0
-1
Je komentář přínosný?

3070ti je přemotorovaný - ale lowend, protože to zabíjí paměť.
FG nepoužiješ, RT nepoužiješ. Nemáš VRAM.
Můžeš dát medium detaily a hrát v 350fps, to asi jo.
Ale srovnávat to s čímkoli co má 12GB vlastně nelze.

+1
0
-1
Je komentář přínosný?

No když vezmeš třeba Indyho ve FHD, zapneš low preset + full RT, zapneš DLSS quality a framegen, tak se s 4070 dostaneš na target 60 FPS. Bez FG si na polovině, takže k čemu ti bude 3070Ti s 16GB výkonu, když nemá FG, 3070Ti je cca o 15% slabší než 4070, takže se dostaneš možná na 25 FPS bez FG, pořád ale s DLSS quality.
https://www.youtube.com/watch?v=PqkO-dDVKFY&t=1513s tady máš FullRT na FHD s 4070 Super bez upscalingu a FG, hned následuje varianta s DLSS quality a FG a tam to dropuje pod 60... alokoce 9,5GB VRAM, hra 8,5GB VRAM. A to je pořád současný FG, nový FG má mít až o 30% nižší nároky na paměť.

16GB na RTX3070Ti tomu nic nedá, když ani o cca 30% výkonnější karta s DLSS a FG občas dropuje pod 60 FPS ve FHD a vejde se pod 10GB paměti. Ale hlavně že máš dobrý pocit že máš 16GB paměti. Bohužel dobrý pocit neznamená výkon navíc

+1
-2
-1
Je komentář přínosný?

Tvl, jako sry, ale jak dlouho s tímto tu ty diskuze hodláš ještě tapetovat?? Už jsi to tu napsal snad 100x, čím víckrát to postneš, tím víc lidí to tady už nezačne zajímat. Zas sis vybral nějakou svou modlu, kterou budeš hrát furt dokola? Většina lidí to stejně projde max. jednou a tím to hasne. A už ti na ten tvůj FG několikrát bylo zodpovězeno, že při 15 FPS to je nepouzitelné, ale ty si stejně furt jedeš to svoje furt dokola jak kafemlejnek... Stejně tak performance DLSS ti nikdo normální používat nebude, ještě k tomu v combu s FG už vůbec ne, řešíš tu nesmysly a naprosto nereálné scénáře.

+1
+3
-1
Je komentář přínosný?

Co prosím? Byla otázka na to co by udělala 3070Ti s 16GB ve srovnání s 12GB kartou, odpovídám ta karta je slabší než ta s 12GB a než přestane stačit 12GB, tak 3070Ti s 16GB přestane stačit výkon, a když budeš chtít výkon, budeš ubírat detaily a v tu chvíli ti dost možná bude stačit i výrazně méně paměti než 12GB.

Mám za to že těch 12GB je adekvátní výkonu té karty. 12GB přestane stačit, kdy už výkon karty nezvládá. Takže přesně reagoval jsem na někoho kdo smýšlí nereálně proč to píšeš mě a ne jemu?

+1
0
-1
Je komentář přínosný?

Zkoušel jsi někdy framegen při 30fps? Těch "jakože 60fps" je k blití a ještě z toho bolej oči. To už je lepší smířit se s 30fps native...

+1
+1
-1
Je komentář přínosný?

>> zapneš low preset + full RT, zapneš DLSS quality a framegen, tak se s 4070 dostaneš na target 60 FPS.
Ti, co mají doma všech 5 pohromadě, si nezapnou Full RT a výsledku budou mít víc fps a vyšší kvalitu, protože nemusí snižovat presety.

+1
0
-1
Je komentář přínosný?

Akorat, ze z pohledu NV jsou to v realite 2 generace vydanych karet. Jedna z nich je sice refresh, ale pokud ta opravdu nova generace v principu jen dotahne, kosmeticky predezene refresh te predchozi, tak at si to fakt nechaji.. to je takova zdimacka na prachy...

+1
0
-1
Je komentář přínosný?

Když je to málo, tak to nikdo jako upgrade z 4070 nekoupí, na tom není co, ale z 3070 už je to pořádný skok kupředu. To byla i ta 4070. Mám 3060Ti a už 4070, resp 4070S je cca 75% navíc jen v rasterizaci, v RT s kombinací s DLSS může být ještě vyšší a budu moct použít FG, třeba v tom MSFS, kde není brzda výkon GPU ale CPU... Z nějakých 30-35 FPS můžu mít i 120+ FPS. I když x2 režim bude stačit na 60+.

+1
0
-1
Je komentář přínosný?

Kua pojebané FG můžeš použít na čemkoli co tě napadne.
Dyť to banda dělá normálně ve formě MODu do hry. Není to nic než podělaný mrtvý frame s odhadnutým vektorem pohybu získaným ze “sousedních” framů.
Ty si teď koupíš kartu a budeš z toho dělat podělanou modlu jak největší oběť marketingu pod sluncem.
Je to nejtupější technologie za možná dvě dekády - ale úhledně zabalená do krásného počtu fps.

+1
0
-1
Je komentář přínosný?

Popíráš že 4070 nebyla výrazný poskok proti 3070? Nebo myslíš že 5070 bude poznatelně horší než 4070?

A nechápu proč mi píšeš o nějakých modech, ty si používej co chceš, osobně nehodlám hledat funkční mod i několikrát týdně (protože občas tak často vychází updaty hry) a už vubec nechci riskovat to že by si nějaká modifikace nerozuměnla s anticheaty.

Takže pokud budu cítit potřebu tak si FG zapnu, když potřebu mít nebudu, tak si to nezapnu. 4070S byla do představení 5000 řady jasná volba, méně výkonná karta by nesplnila cíl pro který upgraduju, s představenou 5000 řadou už nevidím důvod držet se 4070S, 5070 mi dává větší smysl.

+1
0
-1
Je komentář přínosný?

A nechceš se ještě před utracením takové částky peněz poradit se AI na tvém ntb?

+1
0
-1
Je komentář přínosný?

Já si zapnul z plezíru FG na 3060 v Cyberpunku v době, kdy tam tu funkci bylo možné zapnout jen díky externímu MODu a jo dobrý... Běhal jsem tam v 100-115fps a super.
Pak to vypnul, zapnul zase VSYNC a naskočilo (skutečných) 55-60fps, no --- a bylo to +/- stejné, možná lepší.
Protože těch 100-115 nebylo 100-115, ale 50-60...
Takže asi toliko k FG :)

+1
0
-1
Je komentář přínosný?

Ono to je jednoduché, z houvna prostě bič neupleteš a DLSS ti nevyčaruje nějaký neexistující výkon jen tak z ničeho. Pro co nejlepší výsledek z upscalingu potřebuješ kvalitní obraz v co možná nejvyšším rozlišení a pro frame gen zase co nejvíce FPS, čili ideál je nativní 4K a min. asi tak 60 FPS, spíš víc, pokud chceš teda použít oboje, jedině takto z toho vypadne něco použitelného a bude tam nějaká kvalita, ale pokud máš nějakou grafiku s low výkonem, tak tě to zkrátka stejně nezachrání, budeš tam mít akorát plno artefaktů a totální mazanici. A pokud už máš hratelné 4K, je otázka, co ti to vlastně přidá a jestli to potřebuješ ještě nějak „zlepšovat“. Proto není pro hráče moc dobrá zpráva, pokud se už Nvidie chce spoléhat na zvyšování výkonu výhradně pomocí AI, čím víc se ti v tom bude angažovaty tím hůř to bude vypadat a ty artefakty budou znovu dost viditelné, ideálně to chceš používat co nejmíň.

+1
0
-1
Je komentář přínosný?

Objevila se další čísla.
Jak moc úžasný pokrok mezi generacemi to je, si proberte sami.

Karta čip SM_count Die GT cuda_cores
5090 GB202 192 750 92,2 21760
4090 AD102 144 608 76,3 16384
4080 AD103 80 379 45,9 9728
5080 GB203 84 378 45,6 10752
5070 Ti GB203 84 378 45,6 8960
4070 Ti AD104 60 295 35,8 7680
4070 AD104 60 295 35,8 5888
5070 GB205 50 263 31 6144
4060 AD107 24 159 18,9 3072

+1
0
-1
Je komentář přínosný?

Je to hlavně o možnostech volby. Jiříkovi třeba hodně sedí FG, protože i při výchozích 30fps v MSFS se to dá ovládat a pocit "plynulosti" se dostaví.

Když přišlo DLSS2, tak jsem nevěřil, ale i v 1080p v režimu Quality nenacházím v obraze žádné změny, prostě je tam nevidím - při běžném hraní, ne při porovnávání 800% výřezu u statického framu - to mě (logicky) nezajímá.
Takže z logiky ano, i DLSS2 je ideální ze 1440p, ale díky němu 4k nativ už nikdy nebudeš potřebovat - prostě tam rozdíl v obraze nepoznáš.

Jenže FG se třemi fake framy mi osobně přijde jako bys zapnul DLSS2 hyper performance - z 360p počítal 4k a ještě to prodával jako novou fíčuru.

+1
0
-1
Je komentář přínosný?

No to je další věc, u FG taky ztrácíš ten detail, takže pokud nemáš vyloženě potřebu se z nějakého důvodu honit za těmito fake framy a nepotřebuješ to mít co nejvíc smooth za každou cenu, tak je blbost to zapínat i kvůli tomuto. Jsem zvědav, jak moc kvalita půjde dolů ještě při těch dalších 2 generovaných framech, jestli se na to bude dát ještě vůbec koukat. Jinak u těch režimů DLSS bude záležet dost i na monitoru, jak už máš nějaký větší 4K panel, tak poznáš, že máš zaplý ten quality režim, ale je pravda, že to není až takovej rozdíl, ono to jde poznat hlavně u těch RT/PT efektech a s tímto nedáš nativ 4K ani se 4090, čili je třeba to zapnout vždy, abys to aspoň trochu rozhejbal.

+1
0
-1
Je komentář přínosný?

Neurální komprese textur a Neural rendering ...
někde to vypadá dobře (i když trochu odlišně než původní vzor), ale někde je to ... meh.

Pusťte si tu sekvenci až po současné zobrazení klasiky a NCT
https://youtu.be/xHQMehFJ0AY?t=44

Ještě pořád zůstává dost much k vychytání.

Poznámka pro hnidopichy: To je oficiální kanál nVidia a ani několikanásobné překódování nevysvětlí ty změny. Hlavně pokud jsou zobrazeny současně.

PS: Pobavilo mne zobrazení cedulky "RTX Off" na jedné straně a na druhé straně "DLSS = Off, Full RT On" (+ 19~20 fps)

+1
0
-1
Je komentář přínosný?

Tak pokud budou furt něco přidávat, jak to zatím vypadá, tak to nevychytají pořádně nikdy a můžou to ladit do nekonečna, tak ale když se jim to vyplatí, tak s tím asi nic nenaděláš, to by lidi tady ty srajdy bez výkonu museli přestat kupovat, abychom je donutili se na to vysrat a rači zvedat výkon, aby ty hry mohly vypadat líp, než to vše nechat řešit přes AI a pak to celé vypadá jako shit, když se na to moc spoléháš a už zvedáš „výkon“ jen pomocí tohoto. První vymyslí RT, na který stejně nedali dost výkonu, a tak ti ze začátku dali berličku v podobě DLSS upscalingu, protože to s tím rozhejbeš jen se sníženým rozlišením a nakonec to skončilo tak, že tě posadili rovnou na kripl káru a už máš celý balík různých „zlepšováků“ s nápisem RTX.

Protože jsou ty grafiky čím dál větší ořezávátka, tak teď ten výkon už stejně dochází znova, tak jsi na další nedostatek FPS dostal FG, což ten obraz uhladí aspoň na oko, na rozmazané RT efekty kvůli DLSS RR, na textury protože nedávají dost VRAM budeš mít NTC... a já nevím co všechno tam už mají, už jsem viděl i něco na vlasy a obličej... no já už se v tom začínám upřímně trochu ztrácet a už se na to rači moc nekoukám, protože to by jeden blil, co s tím dělají, pak se podíváš na výsledný obraz a celé to vypadá prostě nějak divně, takové strašně soft... no prostě hrůza a tomu se dneska říká pokrok.

Kdyby se rači zaměřili na to, jak znovu zvyšovat výkon, třeba to zkusit přes ty chiplety jak se o to snaží AMD, ale ne, oni to prostě nalijou rači do AI než dělat na něčem pořádném... je to opravdu už trochu smutné.

+1
+1
-1
Je komentář přínosný?

>> no prostě hrůza a tomu se dneska říká pokrok.
Pokrok nezastavíš.

PS: Jsem zvědav na reálné prodejní ceny. Po internetech už kolují zkazky o tom, že v ani Německu jich nebude moc.

+1
0
-1
Je komentář přínosný?

>> DLSS2 je ideální ze 1440p ...
>> FG se třemi fake framy mi osobně přijde jako bys zapnul DLSS2 hyper performance - z 360p počítal 4k

DLSS2 1440 -> 2160 (ratio 1 : 1.25)
DLSS3 1440 -> 2160 +1 fake (ratio 1 : 3.0~3.5)
V prezentaci ukazoval výkon DLSS4 jako 1080 -> 2160 +3 fake snímky (ratio 1 : 15)
V následných rozhovorech mluvil o poměru 1 : 32 (reál pixel / infered pixels)

>> a ještě to prodával jako novou fíčuru.
Přesně to taky dělá.
Už rozesílá redakcím návody jak "správně" testovat nové karty.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.