Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4070: Poměr spotřeba / výkon skvělý, cena / výkon nezajímavý

A to bych zmínil ještě ultra jebku, co prodává ngreedia jako RTX4070 v notebooku... Lehce nataktovaná malá šitka s die o velikosti stěží 4060 modelu s 8GB VRAM a 128bit sběrnicí, kterážto "karta" se nedostane nikde v zátěži přes 95W, protože ten čip je tak malý, že dřív narazí na napájecí limit než na limit spotřeby.

+1
+1
-1
Je komentář přínosný?

Tak vojeb v podobe mobilnich variant sou u NVIDIE druhe housle...

+1
-1
-1
Je komentář přínosný?

Samé vojeby a stejně se nVidia blíží k 90% podílu na trhu s grafikami.. jak je to možné?

Aha už vím, protože AMD z neznámých důvodů kašle na marketing s dosahem i mimo lidi co už amd grafiku mají.
Přitom tam je tolik příležitostí třeba to protáhnout skrze Ryzeny které mají skvělou pověst mezi hráči.

Druhotně si to taky pokáknuli s kecama okolo toho jak jejich RDNA3 bude rychlejší a efektivnější než rtx 4000, a pak se při vydání ukáže že to je naopak a ještě tomu nasadí korunu v podobě ne úplně stabilních ovladačů v den recenzí.
Jako kdyby se jim stejná věc už v minulosti nestala s Vegou

Druhá věc, proč pro řadu Rx 7000 nasadili takové cenovky? Tím akorát lezou nvidii do zadku

+1
+1
-1
Je komentář přínosný?

To je výhoda lídra na trhu - může si dovolit počkat s vydáním, až bude vše odladěné. Např. NVidia odkládala vydání řady 4000, než doladí DLSS 3 (bez něj by bylo vidět, že výkon o moc větší není, ale takhle mají fps x2 - v pár vybraných hrách). RDNA3 měla být výkonnější, ale každému se může stát bug, na který přijdeš až těsně před vydáním. Tak uvidíme, jestli to v refreshi vyřeší. Jinak nemá smysl dělat marketing, když stejně prodáš vše, co vyrobíš. A výroba je přednostně pro výdělečnější CPU než GPU (natož CPU pro servery).

+1
0
-1
Je komentář přínosný?

Oni vše co vyrobí neprodávají.. radeony jsou normálně na skladech.

Ale žebříčkům prodejů stále kraluje nVidia, kdyby AMD začlo dělat nějaký marketing s dosahem tak si myslím že úplně jednoduše mohou jejich Rx 6600, 6700 a 6800 obsadit první 3 příčky v prodejích, jelikož na to prostě mají.

+1
+1
-1
Je komentář přínosný?

"může si dovolit počkat s vydáním, až bude vše odladěné. "

A aj napriek tomu vydali nove GPU skor ako konkurencia, ktora ani tak nebola pripravena. Aspon podla toho co tu pisete. Je pekne akk si to u AMD ospravedlnujes. Ze kazdemu sa to moze stat. :D

"NVidia odkládala vydání řady 4000, než doladí DLSS 3 (bez něj by bylo vidět, že výkon o moc větší není, ale takhle mají fps x2 - v pár vybraných hrách"

50-70% bez DLSS je malo? Hlavne ked konkurencia priniesla este mensi narast vykonu po dost velkom hype na cipletovu architekturu?

+1
+1
-1
Je komentář přínosný?

Sice je to off-topic, přesto to sem dám,
je to krásná historie, slzu v oku mám.
S rozechvělým hlas, přátelé říkám Vám,
že DataTresorDisc zabalili krám.

http://datatresordisc.cz/

:-(

+1
+3
-1
Je komentář přínosný?

On to někdo používal? Při té malé kapacitě to nemohlo mít moc zákazníků...

+1
0
-1
Je komentář přínosný?

Znám několik fotografů kteří to používají pro starší data. Asi nebudou mít úplně radost :-/

+1
0
-1
Je komentář přínosný?

Tak pořád jsou tu páskové jednotky a archivní BDXL.

+1
0
-1
Je komentář přínosný?

CZC už má zalistované... začíná na 16 a lepší edice za 19... uf.

+1
0
-1
Je komentář přínosný?

Ta dobrá zpráva je že díky vydání 4070 spadly ceny Rx 6800 - teď jdou už za 12tisic.
Za mě to jsou nejlepší karty co kdy AMD vydalo, Rx 7000 jsou akorát tak nenažrané a předražené skoro stejně jak RTX 4000.

+1
0
-1
Je komentář přínosný?

Neřekl bych, že to je tím, ta cena už padá furt tak nějak postupně... taky jsem se právě nedávno díval na ty RX 6800 a už před 4070 se dala sehnat za nějakých 13, teď to akorát zas trochu spadlo... za tu cenu taky celkem zajímavý kauf.

+1
0
-1
Je komentář přínosný?

Ano. Ale pořád platí, že výrobci obvykle zlevňují až ve chvíli, kdy jim začíná být jasné, že pokud to neudělají, zůstane jim to ležet na skladech.

Těžko by mohli dál vesele prodávat RX 6950 XT za dvaadvacet, RX 6800 XT za devatenáct a RX 6800 za šestnáct, když za jednadvacet jsou tři měsíce k mání RTX 4070 Ti a za podobné prachy RX 7900 XT, a další karty jsou na cestě.

+1
0
-1
Je komentář přínosný?

"snížen počet aktivních stream procesorů (ze 7680 na 5888) a texturovacích jednotek (z 240 na 184). Dále klesl počet ROP jednotek (z 80 na 64),"

Tak pozerám, že všetko okrem ceny nám výrazne kleslo.

+1
+4
-1
Je komentář přínosný?

Lidi to budou kupovat stejně ;-)

+1
-1
-1
Je komentář přínosný?

No já bych asi dost váhal... za cenu lepší 4070 už mám i RX 6900 XT, která je výkonnější a nebudeš zas balancovat na hraně použitelnosti s jen 12GB, což už je pro takové grafiky spíš takové minimum... na druhou stranu to už je zas 300W strašák... příp. ještě furt můžeš sehnat levnější 6800 XT, která je akorát trochu slabší... resp. na úrovni 4070.

Snad AMD už co nejdřív vydá RX 7800 XT... výkonově by podle specifikací mohla být někde mezi 4070 a Ti, s 16GB a snad už to nebude tak topit... ta by mohla být ideální.

+1
+2
-1
Je komentář přínosný?

Ano, jenže známe lidi. Důvodů ke koupi je hodně. Za prvé, je to nV. Za druhé, je to nV. Za třetí, je to nV. Za čtvrté, AMD stejně nic odpovídajícího nemá a i kdyby, stejně je horší, tak co.

+1
0
-1
Je komentář přínosný?

No, to je fakt.:)

+1
0
-1
Je komentář přínosný?

Nezapomeňte na fakt, že mají Zelené logo.
A to se vyplatí.

+1
-1
-1
Je komentář přínosný?

A taky to má CUDA, NVENC a Tensor Core. Pokud AMD nabídne alespoň alternativu NVENC a Tensor Core tak si milerád koupím AMD. Ale uznávám že většina majitelů Nvidií tyhle funkce nevyužívá a snad ani neví že tyto funkce jejich GPU má.

+1
0
-1
Je komentář přínosný?

Rx 7800xt vypadá že nepřijde, protože AMD právě začalo propagovat Rx 6800/XT místo toho aby vůbec něco o 7800xt sdělili.

Já si myslím že jim výroba 6800xt vychází o chlup levněji, tak proč vůbec dělat 7800xt která by měla výkon maximálně 6900xt (= 6800xt + 10%)
Zbytečně by si konkurovali sami se sebou

+1
+1
-1
Je komentář přínosný?

A AMD stále spí :-(

+1
0
-1
Je komentář přínosný?

Jelikož je grafiky zase tak moc nezajímají, nejvyšší prioritu má pro ně výroba server CPU aby vystrnadili Intel tam kde jsou obří zisky za každý mm² křemíku

+1
+1
-1
Je komentář přínosný?

kdyby ji nechali za 500 usd tak by to byla fajn karta, takhle 12GB je zas na hrane, sice je na tom lip nez 3070 s 8GB na startu, ale zadna vyhra to taky neni

+1
+1
-1
Je komentář přínosný?

Tak kdyby tomu dali 16GB misto 12GB za tu cenu, tak bych rekl, ze je to na soucasne podminky dobrej kup. Kdyby to stalo 13k s 12GB tak bych asi nevahal a za tu cenu to koupil i s tema 12GB.

+1
+1
-1
Je komentář přínosný?

No tuto grafiku za chvíli čeká stejný osud co RTX 3070 Ti... prostě je udělaná tak, aby to v době vydání stačilo a krásně se to vyjímalo v benchmarcích, jenže jak pak budou časem pomalu vycházet hry, které zas budou přidávat na nárocích na paměť, tak to pak opět bude přestávat stačit v čím dál více hrách a dřív než ti dojde samotný výkon jako takový, tak narazíš na limit velikosti VRAM a stejně pak musíš stahovat detaily (textury), ať se ti to líbí nebo ne, protože máš nestabilní framerate a na nastavení, co by ta grafika měla normálně zvládat ti nestačí paměť... je to tak schválně, aby tě donutili plynule upgradovat hned na další generaci, protože dívat se na ty mázlé moc dlouho nevydržíš.

Zhruba v době, kdy bude vycházet 5070, tak už budeš beztak začínat pociťovat, jak ti dochází a ztrácíš dech... 5070 pak dají třeba konečně těch 16GB, co už měla mít ideálně 4070 a veletoč jede znova, pořád dokola stejná písnička a ty je jen můžeš přehazovat jednu za druhou... já bych takovou rychlokvasku nekupoval, osobně jsem zvyklý upgradovat aspoň tak ob generaci a chci, ať to trochu vydrží, měnit grafiky každé 2 roky by se mi upřímně asi moc nechtělo... kdo si počká, ten se dočká, já už asi těch pár měsíců zas vydržím na RX 7800 XT, kde tradičně aspoň dostanu trochu rozumnější velikost VRAM.

Jde to krásně vidět na RTX 3060, kde jim to tak blbě vyšlo a uznali že 6GB by už asi opravdu nestačilo ovšem 8GB se dát nedá tak museli hodit rovnou 12, takže nyní to stárne pomaleji než ty 8GB Ti... jak zvláštní, ale dalo se to čekat, sice výkon nižší, ale aspoň textury si můžeš dát klidně na ultra a pak to proto mnohdy vypadá líp než na Ti a furt to běží dobře, kdežto na Ti to je nehratelné kvůli nesnesitelnému stutteringu, takže kvalitu musíš snížit.

+1
+2
-1
Je komentář přínosný?

Ma z toho podobny pocit :)

+1
0
-1
Je komentář přínosný?

Myslíš si že jako vývojáři jen tak skousnou to že budou hry prodávat jenom těm 2% PC hráčů kteří mají karty s víc než 12gb a na steamu atd pak budou mít recenze "velmi negativní" protože si to většina lidí není schopna zahrát ?

Vůbec si teda nemyslím že stav her podobný last of us na PC by se měl stát standardem, protože takovým stylem by do pěti let byla potřeba už 48GB grafika.

Opravdu není normální aby hra potřebovala 6gb VRAM na 1080p low přičemž textury v tomhle nastavení vypadají jak z éry PS2

+1
+2
-1
Je komentář přínosný?

Na PC ty hry pojedou, ale v nižším rozlišení a s horšími texturami než na konzolích, které stojí zlomek. Majitelé grafik NV si už začínaj zvykat, takže v poho. Ani dedikované jednotky na RT jim nepomůžou, když nestačí paměť.

+1
0
-1
Je komentář přínosný?

Konzole ani nemůžou používat víc jak 12gb pro grafickou paměť, kam by se pak vlezla ta část hry která běží na procesoru.
1gb tam bude zamčený pro systém, to nám zbývá pro hru 15gb které si musí rozdělit na grafickou část a CPU část.
Nevěřím že si nějaká moderní AAA hra vystačí s míň než 3GB paměti pro procesor.

Schválně se koukni jak vypadá tlou PC port na low nastavení, textury skoro jak z PlayStation 2 kterej měl 32MB paměti.
A na tohle ta hra potřebuje 6gb, to prostě a jednoduše není normální, vlna refundů co obdrželi je zasloužená.

+1
+1
-1
Je komentář přínosný?

Věřit nemusíš, ale v tom je to kouzlo konzolí. Levný hardware, z kterého vývojáři vymáčknou maximum. Ano, nemá to maximální výkon ve všech parametrech současně, ale má to velký výkon celkově a podle typu hry a scény ve hře ten výkon musí vývojáři chytře rozdělit. Např. kolik paměti pro logiku hry a kolik pro grafická data, kolik výkonu pro rasterizaci a kolik pro raytracing, ... Problém s portováním na PC je pak ten, že v PC každá komponenta je oddělená. Takže např. pokud hra na konzoli využívá hodně paměti pro grafiku na úkor logiky hry, tak na PC potřebuje GPU s odpovídající pamětí - a jeti úplně jedno, že systémové paměti má ten PC třeba 64 GB a stojí 10x tolik co ta konzole.

+1
0
-1
Je komentář přínosný?

Kouzlo jednotného HW, nedělené paměti a velkých optimalizací, minimum nějakých ovladačů. To je celé, proto to funguje. Jablíčkáři tu píšou, jakou výhodu má jednotná HW platforma, tady to platí ještě víc.

+1
0
-1
Je komentář přínosný?

Vyvojarum to, kolik to zabere v max kvalite muze byt do jiste miry celkem jedno, pokud to rozbehas na nizsi detaily, coz u PC rozbehas. Max kvalita je soucast i marketingoveho image. Pokud maji 8GB VRAM karty problem ve 1440p, je to problem toho, kdo si ji v te konfiguraci koupil. Pokud budou mit 12GB karty problem uthanout 4k s max rastry a RT k vuli tomu,z e to bude chtit 13,5GB, opet bude to problem dotycneho hrace, co si takovou kartu poridil. Tech 16GB na 4k a 12GB na 1440p nejsou v roce 2023 fakt prehnane pozadavky, vzhledem k tomu, jak dlouho tady jsou 8GB karty uz na trhu.

+1
-1
-1
Je komentář přínosný?

Opět tu zopakuji že vývojáři pokud chtějí aby hra byla na PC úspěšná tak holt musí na průměrném herním PC běžet dobře na takovém nastavení kde stále vypadá pěkně a ne jak z minulého desetiletí.

Průměrné herní PC má 6-8gb VRAM a 1080 nebo 1440p monitor, proto je i bude 12GB na 1440p stále dost dokud nepřijdou PS6 hry.

Další důvod proč to bude stačit jsou konzole které taky tyhle hry renderují typicky v 1440p s texturami na max a víc jak 12gb si jako videopaměť přiřadit nemůžou viz můj komentář výše

+1
+2
-1
Je komentář přínosný?

"ak holt musí na průměrném herním PC běžet dobře na takovém nastavení kde stále vypadá pěkně a ne jak z minulého desetiletí. "
.. to se ale nevylucuje s tim, ze nemuzete mit max kvalitu vic nez 12GB, potazmo 16GB.
"..proto je i bude 12GB na 1440p stále dost dokud nepřijdou PS6 hry."
.. ale ja netvrdim, ze 12GB nebude zarucene dost. Nicmene to bude na hrane. Muze prijit titul, ktery bude vyzadovat vic. Stejne tak 1440p alias QHD neni jedine rozliseni, mate WQHD a UWQHD nez prijdete na 4k. Takze pokud premyslim, ze pro QHD bude 12GB dostacujici na hrane alespon nasledujici 3 roky, nemusi byt pro WQHD a uz vubec ne pro UWQHD. Osobne mam treba WQHD (3440x1440) monitor a pokud budu s monitorem nekdy upgradovat, sel bych uz do UWQHD.

+1
+1
-1
Je komentář přínosný?

A mozno pride hra, ktorej nebude stacit ani 16GB. Co budu potom hovorit majitelia 6800XT/7800XT?

+1
0
-1
Je komentář přínosný?

---

+1
0
-1
Je komentář přínosný?

...A proto si koupíš dobrovolně ještě o 4GB míň? Pokud by měla být hra, kde bude nějakým omezením už i 16GB, co teprv na 12GB. Já to teď vidím třeba při porovnání s RTX 2060 a RX Vega v TLOU, ti co si koupili 8GB, tak to ještě jakž takž jde, 2060 s pouhými 6GB na tuto hru nepoužitelná, protože na low textury to je naprosto nekoukatelné, to si tu hru moc neužiješ... už ty medium tex. vypadají celkem zvláštně.

Jednoduše pokud AMD nabídne vyšší kapacitu při stejném výkonu... není důvod, proč do toho nejít, protože někdy to může dělat rozdíl mezi hratelnou a nehratelnou hrou. 12GB na RTX 4070 je stejně málo jako 8GB pro RTX 3070 nebo těch 6GB co měla 2060... já bych do toho nešel.

+1
0
-1
Je komentář přínosný?

Nepride ti divne, ze low textury v TLOU maju problem s 8GB VRAM? Toto skor vidim ako problem implementacie samotnej hry. A u starych kariet ako Vega ci ten RTX 2060 fakt este zalezi, ci maju 8 alebo 6 GB?
A co sa tyka rovnakeho vykonu, ktore by malo AMD ponuknut, tak radsej by som uprednostnil lepsi vykon v RT a pristup k DLSS ako nat 16 GB VRAM oproti 12GB VRAM. Ale ak ti na tomto nezalezi a radsej chces viac VRAM, tak potom je vyber asi tiez jasny.

+1
0
-1
Je komentář přínosný?

K čemu ti je větší výkon v RT, když na RT potřebuješ víc VRAM? V náročných hrách ti pak v RT i slabší AMD drtí Nvidii.

+1
0
-1
Je komentář přínosný?

Ako kde, ale 8GB GPU by som uz po teste od HWU dnes nekupil. S 12GB si myslim ze budes v pohode aj s RT. Pochybujem, ze da AMD viac ako 12GB VRAM aj na GPU pod 7900XT.

+1
0
-1
Je komentář přínosný?

Opravdu? Mi to teda připadá dost pravděpodobné. Za prvé už to potvrzují leaky no a za druhé když se podíváme trochu do historie, tak to nevypadá, že by tady mělo dojít k nějaké stagnaci – třeba RX 5600 XT měla 6GB a 6600 XT to zvětšila na 8GB, 5700 XT 8GB a 6700 XT 12GB, RX 6900/6800 XT 16GB a 7900 XT 20 (XTX dokonce 24GB).

Co jsem tak naposled slyšel, tak pro RX 7800 XT by mělo být v plánu 16GB, jen 7700 XT asi zůstane na 12... jelikož 7700 XT má být konkurent pro RTX 4060 Ti se směšnými 8GB, tak z toho i tak vzejde asi furt dost dobře no a u RX 7800 XT není co řešit... s 16GB podle mně pohoda.

+1
0
-1
Je komentář přínosný?

Nehovorim, ze by NV nemala davat VRAM viac. Iba pochybujem, ze 12 GB nejak rychlo zastara. Aspon nie, kym nevide nova generacia konzol a bude mat aj viac dostupnej pamate. Ono aj 8GB bolo v pohode dost dlhu dobu. Davno pred 3070/Ti. A tiez kolko ludi ma graficku kartu s 12 a viac GB VRAM? Drviva vacsina ma 8GB a menej. Preto aj hier, ktore maju problemy s 8GB je malo a preto aj neverim, ze ich odrazu bude pribudat viac rychlejsim tempom. Kazdopadne ak bude mat 7800 XT naozaj 16 GB a 7700XT zasa 12 GB, bude to ich konkurencna vyhoda.

+1
0
-1
Je komentář přínosný?

Pokud z PC vemu jen uživatele, co mají aspoň 8GB GPU, tak bych řekl, že víc lidí má konzoli, a tam můžem počítat s kapacitou zhruba těch 12 GB. Tedy doteď, dokud hry byly vydávány duálně PS 4/4 Pro/ 5, stačila 8GB karta, teď se zahozením podpory PS 4/4 Pro u části her potřebuješ 12GB kartu. A to se v druhé půlce života konzolí bude více optimalizovat, takže pokud se nerozšíří na PC technologie DirectStorage, tak budeš potřebovat ještě víc (co konzole bude tahat on-the-fly, ty budeš muset mít najednou ve VRAM). Jinak PS 5 Pro je za rohem, pokud si nekupuješ GPU jen na rok dva.

+1
0
-1
Je komentář přínosný?

O PS5 Pro sa hovori, ze by mala vyjst na jesen buduceho roku. To uz budu 4 roky od vydania RTX 3070/Ti a rok a pol od vydania RTX 4070. Ci predpokladas, ze odrazu uz ani 12 GB VRAM nebude stacit? Zatial ani nevieme, ci PS5 Pro bude mat viac pamate ako PS5.

+1
0
-1
Je komentář přínosný?

Aby PC neujel vlak. Ono už teď skutečně herní PC (na hry znatelně výkonnější než konzole ) je něco vzácného. Moc lidí si nekupuje každé 2-3 roky nový desktop za 50+ nebo notebook za 70+ tisíc. Jinak hry na běžných PC samozřejmě pojedou, akorát budou v nižších detailech než na specializovaném zařízení. Akorát zamrzí, když ten výkon tam je, ale hry prostě počítají s pamětí, co je na konzolích.

+1
0
-1
Je komentář přínosný?

Povedal by som, ze vykon PC/NTB sa posunul tak, ze bezni ludia nemaju potrebu kupovat ich herne varianty. Proste im na vsetko staci aj bezny a ovela lacnejsi HW. Skor to asi skonci tak, ze my ako hraci skoncime s prenajimanim HW na cloude a neskor zrejme aj vacsina ludi. Ja uz na hranie pouzivam Geforce NOW a je to uz na takej urovni, ze si clovek ani neuvedomuje ze nehra lokalne.

+1
0
-1
Je komentář přínosný?

Jo, i na lepší iGPU všechny hry zahraješ (to dřív nebývalo běžné), i kdyby ty nejnáročnější jen v 720p30 (na malém displeji notebooku není 720 problém).
A se zlepšujícím se internetem padají argumenty i proti cloudu. Zvlášť když některé umožňují použít tvoji knihovnu na Steam/Epic, takže ty hry nekupuješ 2x. Případně to bude Netflix/Spotify, že jakoby vlastních celou jejich knihovnu a peníze se rozpočítaj, kolik času strávíš v které hře. Jako mám blízké, co si pronajímají i notebook (macbook). Doba pokročila.

+1
0
-1
Je komentář přínosný?

No hlavně pokud vypnu RT, tak hra bude vypadat nejspíš furt dobře, když to jinak budu mít na max, ale jakmile musíš snižovat textury, tak máš z toho nekoukatelnou mazanici.

+1
0
-1
Je komentář přínosný?

Na odrazech vidím rozdíl s vypnutým RT (Cyberpunk 2077), na stínech RT nepoznám a na global illumination stačí RT přes CPU (zvládl to už Doom z roku 2016). Já jen poukazoval na to, že v rasterizaci je AMD rychlejší a při nedostatku VRAM je rychlejší i v RT. Přestože výkon RT výpočtů má rychlejší NV, která na to má dedikované jednotky. I když to je dvousečná zbraň, protože nižší řady NV maj RT jednotek neproporciálně méně, než o kolik mají nižší výkon v rasterizaci. Takže i AMD APU ji porazí. Připomíná to dobu, kdy na GeForce FX5200 byly 2 PS2.0 jednotky a na FX5600 3x tolik (PS2.0 byl proto na FX5200 výkonově nepoužitelný ve všech hrách, s tak nízkým výkonem žádná nepočítala - a pozdější hry už nenabízely PS1.x režim, takže člověk spadl na DX7 level grafiky). Jinak textury jsou samozřejmě větší vizuální rozdíl než RT, i když hodnotím ty odrazy.

+1
0
-1
Je komentář přínosný?

No to je takový další „problém“ RT – sice je už dost her, kde je, jenže jen v pár z toho má opravdu smysl, většinou to je jen takový požírač výkonu, který skoro nic nedělá...

Souhlas, že v Cyberpunku to je pěkný, ale stačí to opravdu spíš jen na ty odrazy, na těch vodních plochách, na kterých se odráží to město to je dost znát a bez RT to nevypadá moc dobře, to je pravda, tam je rozdíl velký. Pak možná ještě v Controlu to za něco stálo, ale to je asi tak vše a upřímně si už nic moc jiného nevybavuju, kde bych si z toho nějak sedal na zadek.

No a to mám jako kvůli těm pár hrám kupovat Nvidii, abych pak v jiných hrách měl pro změnu máznuté textury, co teprv vypadá hrozně? Nevím, no, spíš asi ne, protože jak pak dochází VRAM jsi stejně nucen to vypnout a o tom, že to sežere plno výkonu už ani nemluvím, pak jsi akorát navíc nucen zapínat to DLSS, které ti do toho přidá ghosting, což je potom ještě taky docela paráda, upřímně pokud mi stačí výkon, tak se vždy snažím být rači bez toho, ale ono pokud chceš za každou cenu RT, tak většinou nemáš jinou možnost, pokud to nemá být úplný slideshow.

No a jinak onanovat nad tím, že dostanu s Nvidií to DLSS mi už taky přijde trochu pasé, když tu máme FSR, které je v té nejvyšší kvalitně kvalitou i výkonem stejně srovnatelné... v nižších režimech sice v té kvalitě už trochu ztrácí, ale to už potom vypadá trochu blbě i s DLSS a není to nic, co bys chtěl používat, takže to už je IMHO stejně jedno a prakticky to je podle mně jedno a to samé.

+1
0
-1
Je komentář přínosný?

Špatná implementace možná, ale koho to zajímá. To tak je vždycky, jak je nějaký problém, tak se to na něco svede a dobré, ale že to na jiné grafice běží normálně, to nikomu nepřipadá divné, co... ono stačí mít jen větší rezervu a máš najednou hned po problému.

Tak ale Nvidie má dobré, že má tak tolerantní fanoušky, kteří ji to vždycky odpustí, i když se to u jejich grafik opakuje pořád dokola každou generaci tady v těch nižších tierech... já jim to ale nežeru.

+1
+1
-1
Je komentář přínosný?

Budou i tak spokojeni, protoze jim to s tema 16Gb pojede, ti co maji 10GB nebo 8GB nV budoy v pjerdeli :P
;)
ps: ale vazne, 16 je porad vic jako 12, takze budou na tom porad lip, jak ti s tema 12.

+1
0
-1
Je komentář přínosný?

16 je viac ako 12 a aj 24 je viac ako 16. Tak preco neist rovno do 24GB ked podla tunajsieho fora asi na inom uz ani nezalezi. ;) Naozaj veris tomu, ze odrazu zacnu vychadzat hry, ktorym nebude stacit 12 GB VRAM a budu mat preto vykonove problemy?

+1
+1
-1
Je komentář přínosný?

No ve 4k jsou hry, ktere vyuziji vice jak 12GB VRAM..takze ta doba ne ze nastane, ale je tady:)
Vcera jsem se dival na testy 6950x vs 4070..zaver typka v momente, kdy 4070 ve 4k ztracela naskok v VRAM narocnych hrach, ktere mela v nizsich rozliseni byl prave ten, ze vice VRAM u 6950x.
Kdyz tak hodim link az budu doma..

+1
+1
-1
Je komentář přínosný?

No to by ses musel asi hodně snažit, aby ti nestačilo ani 24GB s výkonem RTX 4070... ale že ti nemusí stačit její polovina s tímto výkonem, to už je na rozdíl od toho dvojnásobku docela dost pravděpodobné.

+1
0
-1
Je komentář přínosný?

Co koukám na to, co a jak testuje...

Tak v těchhle testech a nastaveních by to RTX 4070 podobně projela i s 10GB RTX 3080. :D

+1
0
-1
Je komentář přínosný?

RTX 4070 je slabší než RTX 3080 (a to má ještě štěstí, že její výkon už někdy může trochu podkopávat ta její 10GB VRAM)... ona je dokonce slabší i než třeba RX 6800 XT... jsou to malé rozdíly, ale jsou, na QHD to ještě bývá dost vyrovnané, ale jak po tom chceš 4K ultra, tak to začne postupně ztrácet a přestává to být tak kompetitivní, otázka ale spíš je, kdo s tímto výkonem ještě furt chce hrát na 4K, protože grafika typu RTX 3080 už přeci jen trochu zestárla a ani ta už na dnešní hry nemá zas tolik síly, v některých hrách už jsi i hluboko pod 60 FPS a to mi přijde jako poněkud nedostatečný výkon, ty nároky jsou už prostě zas trochu jinde.

Tím ale netvrdím, že by někdo měl brát místo RTX 4070 3080... pokud na tom chce pak ještě něco vydržet, asi není příliš dobrý nápad brát jen 10GB grafiku, když 8GB už padají na hubu, jak pak dojde VRAM, tak to ten výkon stejně zabije. Podle mně je ale 4070 prostě taková meh... pořád mi možná trošku rozumnější volba připadá ta 6800 XT, která se furt dá sehnat, cenově to tu 4070 podlízá a ještě to je o chlup výkonnější a s větší rezervou paměti, příp. za stejnou cenu tu 6900 XT, která je ještě o dost výkonnější... jediná nevýhoda je v tom, že to je prostě teplomet... ale jak bych pak kvůli tomu koupil 4070 a někde by mi to začlo padat na hubu kvůli malé paměti, asi bych nakonec ještě mlátil hlavou do stolu, proč jsem si tehda nevybral rači ten teplomet.

+1
0
-1
Je komentář přínosný?

Ja myslim, ze to urcite testuji blbe. Jediny kdo umi testovat a ma zasadne pravdu jes ty.

+1
0
-1
Je komentář přínosný?

Podle mě by se lidi měli rozhodovat podle her, co hrají a chtějí hrát. Např pokud často hraje AAA hry, které jsou vyvíjené i pro konzole, tak se nemůže divit, že karta s méně VRAM bude ty hry zvládat hůře, než o dost levnější konzole*.

*) Konzole má RAM sdílenou, ale hra se může rozhodnout, kolik bude pro CPU a GPU. Konzole má také rychlé plnění VRAM obsahem z NVMe bez zatížení CPU a kopírování RAM-->VRAM. Není tak narozdíl od PC třeba mít celou scénu ve VRAM najednou. I na PC se často donačítá scéna průběžně, ale scéna musí být designovaná na o řád pomalejší rychlost, pokud to nemá mít výrazný vliv na fps.

+1
+1
-1
Je komentář přínosný?

ja mam jeste starou PS4Pro a moc na tom uz nehraju. Celkove nesem uz moc velky paran ani na PC. Sem tam neco. Nicmene konzole jsou dobry a jde videt, ze technicky muzou mit v nekterych aspektech (vyjma hrubeho vykonu) i naskok nad PC, kdyz vyjdou. Takze nemam problem s tim, kdyz na nich neco jede jinak nebo lepe.

+1
0
-1
Je komentář přínosný?

To má určitě velký vliv na to, že v daných hrách a nastaveních to povětšinou není problém s 12 GB paměti proti 16 GB paměti u RX 6950 XT, ale problém s nižším hrubým výkonem RTX 4070 v rasterizaci.

Jak mám brát vážně „analýzy“ od youtubera, který po dvou a půl letech od uvedení RX 6000 ještě nezjistil, že se v Afterburneru u GeForce zobrazuje příkon celé grafiky a u Radeonů jenom příkon GPU a celá karta žere o dalších 70 W víc. A nadrzo ty dvě hodnoty srovnává.

O tom, že by plně vytížená RX 6950 XT žrala 300 W, si můžete nechat zdát.

+1
0
-1
Je komentář přínosný?

Jedine ty jsi se uz narodil s tim, ze mas pravdu.

+1
0
-1
Je komentář přínosný?

Je při tom srovnávání dvou karet výkonnostní rozdíl daný většinou kapacitou paměti, nebo rasterizačním výkonem? Taky má ten Radeon lehce vyšší propustnost pamětí.

Žere OC verze RX 6950 XT v plné zátěži 300 W?

+1
0
-1
Je komentář přínosný?

Řekl bych, že je zbytečný se tady furt ohánět přehnanou spotřebou 6950 XT... každý víme, že to je jen přetočená 6900 XT, která je pak ještě dál hnaná do nesmyslů AIB, takže pak ta spotřeba dosahuje celkem závratných hodnot, přitom se výkon od původní 6900 XT příliš neliší, protože to je jen o brutálních taktech a o ničem jiném, které to už očividně stejně příliš dobře nezvládá, efektivita je tragická a spíš se jen zbytečně zvedá spotřeba. Když vememe klasickou 300W 6900 XT tak její výkon furt zůstává citelně vyšší než 4070 Ti a to se dá sehnat za stejnou cenu, propustnost je taky furt vyšší, což se potom projevuje tím, že čím vyšší rozlišení, tím se nůžky ještě víc rozevírají a získává ještě větší náskok... jako bonus 16GB paměti, takže tady asi moc nehrozí, že se tomu přihodí taková ta nepříjemná situace, kdy ti dojde VRAM dřív než výkon a skončíš v nějakém stuttering messu... ale že se to někdy přihodí 4070 jen s 12GB, na to bych si asi klidně i vsadil.

+1
0
-1
Je komentář přínosný?

O to nejde. Spíš jde o to, že ten pán je ve svých závěrech lehce mimo.

+1
0
-1
Je komentář přínosný?

Tak to nevím, video jsem neviděl, ale je pravda, že u Radeonů se spotřeba nehlásí za celou grafiku, ale jen za samotné GPU, takže z toho pak nějak vycházet je opravdu lehce mimo, hlavně jestli se to pak srovnává s Geforce, které to hlásí vše komplet. Pokud se srovnává jen AMD, tak asi ještě celkem OK, ale je třeba si uvědomit, že celková spotřeba bude o něco vyšší než co to ukazuje a je třeba počítat i s napájením apod.

+1
0
-1
Je komentář přínosný?

Se zelenym DD to nema smysl. On ucebnicove neresi problem, ale snazi se strhnout pozornost nekam uplne jinam. Borec navideu si dovolil rict na zaklade toho, co je v tom videu zdokumentovano pomoc fps, vyuziti VRAM a RAM, ze 4070 dochazi pamet a ma to vliv na vykon, coz je naprosto korektni moznost, jak to vysvetlit (nerikam ze jedina) Coz je samzrejme neco, co tady zeleny Adamek nerad slysi, protoze pak ty jeho 3070, ti a nasledne 4070, ti a spol podovaji horsi vysledky nez AMD a to je pruser.Takze je potreba najit neco jineho a na zaklade treba spotreby ukazat, ze cele video je vlastne o nicem a borec z youtube je idiot. coz je jeho bezny zaver vicemen ke vsemu ;)
Nevim jestli si tady tehda uz byl, ale v dobe kdy NV zabanovala HWUnboxed, protoze se jim nelibila jejich recenze, tak ty Adam se priklanel na stranu NV, potazmo HWU nepodporil, presto, ze to jsou kolegove novinari jako on. Proste charakter, jaky hned tak nenajdes.

+1
+2
-1
Je komentář přínosný?

Borec na videu je mimo, když plácá něco o tom, že nižší výkon ukazuje na nedostatek paměti. Řešit by se to dalo možná u toho TLOU ve 4K, možná u toho RE4 ve 4K, ale to nepozná srovnáním dvou karet ve dvou nastaveních.

Kdyby mimo nebyl, tak ho napadne strčit tam i RTX 4070 Ti, která má stejných dvanáct giga paměti, nebo 12GB RTX 3080 Ti, a zjistil by, že u ní se dvanáctiprocentní propad výkonu proti Radeonu „kvůli nedostatku paměti“ ve většině z těch her nekoná.

Jen to, že hra na Radeonu žere 13 giga paměti, zatímco na 12GB GeForce 11,5 GB a běží pomaleji, neznamená, že na GeForce běží pomaleji, protože jí nestačí paměť.

Kdyby nebyl mimo, tak si všimne, že v tom 4K je to pomalejší, i když má pět giga paměti volných. Příčina nižšího výkonu RTX 4070 ve 4K není opravdu v nedostatku paměti. Obdobně to ve 4K vychází i ve hrách, na které stačí 12 GB paměti s prstem v nose.

Že je někdo youtuber, který má 100 tisíc sledujících a mluví anglicky, ještě automaticky neznamená, že nemůže být mimo.

A HWU občas plácá taky pěkný kraviny.

Jejich poslední perla, kterou jsem zaregistroval, byla, že 120 fps s DLSS3 je z hlediska hráče v podstatě stejné jako 60 fps, protože ta hra má při interpolaci input lag jako při 60 fps. A tudíž že se to nedá brát jako 120 fps, ale jako 60 fps, akorát je to plynulejší.

Ale kupodivu jsem od nich nějak neslyšel, že když na Radeonu naměří při 80 fps stejný input lag jako na GeForce při 70 fps, tak se to u Radeonu nedá počítat jako 80 fps, ale je to jako by ten Radeon běžel na 70 fps.

Těch se fakt zastávat nebudu.

+1
0
-1
Je komentář přínosný?

Hodnej, mas urcite pravdu, jako vzdycky.

+1
0
-1
Je komentář přínosný?

Ne, nemám. Ono je to ve čtyři roky starém tomb raideru o patnáct procent pomalejší, protože RTX 4070 v něm nestačí 12 GB paměti.
https://www.techspot.com/review/2663-nvidia-geforce-rtx-4070/#TR_4K

Nebo v plague tale, kde je pět giga volnejch.
https://youtu.be/z109Di2g5s8?t=597

Nebo v God of War
https://youtu.be/z109Di2g5s8?t=1026

Prostě v 1080 p je rozdíl ve výkonu menší, ve 4K větší, i když je 5 GB paměti volnejch, tak máme jasnej důkaz, že 12 GB paměti už nestačí. Jo, to dává smysl.

I když jak tak na ten závěr koukám, tak ten fakt není, že víc VRAM na 6950 XT. Explicitně tam mluví jenom o RE4. Zase akorát někdo slyší jen to, co chce slyšet. :D

+1
0
-1
Je komentář přínosný?

Ale to vis ze jo...

+1
0
-1
Je komentář přínosný?

Na druhou stranu se ani tato 6900 XT už nemůže v otázce efektivity 4070 rovnat, to se tomu upřít nedá... je to prostě něco za něco, 4 nm a evoluce architektury dělá svoje, ale taky si to nechají zaplatit, takže záleží, čemu dáš přednost... kdyby to mělo aspoň 16GB nebo nižší cenu, tak bych s tím byl asi osobně spokojen, ale takto to už je na mě trochu moc a nepřijde mi, že to je úplně worth i přes tu lepší efektivitu.

+1
0
-1
Je komentář přínosný?

Pro zajímavost: Já třeba efektivitu GPU moc neřeším. Kolik hodin měsíčně hraju náročnou hru? Kdežto když nechám otevřeno 20 tabů v Chrome bez adblocku (některé weby mě nutí jej vypnout), tak CPU je vytížen dost a člověk si neuvědomuje, že je to třeba celý den v kuse (prohlížeč nezavírá).

+1
0
-1
Je komentář přínosný?

No tak já vím, že někteří extrémisti to třeba i přepočítávají a prý že když vemeš tu efektivnější grafiku byť s příplatkem, tak vlastně ušetříš, protože s tím větším teplometem to pak stejně propálíš na spotřebě a nakonec to vlastně jakoby přeplatíš... no podle mně to bys musel být asi pořádný závislák, aby se ti něco takového povedlo a musel bys u toho sedět a pařit na tom v jednom kuse... ono pokud tam máš ještě navíc problém s tou malou VRAM, tak ti taková grafika poměrně rychle zestárne a musíš to měnit brzo, protože to stejně přestane stačit, takže že by to tak někomu s takovou grafikou opravdu vyšlo nějak výhodněji mi připadá dost nepravděpodobné, spíš to bude přesně naopak.

Co se týče mě, tak já spotřebu řeším spíš jen kvůli tomu, jestli to pak bude ještě příjemné u toho sedět a jak mi to vlastně půjde chladit... to pak taky záleží na schopnostech chladiče co k tomu dostanu – když už pak opravdu něco vybírám, tak mě zajímá především jak grafika funguje jako celek, je nesmysl pokud se třeba snažíš stavět něco tichého, tak upřednostnit pak grafiku jen na základě nižší spotřeby, protože pokud s ní pak dostaneš nějakej shit chladič a bude to i tak hlučné, tak mi to je stejně trochu k prdu, že to topí míň... takže pokud je na tom nějaký adekvátní a dá se to aspoň chladit tiše a cena je furt dobrá, až takový problém s vyšší spotřebou vlastně taky nemám.

+1
0
-1
Je komentář přínosný?

Ja bych treba mezi 6800XT vs 4070, vzal 4070, prave k vuli spotrebe, velikosti karty a teplu, ktere navic generuje 6800XT oproti 4070. Karta, ktera nbeude 'uplne ticha' v loadu mi az tak nevadi (nesmi to byt ale vysavac) a hlavni je, aby byla neslysitelna v idle. 200W by mel rozumne uchladit i 2-vetrak.
Akorat ta cena v kombinaci 'jen' 12GB to zatim zjednodusuji natolik, ze pockam s cim prijde Navi32 :)

+1
0
-1
Je komentář přínosný?

No mi na tom přijde nejhorší, že ani to Ti furt nemá 16GB, kdyby to bylo aspoň tak, tak to by byla ještě pohoda, ale fakt, že u nich musíš pro 16GB jít zas až do nějaké 4080 je prostě šílený, to už máš slušnej ranec, přitom AMD toto už dávno dávalo i k debilní RX 6800... to je pro mě prostě nepochopitelný, sice toto už je takový opačný extrém a overkill jak prase, ale pořád lepší takto víc než naopak.

Já bych jim za 12GB 16 už fakt nedal... prostě ne, je to málo a nebude to stačit... a 4070 Ti mi už úplně připadá jako dost blbej vtip, ve chvíli kdy bude VRAM full, tak ti ten výkon Ti už bude stejně k houvnu... no a co teď vymysleli i s tou 4060 Ti, která má mít dokonce už jen 8GB, to už je opravdu neskutečný výmrd a bez přehánění DOA... nepoužitelný odpad pro nadcházející triple-A tituly... co přijde dál už raději ani nechci vědět, ale kdo jim na toto naletí, toho mi bude fakt líto. U 3060 měli tehda ještě dost rozumu a místo 6GB dali rači rozumnějších 12, aby nebyl problém, což bylo super, ale tady už ho asi definitivně ztratili, když 4060 Ti dají už zas jen pouhých 8GB... chci vidět jak to bude další ještě třeba aspoň 3 roky furt stačit... dost pochybuju, když to někde nestačí už dnes... taková nová GTX 1060 3GB, která byla úplně to samé... už v době kdy byla aktuální nestačila.

+1
+1
-1
Je komentář přínosný?

Ja jim to za 16k dat nechci :)

+1
0
-1
Je komentář přínosný?

Jsou od patnácti, a když se bude cukat ještě víc lidí a zůstane to ležet dva měsíce na skladech (a navezli toho teď docela hodně), tak budou i levnější.

Teda pokud Čína neudělá cvičení, u kterého se ukáže, že to nebylo cvičení. Pak to může pro změnu vylítnout na třicet tisíc.

+1
0
-1
Je komentář přínosný?

Pokud ty nejlevnejsi pouzitelne modely spadnou ke 14k, tak bych o tom zacal uvazovat. Pak bych prekousl i tech 12GB VRAM ;)
Uvidim, s cim prijde AMD v cervnu..

+1
0
-1
Je komentář přínosný?

Nejde iba o to, ci je VRAM zaplnena ale aj o dovod preco. Su hry, ktore bez problemov idu aj na kartach s 8 GB(co je stale drviva vacsina) ale ak ich pustis na karte v vacsou VRAM, tak ju zaplnia tiez. Ale nie preto, ze by to realne potrebovali na plynuly chod. Len proste maju k dispozicii vacsi buffer. No a potom je tych par hier, ktore v 4K ale 2K uz naozaj potrebuju viac VRAM. Ako napriklad pri Far Cry 6 bol vydany balik kvalitnejsich textur ako bonus pre tych, co maju viac VRAM. Alebo Resifent Evil hry, ktore tiez ponukaju kvalitnejsie textury v nastaveniach. To je este ten lepsi pripad. Horsi je nestihanie nacitania textur alebo stuttering co inak moze byt aj ako dosledok nie prave optimalne vyriesenej prace so zdrojmi.

+1
+1
-1
Je komentář přínosný?

"takže nyní to stárne pomaleji než ty 8GB Ti"

V rasterizaci 3060Ti drží i v nejnovějších a nejnáročnějších hrách i při 4k svých 25-35% lead.

S RT, kde to v jedné nové hře dělá výrazný propad, kdy 3060 vede před Ti o 20%...

ale FHD v těch 29 FPS v průměru u 3060 není fakticky rozdíl k 24 FPS v průměru u Ti, jinými slovy, tam kde 8GB přestává opravdu stačit a znamená to výkonnostní propady, ta karta nemá dostatek výkonu a bude to nehratelné, takže tu paměť navíc sice má ale je ji to stejně k ničemu a když se ořežou detaily, sníží se potřeba paměti a tím se zase zvýší výkon té Ti.

Další věc je, nejrozšířenější karty mezi hráči mají 6-8GB paměti, vývojáři rozhodně nebudou dělat hry, kde odepíší drtivou většinu hráčů, že...

+1
0
-1
Je komentář přínosný?

> Další věc je, nejrozšířenější karty mezi hráči mají 6-8GB paměti, vývojáři rozhodně nebudou dělat hry, kde odepíší drtivou většinu hráčů, že...

To už jsme tady řešili, že. Doteď hry musely odporovat i staré konzole (8 GB RAM dohromady). Ty "problémové" jsou ty nejnovější, které už na staré konzole kašlou a na nových (2-3 roky starých!) je 16 GB dohromady. Takže jo, jestli si chceš koupit kartu za 20 tisíc pro staré hry, no problem (brácha si např před rokem koupil Voodoo 1 do sbírky 1-2-3). Ale jestli chceš i pro nové, tak tyhle AAA hry, co se teď vyrojily, jsou jen začátek. Vývojáři nemůžou za to, že PC lůza platí o tolik více za karty s o tolik méně RAM. Zvlášť když PC Master Race se chlubí, že si vždycky může koupit výkonnější (a o hodně dražší) hardware, ve kterém to těm konzolím "nandaj".

+1
0
-1
Je komentář přínosný?

Ano, řekl jsi to přesně, toto je grafika ideální na staré hry dělané ještě max. pro 8GB... ty poběží jak z praku, to je jasné, ten výkon tam zas bude... nicméně na nové to už bude nepoužitelné, protože v nich bude docházet paměť a to se pak už můžeš jít klouzat, to jsi pak už nahraný i se sebelepším výkonem... pocaď by to bylo v pořádku, kdyby to dávali pro low end, ale toto bude stát tak 13... prostě akorát nehorázně předražený krám... grafika na staré hry za tolik peněz... to je fakt dobrý joke.

+1
0
-1
Je komentář přínosný?

Za mě je ta karta super po všech stránkách, cena je sice vyšší, ale na dnešní dobu a s ohledem že Nvidia zdražuje každou generaci bez ohledu na ekonomickou situaci....
Jestli je vám milejší koupit si téměř dvojnásobně dražší RTX4080 a dostat jen +50% výkonu , tak je asi někde něco špatně, její cenu prostě nechápu
...4070 je dobrá za 600$

+1
-7
-1
Je komentář přínosný?

Možná pro někoho, kdo doma suší 970 nebo 1070.
Pro ty, co už stihli pořídit něco novějšího .. není důvod to pořizovat.

+1
+1
-1
Je komentář přínosný?

GTX 970 byl pametovy vojeb(224 + 32bit), tohle je ted vykonovy a cenovy vojeb...

+1
+1
-1
Je komentář přínosný?

RTX 4070 zachranuje hlavne krk 12 GiB VRAM, nebyt ji a pritomnost 128-bit sbernice, zlomi ji to ukazkove krk.

Co se tyka vykonu, tak v prumeru dosahuje 20% narust vuci RTX 3070, kdyby NVIDIA ale umele neposunula radu cili dnesni RTX 4070 Ti by byla RTX 4070, byl by rozdil vykonu mezi RTX 3070 a 4070 vic akceptovatelnych 40%, pak by pri cene 659€ clovek i prihrmouril sve oci, kdyby stala rovnou 599€, byl by to jasny overkill Radeon-u RX 6800.

Jedina ktera se z RTX 4000 vyplati je 4090, po ni je jiz 4080, 4070 Ti a 4070 umela orezana, sou to neakceptovatelne karty, jako pytat si 1400€ za 4080 je fail.

+1
-1
-1
Je komentář přínosný?

4070 ma 50% vykonu 4090 za 40% ceny a ma 8-pin takze ako jedina od Nvidie sa vyplati.

+1
+1
-1
Je komentář přínosný?

Až na to že 4090 je předraženej top model a nejde podle něj srovnávat...

+1
+2
-1
Je komentář přínosný?

Jak říká klasik: No co tak je to drahé. Zase na tom víc vydělají!

+1
+2
-1
Je komentář přínosný?

Úžasný!!!
Gratuluji NVidii k dosažení skvělého poměru výkon/spotřeba.
Škoda, že tahle karta pro mě není určená. Mám totiž RTX 3080 s lepším výkonem a větší spotřebou. Přitom moje sada her, které hraji, nevyužije vychytávek generace Lovelace, teda DLSS a RT. Tudíž u těch her vychází tahle RTX 4070 výkonem těsně nad RTX 3070Ti, ale s menší spotřebou.
Ve spotřebě drtí NVidia konkurenci podobně jako v procesorech AMD. Prostě spotřeba je parádní a to nakonec ještě mnoho měsíců od NVidia fans uslyšíme. Bohužel parádní spotřebou všechny výhody RTX 4070 končí.
Jinak teda nic. Je to drahý a výkon to nemá ani jako RTX 3080. Je to prostě tak, jak jsem to předpověděl. O ničem!

+1
+1
-1
Je komentář přínosný?

Snažím sa získať názor na túto kartu. Pre mňa ako človeka čo chce kartu max 200watov je to top. Ale ako človeka čo pozerá na veci cez peňaženku je cca 630€ v alze za najlacnejší model za vyššiu strednú čo xx7x nvidia prezentu proste neakceptovateľný. To môžete rovno zabudnúť na triedy a kupovať karty na koľko máte rozpočet, lebo nová generácia za daní peniaz nič nové neprinesie a výkon včerajšia pridá za rovnakú hodnotu ale z nižšiu spotrebu čo mi je úplne jedno, keď že som to mohol mať včera... A ja ako spotrebiteľ budem uvažovať inak. Kúpim staré pc na internet pripadne na WoW stači hočičo za 150€ z bazara a zvyšok si kúpim konzolu zo všetkým z lepšou optimalizáciou za 500€ a NHL k tomu...

+1
0
-1
Je komentář přínosný?

Za mě je to luxusní karta a kdybych dnes stavěl nový počítač byla by to pro mě jasná volba. Je to o 50% rychlejší než současná karta při stejné spotřebě, stojí stejně co mě před rokem stála moje současná karta, takže když mi dnes často ve hrách karta běží pod 100W (60FPS limit), tak 4070 může jít ještě níže a bude daleko častěji schopná chladit plně pasivně. K tomu zase výkonnější RT a nové DLSS a pro ty co říkají že DLSS netřeba, tak samozřejmě podporuje i to FSR, ale v mé knihovně je jeden FSR titul, titulů s DLSS je mnohonásobně více.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.