Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 5070 Ti: 8960 SP a 300W TDP?

Ono to, že bude grafika od AMD mít 256 bit sběrnici, neznamená, že bude výkonější než 192 bitová karta NVidie. To se teprve uvidí.

Jinak osobně bych byl dost nadšen, kdyby grafika RDNA4 měla aspoň stejný výkon jako RTX 5070. Protože když má NVidia 16 pin a u AMD předpokládám 2x 8 pin, tak to jasně hovoří pro pořízení karty od AMD. Akorát musí mít ten výkon. :-)

+1
+2
-1
Je komentář přínosný?

Se uvidí, Radeony by o trochu vic efektivity rozhodne potrebovaly.

+1
0
-1
Je komentář přínosný?

sorry, ale kdyz rx6000 mely nizsi spotrebu nez nVidie, tak vsichni psali jak vlasne efektivita nikoho nezajima.. kdyz na tom jsou rx7000 hur, tak najednou radeony potrebujou vetsi efektivitu..

+1
+8
-1
Je komentář přínosný?

Sorry co?

Hlasal jsem to tady snad ja?

Radeony typicky maji lehounce vyssi naroky na wattáž.

+1
+3
-1
Je komentář přínosný?

nebolo to napriklad pri RX6000 skor tym, ze v rovnakej vykonnostnej hladine mali radeony viac VRAM?

+1
-1
-1
Je komentář přínosný?

K čemu více VRAM?
-- Vaše nVidia

K čemu grafika s 8 GB VRAM?
-- S.T.A.L.K.E.R. 2

https://www.techspot.com/review/2926-stalker-2-benchmark/#2024-11-22-ima...
2 fps == How its mean to be played

+1
-2
-1
Je komentář přínosný?

jj uz som videl ten graf, celkom smutne a smiesne to je
btw ta hra potrebuje este minimalne pol roka ladenia (asi ti developeri chodili na staze do Bethesdy)

+1
+3
-1
Je komentář přínosný?
+1
-2
-1
Je komentář přínosný?

Techspot to měřil i v Native.
TPU má zapnutý upscaler.
Snižuje to spotřebu VRAM.

>> The "Graphics" menu has presets, which are "Low," "Medium," "High," and "Epic"
>> Please do note that selecting any one of those profiles will set upscaling resolution to 66%!! This will look terrible at lower resolution, especially when using TAA. I've manually set it to 100% throughout this article

>> We tested the public Steam release of Stalker 2, not a press release build
Steam verze stihla dostat hodně záplat už v první den.

A je vidět, že stačí málo, aby 8 GB grafika byka ,,, mimo hru.

BTW .. Techspot použil 9800X3D a vyhodnotil, že v 1080 nebyl brzdou procesor, ale grafika. S výjimkou RTX 4090.

+1
+1
-1
Je komentář přínosný?

Áno stačí málo, stačí ak sa na to vyserieš a nedoladíš to

+1
0
-1
Je komentář přínosný?

Žel .. poslední dobou je to spíš pravidlo než výjimka.
Něco se vydá v nějakém stavu.
Když to vydělá opravdu hodně, tak se možná něco z toho použije na zmírnění toho nejhoršího.
Když to nevydělá ...

+1
0
-1
Je komentář přínosný?

„Radeony typicky maji lehounce vyssi naroky na wattáž.“

Radeon RX 6900 XT - 300W
GeForce RTX 3090 - 350W

Radeon RX 6600 - 132W
GeForce RTX 3060 - 170W

?

+1
0
-1
Je komentář přínosný?

Tak v pořádku, ale zkus si tam vypsat AdaLove vs RDNA3..
Ne energeticky nic moc Ampere.

+1
+2
-1
Je komentář přínosný?

A co takhle vypsat vice generaci a vice modelu?

Zavadejici argumentace.

+1
0
-1
Je komentář přínosný?

Prosím? Reaguji výslovně na příspěvek, který rozporoval tvrzení „rx6000 mely nizsi spotrebu nez nVidie“ slovy „Radeony typicky maji lehounce vyssi naroky na wattáž“.

Už Radeony RX 5000 byly na úrovni GeForce:
https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt

A řada RX 6000 na tom byla celkově lépe, u high-endu a mainstreamu docela citelně:
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt
https://www.computerbase.de/2021-08/amd-radeon-rx-6600-xt-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt

Takže z posledních 3 generací na tom byla Nvidia lépe pouze u té poslední.

+1
+2
-1
Je komentář přínosný?

Ohledně té spotřeby - loni zrovna touhle dobou za námi do kanclu přišli 2 kolegové a chtěli doporučit synkům "levnou" grafiku. Jeden nahrazoval 1060/3GB, druhý stavěl nový stroj (chtěl jen doporučit grafiku). Navrhovali jsme jim AMD 7600/8GB, 6700/10GB, 6700XT/12GB a nVidii 4060/8GB. A oba si nezávisle na sobě vybrali nVidii 4060/8GB, protože měla v gameplayích nejnižší spotřebu a srovnatelný výkon (ten první trochu i kvůli tomu, že nahradí nVidii nVidií). Argument ohledně VRAM ani jednoho nezajímal - oba koukali na výsledky současných her (hlavně Fortnite a spol co jejich synkové hrají).

To jen k té efektivitě, že to i běžné lidi zajímá.

+1
0
-1
Je komentář přínosný?

Ano a hlavne nizsi modely nVidie prave mivaly nizsi spotrebu.

+1
0
-1
Je komentář přínosný?

Tu efektivitu by potřeboval jak Radeon tak nVidia tak Intel :D

+1
+3
-1
Je komentář přínosný?

Nic lepšího na světě neexistuje.
Stačilo by do rozumné meze stáhnout takty a efektivita přijde velmi rychle.
Sebelepší chip můžeš frekvenčně vyškvařit tak, že bude žrát jak nezřízený a pak o něm psát, že je žravý.

+1
+3
-1
Je komentář přínosný?

No pokud má růst výkon, tak druhá varianta je udělat větší čip na konzervativní frekvenci, jen tam zase bude stížnost že je extrémně drahý...
Vlastně to vidíme docela často v profi sféře.

+1
0
-1
Je komentář přínosný?

Z mého pohledu ani těch 300 W nevadí pokud se zároveň zlepšuje perf/watt vs. předchozí generace.

+1
0
-1
Je komentář přínosný?

Mírný pokrok v mezích zákona:
RTX 4090 - 16384 shaders ---> RTX 5090 - 21760 shaders
RTX 4080S - 10240 shaders --> RTX 5080 - 10752 shaders
RTX 4080 - 9728 shaders
RTX 4070TiS - 8448 shaders --> RTX 5070Ti - 8960 shaders
RTX 4070Ti - 7680 shaders
RTX 4070S - 7168 shaders
RTX 4070 - 5888 shaders ---> RTX 5070 - 6400 shaders

Pod 5080 se už vyplatí přemýšlet o kartách z řady 4000
Pod 4080S už i o kartách AMD
Pod 4070 už ani Batlemage nevypadá zas tak špatně

+1
+1
-1
Je komentář přínosný?

A to jsem zvědav, jak to 5080 chce natřít 4090.

+1
+1
-1
Je komentář přínosný?

Rozhodně je to v plánu, jinak by ta karta ani nedávala smysl.
Nezapomeň že se jedná o novou architekturu. Není to jen počtu SP/MHz.

+1
+1
-1
Je komentář přínosný?

A taky paměti budou nové gddr7

+1
+2
-1
Je komentář přínosný?

>> A taky paměti budou nové gddr7
To pomůže lehce snížit náskok té 4090.
Ale pořád to bude 256 bit proti 384.

Taky budou vyšší frekvence (a tím i spotřeba).

Ale pořád zbývá nějakých 20% ke zvednutí pomocí lepšího "IPC".

+1
0
-1
Je komentář přínosný?

este sa pouzije najnovsi DLSS4.0, ktory pojde trosku lepsie na rtx5000 z dovodov blablabla, a ktory ten rozdiel urobi :)

+1
0
-1
Je komentář přínosný?

Když to novější peodukt nedá tychleji, tak zpomalíme ten starší.
Nebo přejdeme na porovnávání "Real Life Apps", případně ... pocitů.
-- Apple, nVidia, Intel, ...

+1
+1
-1
Je komentář přínosný?

Bych řekl, že 5080 bude pod 4090. Obecně ,myslím, že na to předhánění o model níž NVidia rezignovala, ikdyž marketingově bude kecat něco jiného.
RTX 4070 nedorovnává výkonem RTX 3080.

Jinak RTX 5070 bych viděl jako kandidáta na novou grafiku, ale 16 pin a 12 GB VRAM hovoří spíše proti koupi. Dneska ty hry 16 GB VRAM klidně na vyšší rozlišení vezmou.

+1
+3
-1
Je komentář přínosný?

Je těch ~300W pro 12VHPWR konektor vůbec problém, měly karty <RTX 4080 v pozorovatelné míře problém s tímto konektorem?

+1
0
-1
Je komentář přínosný?

ten konektor je nachylnejsi aj na mechanicke opotrebenie, je to sunt

+1
+3
-1
Je komentář přínosný?

Pokud máš nový zdroj s 12VHPWR, tak problém není. Pokud máš starý zdroj s 8 piny, tak problém je.

+1
+2
-1
Je komentář přínosný?

tak to jsem zvedavy na ceny, protoze tam mirny pokrok rozhodne nebude.

+1
0
-1
Je komentář přínosný?

Kdybys měl 85% trhu, dával by jsi produktům stále "dobré" ceny? Z pohledu nVidie je aktuálně hodně špatný nápad dělat jakkoliv atraktivnější GPU, protože pokud se jim zvedne podíl trhu ještě o pár procent museli by řešit oplétačky s antimonopolními úřady což nikdo řešit nechce.

+1
+1
-1
Je komentář přínosný?

Urban legend o antimonopolnich uradech je zpet..
:)
ps: kdyby to takhle fungovalo, tak by NV k vuli dominanci v AI musela byt uz nejmene rozctvrcena..

+1
-1
-1
Je komentář přínosný?

Ikdyž pomineme úřady, tak stejně NVidia nemá důvod dávat dobré ceny. Očekávám, že to zase budou pálky. Ve výsledku, když bych byl ochoten jít do grafiky okolo 20K, tak bůh ví, jestli se vejdu aspoň do té RTX 5070 a to říkám, že vlastně o ní moc nestojim, protože ikdybych neřešil 16 pin, tak furt to má paměti VRAM tak málo, že moc není důvod k upgrade.

+1
+2
-1
Je komentář přínosný?

Souhlasim, namasti na max, kam to az pujde.
5070 je zase osrana tema 12GB pameti, podobne jako 4070... na 1440p+ rozliseni, to muze byt nekde uz znat, zlaste treba po delsim hrani..

+1
+1
-1
Je komentář přínosný?

Jj a tu RTX 4070 mám, nepotřebuju další 12GB kartu, ikdyž mě jde o nahrazení té druhé teda RTX 3080, která má 10GB. Pro mě je situace jasná, buď budu mít finance na 16GB kartu nebo zůstanu u současných, protože bez upgradu paměti nepotřebuju upgradovat výkon.

+1
+2
-1
Je komentář přínosný?

ja jim rozumim moc dobre, ale platit se mi to nechce. ;-)

+1
+2
-1
Je komentář přínosný?

Můžete si tady psát a hejtovat co chcete, v sekci grafických a výpočetních karet je Nvidie Titán, a paběrky nedonošených výrobků od AMD si můžete najít v popelnicích.

+1
-4
-1
Je komentář přínosný?

Tak černé bych to neviděl. Nákup grafiky jsem odložil, uz to vydržím na 5000 řadu. 4070S, kterou bych kupoval dnes si budu moct koupit i příští rok, kdyby 5000 nebyla zajímavá.

+1
+1
-1
Je komentář přínosný?

...este keby to fungovalo aj pri baleni dievcat :/

+1
+1
-1
Je komentář přínosný?

>> paběrky nedonošených výrobků od AMD si můžete najít v popelnicích
S nápisem "El Capitan"?

+1
+2
-1
Je komentář přínosný?

Nejmensi rozdil(GPU) byl mezi xx80 a xx90 modelem u tridy RTX 3000.

Pak se to dost rozevrelo u tridy RTX 4000, tu jiz citelne chybela RTX 4080 Ti a kdyby byla RDNA 3 konkurencni, prijela by i 4090 Ti.

RTX 5000 serie je jiz primou ukazkou arogance NVIDIE, rozdil mezi RTX 5080 a 5090 je vic jak 2x v pripade SP, dale velikosti sbernice a VRAM, jednoduse NVIDIA udelala ze RTX 5070 -> 5080 protoze prave ty parametry mela mit 5070, 5070 Ti mela byt jeste lepsi, jednoduse tu jiz "prava" xx80 citelne chybi, jestli nepride RTX 5080 Ti(ne ten vojeb typu RTX 4080 Super), dost lidi to nasere a NVIDII sklapne tlama, to se vam to dela z mainstream GPU az 3 modely, ozaj kam zmizela GB204???

Velika skoda z generace RDNA IV neprijde vykonnejsi reseni nez Navi 48...49!

Rovnez povazuju za joke PS5 Pro, bez UltraHD Blu-ray mechaniky, stojanku a poradne only PS5 hry typu Metal Gear Solid 6 za 799€, to je jednoduse vtip(!) a nenazranstvi Sony, i ten dizajn 5 Pro stoji za kulovy.

+1
0
-1
Je komentář přínosný?

>> Nejmensi rozdil(GPU) byl mezi xx80 a xx90 modelem u tridy RTX 3000.
To bylo v dobách, kdy byl základem stejný čip.

+1
+3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.