Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k 12GB GeForce RTX 4080 je pomalá, do 16GB verze ji chybí až 30 % výkonu

nVidia - the way its meant to be renamed.

+1
+2
-1
Je komentář přínosný?

Určitě by to dle mého měla být aspoň ta 4070 a ne 4080.

Nicméně když koukám na výsledky těch 4080 (i té 16gb) ... nejste z toho trochu zklamaní? Já jsem od nich čekal teda trochu víc... tohle vypadá, jakože pouze ta 4090 přinese takový brutální skok ve výkonu a zbytek přinese jen takový (pod)průměrný skok...

+1
+8
-1
Je komentář přínosný?

Vždyť už se to říká jakou dobu... prostě tradiční raster výkon se odsunul na druhou... možná až třetí kolej, Huang už nahání „výkon“ akorát přes AI a snaží se ti to rvát do chřtánu pomocí DLSS a snaží se ti namluvit, že to máš to samé jako kdyby zvyšovali výkon tradičním způsobem... což samozřejmě není, jen už není v zájmu Nvidie toto tak navyšovat a už to není taková priorita, je to složité a mu se prostě nechce, tak jde cestou menšího odporu.

Nejvíc mě vytáčí do běla, že kdyby nevyplácali plno tranzistorů na zkurvené Tensory, které prostě zabírají místo a místo nich rači narvali třeba ještě víc CUDA, udělali by možná líp a bylo by to lepší a výkonnější... ale prostě ne... je to takový podobný ojeb jako když máš u Intelu big.LITTLE a místo jader ti tam cpou nějaké atomy, tak u Nvidie máš zas tady toto... v benchmarku to bude vypadat dobře, nahoní na tom vysoká čísla... a to je tak vše, co je zajímá, že prakticky je takový výkon v hodně případech úplně k hovnu už ty firmy netrápí.

+1
+6
-1
Je komentář přínosný?

zrovna dlss3 je ta nejvetsi blamaz od nvidie na hwu udelali pekny rozbor a v podstate je to pouzitelny jenom v 1nom pripade a to kdyz chci mit ve 4k pres 200fps(coz s displayportem 1.4 muze byt problem) jinak ty nevyhody to uplne zabiji at uz input lag, ruzny graficky glitche, rozpadajici se ui je to fakt nejvic wtf a nutnych 100+fps pred samotnym zapnutim dlss3 a v podstate dlss2 performance vam da podobny vykon s podobbym vizualem a polovicnim inputlagem

+1
0
-1
Je komentář přínosný?

Pravidelne hravas hry s 25 a menej percentnym spomalenim? Ved HWU na Cyberpunku ukazal, ze aj pri 50% spomaleni si este glitchov nemusis vsimnut. A nie pri normalnom hrani. Je mi jasne preco sa niektori upnuly na HWU, ale je to znacne subjektivne. Si pozrite aj trebars Digital Foundry alebo dsogaming. Hlavne ked sa bavime o pocitoch z hrania a citlivosti na vnimanie grafickych artefaktov. Nieco si vsimnut mozes, nieco vobec. Niekto moze mat horsi pocit z hrania z DLSS3 a niekto zasa nie. A vsimol si si tiez, ze mozes mat aj nizsiu alebo rovnaku latenciu ako pri nativnom hrani bez DLSS3? Ci bez DLSS3 ta latencia uz hranie nezabija?

+1
-5
-1
Je komentář přínosný?

Když máte zapnuté DLSS, tak neporovnávejte latenci s nativním hraním, ale s DLSS bez generování snímků. Pak vám vyjde, že latence DLSS + frame gen. je tragická a zabíjí přínos DLSS. Je to logické, protože k vygenerování "půlsnímku" musíte napřed vypočítat skutečný snímek. Takže po vyrenderování skutečného snímku do paměti se přidá čas na vygenerování půlsnímku, pak se vykreslí půlsnímek, pak se počká cca polovinu doby mezi dvěma skutečnými snímky a teprve se vykreslí skutečný snímek.

+1
+3
-1
Je komentář přínosný?

Ano je to logicke. Ale zasa zvysenie poctu snimkov zlepsuje plynulost obrazu. Je to nieco za nieco. Niekomu to vyhovovat nemusi, inemu to zasa bude jedno.
A preco by som nemal porovnavat latenciu pri nativnom hrani s DLSS3? Ved pokial je podobna alebo nizsia s DLSS3, tak je to tiez prinos. Ja beriem do uvahy argumenty HWU co sa tyka toho, ze mali pocit pri 120FPS hre, ako keby ju hrali so 60FPS. Stale je to ale rovnake hranie ako bez DLSS3 a s lepsou plynulostou obrazu. S tym, ze sa to postupne bude vylepsovat. Jasne ze to nie je dokonala technologia, ktora splni predstavy vsetkych. Uz len z principu nema nikdy sancu splnit poziadavky fandov AMD. Je to proste o kompromisoch, ktore niekto akceptuje a iny zasa nie. Ale nie je to nezmyselna techmologia a logicky ani nemoze byt nahradena vymenou tensor cores za cuda cores ako si to predstavuje Mike123 vyssie.

+1
-4
-1
Je komentář přínosný?

Je to takový stejk ze sojového masa. Ať to třeba někdo jí, ale já si za něco takového nebudu připlácet ani platit stejnou cenu. Až to udělá AMD, tak to taky zkritizuju/nebudu používat, protože podobné oblbovací technologie mě vadí.

+1
+3
-1
Je komentář přínosný?

Tak zase to neni cerno-bily. Pro urcite scenare, to muze byt "nice to have" featurka, ktera muze zprijemnit hrani. Jen to neni dalsi "svata krava", jak se to NV snazi prodat.

+1
+1
-1
Je komentář přínosný?

Ako by si to predaval na ich mieste? Priznaval by si sa k tomu, kde to moc zmysel nema? Ukazal by si vsetky aktualne slabiny, ktore mozes casom vylepsit? Okrem toho NV prezentovala vela zaujimavych veci. DLSS bola len cast z nich. Nebola na tom postavena cela prezentacia novej generacie GPU.

+1
0
-1
Je komentář přínosný?

"Ako by si to predaval na ich mieste? "
.. nevim, jsem rad ze nejsem na jjejich miste a nemusim si priohybat realitu tak, at mi vyjde a nemusim se za to stydet :)

+1
0
-1
Je komentář přínosný?

Ale ved kazda firma prezentuje svoje produkty v tom najlepsom svetle. Vratane AMD. Videl som prezentaciu NV ohladom DLSS3 a nevidim dovod za co by sa tam mali hanbit, ked to posuvas do tejto roviny.

+1
0
-1
Je komentář přínosný?

A v tom se nase nazory rozchazeji :))

+1
0
-1
Je komentář přínosný?

To je v pohode. :-)

+1
0
-1
Je komentář přínosný?

Dovolím si nesouhlasit jelikož v tomto případě to je černobílé. Na jedné straně "realita" a na druhé poloviční fake. To máš jako kdyby se stará vrásčitá bába vyfotila a přes AI se vyžehlila a poslala ti pěknou fotku. Ve výsledku je to přeci ona jen napůl upravená takže je to přeci cajk.
Běžně to potkáváme na netu už léta a drtivá většina v tom problém nevidí což, ale neznamená že to je správný "bílý" směr.

+1
0
-1
Je komentář přínosný?

Jasne, z pohledu jednotlivych frames, to tak muze byt. Obzvlaste v momente, kdy to fakt vytvari hrozny mazanice. Takze technicky ano. V momente kdy ty AI generovane snimky vytvareji tyhle patvary, z technickeho pohledu je to blamaz a cerno-bile.
Mne spis jde o pohled uzivatele v momente, kdy mu ta technologie (presto, ze muze vytvaret mazanice) prinasi stale bonus a on ty mazanice nevidi, tak to nevidim jen cernobile a muze tam byt prinos pro uzivatele :)

+1
+1
-1
Je komentář přínosný?

Ono aj z HWU rozboru je vidiet, ze niektore artefakty si vsimnes az ked si obraz pustis s vyraznym spomalenim pomalu po snimkoch. To sa neda porovnavat s upravenymi a vyretusovanymi fotkami. Sa cudujem, kde ste boli posledne roky, kde nieco podobne robia TV uz nejaku dobu. Nevsimol som si, ze by ludia nadavali, ze nechcu pozerat na fake a upravene snimky z filmov.

+1
-1
-1
Je komentář přínosný?

no já nevím v té F1 sis toho všiml hned u těch jmen pilotů formulí to je peklo jak to problikává, no a když ti to může blikat už 200+fps tak už to oko není schopné rozlišit,
u flight sim. ty okraje motorů toho bojingu se úplně hejbou, jak kdyby to bylo želé a v kabině to UI ti problikává taky jak kráva, bylo to tam řečený pokud to nevyhoníš na 200fps tak si toho všimneš s tím že imput lag máš jak kdybys hrál na 60fps
takže je to úplně k hovnu:
4090ka vlastně nestačí pouze na RT ve 4k ostatní věci jsou pro ní jako jednohubka takže vlastně dlss3 ani nepotřebuješ, jako sorry, ale pokud jde o vizuál s grafikou za 50k a dostaneš blikající UI jenom kvůli tomu abys měl víc fps s větším inputlagem tak je to fakt k ničemu
a u méně výkonějších modelů ten problém s inpulagem a hranicí kdy ti to nebliká se bude hodně zhoršovat takže zase úplně k ničemu, na druhou stranu buďme rádi za tom, amd má alespoň čas vylepšit fsr a rozšířit a dlss dopadne stejně jako gsync
mnohem zajímavější mi přijde DLDSR, který měli víc propagovat, ale to by se každej hrabal v kvalitě snímků a nehrál čísla framů s dlss

+1
+1
-1
Je komentář přínosný?

Měl byste tu latenci DLSS3 porovnávat s DLSS2, protože tam máte stejnou kvalitu (pokud nepočítáme, že DLSS3 přidává další artefakty v generovaných snímcích). A jelikož DLSS3 oproti DLSS2 latenci zvyšuje, tak nevidím přínos v zapínání DLSS3. Ta plynulost obrazu pro mě není tak důležitá jako odezva.

+1
0
-1
Je komentář přínosný?

Vacsina hier DLSS ani Reflex nepodporuje. A nevsimol som si, ze by sa pisali clanky o tom, ako sa ludia na stazuju na vysoke latencie pri hrani. Pokial nie je problem hrat bez DLSS a Reflexu, nebude vo vacsine pripadov ani problem hrat s DLSS3. Pisem vo vacsine pretoze vzdy je tu moznost, ze latencia bude este vyssia a oproti nativu by to bolo proste citit. Tak vtedy by to naozaj nemalo zmysel zapinat. Tak isto beriem aj to, ze DLSS3 nie je pre kooperativne hranie a podla toho co som cital na dsogaming, tak ani pre zavodne hry ako F1. Pri "slow pace" hrach nevidim problem. Samozrejme ak uprednostnite menej plynuly obraz s nizsim FPS ale s lepsimi latenciami, je to tiez validny argument. To ale neznamena, ze to ini ludia nebudu vidiet inak.

+1
0
-1
Je komentář přínosný?

- "Nvidia dokurvila DLoSS3"
- "Zasraní AMD fandové!"

:-D

Marku, tohle je střelba do vlastní nohy.

+1
+2
-1
Je komentář přínosný?

To tvrdis ty. :-)
Su to stale ti isti ludia, co vzdy kritizuju NV za vsetko.

+1
0
-1
Je komentář přínosný?

Ne, to je výcuc tvého příspěvku. :-D
Já netvrdím nic, ale souhlasím s tebou, že to tady je semeniště AMD fanatiků!

+1
-1
-1
Je komentář přínosný?

Sarkazmus este snad rozlisovat viem. :-)))

+1
+1
-1
Je komentář přínosný?

"A vsimol si si tiez, ze mozes mat aj nizsiu alebo rovnaku latenciu ako pri nativnom hrani bez DLSS3?"
.. ve vzpominanem videu je jedna veta hned na uvod, ktera rika, ze pomerovat latence v nativnim rozliseni bez Reflexu, se zapnutym DLSS+Reflex, jaksi z principu veci nedava smysl. Proc si jej nezapnout i bez DLSS, ze? :))
Nezlob se, ale typicky marketingovy bullshit, na ktery si jim skocil Marku.

+1
+2
-1
Je komentář přínosný?

Takze co povie HWU je svate a nespochybnitelne? Co je na tom marketingovy bullshit? Ved prave reflex kompenzuje zvysovanie latencie z generovania novych frameov. Je to proste jeden balik. Ak si zapnes Reflex bez DLSS, mas znizenu latenciu, ale zasa si nezlepsis plynulost zobrazenych frameov. Ak si zapnes DLSS s generovanim frameov a s reflexom, hras tak ako bez DLSS3 ale s zasa s inou pridanou hodnotou vo forme vyssej plynulosti zobrazenych frameov.
Popravde samozrejme nemam ako vediet ako sa s tym hra. Ale to nevie ani nikto z nas co sa tu o tom bavime. Nemali sme ako si to este vyskusat. O DLSS 2.x som tiez casto cital aky je to ojeb a BS, ako to kazi obraz. No a ked som si to vyskusal sam, tak na 4K na urovni Quality pri hrani si rozdiely ani nevsimnes. Zato niekto by suverenne tvrdil, ze je to nehratelne.

+1
-1
-1
Je komentář přínosný?

"Takze co povie HWU je svate a nespochybnitelne?"
.. zpochybnuj si co chces. Ja treba bezne zpochybnuji Obrikovy testy a v momente, kdy se o nejaky web opre, tak aspon vim, ze je to ferovy web s ferovymi testy (narozdil od nej).
"Co je na tom marketingovy bullshit? "
.. ja netvrdim, ze ta technologie je marketingovy bullshit. Ja tvrdim ze marketing NV je marketingovy bullshit. Jak krasne... kdyz ti serviruji uzasne latence pro danou technologii s Reflexem a jaksi zapomenou u toho zminit, ze to s cim to porovnavaji muze mit v realite ty latence podstatne nizsi, protoze tam Reflex technologii zapomeli zapnout. Je to asi stejne, jako by jsi porovnaval Intel s AMD CPU a u jednoho z nich si tam dal nizko taktovane high latency pameti a zduraznoval, jak je ten druhy produkt rychlejsi. (viz Obrik :D )
Takze ano je to bullshit.
Hrej si co chces a jak chces Marku. Pokud nejsi schopen diky svemu zaujeti pro vec, se na veci divat pragmaticky, je to tvoje vec. Nikdo zaroven ale taky netvrdi, ze je to totalne nepouzitelne a kazdy at si pouziva co chce.

+1
+5
-1
Je komentář přínosný?

Ja beriem ako zaklad nativne hranie. A voci tomu porovnavam vsetko ostatne. Takze tu mas na jednej strane Reflex, ktorym ziskas nizsiu latenciu oproti zakladu, potom k tomu pridas generovanie snimkov z DLSS, ktora ti sice k latencii prida, ale stale sa vratis na plus minus zaklad ci dokonca moze byt aj tak nizsie. Tak preco je to odrazu s DLSS pomaly nehratelne, ked so zakladom, ktory je na tom v podstate rovnako, to nie je problem? Mne z toho vychadza skor tom ze niektori ludia proste maju problem iba s tym, ze sa vobec pouzilo DLSS od NV, ktoremu ani nahodou nechcu priznat ziadnu pridanu hodnotu.

+1
-2
-1
Je komentář přínosný?

Tak nebuď demagog a ber jako základ nativní hraní s reflexem. Hrát si na to, že ta možnost neexistuje je trapné.

+1
+2
-1
Je komentář přínosný?

Ja sa ale predsa nehram na to, ze Reflex neexistuje. Len hovorim, ze pokial ludia nemaju problem hrat bez Reflexu, tak by snad nemal byt problem hrat s DLSS3 s Reflexom, ak budu latencie na rovnakej urovni. Mne zasa pride, ze sa tu niektori tvarite ako keby tie hry blli v pohode, ale s DLSS3 uz nie su hratelne. Je to predsa kompromis. Bud hras podobne ako v native, ale s lepsou plynulostou obrazu, alebo s mensou plynulostou obrazu a s nizsimi latenciami. Nech si vybere kazdy ako chce. Ale nevidim ziadny zaklad na tvrdenia, ze je DLSS3 nepouzitelny, zbytocny, alebo nezmyselny.

+1
0
-1
Je komentář přínosný?

HWU o kterem se bavime, sepsul DLSS1.0 narozdil od treba od prvnch preview Digital foundry, ktere jsem videl. Naopak DLSS 2.0 pochvalili a doporucovali. Realita myslim byla DLSS 2.0 juj a DLS 1.0 fuj. Takze si myslim, ze HWU bylo vic nez ferove. Proto vychazim i z hodnoceni DLSS 3.0, jako ferove.

Moje filosofie je asi takova..osobne mne zajimaji testy, ktere ukazuji i nedostatky danych technologii a prave vypichuji veci, ktere si treba bezne clovek nevsimne. Je dobre vedet, kde jsou sllaba mista a vzit je v potaz pri vyberu, nez cist nadsene budovatelske ody, ktere ti ukazuji produkty jen v dobre svetle a pak byt 'prekvapen', ze neco neni tak jak si to clovek podle tech budovatelskych pisni predstavoval.
:)

+1
+2
-1
Je komentář přínosný?

DLSS 1.0 si zasluzilo zopsnut za vyslednu kvalitu obrazu. Druha vec bola technologicka, kde ide o zaujimave riesenie. A potom je to uz len o tom, na co sa kto zamera. Ale ano. HWU to odprezentovali pre potencialnych zakaznikov, ktorych nemusi zaujimat samotna technologia, ale vysledok. V tomto smere su v HWU korektni a preto ich tiez rad sledujem aj ked nie vzdy vidim vsetko tak ako oni. Mas potom viac argumentov k rozmyslaniu co nikdy nie je na skodu.

+1
0
-1
Je komentář přínosný?

:)

+1
0
-1
Je komentář přínosný?

je to ozaj u niektorých značne subjektívne. Nvidioblbec znovu nesklamal.

+1
0
-1
Je komentář přínosný?

A ako oznacujes seba? :-)

+1
0
-1
Je komentář přínosný?

Tady je to samý AMD fanatik.

+1
0
-1
Je komentář přínosný?

A nie je? :-))))

+1
0
-1
Je komentář přínosný?

Filozoficky řečeno, máš naprostou pravdu.

+1
0
-1
Je komentář přínosný?

Alebo inak? Vsetci su blazni, len ja som lietadlo? :D

+1
+1
-1
Je komentář přínosný?

no, fanatik určitie ale hlavne nie demagóg a bojovník za pravdu ako si ty.

+1
-1
-1
Je komentář přínosný?

Za ziadnu pravdu tu nebojujem. Povedal som si svoj nazor ako aj ostatni. A demagog? V com presne?

+1
+1
-1
Je komentář přínosný?

"Za ziadnu pravdu tu nebojujem."
A proč je polovina příspěvků v diskuzi od tebe.

+1
-2
-1
Je komentář přínosný?

Si pozri kolko ludi na mna reagovalo. A ako casto ma tu vidis takto vela pisat?

+1
+1
-1
Je komentář přínosný?

Kolko transistorov zaberaju tensory? Za kolko CUDA cores sa daju nahradit? Naozaj si myslis, ze tolko, ze by si nahradil vykon, ktory sa ziska z renderovania v polovicnom a nizsom rozliseni?
Fakt je, ze spracovanie obrazu pomocou AI je zaujimava vec, ktora sa stale zlepsuje a je len dobre, ze sa niekto snazi toto vyuzit aj v hernej grafike, pretoze to prinasa ocividne vela moznosti. Sa cidujem, ze radsej tu niektori vymyslate teorie o niecom o com nikto z nas nic nevie a staviate si na tom argumenty proti. Je to taka zaujimava forma boja proti pokroku. Ono zacne Som si usty, ze casom zacne AI pouzivat aj AMD. Dovtedy to asi musime vsetci nejak vydrzat, ze? :-)

Detto u intelu. V lete som akurat kupil notebook s Alder Lake 12700H a vykonu ma na rozdavanie. A tie atomy su syale vykonnejsie nez CPU, co mam este v PC a to i7 3770K. Niekde menej, niekde viac. Nie vsade sa samozrejme hodia, ale nie su tam len kvoli benchmarkom a marketingu. :-)

+1
-2
-1
Je komentář přínosný?

Alder Lake 12700H? 6P+8Cripples. Já raději stabilnější a předpovídatelnější výkon s úspornějšími AMD 8P. Argument s 10 let starým CPU moc nezabere.

+1
0
-1
Je komentář přínosný?

Ten argument som vztiahol iba na seba pretoze to bol v podstate upgrade za moj PC. Samozrejme, kto ma moderny CPU to bude vidiet inak. A je mi jasne, ze tych 8 atomov moc na hranie nepomoze. Alebo neskor ked sa niekde vyuzije tolko threadov, ze bude lepsie mat fyzicke jadra oproti mensiemu poctu so SMT. Aktualne som s nim ale dost spokojny.

Ale aj na tomto je pekne vidiet, ze ti isti ludia, ktori maju bias smerom k AMD (nemyslim v zlom, moj bias k NV je urcite tiez zrejmy, aj ked nehatujem kvoli tomu vsetko od AMD), maju problem aj s hybridnou architekturou Intelu. Ako keby jediny kto nieco robi dobre je firma AMD a vsetci ostatni maju len marketing a odrbavaju zakaznikov.

+1
0
-1
Je komentář přínosný?

Kdyby ti těch 8 atomů vypli a zůstalo ti tam jen 6P, tak máš z notebooku úplně stejný pocit:). Hybridní architektura Intelu je čistě objektivně problémová a až něco takového udělá i AMD, tak to bude také z principu věci problémové a já se tomu budu snažit vyhnout. Kritizoval jsem to i u ARM, ale tam to u mobilů aspoň trochu chápu (big-little) a kritizuji hlavně megabig-big-little.

A jestli ti to udělá radost. Dementi z AMD mě neskutečně vytáčí neschopností vydat RDNA3 a nějakou novější-graficky silnější generaci APU!!!

+1
-1
-1
Je komentář přínosný?

Neviem. Zatial neberiem 8 fyzickych aj ked slabsich jadier navyse ako minus. Uvidim casom. Okrem toho tiez nadavam na Intel, ako zavadzal pri prezentacii ich vykonu, ked ich porovnaval so Skylake.

+1
0
-1
Je komentář přínosný?

4070 za cenu 4080. A vo to gou(s).

+1
+3
-1
Je komentář přínosný?

The way its meant to be payed.

+1
+3
-1
Je komentář přínosný?

Nejsem zklamany.
Mam RTX 3080 a když pominu extémně drahé grafiky, na které téměř nikdo v ČR ale i jinde stejně mít nebude, tak RTX 4080/12 je o nějakých 15% výkonější. To není mnoho, takže je docela šance, že i u nových her designovaných na řadu 4000 budu pořád s RTX 3080 v naprosté pohodě. :-)
Teda aspoň do chvíle než přijde RDNA3. Ikdyž si myslim, že ani AMD se neudrží a ve vidině velkých zisků také nastaví ceny tak, že se grafiky prodávat příliš nebudou.

+1
-4
-1
Je komentář přínosný?

Novinka stará už pomaly mesiac :( https://www.youtube.com/shorts/lRVKy941P3U

+1
+2
-1
Je komentář přínosný?

Podle tabulky v článku [ https://diit.cz/clanek/geforce-rtx-4090-vydana-spotreba-v-tovarni-konfig... ] to vypadá, že z plátků AD103 se vyrábí prozatím jediná karta - RTX 4080 se 16 GB. To by mě zajímalo, proč?
Pokud by 16GB 4080 stavěli na "plných" (nepokažených, neořezaných) čipech, pak by se jim měli (časem) nahromadit slabší kusy AD103. Potom z nich budou dělat co? RTX 4080/12 GB "plus", nebo RTX 4080/16 GB "mínus"...
Nebo naopak staví na slabších kusech AD103 a později přijde "lepšejší" RTX 4080 "ftw"? Nebo prostě jenom po nějaké době vyjde nějaká nová "random" karta s nějakým novým (pře)pojmenováním?

+1
+1
-1
Je komentář přínosný?

Ano, vyjde nějaká nová "random" karta, která se bude furt jmenovat RTX4080 (ať už 12GB nebo 16GB nebo oboje), jen to bude mít jiný výkon než ty, co jsou na trhu teď. Známe nV, že...

+1
+5
-1
Je komentář přínosný?

Kde boli vsetci ochrancovia spotrebitelov pre tych, co si kupili RX6500XT ako upgrade z RX550XT. :-) NV aj AMD si mozu pomenovat produkty ako chcu. Mne sa tiez nepaci aktualne RTX 4080 16GB a 12GB. Je ale zaujimave, ze NVDIA bijci podobne preslapy u AMD bez problemov prehliadaju a nemaju potrebu ich roky vytahovat.

+1
-6
-1
Je komentář přínosný?

Nelži, komentářů na nevýhodné upgrady od AMD tady bylo taky dost.
Ale ty tady brečíš jen pokud se někdo trefuje do NVidie.
Myslím, že u každého tábora se objevují dobré volby, ale i ty špatné.

+1
+1
-1
Je komentář přínosný?

To ale nie je pravda. Ludia, ktori sa tu pravidelne trefuju do NV, maju u AMD uplne inu toleranciu. Alebo len priklade vyssie vidis, v diskusiach narazky na 6500XT? Pretoze ja nie, ale GTX 1060 6GB vs 3GB sa tu pravidelne objavuje. A nielen to. Asi preto, aby ludia nezabudli aka je ta NV zla firma. :-)

+1
+1
-1
Je komentář přínosný?

Ono AMD vydalo dvě RX6500XT každou s jinou konfigurací?

+1
0
-1
Je komentář přínosný?

Nie. Ale preznacilo medzigeneracne GPU tak, ze 6500XT nebol nastupca 5500XT, ako by sa podla nazvu dalo odvodit, ale o uroven slabsej gpu. Nemoze to zmiast ludi, ktori nepozeraju testy? Pretoze iba taki si mozu aj u NV mysliet, ze 4080 16GB a 12GB sa lisia iba mnozstvom pamate. Mne je to realne jedno, ked v tom nevidite problem, ale aspon by som sa krotil a nestaval sa do role moralnej autority, ked si vsimam iba prehmaty jednej strany. To samozrejme nemeni nic na oznaceni 4080tok a mne sa tiez nepaci ako to v NV urobili.

+1
0
-1
Je komentář přínosný?

Z čeho usuzuješ, že je to o řadu slabší GPU?

+1
-1
-1
Je komentář přínosný?

Z toho, ze je 5500XT vykonnejsia alebo prinajhorsom rovnako vykonna ako 6500XT? A pisal som, ze je to nastupca o rad slabsej GPU. Nie, ze je 6500XT o rad slabsia ako 5500XT.

+1
+1
-1
Je komentář přínosný?

6500xt je slabsi, to je pravda. A jmeno je silne zavadejici.
Na druhou stranu by se melo rict na ferovku, ze to byla karta, ktera vzesla v dobe tezebni horecky a AMD sama k tomu sama pridala historii, jak ta karta vznikla a ze nebyla puvodne ani planovana. 6500xt je mizerna karta na dnesni dobu vykonem a jeste omezena malym poctem PCIe linek. Je to spatna koupe, ale nekomu to muze stacit za ty prachy. Nic lepsiho za ne nesezenes.
Treba nejnizsi 3050 od NV je sice o 50% podstatne vykonejsi, ale zaroven stoji o 50% vic a jeji pomer vykon/cena je stejny, jako te 6500xt.
Nicmene ja bych urcite sahl po 3050 nez po 6500XT :))

+1
+1
-1
Je komentář přínosný?

Jo takhle. No, je to taky docela voser, ale označit stejně dvě poněkud rozdílné karty mi stále příjde ještě poněkud větší.

+1
-1
-1
Je komentář přínosný?

RTX 4000
Posun TDP na jednotku výkonu v nové generaci je "skvělá" 0, slovy NULA.
Takže se NVidia moc nepředvedla, sorry jako.

+1
-1
-1
Je komentář přínosný?

To nesouhlasím, fps na watt je naopak historicky aktuálně nejlepší na světě (pro 4090):
https://www.guru3d.com/articles-pages/geforce-rtx-4090-founder-edition-r...

Dál se dá operovat s undervoltem, na hodně titulech to běží 4k 120 fps při 60% TDP, tedy velmi výrazně efektivněji než 3090.

+1
+1
-1
Je komentář přínosný?

Něco na RDNA3? U RTX 4XXX bylo to nejzajímavější už vydáno (RTX 4090), ale bohužel to je jen pro 0,3 % hráčů, tak snad AMD...

+1
+1
-1
Je komentář přínosný?

79% výkonu za 75% ceny (aspoň pokud se bavíme o doporučených cenách), takže já s tou kartou jako takovou nemám problém. Jen se opravdu měla jmenovat raději 4070 :)

+1
+1
-1
Je komentář přínosný?

Docela mi chyba popis ze RTX4080 12GB je nieco ine, z hladiska gpu, ako RTX 4080 16GB. Viem ze tu nejaky clanok, prehlad gpu bol, ale pre niekoho kto nesleduje kazdy parameter a na koho bude tento marketing zamerany, to znie dost zavadzajuco, ze tie karty sa lisia iba vo velkosti pameti co ale nie je pravda, kedze v RTX4080 12GB je uplne iny cip, docela dost orezany oproti RTX4080 16GB hoci tie karty maju rovnake pomenovanie.
Ked si clovek pozrie tie parametre, osekane SP jednotky, TMU,ROPs aj zbernica, tak sa ale ani nic ine moc cakat nedalo.

+1
+1
-1
Je komentář přínosný?

Neustále mi vyskakuje číslo 1060, ale netuším, co by to mohlo znamenat...

+1
-1
-1
Je komentář přínosný?

Nv stejně nasadí těžařské ceny a výkon taky není těch +100% takže řada 40 se u mě v bedně neohřeje ale možná to bude nějaké nové AMD.

+1
-1
-1
Je komentář přínosný?

Tak nVidia je nakonec vydá pod jiným jménem, ten tlak z diit.cz byl příliš silný :-).

https://www.techpowerup.com/299859/nvidia-cancels-geforce-rtx-4080-12gb-...

+1
+1
-1
Je komentář přínosný?

A nielen tu. Stach sa uz vyhrazal zalobami a NVIDIA asi nevydrzala psychicky tlak. :-)
Ale vazne, mali by tu kartu vydat ako RTX 4070. Uz pri GTX 1060 to nebolo koser a teraz bol vykonovy rozdiel prilis velky.

+1
+1
-1
Je komentář přínosný?

https://www.guru3d.com/news-story/nvidia-cancels-the-geforce-rtx-4080-12...

12GB nebude..Skoda mohl by No-X nadavat jako na arc a bylo by co cist:-(

+1
+1
-1
Je komentář přínosný?

No to zalezi, pokud tomu zustane 900$ cenovka, tak ani zmena jmena na 3070 tomu moc nepomuze a nadavat se bude vesele dal.

+1
+1
-1
Je komentář přínosný?

Skor by som cakal 4070Ti. Ale je vysoka aj tak. Pokial maju naozaj velke zasoby z 3000 serie, dalo sa cakat, ze ceny nasolia a nebudu si kanibalizovat na tom, co by sa malo vypredat. AMD ma teraz sancu konkurovat cenou vdaka cipletom. Mala by ich vyjst menej cena jedneho cipu a mali by mat aj lepsiu vytaznost, kedze graficky ciplet bude mensi ako monolit co vyraba NV. Som zvedavy s cim pridu.

+1
0
-1
Je komentář přínosný?

Taky doufam, ze AMD s tim trhem trochu zahybe, podobne jako u 6600. Mozna vsrianta ale je, ze AMD 'dorovna' jen ceny NV-50$. To by bylo blby. Pak uz bude zalezet jen na tom, jak dlouho to lidi odmitnou kupovat za ty ceny.

+1
0
-1
Je komentář přínosný?

Budou donuceni ji ještě snížit. RTX 4070 je neprodejná za 900$ vůči konkurenci, nevím o co se zas Nvidie pokouší tady s tím, ona si s tím trhem prostě jen tak hraje a zkouší, co si vše ještě může dovolit...

+1
+2
-1
Je komentář přínosný?

Kozeny bundy jsou drahe..
:)

+1
+1
-1
Je komentář přínosný?

Nv se ještě neprobrala a žije v tom že těžaři opět všechno zkoupí to se ale s největší pravděpodobností nestane.

+1
0
-1
Je komentář přínosný?

No hlavně vždyť už teď pořídíš za tu cenu klidně i RTX 3080 Ti... tady ta RTX 4070... ehm, pardón... „RTX 4080“ bude podle těch benhmarků zhruba stejně výkonná... kdo by na něco takovýho čekal, pokud toto někdo chce, už to dávno může mít, akorát to najde pod názvem 3080 Ti, což je prakticky to samé... IMHO tou cenou chcou od ní akorát dočasně odradit a ať na ni lidi nečekají a vykoupí rači RTX 30, kterých jsou ještě plný sklady a potřebují se jich zbavit, teď ji už navíc ofiko pohřbili úplně tím, že zrušili její uvedení bez oznámení nějaké náhrady místo ní, takže už vlastně není ani na co čekat, tu 4070 vydají, až jak budou 30 konečně pryč, což ještě asi nějakou chvíli potrvá.

+1
+1
-1
Je komentář přínosný?

Já to vidím na následující sled událostí v Q1 2023:

Nadměrné zásoby RTX 3000 už budou tou dobou vyřešené (protože vánoce), bude ještě mnohem větší odliv potencionálních zákazníků.
Zároveň tou dobou by měly vycházet rdna3 karty třídy x800.

Co s tím udělá nVidia?
1. S velkou slávou ohlásí slevu RTX 4080 16gb na $900
2. S ještě větší slávou vydá RTX 4070ti 12gb (původně 4080 12gb) za cenu okolo $700
A k tomu rovnou RTX 4070 10gb okolo $550.

+1
+1
-1
Je komentář přínosný?

4080 16gb za 900$ si klidně můžou strčit tam kam slunce nesvítí za 550$ by se o ní dalo uvažovat.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.