Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4060 Ti vydána: Nepřekonává GeForce RTX 3060 Ti ani o 10 %

Výkon ~3070, spotřeba o cca 25% nižší než 3060Ti, stejná cena... Třeba ve Spidermanovi 4060Ti běžela se spotřebou 100-120W s výkonem na úrovni 3070 (pro hnidopichy asi 2% nad) kdežto 3070 na to potřebovala o 100W více. Průměrně 140-150W a v idle je to aktuálně asi nejúspornější diskrétní grafika vůbec.

Energetická efektivita je výborná. Samozřejmě to není karta která nahradí 3060Ti, ale takovou 2060-2070 a zvláště Pascaly nebo starší nahradí bez problémů. Samozřejmě pro ty co na efektivitu a potažmo hlučnost kašlou to samozřejmě bude naprosto nezajímavé.

Pro mě osobně je nejzajímavější ta efektivita, jednu, nebo spíše dvě generace stejného posunu a už tady bude takový výkon možné chladit pasivně, což je můj sen, pasivně chlazené herní PC, nebo do toho jen tunelově nechat foukat ventilátor s 3-4 sty otáčkami by se ten vzduch vevnitř trošku hnul.

+1
-12
-1
Je komentář přínosný?

Sorryjako, ale kdo chce výkon co už tu byl, tak už ho přece dávno má.

+1
+15
-1
Je komentář přínosný?

Ale fuj! Takové škaredé zelené argumenty na něj vytahovat! :-D

+1
+8
-1
Je komentář přínosný?

počkej na rx 7600 taky dostane bídu

+1
+1
-1
Je komentář přínosný?

Ale to bude alespoň laciná bída. :-)

+1
+1
-1
Je komentář přínosný?

Jistě, kdo ho chtěl/potřeboval ho má. Kde píšu že tomu tak není?

Mimochodem tak jak se s každým release třeba CPU neprodá 3 miliardy počítačů, tak se nepordají stamiliony grafických karet. Obměna je postupná. Tudíž se může stát že takový výkon někdo nepotřeboval a nechtěl ale dojde k tomu že ho bude potřebovat/chtít, někdo dokonce nemusel mít vůbec žádný výkon a pořizuje první počítač.

Příspěvek vyzdvihoval hlavně efektivitu té karty. Je excelentní. Pokud by se takto zlepšila efektivita v následujících dvou generacích, tak výkon 3070 bude možné chladit pasivně. Být taková karta dnes, neváhám a objednávám byť mám v počítači 3060Ti s v podstatě stejným výkonem. Provozní hluk je pro mě dost zásadní parametr a pasivní chod by byl sám o sobě jasný důvod k upgrade.

+1
-7
-1
Je komentář přínosný?

Vždyť přece v desktopu (nevím proč se mu tak říká, měl by to být spíš tower) na nějakým wattu nezáleží ne? Proto se kupuje pocitově lepší Intel. Nebo se pletu?

PS. I 3070 se dá chladit pasivně.

+1
0
-1
Je komentář přínosný?

u obou výrobců se hodí rčení jeden za 18 a druhý bez dvou za dvacet. A nejblbější pro zákazníky je že pochopitelně rychle utnou výrobu starších modelů aby ty nové vůbec někdo kupoval.
Tato 4060Ti měla být 4050Ti, pak by to odpovídalo.
Ještě ta obyč 4070 se dá akceptovat s oběma očima přimhouřenýma (jen díky VRAM a efektivitě), ale níž už je to bezpředmětné.
No a u AMD předpokládám že RX 7600 má nahradit 6600/6650 a ani bych se nedivil snížené dostupnosti 6700/XT.
Mimochodem, jestli AMD i NV kopírují cca šetření ostatních velkých korporátů tak to odpovídá, z každé řady zůstane jen pár klíčových modelů a ostatní se buď úplně utne nebo silně oseká.

+1
+5
-1
Je komentář přínosný?

P.S: mimochodem když koukám na tu tabulku kde je 4060Ti tak osamoceno tak mě napadá jediné - mělo jít o původní GPU na 4060 a ořezek by byl 4050Ti. A 4060Ti by byl další ořez AD104, dejme tomu 160bit sběrnice a 10GB VRAM. To by byl ideální stav z technického hlediska (teoreticky, při zrodu 3060 12GB se musel někdo hodně opít že to prošlo). Ale tak nějak v tom tuším snahu obchodního oddělení která ale nedopadá podle očekávání - x70 řada zastavená výroba a dá se směle odhadnout osud x60tkové série...
A když přihlédneme k těm kotrmelcům s označením 4080 12GB tak je jasné že ten někdo si stojí tvrdošíjně za svým názorem ikdyž už jednou musel ustoupit a výsledky této strategie jsou jemně řečeno neuspokojivé.

+1
+5
-1
Je komentář přínosný?

"""""(teoreticky, při zrodu 3060 12GB se musel někdo hodně opít že to prošlo)""""

A jak sis představoval 3060? Zase s 6GB? Protože jinou možnost nevidím...
A k čemu by to bylo dobré bože... Násobky, paměti se osazují v násobcích!!! Takže na 192bit je 12GB jediná možnost. (naštěstí)

+1
+1
-1
Je komentář přínosný?

ne nutně.

+1
0
-1
Je komentář přínosný?

Vlastně jo pak tam mohli dát 3GB nebo 24GB.. cool.

+1
0
-1
Je komentář přínosný?

ale přece jsou i atypické sběrnice, taková 160bit je zase v kombinaci s 10GB. Prostě možnosti byly. Mimochodem zmíněné řešení využila RX 6700 s 10GB.

+1
0
-1
Je komentář přínosný?

A když je 6700 s 10GB, tak proč ne 3060 s 12?
furt nemůžu najít problém, dyť ty DDR6 paměti jsou levné.

+1
0
-1
Je komentář přínosný?

Je to iné

síce sú šéfovia z jedného mesta

Lisa Su
Born Lisa Tzwu-Fang Su
7 November 1969 (age 53)
Tainan, Taiwan
https://en.wikipedia.org/wiki/Lisa_Su

Jen-Hsun Huang
Born February 17, 1963 (age 60)
Tainan, Taiwan
Other names Jensen Huang
https://en.wikipedia.org/wiki/Jensen_Huang

Lisa dostala od vlastníkov AMD varovanie na minulotýždňovom valnom zhromaždení..

On May 18, 2023, Advanced Micro Devices, Inc. (the “Company”) held its 2023 Annual Meeting of Stockholders

The following individuals were elected to the Company’s Board of Directors:

Name. For Against Abstain Broker Non-votes

Nora M. Denzel
1,035,110,533 16,804,799 3,244,906 216,012,696

Mark Durcan
1,026,205,198 25,660,150 3,294,890 216,012,696

Michael P. Gregoire
1,029,591,135 21,858,342 3,710,761 216,012,696

Joseph A. Householder
1,035,132,633 16,642,379 3,385,226 216,012,696

John W. Marren
1,045,557,285 5,876,645 3,726,308 216,012,696

Jon A. Olsen
1,038,094,389 13,425,673 3,640,176 216,012,696

Lisa T. Su
987,820,186 62,471,266 4,868,786 216,012,696

Abhi Y. Talwalkar
893,619,797 158,229,261 3,311,180 216,012,696

Elizabeth W. Vanderslice
1,026,884,283 25,041,326 3,234,629 216,012,696
https://ir.amd.com/sec-filings/content/0001193125-23-151810/d456357d8k.h...

Uvidíme,. či varovanie dostane aj Huang
nVidia
2023 Annual Meeting of Stockholders
Thursday, June 22, 2023, 11:00 AM Pacific Daylight Time
https://investor.nvidia.com/financial-info/Annual-Meeting/default.aspx

+1
-1
-1
Je komentář přínosný?

To je zajímavý příspěvek!
Vypadá to, že moje vnímání Lisy jako zbytečně defenzivní a typicky IBM-korporátně přizdisráčské, není až tak extrémistické.

+1
-5
-1
Je komentář přínosný?

'' ani bych se nedivil snížené dostupnosti 6700/XT. ''

teda nechapu kdo ti to plusuje.. 6700 tu nebyla nikdy normalne dostupna.. mimo oem/Cinu ji vydal jenom sapphire a na trh slo par kusu.. nevim jak si predstavujes snizenou dostupnost neceho, co nikdy dostupny nebylo..

+1
+2
-1
Je komentář přínosný?

dik za potvrzeni, vsude maj jenom 6700xt, 6700 neni bezne dostupna..

+1
0
-1
Je komentář přínosný?

Článek je parádní jako vždy grafika je k smíchu totální odpad xD
Zlatá moje RX 6800 za devět tisic...

+1
+3
-1
Je komentář přínosný?

Článek třeba jo, jeho perex spíš ne. Ono jedna věc je rejpnout si do Rocket Lake (proti tomu nic zásadního nemám), druhá je v argumentaci vynechat AMD Bulldozer, který nejenže přinesl nejnižší výkonnostní posuv oproti předchozí generaci, on dokonce v řadě relevantních testů přinesl záporný. Kdybychom to tady netestovali sami a no-X tou dobou už půl roku nebyl v redakci, tak neřeknu... https://diit.cz/clanek/kodovani-videa-a-zvuku-0

+1
-10
-1
Je komentář přínosný?

"AMD Bulldozer, který nejenže přinesl nejnižší výkonnostní posuv"

Človeče já ti neviem. Argumentovať procesorom od AMD na článok ktorý pojednáva o grafických kartách Nvidia... To si vstúpil do politiky ? :)

+1
+10
-1
Je komentář přínosný?

Přesně, v negativním vyznění se o čipech smí psát pouze u Nvidie a Intelu. Zdejší jednotu si rozvracet nedáme! Kupředu levá.
:-D

+1
-3
-1
Je komentář přínosný?

Iba chýbajú 4 slová viď. nižšie

+1
0
-1
Je komentář přínosný?

Ale tak, v článku je zmíněný i 11900 od Intelu. Akorát 11900 je před 2 lety. Buldozer je historie 12letá a Peterem kus vedle vytáhnutá Fiji je stará 8 let.
Takže chápu, že no-X vytáhl jen to nejčerstvější. Na druhou stranu já ten článek nevidím jako nějaký hejt, jako spíše povzdech a pragmatické zhodnocení situace.
U mě současný stav vykrystalizoval do rezignace na stavbu domácího PC, protože o moc lepší než služební notebook s 5800H a 3060 rtx bych stejně v rámci rozpočtu nepostavil. Blendřit se na tom notebooku dá slušně a místo pro RAM tam ještě je. Hry už dneska na PC stojí zaprd, raději deskovku.

+1
+8
-1
Je komentář přínosný?

> Buldozer je historie 12letá

Ano vykon ve FP byl slaby, i kdyz vykon v integer byl hodne slusny, ale hlavne: na rozdil od produktu spomenutych v clanku (tj Nvidia i 11900K), mel Buldozer jednu zasadni vec: byl adekvatne nacenen. Tj byl ~2x levnejsi nez konkurence. Nvidia 4060 krome 40W nizsi spotreby nenabizi ABSOLUTNE nic. Se stejnou pameti stejna cena, plus par procent vykonu, to ma byt jakoze upgrade ? lol.

> Peterem kus vedle vytáhnutá Fiji je stará 8 let

Hmmm to by me zajimalo, co je tak brutalne spatneho na Fiji, ze se zminuje v tomhle kontextu... Mam v supliku Fiji Nano, a ve sve dobe to byla karta ktera pri ~150W nabizela vykon o fous nizsi nez nvidia 980, pricemz ji slo bez problemu vlozit a provozovat v ITX skrini. Samozrejme ne-Nano verze (tusim Fury) byla mimo energeticke optimum, ale to snad vedeli vsichni kdo cetli alespon zbezne nejakou recenzi ?

+1
+1
-1
Je komentář přínosný?

GPU Fiji: 596 mm², interposer: 1011 mm² a 8,5 roku práce navrch
18. 6. 2015
https://diit.cz/clanek/amd-fiji-rozmery-jadra

AMD Ships First "Bulldozer" Processors
September 07, 2011 7:45am EDT
https://ir.amd.com/news-events/press-releases/detail/32/amd-ships-first-...

takže treba asi pridať 4 slová do perexu

z
>Pokud bychom měli ocenění pro hardware s nejnižším mezigeneračním posunem výkonu, dostala by
>ho, po Core i9-11900K před dvěma lety, GeForce RTX 4060 Ti.

>Pokud bychom měli ocenění pro hardware s nejnižším mezigeneračním posunem výkonu v tejto >vývojovej generácii, dostala by ho, po Core i9-11900K před dvěma lety, GeForce RTX 4060 Ti.

+1
+1
-1
Je komentář přínosný?

Já se bavím o grafice ne o procesoru xD

+1
+1
-1
Je komentář přínosný?

sorry, rocket lake byl v kazdy multicore zatezi pomalejsi nez comet lake.. bulldozer ne.. tam byl problem v softu, zvlast prave v encoding softu kde vetsina fungovala stylem if (cpu = intel) {instruction set = avx}.. kdyz pozdejc prisel soft co normalne na bulldozeru pouzival AVX/XOP/FMA4 tak byl bulldozer o destiky procent nad x6..

se podivej na vysledky libovolnejch dnesnich testu, kde muze bulldozer normalne pouzivat instrukcni sety co podporuje..

.. .. .. .. .. .. X6 1090T .. FX-8150
Geekbench 5 .. 2003 .. 2431 .. + 21%
PassMark .. .. .. 5710 .. 7720 .. + 35%
CPU-Z .. .. .. .. .. 895 .. 1287 .. + 44%

+1
+4
-1
Je komentář přínosný?

'' druhá je v argumentaci vynechat AMD Bulldozer, který nejenže přinesl nejnižší výkonnostní posuv oproti předchozí generaci, on dokonce v řadě relevantních testů přinesl záporný ''

Bulldozer byl v některých testech, které byly optimalizované pro Intel a neumožňovaly mu použít jeho instrukční sady, pomalejší než Phenom II X6, což se ale rychle měnilo už za éry Piledriveru, kdy už bylo rozumně optimalizovaného softwaru dost. Rocket Lake byl v průměru všech testů pomalejší než Comet Lake:

https://diit.cz/sites/default/files/core_i9-11900k_computerbase_01.png

A nemění se na tom nic. Krom toho Rocket Lake ($539) byl dražší než Comet Lake ($488), takže poměr cena / výkon měl ještě o 15 % horší. Naproti tomu Bulldozer byl naopak podstatně levnější ($245) než Phenom II X6 1090T ($295).

No a pokud bychom měli tahat 12 let starou historii s Bulldozerem, nemohli bychom vynechat Ivy Bridge:
https://diit.cz/clanek/ivy-bridge-fail-vs-bulldozer-fail

A když už 12 let starou historii, proč ne třeba 23 let starý Willamette, který nejenže zhoršil IPC, ale nedokázal rozumně zvýšit ani takty a použití podmiňoval předraženými RDRAM?

+1
+5
-1
Je komentář přínosný?

"'' druhá je v argumentaci vynechat AMD Bulldozer, který nejenže přinesl nejnižší výkonnostní posuv oproti předchozí generaci, on dokonce v řadě relevantních testů přinesl záporný ''

Bulldozer byl v některých testech, které byly optimalizované pro Intel a neumožňovaly mu použít jeho instrukční sady, pomalejší než Phenom II X6, což se ale rychle měnilo už za éry Piledriveru, kdy už bylo rozumně optimalizovaného softwaru dost."

1, to bylo v době vydání prvních procesorů k ničemu
2, nemělo by se tedy počkat s hodnocením těchto karet na budoucí optimalizoce software?

"Naproti tomu Bulldozer byl naopak podstatně levnější ($245) než Phenom II X6 1090T ($295)."

V článku je zmíněn pouze generační posun, tento úkrok stranou k ceně za účelem zachránit čest AMD je pozoruhodný.
Sice si nepamatuji úvodní ceny Bulldozera, ale Phenoma X6 jsem kupoval po vydání Bulldozera IIRC za 2000,- a tolik Buldozer rozhodně nestál.

"No a pokud bychom měli tahat 12 let starou historii s Bulldozerem, nemohli bychom vynechat Ivy Bridge:
https://diit.cz/clanek/ivy-bridge-fail-vs-bulldozer-fail

A když už 12 let starou historii, proč ne třeba 23 let starý Willamette, který nejenže zhoršil IPC, ale nedokázal rozumně zvýšit ani takty a použití podmiňoval předraženými RDRAM?"

A bylo vůbec nutné při komentování vydané grafické karty Nvidie kopat do CPU Intelu? Neukazuje to v dobrém světle ani autora ani tento web. Pak se autor diví, že si někteří čtenáři myslí, že tíhne k AMD. Tento článek je naprosto jedinečná ukázka zbytečného kopání do konkurence. A proč to tedy autor udělal?

+1
0
-1
Je komentář přínosný?

"A bylo vůbec nutné při komentování vydané grafické karty Nvidie kopat do CPU Intelu? Neukazuje to v dobrém světle ani autora ani tento web. Pak se autor diví, že si někteří čtenáři myslí, že tíhne k AMD. Tento článek je naprosto jedinečná ukázka zbytečného kopání do konkurence. A proč to tedy autor udělal?"

Já už na to Jirkovi ani nebudu reagovat. Jasně, že Ivy nebyl zásadním pokrokem proti Sandy (btw i7-3770 teď provozuju, pořídil jsem si ho nyní 11 let od vydání záměrně). Jasně, že P4 byl krok špatným směrem oproti P3. Ta naznačená souvislost RDRAM je ale svinská manipulace vyhýbající se dobovému kontextu. Ale budiž, nepřekvapuje mě to.

Ale má smysl tu vytahovat každé špinavé prádlo na každou firmu? Pokud ano, proč se nepíše třeba o AMD Quad FX (kdo si ještě vzpomene?). Proč spíš není zmíněna GeForce 4 Tu => FX 5xxx. Je to celé prostě demagogie.

V perexu se prostě zmiňovaly CPU Intel. V perexu článku o GPU. V perexu, kde kromě Intel CPU vlastně nic jiného nezaznívá. A zase ten Intel, žádná AMD, která tu slámu má taky. Přijde mi to prostě trapné. Ale nic si z toho nedělej, tenhle web je už dávno zombie běžící samospádem, kde víceméně to, co Jirka napíše, protože ho to baví, určuje jaký bude obsah. Kdysi byl pctuning žumpa, dnes se spíš člověk obohatí tam (jasně, i díky rybajzovi). Je to škoda, ale je to tak (a za to mimochodem dle mého Jirka fakt nemůže, to by byla křivda implikovat). Všiml sis jaký je tu obsah? Jakoby se celé IT za posledních 6 let smrksklo jen na CPU a GPU, tu a tam něčím ocukrované. Kdo čte jen diit, už je dávno v pytli, protože nemá rozhled. O cdr ani nemluvě. Prostě bejvávalo líp. Pak odešel Petr, WIFT atd. a už je to smutný. Ale to byl jen logický vývoj. Nemělo smysl to už hňácat, proto jsem se na to před lety taky mimo jiné vyprdl a odešel.

Proč tady teď vlastně tohle píšu, když to ani nemá smysl. No, asi se chci porochňat ve svém nihilismu a užít si svojí obvyklou várku mínusů...

+1
0
-1
Je komentář přínosný?

Nevytahuje prosím bazarové ceny nebo ceny na které normální smrtelník nedosáhne.(tedy pokud se nechcete jen vytahovat)
Nová 6800 je za 12 a 6700xt za 9.
Pak dává smysl že 7600 bude za 7.
O zelených se nebudu vyjadřovat, škoda mluvit.

+1
+2
-1
Je komentář přínosný?

když vezmeš že 400$ 4060ti stojí v czk 10500 což je 26,25 za 1€ s dph vynásobíš 300$ za RX 7600 tak dostaneš krásných 7900,- +- 200 jak se AMD cejtí

+1
0
-1
Je komentář přínosný?

bazarove ceny (ak uz clovek musi kupovat) su praveze najlepsia odpoved na tie srandy, co tento rok vypustili Nvidia s AMD na trh

+1
0
-1
Je komentář přínosný?

Jaké bazarové ceny je to jen bez daně :-* jinak jak říkáte je to 12 což je furt paráda :)

+1
0
-1
Je komentář přínosný?

Zatim nejvetsi zklamani cele generace..ani ta spotreba to nevybalancuje.

+1
+4
-1
Je komentář přínosný?

V dobe vydani ryzenu 7000 jsme fabulovali jestli to nejsou pretocene 5000, kdyz maji navysene TDP a lepsi proces. No ale rtx 4060ti je jiny level. Kdyby nechali vyrobit 3060 na tomhle procesu, udelali by lip a ziskali by 2,5 roku prazdnin.

+1
+1
-1
Je komentář přínosný?

Třeba 2,5 roku prázdnin měli, co my víme. Tedy konkrétně u tohohle jádra.

+1
0
-1
Je komentář přínosný?

technické parametry tohohle jádra jsou možná tak dobrý pro 4050 Ti přinejlepším nějakou levnější variantu 4060 za 300$

to že to nacenili a nazvali 4060ti není problém vývoje, ale marketingu

+1
0
-1
Je komentář přínosný?

opravdu nvidia vydala, kartu za 11 000 pro fullhd s futureproof zivotnosti jepice
kartu, ktera neda lepsi vizual jak 3 roky stary konzole za stejnou cenu?
kartu, jejiz predchudce na 1440p dava stejny nebo lepsi vykon
kartu urcenou pro upgrade do starsich systemu, ale diky orezane sbernici a 8GB vram dopadne podobne v nekterych scenarich jako 6500xt 4/8GB
kartu za 400$ kde tech 8GB pameti stoji 27$
what a joke

+1
+2
-1
Je komentář přínosný?

Jedno je jisté, nVidia nikam nespěchá :)
Tahle karta je (za ty peníze) stejně zbytečná, jako bude zítra zbytečná RX7600.

nVidia radí - "hrubý výkon" získej pomocí DLSS3.

+1
+3
-1
Je komentář přínosný?

4060 Ti je odpad a rozhodně kandidát na fail roku... ale ještě bych počkal, jestli to v tomto nějak netrumfne právě ještě ta RX 7600, protože ta vypadá upřímně taky na docela dobrej joke. Ale je pravda, že 4060 Ti vypadá minimálně o dost stupidněji, zejména jak to má ořezané ty ROPs... nedivil bych se, kdyby to někde skončilo i pomalejší než 3060 Ti, když tomu zas tak ořezávají specifikace, určitě se několikrát stane, že ta vylepšení nevykompnezují ten rozdíl tolika CUDA jader a 3060 Ti to prostě převálcuje jakoby větší hrubou silou.

+1
+3
-1
Je komentář přínosný?

https://uploads.disquscdn.com/images/26fb7f5a3d266e07fdde844b774332f697b...

ten výkon na 1440p to má pro singl player, ale díky očesaný sběrnici asi i ROPs to je horší karta na 1440p než 3060ti

+1
0
-1
Je komentář přínosný?

4060ti je rozhodně 1080p karta, na 1440 jen s DLSS.

+1
0
-1
Je komentář přínosný?

protože to dává smysl, aby 2,5 roku starý předchůdce si vedl lépe v 1440p a DLSS používat nemusí ve více případech

+1
0
-1
Je komentář přínosný?

No i s ohledem na cache a samotnou velikost VRAM je ta karta projektována na 1080p.
Ona existuje všeobecně mylná představa, že každá nová generace karet bude fungovat lépe ve vyšších rozlišeních a ty se budou neustále někam zvedat... To opravdu ne.

Dle rozlišení se karty dělí hlavně třídama, ne rokem, kdy vznikly.

1060,2060,3060,4060ti,RX6600,7600 byly vždy karty na 1080p, a myslím že ani u 5060ti/8600XT to nebude jinak :)

+1
+2
-1
Je komentář přínosný?

tímhle přístupem by jsme nemohli mít ani 4k dneska a za standard by bylo považováno 720p rozlišení záleží od kdy se řekne, že rozlišení se už zlepšovat nebude

dneska když si kupuješ normální mainstream monitor, tak fullhd nekupuješ, když se podíváš na heureku, tak v top 10 je půlka monitorů 1440p a hned za nima je i 4k monitor. takže vydávat v roce 2023 kartu, která není vůbec vhodná na 1440p za 11k je úplně mimo

+1
+3
-1
Je komentář přínosný?

Máš to opravdu pokřivené, podívej se i na datasheety v prezentacích jak AMD, tak nV.

"RX6600XT best for 1080p gaming". Přímo výrobci na krabičkách informují pro jaké rozlišení je primárně produkt určený. To samé ta infinity cache, její velikost je vypočtena pro konkrétní rozlišení.
Ve vyšším karta normálně jede, ale propady výkonu jsou už mnohem vyšší.

A ano chceš li, 720p (800p) je standardem na třeba SteamDecku. :)

A pokud dneska kupuješ monitor, který je "normální" podle tebe, tak si kup kartu která se hodí k jeho rozlišení nebo začni masivně používat DLSS..
Třeba u mě je úplně normální monitor televize s 50" a 1080p.. Proto mám úplně normální 1080p kartu. :)
Snažím se naznačit, že normální je pro každého něco jiného. Celý svět dnes točí videa na výšku, pár let zpět by střízlivý řekl, že to rozhodně není normální - no a je..

+1
0
-1
Je komentář přínosný?

Tvrdíš, že normálnost je subjektivní, ale tak to není. Normální je to, co má největší podíl nebo aspoň jeden z největších podílů. Dnes je v domácnostech normální mít fullhd a 1440p vystrčuje růžky. U nově kupovaných PC už je pozice 1440p stabilně na vzestupu a lze to již označit za normu.

Hetero je normální a žádný homosexuál to nemůže popřít jenom kvůli svojí nějaké subjektivní normě. Subjektivní norma je jako pojem principielní nesmysl, básník by řekl oxymóron.

+1
0
-1
Je komentář přínosný?

Mirďo, homosexuál by snad i řekl "pozor na tenký led" :) Tohle sem asi netahej.

+1
0
-1
Je komentář přínosný?

Tak je normální mít vysoké ppi a skalovat, třeba 5k na 27" 200% a je to obsahové qhd ale daleko lépe vykreslene. Ale na hraní bych se nebál to jet v qhd rovnou. Stejne jako jsem mel 4k monitor a hry pouštěl ve fhd. Alternativou je Quick release uchyt a měnit pracovní za herní monitor když si budu chtít zahrát.

+1
0
-1
Je komentář přínosný?

to je ten problém v roce 2023 prodáváš kartu za 11k pro fullhd, ale fullhd se pomalu loučí jako mainstream rozlišení stejně jako to bylo u nižších rozlišení v minulosti
a ani nemůžeš na fullhd namaxovat detaily kvůli 8GB VRAM, k čemu ti je RT, když se ti zvýší nároky na VRAM tak že to zapnout prostě nemůžeš

DLSS není řešení kvůli proprietárnosti a vendor locku a ani být nemusí, když se podíváš na velikosti a výkon čipů ady, tak ten výkon tam je i bez použití DLSS, ale nvidia tě nutí používat DLSS protože nacenění a stavba celýho line upu je na to udělaná, aby měla páku na celý pc herní trh což se trh musí bouřit a ne omlouvat takovýhle hovna za 11k že je pro fullhd

+1
0
-1
Je komentář přínosný?

Podivej to není můj výmysl, výkonové řady karet výrobci propagují pro různá rozlišení. Prostý fakt.
Kdo má jaký monitor taky není dogma. Na 4k můžeš zapnout 1080p - 1px = 4px.
Věř mi že to tak plno lidí dělá, jinak by byli často v fps úplně v pejru.

A konečně ta VRAM, ta jasně signalizuje "nezapínej tam víc než 1080p" !!!!
A občas už ani to nestačí.
Nároky her rostou i bez zvyšování rozlišení, takže nové karty (a i monitory) pro FHD tady budou ještě roky.
Pokud máš furt potřebu někam s tím rozlišením "růst", nekoukej po RX7600/RTX4060ti atd.
Nad 1080p jsou to v budoucnu zcela mrtvé karty.

+1
0
-1
Je komentář přínosný?

ani dva roky tyhle karty nevydrží na fullhd kvůli málé vram

+1
0
-1
Je komentář přínosný?

No vidíš to, takže fhd se nikam neloučí, když nová karta za 11tis v něm nedá plné detaily.
Je třeba oprášit 1600x900 :) nebo si zvyknout na medium textury + dlss2 - možností je mnoho :)

“Mé potřeby” se zastavily někdy před 10roky na 1080p, od té doby nároky na mé karty rostou velmi pozvolně, obraz od té chvíle vnímám jako zcela v pohodě, a netuším proč bych měl chtít furt víc..

Stejně ta hranice někde je, rozlišení nelze zvedat donekonečna. I ti výrobci nám velice obratně “podsunuli” opačný trend v podobě upscalerů.
Za chvíli bude polovinu pixlů a fps rekonstruovat plnohodnotná AI (max konec dekády) a hrubý výkon karet přestane být faktorem číslo 1

+1
0
-1
Je komentář přínosný?

A proč by nevydržela? Možná pro pár her které nemají význam. Dnes jsem četl statistiku sony. Last of Us byla jedna z tech problemovych her. Dela se z toho strasny hit AAA her. Prodalo se ji uchvatnych 368 tisic kopii. To nestoji ani za to zaradit to do testu. Proti tomu tu mas candy crush sagu banalni 2D spojovacku s miliardou aktivnich hracu a jednou z nejhranejsich her na svete.

+1
0
-1
Je komentář přínosný?

Ano pokud se budem bavit o hrách, které nejsou náročné na HW (tím nechci říct že jsou horší, je to často naopak), tak nemá cenu vůbec vypisovat stovky postů k jakékoli grafice, protože je prostě jedno jestli máš 3060ti, RX5600 nebo GTX1070... Je to prostě jedno.

TloU doplatila na lemplovitost vývojářů co dělali převod a na to, že hra dovolila nastavit na jakékoli grafice jakékoli detaily i když poté nebyla stabilní. A všechny telata s 3060ti co tam narvali ULTRA a 1440p - na kartě s pamětí která tu byla 8let zpátky. Jinak jako o hře o tom ani nepochybuj

+1
0
-1
Je komentář přínosný?

zase DLSS3
dovolim si zacitovat z techspot(HWU):
DLSS 3 frame generation is a feature that Nvidia has heavily pushed on reviewers, suggesting that we focus on this feature for our assessments. As we've noted in the past, a significant issue with DLSS 3 benchmarks is the misleading representation of frame generation as an FPS (frames per second) metric. For instance, 120 FPS using DLSS 3 frame generation isn't actually 120 FPS; instead, it reflects the smoothness of 120 FPS with an input of roughly half that frame rate, potentially leading to some graphical issues.

+1
+1
-1
Je komentář přínosný?

jj souhlasím, ale pokud to nV nakonec protlačí jako standard, bude se to používat.
120fps v DLSS3 rozhodně není 120fps, ale u poddimenzované karty ti nic moc jiného nepomůže.

Stejně tak 4k s DLSS2 není 4k :)
Ale pokud ti to hra v nastavení neprozradí (nevypíše opravdové rozlišení), a nejsi do hloubky znalý, zapneš a hra poběží rychleji... příběh končí.

+1
0
-1
Je komentář přínosný?

mne ale nejde o to ze to je fejkovych 120fps, ale to ze aj pri 120fps mas taky imput lag, ze ti ta hra vlastne rychlejsie nepobezi :)
...tj praveze tam ide len o tie cisielka ktore sa meraju, a ktore sa zaznamenaju do grafu, a ktore tu grafiku vlastne predavaju

+1
0
-1
Je komentář přínosný?

No jasně, pokud nemáš 120fps co je opravdu 120fps, tak se to projeví hlavně v imputlagu, to je zcela logické :)))
Ale v těch grafech pořád vysoká čísla budou že?
Marketing je démon :)

+1
0
-1
Je komentář přínosný?

Ano, já teď zas pořád někde čtu názory, jak DLSS3 pak zachrání především slabé GPU, které už nebudou mít dost výkonu a toto je výkonově úplně nakopne... to je sice možný, ale tak trochu blbý bude, až jak se kromě výkonu podíváš i co z toho vlastně leze za obraz... DLSS3 potřebuje hodně výkonu, aby to vypadalo dobře, jinak se ti to začne různě mazat apod. a čím víc máš jakoby lepší ten základ tím líp, takže pokud se bez toho bude GPU plácat třeba jen někde na 40, nemyslím si, že to nějaké DLSS úplně vytrhne, protože výkon pak sice bude dobrý, ale obraz řekl bych celkem nekoukatelný, protože to je strašně málo dat pro tu technologii, podle kterých to pak vytváří ty další snímky... budou vznikat velké nepřesnosti.

+1
+1
-1
Je komentář přínosný?

No mě to nevysvětluj, já rozhodně nejsem marketér nVidie a s DLSS3 nechci mít nic společného.

+1
0
-1
Je komentář přínosný?

Celá tato generace je tak nějak divně pokřivená.
Kdyby 4080 dostala plně aktivní AD103 nebo čip AD102 jako u dřívějších generací (chápu, musel by se hodně ořezat), nicméně řešením je přidat více CUDA, prostoru na to ten čip má dost, v klidu by se tam vešla ještě mimo jiné i 4080SUPER + 4080ti +4090ti + RTX ADA TITAN vedle současných 4090 a profes.grafik
Ale ne, NV musí šetřit a používat níže postavené čipy a naopak ještě zvednout cenu a ždímat zákazníky

Pokud by 4080 dostala čip AD102 s větším počtem CUDA byla by pak adekvátní i cena a NV by si udržela výrazný náskok před konkurencí,
Nehledě na to že v nižších kategoriích by nebyl takový problém s přidělováním čipů viz přejmenována ex4080 ->4070ti
na čipu AD103 je pouze 4080 pritom zde mohla být celá mainstreamová kategorie od 4070ti až po 4060ti
a ještě níže postavené GPU jako teď současné 4060 (4050 ??) by mohli mít větší výběr z čeho budou vyráběny (AD104 a nižší...),
NV ale špatně plánovala a tak posunula celou generaci o čip níže a s 4060 to dopadlo tak jak to dopadlo,

Výkon celé generace počínaje 4080(ti ??) až k 4060 mohl být jinde a i cena by pak byla přijatelnější,
tuto generaci NV zkonila stejně jako v minulých letech ("refresh RTX" aka RTX 2000SUPER, gtx1060-3GB)
a podobné kiksy

+1
+1
-1
Je komentář přínosný?

No já myslím Honzo, že z jejich pohledu žádné kiksy neexistují, vše do detailu obchodně spočítané.
Jediný kiks byla ta ohlášená 4080 - 12GB, tam šli úplně za hranu a museli zpět.

+1
+2
-1
Je komentář přínosný?

Samozřejmě z jejich pohledu je tato generace výhra.....
Jak jsem napsal, mají to moc dobře spočítané...
"NV musí šetřit a používat níže postavené čipy a naopak ještě zvednout cenu a ždímat zákazníky"
Natáhnou zákazníka na použitém nižším čipu (logicky by grafika měla být levnější než předchozí generace) a pak ještě na mezigenerační ceně stejných tříd

+1
0
-1
Je komentář přínosný?

Zrejme maji dobreho informatora v AMD. Protoze 3080 museli zmenit na nejvetsi jadro (6800XT se povedla) a 3090 uz nebyla o moc vykonnejsi. Naopak 4080 byl pokus vydat jako 12Gb protoze vedeli ze RDNA 3 ma problem a plus minus by to stacilo. Dusledek toho, ze se RDNA 3 nepovedla je ze nV si vydava klidne karty bez generacniho posunu (stejne jako Intel pred Zenem) a mysli si ze to bude nekdo kupovat. Vzhledem k tomu ze je v obehu asi docela dost 8Gb tezebnich karet minule generace tak nevim jestli se soudruzi z nV nespletli.

+1
+2
-1
Je komentář přínosný?

Přesně, RDNA3 se úplně nepovedla, a ADA se povedla až moc, bylo to třeba nějak "prodat" :)

+1
+1
-1
Je komentář přínosný?

RDNA3 se úplne nepovedla.
nVidia tak nemusí hnát 4xxx generaci moc daleko za sweet point, tím dosáhla lepší efektivity.
Zatím dobrý.

Problém je, že "syrový výkon" (*) proti 3xxx řadě zas tak moc nenarostl a ten typický marketingový žvást (4070Ti up to 2.9x performance of 3090Ti) stojí a padá na framegen a upscaling.

(*) Ani ten slavný RT výkon

+1
0
-1
Je komentář přínosný?

Ale se "syrovým" výkonem se právě nikam už dávno neženou. Syrový výkon moc neposkočil ani u řady 3xxx.

+1
0
-1
Je komentář přínosný?

Ano, křemík je v krizi a příště se třeba dočkáme krásných 0 %. Mně jen neskutečně vadí, že i v této krizi mají tu drzost plýtvat prostředky na impotentní Raytracing a ne, vážně to není jen o ploše pro specializované jednotky - je tomu přizpůsobována celá architektura, tak proto ty miliardy tranzistorů navíc a skutek utek.

V době krize bych čekal skromnost a ne vnucené investice do něčeho tak lehce postradatelného, co by se hlasováním hráčů neprosadilo ani v dobách příznivějších. Malý vizuální přínos je za tak brutální propad výkonu, že ti co tvrdí opak a RT oceňují a všude zapínají, jsou v menšině. Snaha tohle řešit pomocí ještě kontroverznějšího DLSS, je už jako ráno pěstí po flusanci do ksichtu. Prostě kombinace křemíkové krize, finanční krize a rvaní RT+AI na herní grafiky je hodně hloupá chyba.

+1
+1
-1
Je komentář přínosný?

RT si vypni, nikdo tě nenutí to používat, a na DLSS si velmi rychle zvykni, ještě budeš bohu děkovat že to vymysleli.
Kdybys přestal teoretizovat a podíval se (klidně lupou) na scénu s DLSS a bez něj, tak se budeš hodně potit abys našel rozdíl. A pak ten rozdíl najdi u hraní Dooma Eternal.

+1
-3
-1
Je komentář přínosný?

Nevim jestli DLSS 3 je o tolik dal nez FSR2, ale FSR2 poznam i kdyz je zapnute na quality. A radsi hraju na nizsich FPS nez s FSR2. Takze jestli to pujde timto smerem, tak dekuji nechci. (podobny trend nastavili mp3 v hudbe a je pravda ze u mainstreamovych hudebnich zarizeni je jedno jestli zdroj je mp3 nebo SACD)

+1
+3
-1
Je komentář přínosný?

Z mého příspěvku jasně vyplývá, že nechci platit vyšší cenu za grafické karty přizpůsobené pro RT (a AI) a ty napíšeš, že si přeci můžu RT vypnout, tak ať nebrblám - jsi mentálně OK?

https://www.techspot.com/article/2546-dlss-3/
Za mě je to hodnocení extrémně negativní, i když se fakt snaží aby napřímo nenapsali, že celé DLSS je bullshit. Zatím děkuji bohu za starší hry a to, že díky nasrání nikdy nebudu otrok těhle šmejdů a to ani když mně všechen starší HW chcípne.

+1
+1
-1
Je komentář přínosný?

pokud vím, tak už žádné karty které jsou bez RT neexistují...
Tak o čem se tu vlastně bavíme? Znamená to, že přestaneš nakupovat jakékoli karty?
OK.

+1
-2
-1
Je komentář přínosný?

Přestanu nakupovat jakékoliv dražší karty a tím výrobcům dále klesnou zisky a třeba jim to dojde, když zjistí, že z dedikované karty se stalo něco jako auto s V12 v EU. RT je asi i v mobilech (ještě větší blbost než v PC hrách), ale to neznamená, že budu lhát sám sobě a nějak moc podporovat firmy co jdou špatnou cestou (jedno jestli úmyslně nebo omylem).

+1
-1
-1
Je komentář přínosný?

Mirdo, posouzení zda je RT přínos nechej na všech. Nezáleží jen na tvém názoru. K tomu můžu vložit třeba video ze Spider man a pokud tam ten rozdíl nevidíš, tak už o tom téma raději nemluv - https://www.youtube.com/watch?v=yBDJvYgIRRs

DLSS 3.0 je nová věc. Bude se to ladit a časem to může být velmi dobrá pomůcka tam, kde nestačí výkon bez nebo s klasickým DLSS 2.0 Osobně jsem si už cca 3 hry s DLSS 3.0 otestoval a nevidím tam nějaký větší problém. Ta odezva se sice zhorší, ale nic z čeho by se nedalo spát. Na druhou stranu fps vyskočí opravdu znatelně. Takže v určitých hrách to bude velmi do plusu.

+1
-3
-1
Je komentář přínosný?

Na RT i DLSS ti Bilej tesak...

+1
-1
-1
Je komentář přínosný?

Váš osobní názor. Na to video jste se podíval ? Jinak tedy FSR je také k ničemu ?

+1
+1
-1
Je komentář přínosný?

Na video jsem se koukal, ale já se prostě nedokážu zbavit dojmu, že ten obraz je prostě totálně nerealisticky přeodleskovaný, všechno tam svítí jak žárovka.
S tím RT by se mělo velmi opatrně, použít tam, kde to není super kýč.
Ale to zas nepůjde na první pohled vidět, ale výkonu to furt žere neuvěřitelně. ¨

RT za mě obecně raději v nerealistické grafice alá Portal nebo Fortnite, tam se lze vyblbnout dosyta.

A pokud někomu nevoní FSR/DLSS2, nechť vytáhne z prasátka 2x víc peněz a platí jak mourovatý.
Já si ty samé fps užiju na grafice za polovinu, "spokojeni" jsou všichni :)

+1
0
-1
Je komentář přínosný?

No tak třeba ty odrazy ve výloze, kalužích.. Nechám na každém, ale ve více hrách to na zážitku přidává dost. Viz třeba Watch dogs, Cyberpunk, Control. A smysl RT je naopak toto zobrazit realisticky. Někde se to samozřejmě přežene a může to být kýčové. Ale RT tu prostě bude, je to realita a počítají s tím oba výrobci grafik. A s funkcemi jako DLSS je možné docílit vyššího výkonu bez nějakého většího dopadu na vizuál. Kdo má slabší kartu, výborná pomůcka, kdo má silnou, nemusí zatím využívat.

Jak píšete, pokud někdo kritizuje funkce FSR/DLSS, tak je sám proti sobě a možná ani neví o čem mluví.

+1
-1
-1
Je komentář přínosný?

"Někde se to samozřejmě přežene"
ved teraz sa to len prehana, aby to vobec bolo viditelne, a v konecnom dosledku je to nalestene a nerealne

+1
0
-1
Je komentář přínosný?

Možná doporučím vnímat orazy světla v reálném světě, těch odrazů je všude ohromné množství, jen to vůbec nevnímáme, ve hrách, kde to dekády nebylo to najednou někomu přijde jako nerealistické.

Další věc je že rasterizační metody odlesků jsou často omezené, třeba screen space reflections jdou vidět jen tehdy a jen ta část, která část objektu je viditelná na scéně, když něco zakryje ten objekt a na scéně nejde vidět, zmizí i patřičný odraz, respektive část, která na scené byla překrytá něčím jiným přitom odlesk by měl zůstat celý. To působí značně rušivě. RT tohle řeší, navíc pro vývojáře v podstatě bez nějakého úsilí to nafejkovat.

+1
+1
-1
Je komentář přínosný?

keby to bolo tak ako pises, tak musim nosit cely cas okuliare, ktorymi by som sa chranil pred vsetkymi tymi odleskami

+1
0
-1
Je komentář přínosný?

Netuším co děláš ty ale já odrazy vidím všude kolem sebe, a to nejen na lesklých ale i.matnych a špinavých plochách.

+1
0
-1
Je komentář přínosný?

To jsou ty experimenty s houbičkama a LSD v mládí...
Na tom spiderman videu vypadají odlesky chodníku bez RT normálně a s RT jako kdyby stál na zrcadle. U oken uznávám, že RT je lepší, je ovšem otázkou jestli to za ten pokles výkonu stojí.

+1
-1
-1
Je komentář přínosný?

Evidentne ty odlesky nejsou pro mozek dulezity, takze je potlacuje a kdyz mi pripada realistictejsi podani sceny bez RT efektu, tak to RT je pro me kontraproduktivni. Stejne tu scenu nerenderujou RT, pouzivaj nejaky zjednoduseni a mozna proto ze na to neni vykon aby to jelo realtime RT tak to vypada tak neprirozene. Takze cele RT neni skutecne RT a je to jen pridanej efekt, kterej se nekomu libi a nekomu ne

+1
+2
-1
Je komentář přínosný?

RT je skutečné RT, ale každý tvůrce může definovat počet paprsků, a hlavně počet jednotlivých odrazů, který je dnes opravdu malý.
V ideálním reálném světě, je ten počet paprsků i počet jejich odrazů nekonečný.

I s ohledem na na monstróznost 4090 jsme ve full RT pořád v plenkách. Budoucnost naznačuje třeba Portal.

+1
0
-1
Je komentář přínosný?

"A pokud někomu nevoní FSR/DLSS2, nechť vytáhne z prasátka 2x víc peněz a platí jak mourovatý.
Já si ty samé fps užiju na grafice za polovinu, "spokojeni" jsou všichni :)"

Jen tvoje bludy. Citace z techspotu, kterému věřím víc.
"DLSS 3 only provides one of the two benefits to higher FPS. It does improve smoothness, but it doesn't improve latency.
In short, DLSS 3 will be of benefit to you provided you meet a few criteria:
Before enabling frame generation, you need to already be rendering the game at a decent frame rate, in the 100-120 FPS range.
You'll need to have a high refresh rate display, ideally 240 Hz or higher.
You'll need to be playing a game that is slower paced and not latency sensitive, like a single-player title."

Prostě k ničemu, cílovka skoro neexistuje!
Counter Strike šílenci co chtějí 240-360 fps asi nebudou "not latency sensitive".

+1
-1
-1
Je komentář přínosný?

No to je právě ten problém ty trumpeto :)
Já schválně píšu DLSS2/FRS což jsou upscalery a na latency nemají vliv.
Ty do toho motáš DLSS3 - což něco principielně zcela jiného.
Rozlišuj DLSS2 a 3, je to fakt rozdíl.

+1
+1
-1
Je komentář přínosný?

Čisté upscalery ne, ale uznávám.

+1
-1
-1
Je komentář přínosný?

Blbe je, kdyz pak vyrobce prezentuje, ze nova karta je x-krat rychlejsi, ale za pouziti teto ojebavky. Proste se snazi prodat levnejsi HW za vyssi cenu a ospravedlnuje to tim ze to funguje ok s pouzitim SW ojebu, ktery navic nefunguje vsude. Je to podonej ojeb jako dojezd elektroaut. Za idealnich podminek to bude fungovat jak uvadi marketing. V ostatnich pripadech hur nebo podstatne hur.

+1
+1
-1
Je komentář přínosný?

https://youtu.be/yBDJvYgIRRs?t=52 přesne tenhle obrázek říká, jaký je současný stav RT, všechno se leskne jak psí kule, auto vypadá jak kdyby vyjelo z leštěnky a když se podíváš vzadu na budovy a chodník rozdíl tam moc není a zdá se mi to víc přesvícený s RT

https://youtu.be/yBDJvYgIRRs?t=72 copak asfalt v noci se leskne? to vypadá jak kdyby furt pršelo
přesně tomuhle se smáli lidi NFS před 15 lety ale a za tohle zaplatíš 60% fps dropem

DLSS3 není podle mě funkce ale marketingový gimmick s nulovou hodnotou, který nefunguje, k čemu ti je vyšší fps, když se ti zdvojnásobí input lag, takže reálně ta hra reaguje jako kdyby jela na poloviční fps, protože ty si zvyšuješ fps ne jenom kvůli rychlejšímu vykreslování obrazu, ale i kvůli snížení inputlagu, proto, některý hry se dají hrát vklidu v 60fps a zdají se být plynulejší než, některý na 80fps, už aspoň nějak opravili HUD v dlsss3 nebo se to furt nedá číst a všechno je rozpadlí?

+1
+1
-1
Je komentář přínosný?

ANO....
Ten obrázek vlevo je podle mě "normálnější" než ten vpravo, to je to o čem jsem mluvil.
A druhý odkaz vypadá jako led, ne beton.

Už jsme to zažili před 15roky s nástupem DX9c, kde všechny ty Obliviony a Dirt1 vypadaly jak kdyby to někdo přehnal s houbičkama.. ( a teď fakt nemyslím ty na vaně)

K RT jsem zatím velmi skeptický.

+1
0
-1
Je komentář přínosný?

ono to bude fajn, o 5 alebo kolko rokov. vyvojari sa naucia, kde a ako to s citom pouzit a nebude potrebne riesit fejkove framy, lebo tie karty ten vykon na citlive RT budu mat

+1
0
-1
Je komentář přínosný?

musíš si pustit play, protože náhledový obrázek je z jiné časové osy, ale ten beton má "štěstí" že je tam ta kaluž :)

+1
0
-1
Je komentář přínosný?

S ti. RT vidí. To co potkávám za stejných okolností bezne venku v podobném typu zástavby.

+1
0
-1
Je komentář přínosný?

Proboha už sem nedávej toho debilního spidermana, kde každý normální vidí tu do očí bijící nereálnou přeleskovanost toho RT. Posouzení přínosu nechávám na všech a jasně zmiňuji, že většina je na mojí straně. RT lesknoucí se jak psí kulky je komické.

Až až až až bude DLSS něco jiného než bullshit, tak na to logicky změním názor, ale IMHO některé věci AI nedokáže předpovídat už z principu, tudíž to bez vad nebude nikdy a vyšší lagy je také těžké řešit.

+1
-2
-1
Je komentář přínosný?

Mirdo jsi nějaký rozzlobený. Přitom někomu sám vnucuješ názor. Já ti dal pouze proti argument a osobně si RT užívám. Jestli se ti rozdíl ve Spider nelíbí, tak pak se opravdu nemůžeme bavit. DLSS považuji za perfektní věc. Asi jsi nečetl rozbor na Techspot, kdy může být výsledný obraz s DLSS i lepší než originál. Ale jo, ty to nepotřebuješ, takže je vše špatně.

+1
+1
-1
Je komentář přínosný?

ked je DLSS lepsie ako original znamena len to, ze to v originale obsrali, nie?

+1
0
-1
Je komentář přínosný?

To jsem tedy asi nečetl nebo mně to spíš nějak uteklo, protože......:).
"With DLSS 3 there are no situations where I would describe the image as better than native"

+1
-1
-1
Je komentář přínosný?

Mirďo - o dva posty výš jsi mi dokázal, že nevíš co to vlastně ten DLSS je.

+1
0
-1
Je komentář přínosný?

9% vykonnostniho posunu za 2,5 roku vyvoje v IT, preletem najednou pres vicero(8nm→7nm→6nm→5nm→4nm) vyrobnich procesu a nastupu nove architektury, ukazkovy vojeb...

Desitky let bylo v IT zauzito ze kdyz vyde nova generace mainstreamu, dorovna vykon predchoziho high-end-u, ve skutecnosti mela tedy Geforce RTX 4060 Ti atakovat 10GiB RTX 3080, cili mela to byt Geforce RTX 4060 Ti 12GiB a pri cene 499 dolaru kdyz RTX 3080 stala 699 dolaru, by nikto nemel negativni reci, krasne to dokazuje i to ze RTX 4070 Ti utoci na predchozi RTX 3090, jenze kdyby RTX 4070 Ti mela ve skutecnosti 256-bitovou sbernici a 16GiB VRAM, tu RTX 3090 by nejen prekonala ale zautocila by rovnou i na RTX 3090 Ti.

Shrnuti jak to melo ve skutecnosti(pro zakaznika) vypadat:

RTX 4030 8GiB(LP) = RTX 3050 8GiB
RTX 4050 Ti 12GiB = RTX 3070(+) 8GiB
RTX 4060 Ti 12GiB = RTX 3080 10GiB
RTX 4070 16GiB = RTX 3080 Ti 12GiB
RTX 4070 Ti 16GiB = RTX 3090 24GiB
RTX 4080 20GiB = o 40% vykonnejsi nez RTX 3090 Ti 24GiB
RTX 4090 24GiB = dalsich 30% vykonu vuci RTX 4080 24GiB
RTX 4090 Ti 48GiB = +15(45%) vykonu vuci RTX 4080 24GiB

Takhle to melo ve skutecnosti vypadat, co se tyce cen, k prikladu RTX 4080 24GiB mela stat 999€, ceny dalsich karet si z toho jednoduse odvodite.

Ja jsem na tuhle zacatecnickou vojebavacskou strategii NVIDIE upozornil jiz tehdy kdyz vysla RTX 2070 ktera stala presne jako predchozi GTX 1080 a jeji vykon byl totozny, zakaznik ziskal navic jen(a konecne) hw tier vsech urovni api DirectX 12 a "RTX" ktery byl pri RTX 2000 serii vyuzit az pri 5 hrach, jinak pekny prd!

Skutecne jako kolega nademnou pise, lepsi je dnes poridit si notebook kde budu mit moderni CPU a to svoje iGPU plus externe(MUX switch) k tomu navesene GPU, takovy Zen III+(a to nerikam o Phoenix-u) ma vse co ma mit, a nebo koupit za 500€ Playstation 5.

NVIDIA odkazuju ti jedine, zdechni spolu s intelem kdyz si nevazis svych zakazniku...!

+1
0
-1
Je komentář přínosný?

Njn... on je ten nárůst výkonu samotnou architekturou dobrý, spíš je akorát problém s tím, že ty názvy jsou trochu pomotané... holt když si z něčeho, třeba co mělo být max. něco jako 4050 Ti, uděláš rovnou 4060 Ti, i když specifikace čipu tomu potom vůbec neodpovídají, tak to se pak nemůžeš divit, že máš nulový posun ve výkonu a někdy dokonce i záporný, když je tím nová generace tak znevýhodněná.

+1
0
-1
Je komentář přínosný?

Sorry, ten argument o drazsich vyrobnich procesech jsem parkrat sam pouzil, ale uz je jistou dobu nepouzitelny. Proti 3060 je 4060ka doslova polovicni velikost chipu, navic v porovnani s Intelem A770 (6nm 400mm2) je to taky polovicni chip (5nm 190mm2) a pritom vyrobni proces je temer stejny. I kdyby Intel Arc byl prodavan pod vyrobnimi naklady a rekneme jeho realna vyrobni cena je 400 USD, tak je 4060 porad ~2x predrazena. Takze ten argument s cenou vyrobnich procesech je mimo, je to proste cisty korporatni greed. A myslim si ze lide jim to taky nezerou, je to videt na prodejich, tedy spis absenci prodeju. Ale to je jejich vec, kdyz chteji radeji prodat 20 kusu predrazenych nez 200 normalne nacenenych, asi si mysli ze jsou Apple...

+1
0
-1
Je komentář přínosný?

6nm a 5nm proces není skoro stejný. 6nm proces je použitím EUV zlevněný derivát 7nm výroby (tedy levnější než 7nm proces) a 5 nm je proti nim nová generace. 5nm wafer stojí $17k. 7nm wafer stál jako novinka $9k, takže 6nm jakožto levnější alternativa musel stát při vydání maximálně $8k a dneska bude cena ještě podstatně níž.

+1
+1
-1
Je komentář přínosný?

takhle, kdyby to bylo s těma výrobníma procesama tak špatný, tak každá nová generace iphone by musela bejt dražší, ale moc není a to platí apple za ty waffery víc než amd nebo nvidia a má vyšší zmetkovitost na wafer, kvůli early adoption
iPhone 8 (2017) - MSRP: $699
iPhone 14 (2022) - MSRP: $799

+1
0
-1
Je komentář přínosný?

Ale možná by si neměl srovnávat prodejní cenu ale BoM. Třeba při přechodu z iPhone 11 na iPhone 12 narostla BoM o cca 50 dolarů, ale prodejní cena zůstala. Dnes je u vlajkových modelů normální že BoM je +- 450-550 dolarů (US verze mají vyšší protože 1mm Wave).

iPhone 6 měl BoM cca 200 USD, iPhone 11 něco přes 350, iPhone 12 něco přes 400. Takový S22 Ultra s 1mm Wave byl v materiálech téměř 550 dolarů, kdežto bez mm wave a s exynosem asi 440...

+1
0
-1
Je komentář přínosný?

co je BoM?

+1
0
-1
Je komentář přínosný?

Bill of Materials = náklady na samotné díly potřebné k výrobě produktu.

+1
0
-1
Je komentář přínosný?

Keby to bola GTX 4060 Ti za 250-300€, tak by sa míňala ako teplé rožky.

+1
0
-1
Je komentář přínosný?

12GiB

+1
0
-1
Je komentář přínosný?

Je třeba ale také vzít v potaz, že v minulé generaci byla 3060 Ti jen o něco málo pomalejší 3070. Teď je mezi x60 Ti a x70 mnohem větší rozdíl. Co tím myslím? Že 4060 Ti není nástupce 3060 Ti ale je to jen předěl mezi 4060 a 4070 mnohem více uprostřed než byla 3060 Ti. Segmentace je prostě udělaná s jinými rozestupy.

+1
0
-1
Je komentář přínosný?

Ono je pomerne jedno co je nastupce ceho. Je jedno jak se to jmenuje, podstatne je co to umi a za kolik

Ja pred par lety musel kupovat i7 abych mel aspon pouzitelny vykon. Pak i7 dostacovala plne, pak prisla i5 s vykonem i7 a dnes by mi stacila i3 a z pohledu vykonu je to porad upgrade a za ctvrtinu ceny.

Podobne to mam s grafikama, 1080 nahradila 2070S a tu nahradila 3060Ti. Vykon se zlepsoval i kdyz jsem sel do nizsi rady.

+1
0
-1
Je komentář přínosný?

No měnit 2070s za 3060ti to už je vyloženě z bláta do louže.

+1
0
-1
Je komentář přínosný?

No jasně. MSRP jsou stejné, označení taky...tak proč je tak osekaná oproti 4070? Protože cílem bylo stejné MSRP ale současná generace je ustřelená cenově nahoru. Prostě je to manipulace nvidie se segmentací a pak to vypadá, že 4060 Ti má být něco jako 3060 Ti nové generace. Ale tak to není. Je to z pohledu generací nižší karta. A proto to píšu. Nedá se to tak jednoduše srovnat. A nVidie si je očividně tohoto problému vědoma. Takže když pak vydá něco se stejným MSRP, tak ten výkon je kde? Nikde :-)

Jinými slovy - ano, lze pouze porovnávat podle reálné ceny a výkonu. A to se dostaneme přesně k tomu, že na stejné MSRP je o trochu více výkonu. A je jedno, jestli dříve byla nějaká 1080 nebo 2070 a 3060 Ti, to vůbec nehraje roli a na tohle můžete zapomenout.

+1
0
-1
Je komentář přínosný?

Prodeje 4060ti zatim suverene njehorsi z cele nove serie NV...
https://twitter.com/3DCenter_org/status/1661583116027273218?ref_src=twsr...

+1
0
-1
Je komentář přínosný?

Jo ta 8GB verze prostě není potřeba. Existuje 10 jiných alternativ + bazary plné 8GB grafik :)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.