Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4000 nepodporují PCIe 5.0 ani DisplayPort 2.0

PCIe5 by byla naprostá zbytečnost, zase tak velký výkon to mít nebude. To samé se týká budoucího RDNA3, že si to stopro vystačí s PCIe4 a pokud tam bude PCIe5, tak pouze z marketingových účelů.
Horší je to s DP2.0, ikdyž i jeho využitelnost bude minimální, úplně nerozumím, proč tam není. Respektive rozumím, jistě Huang zaúřadoval a DP2.0 ponechal pro nějakou další generaci a mohl se zase napakovat o něco víc.

+1
-4
-1
Je komentář přínosný?

Neježe stejně jako ty nevidím problém v absenci PCIe5.0 (to klidně nechme serverům / HPC segmentu, ani ty M.2 SSD z toho už nějaké reálně vnímané zrychlení nevytěží), ale nevidím problém ani v absenci DP2.0 - komu v běžných desktopech nestačí možnosti DP1.4(+)? Vždyť to umí i 8k, i vyšší refreshe ve 4k i HDR / vyšší barevné hloubky atd. Pro běžného uživatele naprostá zbytečnost.

+1
-7
-1
Je komentář přínosný?

no a zase ludia co by chceli popri tej grafike aj nejake dalsie periferie napojit by sa pci5.0x8 miesto 4.0x16 vcelku potesili, kedze by to nechalo 8 liniek volnych na veci typu HBA, sietovka, 2. GPU

+1
+9
-1
Je komentář přínosný?

Kolik lidí tohle reálně potřebuje či používá?

+1
-4
-1
Je komentář přínosný?

Ja ich poznám dosť a to je tvorba embedded aplikácií extrémne konzervatívna (konzervatívec sa snaží zachovať=zakonzervovať aktuálny overený stav toho v čom je konzervatívny)

+1
+1
-1
Je komentář přínosný?

Tvorba embedded aplikacii mi nejako nesedi s tou poziadavkou na taku konektivitu/na tolko PCIe liniek.
Ak by aj tak tam zase nieje potreba vykonna GK, co usetri PCIe linky a potom s dovolim tvrdit, ze na 99,9 pripadov to musi stacit a preto 0,01 zase nebude problem cena AMD Threadripper(Epic) platformy

+1
0
-1
Je komentář přínosný?

Vzhledem k tom, že AMD s Intelem rukou společnou zabili HEDT, tak jich může být do budoucna víc než v minulosti. Díky omezené IO osaditelnosti/průchodnosti AM5/soc1700 může být z hlediska využití CPU/GPU výkonu v NLE zajímavou alternativou právě AM5/soc1700 s tím, že pro grafickou kartu se využije 8x 5.0(8x 4.0) a zbylých 8x 5.0(8x 4.0) se použije pro NIC (2x 40Gbps, 1x 100Gbps, ...). Což umožní přístup k rychlému síťovému storage. Pokud by GK nové generace podporovaly PCIe 5.0, zůstal by jim i při 8mi linkách zhruba stejný bandwidth jako u 16x 4.0.

+1
+1
-1
Je komentář přínosný?

tak ja neviem, ale asi docela dost ludi vyuziva viacero PCIe slotov, ked u nemenovaneho predajcu so zelenym skretom je 133 z 188 dosiek s 2+ 16x slotmi.

+1
0
-1
Je komentář přínosný?

Jakože používaj 2 GPU ve SLI? :-)

+1
0
-1
Je komentář přínosný?

Presne tak

+1
+2
-1
Je komentář přínosný?

DP 1.4a nestaci pre 4k HDR a vyssie zobrazovacie frekvencie.
Na mojom ASUS PG35VQ mozem zapnut maximalne:
1. 3440x1440 144Hz HDR 10bit
2. 3440x1440 120Hz HDR 12bit
aj ked obrazovka podporuje:
x: 3440x1440 200Hz HDR 12bit
.
Pri 4k bude maximalna zobrazovacia frekvencia obmedzena este viac.

Takze herne monitory 4k HDR a 120Hz+ potrebuju DP 2.0

+1
+2
-1
Je komentář přínosný?

DP2.0 to melo jednoduse mit, (A)je to prece zajete, (B)je rok 2022 a je to (C)exkluzivne nacenene, mas plnou pravdu, dnes je mraku hernich monitoru ktere jiz podporuji:

-4K rozliseni
-obnovaci frekvence vyssi jak 144Hz
-dale si zvolis prenos fareb RGB 4:4:4
-plus k tomu HDR
-a FreeSync nebo G-Sync

DP1.4 to jednoduse stihat nebude, co se tyka HDMI 2.1, alespon ze to je pritomno, rovnou ale na RTX 4000 muzou dat jen to, vic DP1.4 portu jak HDMI 2.1 nema smysl na kartu cpat.

+1
-1
-1
Je komentář přínosný?

Vazne tu resime 3440x1440 200Hz HDR 12bit?

To nezni jako uplne bezny monitor. V tom pripade doporucuji grafiku od AMD a neresit nVidii.
Troufnu si tvrdit, ze spousta lidi (99%) neni omezena DP 1.4 a HDMI2.0.
Sam mam sice UHD/60Hz, ale v mem okoli je uspech, kdyz ma nekdo QHD. UHD postupuje, ale i tak se jeste nejedna o beznou zalezitost.

Takze ano, ve vasem konkretnim pripade nVidia grafiky nejsou pro vas.
Osobne vidim spise jine faily. Vykon jen +60%, cena silena.

+1
+2
-1
Je komentář přínosný?

ASUS PG35VQ ma G-Sync modul a nepodporuje HDMI 2.1.
takze AMD karta nepomoze. a takych monitorov je viacero.

monitory, ktore by vyuzili DP 2.0 boli vydane uz pred viac ako rokom.

ano tyka sa to mensiny ludi. a kvoli tomu sa tym netreba zaoberat?
takouto logikou sa nemusime zaoberat ani AMD 7xxx (lebo vacsina nevyuzije ani AMD 5xxx), nemusime sa zaoberat ani novymi Nvidia a AMD kartami (lebo vacsina nema ani vykon poskytovany predchadzajucou generaciou)
A vacsina ludi ani nerozumie pocitacom, takze naco vobec pisete na tieto stranky, ked to 99% ludi vobec nepotrebuje citat?

+1
+1
-1
Je komentář přínosný?

AMD RX6800+ uz HDMI 2.1 maji. Na 200Hz je Gsync k nicemu. Bud extremni FPS nebo sync. Tearing se na techto frekvencich neda postrehnout. Odezva ale samozrejme ano.

Prijde mi to jako hledani duvodu za kazdou cenu, proc neco nejde. Z techto popisu si zatim beru to, ze ten monitor je na houby, coz samozrejme neni pravda.

+1
0
-1
Je komentář přínosný?

a jeje.. ted tu bude par chytraku brecet, jaka je pcie5 zbytecnost a az dorazej grafarny s pcie5 4x a pcie5 8x co pojedou v pcie4 deskach s polovicni rychlosti, tak tu budou brecet nanovo.. ((:

+1
+15
-1
Je komentář přínosný?

:-D

+1
+6
-1
Je komentář přínosný?

Kolik let uběhlo mezi prvními produkty s PCIe4.0 a uvedením Radeonu RX 6500 XT? Já třeba tenhle Radeon provozuji na PCIe3.0 systému a nevidím v tom nejmenší problém, šlape to skvěle. Jasně, kdo by chtěl na takovém stroji hrát nové hry v ultra kvalitě, tak ten na přenosový limit narazí. Ale hlavně narazí na to, že RX 6500 XT je low-end, co to beztak neutáhne.

+1
-5
-1
Je komentář přínosný?

Problém vidím v tom, že už dnes dává u lowendu smysl ty linky řezat, protože ten výkon je i tak více než dostatečný.

+1
+6
-1
Je komentář přínosný?

Ale vse je jen hypoteticke, protoze u techto karet to vse bude na 16 linkach a teoreticke diskuze o tom, ze nektere karty pouzivaji mene linek se tykaji techto karet s mene linkamy.

Asi v gen4 problem nevidim. Jen to neni nejvic high tech. Historicky to tu uz bylo a problem to neznamenalo. Rezani poctu linek vidim na horsi nez toto.

DP2.0 vypada dobre na papire, ale i starsi verze jsou vesmes OK.

+1
0
-1
Je komentář přínosný?

Když odhlédnu on Tom Buriho zcela validního argumentu, nevidím tak zásadní problém u PCIe5, jako ho vidím u DP. DP je "master" rozhraní, nic lepšího neexistuje. A pokud nové grafiky budou mít problém s více displeji (byť dnes poměrně nerozšířeného 8K), tak to problém je a velký. Dnes se běžně praktikuje použití i starších a slabších diskrétních grafik jako spolehlivých zobrazovadel, protože typická iGPU (zejm. Intelu) má dosti brutální HW omezení. Běžně dnes narážím u dnešních laptopů a docků (žádná prehistorie!), že nedokáží provozovat 3 displeje, pokud 2 z nich jsou víc než WUXGA.

Nevím jestli nvidia pro cryptu úplně neochujela, ale tohle fakt není dobrý. Ty grafiky tu budou strašit dalších 5-6 let a při současném vývoji, kdy 4K už je běžný standard (a bohužel použitý ne k tomu, abych viděl větší plochu, ale aby písmenka byly "hladší" - tudíž požadavky na více monitorů stále platí), tak příchod 8K jako "standardu" se dá do těch cca 6 let čekat.

+1
+10
-1
Je komentář přínosný?

Já zase souhlasím s Ježkem, že zatímco PCIe5 je zcela zbytečné a nic by té grafice nepřineslo, neboť i zpětně to bude kompatibilní a těch linek na grafice bude i u desek s PCIe5 16. Tak rozšíření potřeb standardu DP2.0 bude minimální a téměř nikoho to trápit nebude ještě řadu let.

Co si ale Ježek neuvědomuje, že ikdyž minimálně, tak ta potřeba DP2.0 tu pro jednoho z tisíce bude a nechápu, proč u grafiky, na které má NVidia historicky nejvyšší marži, nemůže navíc prdnout DP2.0, které by jim tu marži ubralo o 0,1%?
Vysvětlení známe, protože to Huang plánuje na další generaci a zase si za to bude chtít říct další prachy navíc.

+1
-1
-1
Je komentář přínosný?

Casto souhlasim, ale tentokrat ne.
8k jen tak neprijde a az prijde, tak to zacne snob endem, kde je ochota koupit i novou generaci karet.

+1
-2
-1
Je komentář přínosný?

Tohle _jsou_ "snobend" grafiky.

+1
+3
-1
Je komentář přínosný?

Co je na takové grafice snobského, nedávno si lidi za cenu 4080 kupovali RTX3060 a byli rádi...

+1
-4
-1
Je komentář přínosný?

Podle mého, 3080, 3080 TI jsou ještě v relativně cenově dostupném pásmu. Teď po zlevnění. Proti tomu 3090 je už hodně velmi nadstandardní. Beru to, že (bez urážky) někdo dostatečně bohatý si raději koupí 3090, respektive jakmile vyjde, 4090 mezi prvními.
Určitě tu cenu (cenovou hranici) máme každý jinak. Nebudu tudíž psát za všechny. Pro mě je taková psychologický hranice za grafiku zhruba 25 tisíc. Nicméně kvůli zaměření třeba koukám spíše po A4000 s 16 GB, než vyloženě herní 3080 (TI) s 12 GB.
Kromě toho, co jsem četl v diskusích jinde, tak spousta grafiků renderuje právě na herních grafikách nejvyšších řad. A pro ty je to "výrobní prostředek". Tam vyšší cena tolik nevadí, zaplatí to zákazník. Tudíž ty špičkové karty vlastně nahrazují profi karty s ještě vyšší cenou. Z toho důvodu (si myslím) jsou i dražší a podle mě na hraní "snob end".
Jasně, pro někoho může být snobend karta přes 20, pro někoho třeba až nějaký specifický tuning ve zlatem zdobeném vydání s cenovkou 10× vyšší. ¯\_(ツ)_/¯

+1
+1
-1
Je komentář přínosný?

A4000 není špatnou kartou, ale její výkon s odviji od redukovaneho počtu CUDA-core a taktu. A jednoslové chlazení si vybere svou dan ve vyšších teplotách (v plné GPGPU zátěži 90°C+). Před poklesem cen to byla nejjednodušší(nejlevnější) cesta ke CUDA a 16GB framebufferu, ale dnes bych asi uprednostnil RTX3090. Při pri zpracovani 8K .R3D footage byla alokace VRAM procesem DavinciResolveStudio i přes 15GB, coz mne v soucasnosti od 16GB GK docela odrazuje.

+1
+1
-1
Je komentář přínosný?

Vidíte, a pro mě ta přijatelná hranice bývala 6-7 000, tedy zhruba hranice, ve které se pohybovaly xx60 od NVidie a jejich AMD ekvivalenty. Výš jsem prakticky nikdy neměl potřebu chodit, často mi naopak spíš postačovala ještě levnější xx50 Ti (ostatně, momentálně mám 1050 Ti). Ale teď bych za tyhle prachy dostal tak akorát ořezánka 6500 XT a toho by koupil jen opravdový zoufalec. 3050 začíná na 8 000, plus mínus nějaké drobné a taky se nevyplatí kupovat, protože za tuto cenu, pokud máte trochu štěstí, můžete sehnat i 6600 od AMD. Takže pod 10 000 dnes prakticky nemá smysl grafiku kupovat a za těch 10 000 dostanete tak 3060 či 6600 v nejlevnějších edicích, jejichž ventilátory vám při plném výkonu urvou uši, takže nic pro ty z nás, co bydlí v panelácích a nechtějí při hraní her rušit sousedy. Takže reálně bych pro solidní edici 3060 či 6600 musel tak na 12 000, čili prakticky dvojnásobek mého původního limitu, a v podstatě bych se zase musel rozhodovat mezi dražší edicí 3060 či 6600 nebo levnějšími edicemi 3060 Ti, či 6600 XT / 6650 XT. No, ti, co nechtějí za grafiku dát majlant to dnes nemají vůbec, ale vůbec snadné.

+1
+1
-1
Je komentář přínosný?

Tak az se objevi 8k monitory, tak si muzou koupit novou generaci karet. Treba nVidia RTX 19090Ti :)

+1
-1
-1
Je komentář přínosný?

Nesouhlasím, ani za 10 let odteď nebude mít smysl 8k rozlišení v desktopech / pro běžné uživatele. Nebude mít smysl ani na filmy, protože těch "sedmdesátek" zas tolik není a z 35mm prostě 8k takřka nikdy nevydoluješ. A sedět u 27palcového monitoru, tam není moc rozdílu mezi 4k - 5k - 8k. A sedět u většího je zas blbost, chudák krční páteř. Ne, 8k je nepodstatné a ostatně DP1.4(a) ho podporuje.

+1
-5
-1
Je komentář přínosný?

Bavíme se o grafikách, které až ta pro obyčejné uživatele nejsou. U těchto uživatelů je požadavek na 8k + HDR očekávatelný.

+1
+9
-1
Je komentář přínosný?

Souhlasil bych, že u lowendu nebo střední třídy to smysl mít nemusí (a kde to smysl dává, např. digital signage, tam si to pořeší Matrox s AMD :-P). Ale tohle je hiend, a tam to bude vždycky vypadat blbě. Jako by se šetřilo na nákladech.

Ono to 8K taky může být v nějakých neforemných formátech, různých ultrawide prohnutinách na hry apod. A hlavně: nevíš co přijde za 3 roky, vidíme jen směr, a ten jasně říká, že se rozlišení i frekvence v hiendu navyšují.

Kdybych měl soudit podle sebe (staromilec s 2x WUXGA připojenými na DVI KVM od Atenu), tak pro mě je i 4K moc. :-) Ale já nejsem směroplatný...

+1
+1
-1
Je komentář přínosný?

To samé se ještě před deseti lety tvrdilo o 4K. A podívejte se, kde jsme dnes. I můj starý otec má ke svému počítači, který prakticky používá jen na internet a YouTube videa s koťátky a štěňátky s levným APU AMD připojené dva 32" 4K monitory a ještě 43" 4K televizi LOL Kde budeme za deset let je fakt těžko předpovědět. Ale s takovou jistotou bych si tvrdit, že za deset let nebude mít 8K rozlišení smysl, bych si fakt nedovolil.

+1
+1
-1
Je komentář přínosný?

Když používáš nevhodné docky. Ono proč vůbec používat dock? Není problém připojit dva 6k monitory jední kabelem z laptopu, další jeden/dva můžeš připojit druhým kabelem. Ony ty monitory s vysokým ropzlišením obvykle nejsou low endy a mají v sobě USB nebo Thunderbolt dock zabudovaný, podporují daisy chain.

Ano pokud koupíš k 3-4 monitorům kdy jeden stojí 30-100 tisíc laptop za 15, tak to nebude moc funkční, s tím souhlasím.

Velké HW omezení vidím právě u všeho s AMD, kde se štítí použít Thunderbolt 4, s dvěma TB4 porty, což mají i levné laptopy kolem 1000 dolarů, připojíš snadno 4 monitory.

+1
-5
-1
Je komentář přínosný?

Dok se obecně používá proto, abys nebyl jako idiot-Transformer se salátem kabelů, ale připojil počítač jen jedním konektorem. A když jich nakupuješ tisíce, tak docela řešíš, jestli jeden stojí desítku nebo víc. Ano, doby, kdy 100% funkční a spolehlivý E-port stál ušmudlaných 3500Kč jsou tytam.

Ty se svým jablečným pyré to ale bohužel nikdy nepochopíš.

+1
+2
-1
Je komentář přínosný?

S Thunderboltem právě nepotřebuješ externí dock (a mít tak "salát kabelů ve stylu jablečného pyré"). Dock v TB monitoru nabízí to samé, co TB dock, protože limitem je, co protáhne port na notebooku a kabel.

+1
0
-1
Je komentář přínosný?

To je mi jaksi známo, jeden takový TB dock mám na stole (WD19S) a je to tragédie. Limitem není ani tak šířka pásma TB (ta je dostatečná, když totéž zvládnou i doky s USB-C jako je D6000), jako spíše kvalita a schopnosti toho framebufferu, který propojují, a který obsluhuje videovýstupy na doku.

edit: a je úplně jedno, jestli je dok součástí monitoru nebo extra krabice někde za ním.

+1
0
-1
Je komentář přínosný?

Tak když kupuješ levné a neosvědčené TB docky tak se nediv.

A o jakém framebufferu mluvíš? Ty posíláš DP Alt mode a ten přes dock jde až do monitoru z něj pak v rámci MST můžeš mít výstup do druhého monitoru.

A samozřejmě můžeš připojit monitor přímo Thunderboltem to jestli pak využiješ integrovaný dock je už jen třešnička na dortu.

Prostě nějaký productivity monitor jako https://www.alza.cz/40-dell-ultrasharp-u4021qw-d6326357.htm https://www.alza.cz/39-7-lenovo-thinkvision-p40w-20-d6993335.htm nebo pokud preferuješ výrazně větší PPI - https://www.alza.cz/27-lg-ultrafine-27md5kl-d5656208.htm nebo pokud preferuješ něco na video tvorbu a nemá to stát ranec https://www.alza.cz/32-asus-proart-pa32ucx-p-d5882389.htm

+1
0
-1
Je komentář přínosný?

Mě prostě vyhovuje tohle, a to je jen USB-C připojení, takže je to kapku limitované, ale nepotřebuji žádný extra rychlý disk, stačí mi Glan a SATA SSDčko...

http://download.jirikocman.cz/stul/IMG_1327.jpeg

zepžedu je to pak cableless

http://download.jirikocman.cz/stul/IMG_1362.jpeg

Navíc ten monitor funguje jako KVM svitch, když přepnu z USB-C na DP/HDMI, připojí se mi to ke stolnímu PCčku se vším všudy.

+1
0
-1
Je komentář přínosný?

A pokud Thunderbolt dock, tak CalDigit, dlouhodobě ověřené a uznávané docky - https://www.caldigit.com/thunderbolt-station-4/ zvládá 4k@144Hz, 2x6k@60Hz nebo 8k@60Hz

nebo tady starší model, etalon thunderbolt doků... https://www.caldigit.com/ts3-plus/

+1
0
-1
Je komentář přínosný?

Malá technická poznámka - WD19S není TB, to je obyčejné USB-C. TB je až WD19TBS.

+1
+1
-1
Je komentář přínosný?

Něco takového jsem čekal;-)

+1
0
-1
Je komentář přínosný?

Ano, jsou několikery verze, lišící se provedením sběrnice a napájením.

+1
0
-1
Je komentář přínosný?

Pak hodnotíš USB-C a ne TB.

+1
0
-1
Je komentář přínosný?

Ne, hodnotím DP výstupy, které jdou tím "USB-C" kabelem do doku. To není dok s grafikou navěšenou na USB.

+1
0
-1
Je komentář přínosný?

Hele, já vím, jak to myslíš. Ale! Sám tu doma mám bráchův starší HP Elitebook, a ten přes USB-C protáhne 4K60 + USB2.0 + PD, nebo 4K30/2K60 + USB3.0 + PD. Ale pokud připojí TB monitor, tak zvládne 4K60 + USB3.0 + PD. Už se to tu řešilo v komentářích pod starším článkem. Prostě ten samý notebook tím samým portem protáhne v režimu TB víc než v režimu USB3.0. Ono taky ten DP výstup v TB funguje jinak než v USB3.0 (jsou to obecné packety sdílené s dalšími daty, kdežto v USB3.0 jsou tam natvrdo vyhrazené "dálnice").

+1
0
-1
Je komentář přínosný?

DP 1.4a zvládá 4K@120Hz HDR a údajně při RGB 4:4:4. Takže v tom takový problém taky nevidím...i když u grafiky za 50k.....
K potřebě PCI-E 5.0 už jsem se vyjadřoval dřív.

+1
0
-1
Je komentář přínosný?

Tak to by měli upravit ceny 2.5x nižší než ohlášené cifry. :D

+1
0
-1
Je komentář přínosný?

Raději PCIe4 než pak karty s PCIe5 x 2.

+1
+3
-1
Je komentář přínosný?

Nikto nerobi herne x2 karty, to su len zobrazovadla pre pokladne do lidlu.

+1
0
-1
Je komentář přínosný?

Donedávna taky nikdo nedělal pcie4 x4 karty.

+1
+1
-1
Je komentář přínosný?

RX6500/6400 bol sice fail, ale neboli planovane pre desktop. V notebookoch maju 8x.

+1
0
-1
Je komentář přínosný?

Vzhledem k tom, že se proslýchá, že i 4060 by mohla být ořezaná na PCIe 4 x8, tak si myslím, že tato obava není pro přespříští generaci úplně od věci. Umím si bohužel představit RTX 5050, či RX 8500 (zůstanou-li NVidia a AMD u současného číslování) ořezanou na PCIe 5 x2 :-( Doufám, že se mýlím a toto nenastane, ale při stupiditě, kterou jak NVidia tak i AMD předvádějí v poslední době, by mě to už ani nepřekvapilo :-(

+1
0
-1
Je komentář přínosný?

Tak z jejich pohledu to není stupidní. Sdílej tak čip s notebooky a v OEM sestavách bude zajištěna plná verze PCIe rozhraní.

Já sám měl v PC ATI Mobility M1, což byla AGP karta s čipem z notebooku (generace Rage Pro).

+1
0
-1
Je komentář přínosný?

Jednoduse ukazkovy paskvil od obou(intel + nvidia), ja to shrnu svyma slovama:

->kdyz Alder Lake vychazel, vojebal lidi atomama, pritomnosti jenom x16 5.0 slotu a pry bude ARC
->dale kdyz Alder Lake vychazel, intel velice dobre vedel ze socket je zpraseny, neudelal pro fix nic
->ted vychazeji nove x7xx zakladni desky a socket neni znova opraven plus zadne 5.0 NVMe

Jednoduse a jasne Alder/Raptor Lake je ukazkovy "Danajsky dar zakaznikum", musim blejt.

Ted k NVIDII:

->nezlobte se panove z NVIDIE ale novou RTX 4000 ste zdrazili ze neskutecne:
-skutecna RTX 4080 16GiB(AD103) stoji 1199€, pak xx70 vojeb 4080 12GiB(AD104) 899€!
-a ted se dozvidam ze cela RTX 4000 nepodporuje jak PCI-Express 5.0 tak davno zajete DP2.0

Muj nazor je ze Ada Lovelace je jenom Ampere na 4nm TSMC steroidech(tape-out z 8nm procesu Samsungu), jednoduse a jasne vzali GPU Ampere, pridali mu vice cache, vice jednotek, pote to hodili na jiz zajete 4nm masky TSMC, nasledne pridali MHz a napajeni, a pak to zacali delit na segment(tridy) a nakolik jiz mining skoncil(BitCoin na ASIC-ech a Etherum na proof-of-stake), rekli si ty svine: "ty dementi zakaznici si jednoduse priplati a basta" -> proto hned to zkurveni 4080 na dve variace.

Dale je neskutecne strasny vykonovy rozdil mezi RTX 4080 16GiB a 4090 24GiB(co se tyce jednotek), 4080 16GiB jich ma 9728 a 4090 24GiB 16384, strasne ale strasne to smrdi pruserem co se tyka mozne neschopnosti nekonkurence vuci produktum ze staje RDNA III, dale cenovym pruserem pro uzivatele a pruserem co se tyce energeticke narocnosti, necht mi laskave panove z NVIDIE vysvetli co chteji vtesnat mezi 4080 16GiB a 4090 24GiB, neco jako 4080 Ultra, Super a nebo Ti a kdyz bude vybrana koncovka znova se to zkurvi rozdilnosti VRAM?

Musim zvracet, je rok 2022 a jeden debil(intel) se tu nadale ohani jednojadrovym vykonem, dalsi(nvidia) svou dominanci / prestiží, past(ta na zakazniky) sklapne velice chabě.

+1
+2
-1
Je komentář přínosný?

Třeba spoléhají na to že se rozjede nějaká další vlna kryptotěžby...

+1
+1
-1
Je komentář přínosný?

Pocas 4000 generacie a ani tej dalsej velmi velmi nepravdepodobne.....

+1
0
-1
Je komentář přínosný?

Podla mna si NVIDIA nechava schvalne vykonovy priestor medzi 4090 a 4080 16GB, aby mohla zareagovat na to, co predstavi AMD. Budu mat takto vacsie moznosti. A inak ta 4080 12GB je fakt usmevna. To ma byt jasna 4070 vzhladom na parametre cipu.

+1
0
-1
Je komentář přínosný?

Ta RTX 4080 12GB je ještě v klidu, to už jsem si na tento ojeb zvykl už při GTX 1060, i když tady to už je ojebané zas v o trochu větším měřítku... ale proti ojebu největšího kalibru nazývaným DLSS3, který se tváří, že ti přidá 3x vyšší výkon nebo dokonce vyšší, přitom ti to akorát přidá latenci, je to pořád jen hodně slabý odvar.

A že třeba ještě nazývají 5 nm 4 nm mne taky zas tak moc netrápí, vždyť toto mi může být jako zákazníkovi úplně šumafuk, důležitý je hlavně výsledek (efektivita)... a jen ať si to 4 nm klidně nazývají, vždyť se jim to stejně ještě vrátí jak bumerang nazpátek, jak to bude i na „4 nm“ mít pořád horší efektivitu než řešení AMD na 5+6 nm.;) Se s tím ve finále akorát zesměšní a ta architektura bude vypadat ještě víc na πču než ve skutečnosti je... je vtipné jak už si to až teď jejich marketingové oddělení asi uvědomilo a na poslední chvíli to chcou ještě rači vrátit zpět na 5 nm, že by to asi vypadalo přece jen líp, ale na to už je pozdě, už dávno to je vedeno jako 4 nm.

+1
0
-1
Je komentář přínosný?

DLSS3 este ani nevyslo, ale bojovnikov proti ma uz dost. A na "prekvapenie" su kupodivu pravidelni bojovnici proti vsetkemu okolo NV. :-) Z toho co hovorili na prezentacii by mal byt sucastou DLSS3 aj NVIDIA Reflex na znizenie prave tej latencie. Otazne je ako to bude fungovat dokopy ako celok. Urcite bude na tato technologia zo zaciatku muchy, ktore sa budu postupne vychytavat, ale naco su dobre tieto reci okolo ojebov, ked ani nevies ako to bude fungovat? Ci vlastne je to NVIDIA, tak urcite nahovno, ze?

+1
+1
-1
Je komentář přínosný?

Ale vždyť to je úplně jedno, jestli tam bude Reflex... pořád to kurví latenci (pokud to teda nějak nedokáže ohýbat i časoprostor) a Reflex to pak už jen mírní, ale problém DLSS3 neřeší.

Pořád můžu rači nahodit jen Reflex bez DLSS3 a budu na tom vlastně líp... jako jednou tady bojovat za nízkou latenci s Reflexem a následně vydat kurvítko, které to zas zhorší, jen abys měl víc FPS, které budou pocitově stejně horší... to se teda opravdu povedlo.

Je to akorát lákadlo na tu hromadu lidi, co budou věřit, že se vše točí jen kolem FPS a nechají se na to zlákat, že budou mít 3x vyšší výkon... a přitom hrajou FPS hry, na které se to paradoxně absolutně nehodí... sice se říká, že potřebuješ co nejvíc FPS, ale ono jde spíš o tu nižší latenci, která s více FPS většinou normálně přichází, ale zrovna ty „FPS“ co lezou z DLSS3 ti moc nepomůžou.

+1
+1
-1
Je komentář přínosný?

Pokial sa s Reflexom s DLSS3 vratis na povodnu latenciu ako bez DLSS3, stale to bude v poriadku. A mozno to bude hrozne a casom sa to zlepsi. To ale este uvidime. Ako napad je to zaujimave a casom to moze byt vyrazna pomocka, tam kde sa to bude hodit. Okrem toho je to volitelna ficura, ktoru mozes aj nemusis pouzivat. Takze naco ten hate? Je to len o tom, ze NV si moze pisat niekde vyssie FPS?

+1
+1
-1
Je komentář přínosný?

Ahm... ještě před čtrnácti dny tady všichni svorně brečeli, jak je Nvidia zlá, že kvůli nízkým maržím krachují výrobci.

Teď jim dá na marže patnáct dvacet procent, a zase je to blbě a všichni brečí, že napálili ceny. :D

+1
0
-1
Je komentář přínosný?

Nvidia tvrdí, že je to postavené na procesu TSMC 4nm.

Jenže je to proces N4 5nm, jinými slovy čtvrtá verze 5nm procesu.

+1
+1
-1
Je komentář přínosný?

A je to tady - mínus za jednoduchou pravdu. Máte můj obdiv.

+1
+3
-1
Je komentář přínosný?

Ja som ti minus nedal, ale rozmyslam kde vsetci boli ked sa Pascal vyrabal na 16nm a vtedajsia konkurencia na tusim 12nm vyrobe. Pricom ta 12nm bola tiez, ak si dobre pamatam, iba vylepsena 16nm vyroba. :-)
Inak si tiez pamatam, ze o TSMC 4nm sa od zaciatku pisalo, ze ide iba o vylepsenu variantu 5nm vyroby. Neviem preco sa z toho zrazu robi kauza (uz aj Stach ma k tomu fanbojovy clanok), ked je uz davno jasne, ze marketingove oznacovania procesov nemaju nic spolocne so skutocnymi nm.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.