Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 4000 / Lovelace: 4nm proces místo 5nm a sběrnice PCIe 4.0

tak pcie-e. Nějak není čemu fandit. Verze 4 nastoupila teprve nedávno a potenciál určitě nevyčerpala, hlavně když se vynořily chytré velké cache.
A pětka - aby to nedopadlo tak že nástupce RX 6600 tedy 7600 neměl nakonec 4 linky pětkové verze a 7500XT dvě.... Tedy osekávání nákladů pro výrobce, ale cena stejná či vyšší pro kupující.

+1
-1
-1
Je komentář přínosný?

velky cache se netykaj pcie ale gddr6.. spekulace o dvou linkach u amd jsou ve stylu ''a vyzas bijete negry''.. (:

+1
+7
-1
Je komentář přínosný?

kdepak, potom co předvedli u 6500XT bez ohledu na majitele pcie3 desek se tohle dá očekávat prakticky na 99%.

+1
0
-1
Je komentář přínosný?

Ale 16=4x4 a teda 4 way Crossfire out of box

+1
0
-1
Je komentář přínosný?

Lovelace je dělána dost horkou jehlou, toto nikdy nemůže dopadnout dobře.

+1
+1
-1
Je komentář přínosný?

Ale může a dopadne. Výrazně lepší nanometry ve spojení s novou architekturou nemohou dopadnout špatně. Bude to nenažrané? To zřejmě v highendu nevadí a vždy je tu možnost hýbat frekvencí. Bude to drahé? RTX 3080 dnes stojí 25 tisíc, tak co...

+1
-1
-1
Je komentář přínosný?

600w v hiendu nevadi? zkousels nekdy neco podobnyho chladit? jesli to tak dopadne, tak si lovelace stoupne do fronty za geforce-fx a fermi..

+1
+5
-1
Je komentář přínosný?

Mně toho vadí spousta, ale pokud si to koupí někdo jiný, tak se to bude vydávat. Já bych si nekoupil ani 300W kartu.

+1
-1
-1
Je komentář přínosný?

Třeba to půjde undervoltnout a z 600W bude "lidovejch" 400 :D Já svůj Ampere stáhl o 100W.

+1
-1
-1
Je komentář přínosný?

I kdyby to undervoltem šlo na 450 W. V kombinaci s až 240 W Intelem pořád peklo. To ani vodník neřeší, protože to teplo se v té místnosti stejně bude kumulovat.

+1
0
-1
Je komentář přínosný?

Používat 4 nm na snížení spotřeby je v tomto případě dost nepravděpodobné, spotřeba bude otřesná oproti konkurenci už tak jako tak, takže Huang spíš řekne: „fuck it“ a použije se to ještě na další zvýšení výkonu, resp. taktů, aby se stáhl ten deficit ve výkonu na minimum a pokud možno ideálně někde překonat RDNA3 aspoň trochu, třeba zas v ray tracingu. Pak by byla ta spotřeba totiž aspoň trochu ospravedlnitelná, protože jinak mít vyšší spotřebu a ve všech ohledech i tak nižší výkon, to by bylo teda hodně špatný.

+1
+4
-1
Je komentář přínosný?

Aspoň Prušak bude mať objednávky na vodníka na mieru :D.

+1
0
-1
Je komentář přínosný?

Jistě... pořád 2x+ výkon navíc, není si na co stěžovat... jenže je třeba si uvědomit, že už tu je nějaká konkurence, už se to netočí jen na tom, co nám zrovna Huang je ochoten z dobré vůle dát, takový mezigenerační skok nechystají jen tak z dobré nálady... ono kdyby byla furt jen Nvidie a nic jinýho, asi by ani s tou 600W grafikou nebyl zas takový problém, jenže když to sotva dorovnává jen 375W konkurenci, tak už to zas tak dobrý moc není...

+1
0
-1
Je komentář přínosný?

nevidím v tom problém, pokud AMD chystá kartu výkonem 6900XT s PCIe 8x 5.0 kvůli úspoře křemíku, tak PCIe 4.0 taky bude úspora křemíku oproti PCIe 5.0 a hlavně to znamená, že i nižší karty budou mít PCIe 16x což je pozitivní

+1
0
-1
Je komentář přínosný?

Nároky na křemík jsou definované počtem linek. Nikoli takty, na kterých ty linky běží. ×16 rozhraní má stejné nároky na křemík ať je generace 3, 4 nebo 5. Vyšší nároky na křemík bude mít implementace PCIe 6.0, protože přináší nový protokol a zajištění zpětné kompatibility tak bude vyžadovat hardwarovou podporu dvou protokolů.

+1
+2
-1
Je komentář přínosný?

tak pokud to není úspora co nvidii vedlo k PCIe 4.0 tak v tom případě nevidím smysl v rozhodnutí použít PCIe 4.0,
možná schození nových platforem AMD a Intel? podívejte, nemusíte utrácet za PCIe 5.0 platformu, když na PCIe 4.0 naše grafiky jedou stejně rychle a za ušetřené peníze můžete koupit vyšší model Geforce?

+1
-1
-1
Je komentář přínosný?

Nenapadá mě, co by je k tomu mohlo vést. Implementace PCIe 4 a 5 je navíc docela podobná, takže by nemělo představovat nějaký zásadní problém přejít z jednoho na druhé. Možná jen nechtěli riskovat, že by jim zádrhel při implementaci PCIe 5.0 zpozdil vydání produktu. Vlastně ani s RTX 2000 nechvátali a zůstali radši na PCIe 3.0.

Nakonec bych nevylučoval ani tu možnost, že ještě Nvidia ladí podporu, vzorky mají aktivní jen PCIe 4.0, ale u finálních karet podpora PCIe 5.0 aktivovaná bude.

+1
+3
-1
Je komentář přínosný?

V čem je lepší mít 16 linek PCI-e 4.0 oproti 8 linkám PCI-e 5.0. Neměly by mít stejnou propustnost ?

+1
0
-1
Je komentář přínosný?

pokud propustnost 32 GB/s (16 linek PCIe 4.0 nebo PCIe 5.0 8x) bude stačit i tomu nejvyššímu high endu jako, že bude, tak v případě použítí PCIe 5.0 8x si zavírám vrátka u systémů pouze s PCIe 3.0 což je dnes většina a tam by už čtvrtinových 8GB/s nebude určitě stačit.
Což je u AMD chtěný stav u 7700XT, která bude disponovat pouze PCI 5.0 8x takže pro všechny systémy s PCIe 3.0 je to nepoužitelná karta a lidi musí upgradovat celou platformu ideálně na AM5, kdežto u nvidie, která bude mít všechny karty s PCIe 16x nebude problém provozovat jejich karty i na systémech s PCIe 3.0, alespoň do výkonu 6900XT https://www.youtube.com/watch?v=jthy_hYJn5k

+1
+1
-1
Je komentář přínosný?

Chápu, díky. :)

+1
0
-1
Je komentář přínosný?

U nových počítačů není takový problém sladit komponenty k sobě. Naprostá většina běžných uživatelů mimo nadšence upgrady neřeší.

+1
0
-1
Je komentář přínosný?

To není úplně jisté, hlavně příjem signálu z těch linek je náročnější, víc citlivý na kvalitu, je zde náročnější při těch vysokých taktech správně rozeznat 1 a 0. A tím pádem i vyslání signálu na linku je trochu náročnější. Ale tím jak stoupá hustota tranzistorů na plochu to tak moc nevadí.

+1
0
-1
Je komentář přínosný?

Myslím, že tady udělali zelení dobře, když nové grafiky červených budou vhodné jen pro nové systémy s PCIe5... paradoxně to zlehka připomíná modré - 2 série procesorů na jednu verzi socketu / dvě série grafik na jednu verzi PCIe. Jede to zbytečně rychle.

+1
-4
-1
Je komentář přínosný?

„budou vhodné jen pro nové systémy s PCIe5“

???
To je nesmysl. V PCIe 3/4 desce bude propustnost stejná, v PCIe 5 desce bude mít PCIe 5 grafika 2× více.

+1
+1
-1
Je komentář přínosný?

No ale jelikož teď AMD omezuje počet linek, když si strčím např. kartu 8x PCIe5 (64GB/s) do slotu 16x PCIe3 (16GB/s), to už jsme na čtvrtině. Možná dělám někde chybu, ale "vhodnost" zkrátka silně klesá.

+1
-3
-1
Je komentář přínosný?

"...No ale jelikož teď AMD omezuje počet linek.."

A kde omezuje počet linek? Na Radeonu 6500, kterej je omezej sám o sobě? Proto teď budeme předpokládat, že to je nový trend? Tohle je nesmysl... Podle mého prostě když AMD přichází s PCI-E 5 deskama, tak proč by novou řadu grafik držela na PCI-E 4, zvlášť v případě, kdy ta implementace 5 vs 4 není nijak extra rozdílná. Takže proč tam nefláknout PCI-E 5 ať je to komplet, marketingově to dobře vypadá a máme nějakou propustnost v rezervě, případně můžeme ladit na novější desky...

Nemyslím si tedy, že by měla AMD v plánu nějak omezovat linky na grafikách... možná až zas u nějakýho totálního low-endu... Ale tam je to stejně asi fuk, protože ty grafiky jsou tak slabé, že nebude znát, že jí například připojíme na PCI-E 3 desku natož PCI-E 4 desku...

+1
+4
-1
Je komentář přínosný?

to není pravda u Radeon 6500XT je rozdíl jestli se použije PCIe 4.0 nebo 3.0 viz. https://www.youtube.com/watch?v=FQtdXsPw3wg
kde se porovnává i3-12100 vs R5 5500, Ryzen má PCIe 3.0 řadič v sobě a největší rozdíl je 37% v F1 2021 takže na linkách záleží
a ano AMD má v plánu omezovat linky i u grafiky za 500$ 7700XT
https://diit.cz/clanek/radeon-rx-7700-xt-8-gb-pcie-50-x8-vykon-az-radeon...

+1
+1
-1
Je komentář přínosný?

Děkuju.

+1
0
-1
Je komentář přínosný?

Sorry ale čteš vůbec články tady na webu? Viz odkaz od Pajky. Takže no-X píše nesmysly? Citace z posledního odstavce článku: "Navi 33 / Radeon RX 7700 XT má být vybaven rozhraním PCIe 5.0 ×8..." Takže sorry, ale já to beru jako potvrzený trend (i když je to "podle zdrojů").
PCIe5 na deskách je v pořádku, tam si můžeš strčit zařízení, které to využije (třeba SSD), ale my tu vedeme debatu o herních grafikách. Dál už nebudu reagovat.

+1
-1
-1
Je komentář přínosný?

Je hezké to spojení slov ".. má být..." :D Má být a tak budeme držkovat už teď...

No co, tak i kdyby... buď si kup Radeon 6000 když máš starý HW a nebo si prostě kup nový... co ti k tomu mám říct...

+1
0
-1
Je komentář přínosný?

Jo, ale tak o tom je tento web. Dle mého silně subjektivního dojmu je tu asi 80% článků, která hádá budoucnost. Samé asi, možná, mělo by být, podle úniků, zdá se, prý, pravděpodobně, nejspíš.. atd. A diskuze jenom kvete :-) Pointa je, že si to podle mě AMD zbytečně kazí. Jak to bude doopravdy se uvidí, každý si koupí co bude chtít :-)

+1
0
-1
Je komentář přínosný?

To je ale blbost co jste napsal. Dolů je generačně sběrnice zpětně kompatibilní.

+1
+2
-1
Je komentář přínosný?

Viz odpověď pro no-Xe.

+1
-1
-1
Je komentář přínosný?

Ešte je skoro hodnotiť či urobili dobre červení alebo zelení. Za prvé, nevieme počet PCIe liniek Navi 31, ktoré môže mať kľudne x16 liniek, rovnako ako AD102 (v tomto prípade majitelia starších PCIe 3.0 dosiek môžu byť vysmiaty, či už kúpia jednu alebo druhú značku GPU). Za druhé, nevieme či aj AD106 nebude mať len x8 liniek rovnako ako Navi 33 (v tomto prípade majitelia starších PCIe 3.0 dosiek budú sklamaní, či už kúpia jednu alebo druhú značku GPU).

Nemôžete porovnávať ultra highend (Lovelace AD102) s mainstreamom (Navi 33) a to ešte na základe neznámych parametrov (počet PCIe liniek AD102, aj keď x8 by bolo fakt málo).

Ja tipujem takto:
AD102 vs. Navi 31 - PCIe 4.0/5.0 x16 vs. PCIe 5.0 x16
AD104 vs. Navi 32 - PCIe 4.0/5.0 x16 vs. PCIe 5.0 x16
AD106 vs. Navi 33 - PCIe 4.0/5.0 x8 vs. PCIe 5.0 x8

+1
+1
-1
Je komentář přínosný?

Tady se zas dělá z komára vellbloud, fakt... x8 bude beztak jen u N33, přesně jak říkáš, i když to osadíš do 3, nebude to zas tak ohromný rozdíl, když to má být výkon N21, i když nepopírám, že nějaký bude. Ti co mají novější systém už se 4 můžou být úplně v klidu, rozdíl téměř neměřitelný. N31 bude mít určitě 16x, nechápu, co se tady zas jančí, nebo snad už je někde nějaká informace, že to má být nějak řízlé?... neřekl bych.

//Jinak AD106 není výkonnostně na úrovni N33, pokud platí jen těch 36SM, je citelně slabší, řekněme cca. výkon RTX 3070/RX 6700 XT, až 104 je proti N33.

+1
0
-1
Je komentář přínosný?

Proč by Nvidia měla k takovému kroku přistoupit, není těžké vydedukovat. Podle dosavadních zdrojů podcenil vývoj Nvidie možnosti a schopnosti AMD, která by svým top modelem (Navi 31) o minimálně 20 % překonala top-model Nvidie (AD102), jak byl původně navržen.

Tento autor mě vždy dokáže pobavit teoriemi, které vymyslí, pamatuji si jako včera, když byli uniky před vydaním RTX 3xxx a RX 6xxx a vycházeli najevo vysoké takty AMD a lepší výrobní proces. Jak zde počítal výkon highendu AMD, který měl porazit nvidii xD :-)

+1
-1
-1
Je komentář přínosný?

V 1080p porazil... takže?

+1
0
-1
Je komentář přínosný?

Jo 3090 a 3080ti maji fakt smysl pro FHD...

+1
-1
-1
Je komentář přínosný?

Dokud máš na to CPU a zvyšuje se ti výkon... pro high refresh rate... proč ne.

+1
0
-1
Je komentář přínosný?

Ty teorie o vykonu nepochazi sice od autora, ale to by jste urcite mohl vedet. Pokud jsou pak tyhle "teorie" pravdive alespon castecne, tak zavery ktere z nich autor dela, jsou docela logicke. Samozrejme jsou to vsechno hypotezy, takze se k nim ma i tak pristupovat.
Ale tak aspon se clovek pobavi pri cetbe komentaru, jako je ten vas, ktereho hypotezy dokazi vyvest z miry :))

+1
0
-1
Je komentář přínosný?

Už začínají být nervózní, jejich modla se dostává do dosti nelichotivé situace, ve které bylo ještě před chvílí AMD, kterému se ještě nedávno za to posmívali, kdy nedokážeš výkonově dotahovat konkurenci a přehnaně ti to topí... no a teď už se to nějak nebezpečně začíná otáčet proti nim a po dlouhé době se smráká zas na horší časy. Takže takové kvákání se dalo čekat, ono toto dřív nebo později přijde vždy, stalo se to u Intelu, stane se to i v tomto případě.

+1
0
-1
Je komentář přínosný?

Nejsou to 4 nm. TSMC ten proces nazývá N4 5nm. Takže je to 5nm, vylepšených o pár procent. Dřív by se to jmenovalo 5+ nm. Myslíte, že to dostalo zavádějící název kvůli marketingu Nvidie?

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.