Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k PCIe 4.0 letos, PCIe 5.0 za dva roky

Hlavne si je treba uvedomit, ze soucasna zakladni deska na RyZen vydrzi uzivatelum AMD procesoru nekolik generaci a protoze tam je PCIe 3.0, tak oni proste nebudou kvuli nejakemu blbemu PCIe 4.0 uplne zbytecne menit desku, mimochodem RyZen zraje jak vino.

Takze cele PCIe 4.0 je zase jen nejaka blbost, kterou se budou zase ohanet fanaticti fanousci Intelu a nikdo jiny to vyuzivat nebude. V generaci NAVI budou urcite grafiky stale PCIe 3.0.

---

A ted vazne. :-)

Me zajima predevsim kompatibilita.

A) Strcim PCIe 4.0 grafiku do PCIe 3.0 desky?

B) Strcim PCIe 3.0 grafiku do PCIe 4.0 desky?

+1
+2
-1
Je komentář přínosný?

A) ano
B) ano

+1
+1
-1
Je komentář přínosný?

K tomu už se u AMD vyjádřili - PCIe 4.0 bude s novým socketem.

+1
+1
-1
Je komentář přínosný?

Vzhledem k tomu že ani u 1080ti není nějaký vážný problém ji provozovat na pcie2.0x16, nebojím se že pcie3.0 bude rázem k ničemu. :)

Ryzen zraje jako víno. :)

+1
0
-1
Je komentář přínosný?

Nie som na tomto poli moc vzdelaný tak sa spýtam. Aké problémy tak môžu nastať pri niečom ako štandardizácií PCIe? Máte niekto nejaké informácie prečo sa to tak naťahuje? Čo sa nevedia dohodnúť alebo sú stále slabé technológie alebo ako to mám chápať?

+1
0
-1
Je komentář přínosný?

zřejmě jde o "problémy" technického typu jako přeslechy na vedení, EMC a rušení obecně. A samozřejmě taky racionální vyrobitelnost (tj. cena za kus).

+1
+3
-1
Je komentář přínosný?

A pak samozřejmě spotřeba :-)
Dodnes mam jeden notebook IBM kde je osazený chipset podporující SATA2 ale na úrovni BIOS/Firmware je omezený na SATA1 protože to žere prý o 0,5 W méně. V době uvedení notebooku na trh to nehrálo roli, narazil jsem na to až při osazení SSD.

Není náhodou na platformě EPYC od AMD spojení procesorů řešené přes PCIe? Tam by to jistě pomohlo.

+1
+1
-1
Je komentář přínosný?

Zdá sa mi že až polovica je vyhradená na CPU <-> CPU.

Doplnené:
"AMD u Epycu nabízí silnou konektivitu – platforma poskytuje 128 linek PCI Express, a to jak s jedním (1S), tak s dvěma (2S) procesory. Dvouprocesorová sestava totiž polovinu linek transformuje na propojovací logiku obou CPU."

Zdroj: https://www.cnews.cz/amd-vydava-procesory-epyc-vsechny-detaily-pokusu-o-...

+1
+1
-1
Je komentář přínosný?

To mohli rovnou implementovat IBM CAPI, coz je na tyhle veci urcene :) A beha to nad PCIe Gen3/Gen4 x16

+1
0
-1
Je komentář přínosný?

Mne sa ZDÁ že oni majú nad PCIe ten ich Infinity Fabric a dáva to logiku keďže s tým chcú prepojiť aj CPU <-> GPU.

+1
0
-1
Je komentář přínosný?

preslechy na vedeni ano ale EMC ne. Pouze to vyuzije principy pouzivane u GDDR pameti. Realna frekvence je a bude identicka. pro PCIEX3, 4 i 5. Bohuzel se dostal marketing i do technickych prezentaci PCI SIG.
Uvedu to na prikladu GDDR5. To je oznacovane az jako 8gbps/8GHz. Realna rychlost je az 2 GHz. Jde tedy i to, jak prenest 4 bity na linku za takt. K tomu se pouziva technika 16 PSK (to uz wiki zna). GDDR5X a GDDR6 pouzivaji 256PSK a tim zvysuji prenosovou rychlost. U 256PSK ale chybovost uz roste a je proto potreba frekvenci snizit aby zase chybovost klesla. Proto dnes nemame zadne slibovane 16 gbs GDD5X/6 ale "jen" 11 gbps.

+1
+2
-1
Je komentář přínosný?

Nicméně GDDR paměti mají dráhy na desce typicky pár centimetrů, kdežto PCIe u fullATX desek i jednotky desítek cm.

+1
0
-1
Je komentář přínosný?

Souhlasim, ale chtel jsem tim prispevkem nadtim napsat, ze dane frekvence a urovne vyzarovani jsou tam uz dnes (PCIEX 3). Novy standard realne frekvence nezvysi a nezvysi tim ani vyzarovani oproti predchozim standardum.

+1
0
-1
Je komentář přínosný?

Melete pate pres devate. PSK v digitalni technice opravdu neni!

GDDR5X pouziva single ended signalizaci - nejsou tam vubec diferencialni pary jako na PCIe. Takze zatimco PCIe vali na 8 nebo 16 Gb/s per lane na vyhrazenem paru pro kazdy smer, tak GDDR5X jede (podle dostupnych cipu) 12Gb/s pres jediny spoj a smer toku dat se na nem otaci. A je to plne digitalni - 0 nebo 1. Delka spoju k pametim je dana rychlosti - cim rychlejsi tim musi byt blize. A na techto signalech nesmi byt zadny konektor, zatimco PCIe pocita s jednim nebo dvouma konektorama ve vedeni.

+1
0
-1
Je komentář přínosný?

Ach jo...
Chcete rici ze je tam realna frekvence 16 GHz a bezi tam jen signal zapnuto/vypnuto? Nechci byt cynicky ale tak to doopravdy neni. Odpovidalo by to vlnove delce 18 mm a to by vic vyzarilo ven, nez by se sirilo po dratech. To k realne fyzice co by temto frekvencim odpovidala.

Abych vam nekrivdil... neco s nazvem PSK opravdu neni v PC... rika se tomu DDR, GDDR atp. Principy jsou ale identicke. Zaroven chci zduraznit ze nerozporuju gbps, ale rikam, ze to neni ta frekvence, ktera se casto uvadi.

Pokud ale dokazete protlacit 4 bity (pripadne 8) za 1 takt bez zmeny amplitudy a faze, tak se prosim pochlubte. Bylo by to na nobelovku za prekroceni limitu fyzikalnich zakonu.
GDDR5 (napriklad, ale plati i pro GDDR5X a GDDR6) si zmeri spozdeni na vedeni pro kazdou jednu linku. HW pak dane spozdeni kompenzuje pri zpracovani a dopocitava spravnou hodnotu faze ze ktere vylusti o jakou sekvenci 4 bitu se jedna. Z hlediska principu se jedna o PSK16 (PSK256 u GDDR5X a GDDR6) s merenim spozdeni linky a vice kanaly (dle sirky sbernice).

U tech diferencialnich paru mate pravdu, ale o tom jsem vubec nepsal. Ani o konektorech. Zaroven jsem ani neresil jestli je to simplex, half duplex a nebo full.

+1
0
-1
Je komentář přínosný?

Viz GDDR5X datasheet od Micronu - https://www.micron.com/~/media/documents/products/data-sheet/dram/gddr5/... - strana 12: Puvodne SDR prenaselo 1 bit za takt a to na nabezne strane. DDR prenasi 2 bity za takt, na nabezne i dobezne hrane a nove uvedeny QDR rezim u GDDR5X pameti prenasi 4 bity za takt, jen si musite domyslet 2 hrany navic, tj. hodiny bezi na 4x nizsi frekvenci.

12 Gbit/s potrebuje vedeni jen pro 6GHz, a dvoje hodiny jdouci do pameti jsou 1.5GHz(prikazy)+3GHz(data). Burst je 16 (x32bit) a z toho vychazi 750M/s operaci x 64Byte = 48GB/s peak, na pouzdro (prakticky trocha mene, kvuli CRC, ktere v DDR pametich neni, a pak samozrejme pristupovym latencim a bus turnover). Prakticky se tedy aplikovala jenom serializace. K nastaveni spozdeni se jiz davno pouziva automaticky training pri inicializaci pameti (a krome spozdeni to taky upravuje urovne).

To, ze je vlnova delka mensi vubec nevadi, prakticky to jen znaci ze je na vedeni z/do pameti najednou vice bitu. To nicemu nevadi. Musite jen prestat vnimat elektriku jako proud tekouci celym dratem jen jednim smerem a akceptovat ze tam delate vlny :)

Zde bych mel upozornit ze by se tento opravdovy QDR rezim nemel plest s tim co bylo v QDRRAM obvodech, ty na prenos 4 bitu vyuzivali dve dedikovane jednosmerne zbernice jedouci v DDR signalizaci. Naraz se tedy zapisovali 2 bity a zaroven cetli 2 bity = 4 za takt hodin. Odpadla tak prodleva k otaceni zbernice, ale smysl meli jen u aplikaci kde je vyvazeny pocet cteni a zapisu (typicky bufferovani a preskladani cehokoliv).

+1
0
-1
Je komentář přínosný?

"většině uživatelů v dnešní době již bude PCIe 4.0 k ničemu."
To právě že bude užitečné, hlavně mimo ten maximální případ PCIe 16x grafiky. Umožní to pro stejný účel použít menší počet linek, takže se jednak trochu ušetří na ceně, jednak bude možno připojit víc zařízení. Nebo menší dopad switchů na rychlost připojených zařízení.
Možná právě ty mainstreamové grafiky budou běžně 8x, což dnes je jen u lowendu. Na základní desce je spousta jiných zařízení připojených na PCIe, budou se taky rozmáhat SSD s PCIe. O linky bude nouze a vyšší rychlost tomu pomůže.

+1
+5
-1
Je komentář přínosný?

Přesně tak. Smyslem sériového přenosu je, že se všechno tlačí jením (dvěma diferenciálně) vodičem.
To že se začali dělat x16 sběrnice, bylo způsobeno pouze nedostatečnou přenosovou rychlostí PCIe. Optimum je jedno zařízení - jeden drát .

+1
0
-1
Je komentář přínosný?

Optimum je zadny drat (krome napajeni) - rozumej optika.

+1
0
-1
Je komentář přínosný?

Tak jednoduché to zdaleka není. Nelze čekat, že na implementaci jedné PCIe 4.0 linky bude stačit stejné množství křemíku jako na implementaci PCIe 3.0 linky. Klidně to může být o polovinu víc, což s ohledem na závislosti plochy a výtěžnosti může znamenat i zdvojnásobení výrobních nákladů pro příslušné rozhraní. Je to stejné jako s paměťovými řadiči. Čím vyšší takty má stabilně zvládat, tím více křemíku je potřeba.

I z toho důvodu se nedá čekat, že až za pár let přijdou první platformy s podporou PCIe 4.0, tak automaticky všechny linky v procesoru a v čipsetu budou PCIe 4.0. Není důvod čekat, že se to bude lišit od nástupu předchozích generací PCIe - s novou verzí budou nejdříve obslouženy grafiky, zbytek zůstane na starší verzi a k náhradě dojde až postupem času u dalších platforem.

+1
+1
-1
Je komentář přínosný?

videl bych to tak ze je jednodussi spravovat mene linek na HW i SW urovni ...sve plusy to urcite ma nejen ohledne GPU o kterych se mluvi nejvice....

spis me zajima jestli to nebude standard s mnoha volitelnymi polozkami aby v tom byl poradny bordel ;)

+1
0
-1
Je komentář přínosný?

S PCIe 4.0 bude stacit na grafiku x4, s PCIe 5.0 klidně i x1 (pokud to zrovna nebude high-end)..

+1
0
-1
Je komentář přínosný?

Hele, to je dobrý. Pokud se grafiky zbaví té svojí "cache", tak zaprvé zlevní a zadruhé to bude absolutně nepoužitelné pro minery, protože by ke každé grafice museli koupit desku, popřípadě osadit desku bambilionem ramek. Mě by to vyhovovalo.

+1
0
-1
Je komentář přínosný?

Blby je ze implementace PCIe se zaseklo na 128 byte max payload size, jen nektere serverove radice podporuji 256 byte (MPS). A pak ten debilni zpusob ze cteni se vraci vzdy rozkouskovane na 64 bytes (RCB). To ma neskutecny overhead (k 64B datum pripada 20B na hlavicky a CRC).

Kdyby dali pro kazdou novejsi generaci nejaky spodni limit (treba 512/1K/2K pro gen3/4/5) tak bych byl radeji.

A jeste radeji bych videl ruzny pocet lanes pro ruzne smery - protoze je spousta zarizeni ktera jsou asymetricka - bud vystup nebo vstup. A tahat v opacnem smeru hromadu dratu, pripadne je vsechy probouzet ze sleepu neni uplne idealni.

+1
+4
-1
Je komentář přínosný?

Pokud si dobre vzpominam, tak clanek o te PowerPC workstation zminoval, ze ma PCIe 4.0 - takze me zajima jak je to mozne, kdyz jeste ani spec neni hotova :) Maji implementovano v hardwaru jenom nejakou predbeznou spec ? to zni dost riskantne..

+1
0
-1
Je komentář přínosný?

Vyrobci co tvori specifikace (v ramci PCI SIG) vyrabi hlavne hardware a specifikace se dela "dodatecne", na zaklade toho co v HW funguje (napr. zpusoby ekvalizace, nutnost rizeni rozkmitu a pod - pridavaji se flagy k ovladani novych featur - napr. kvuli usporam energie). Pak ti, co dojdou pozdeji se musi prizpusobit samozrejme specifikacim, ale prakticky dnes uz tihle opozdilci nejsou na te nejnizsi urovni - pouziva se nekolik malo IP jader, ktere se licencuji podle toho kdo s kym kamaradi.

Bohuzel PCI-SIG nema ruzne urovne clenstvi, byt existuje urcita propast mezi tvurcemi specifikaci (hw, ip jadra) a prostymi uzivateli (tvurce produktu s pcie - napr. na bazi fpga). Na druhou stranu, pokud nekdo je clenem, ma stejne moznosti kecat do standardu jako ostatni clenove :)

Jinak prvni Gen4 HW byl na bazi FPGA, takze to bylo dost flexibilni na vyvoj, nez se ustalila specifikace.

+1
0
-1
Je komentář přínosný?

Bohužel nemohu souhlasit s autorem článku, že PCIe 4.0 a PCIe 5.0 nenajdou využití.

PCI je tady s námi 15 let a předpokládám, že ještě minimálně 10 let tady bude. Nejméně do doby než nastoupí optika. I když tuto rychlost nevyužijí GPU v konfiguraci (x16), což zdaleka není jisté při zvyšujícím se rozlišení monitorů 4k a 8k, určitě poroste rychlost přenosu dat paměťových medii.

Už dnes tady máme paměťové moduly M.2, které zcela využijí rychlost PCIe 3.0 (x4)
Lze předpokládat, že díky stohování flash čipů, bude velmi brzy využita i rychlost PCIe 5.0.
Nebude tak potřeba měnit formát konektorů M.2 pro navýšení přenosové rychlosti. Jsem přesvědčen, že řešení využívající PCIe pro připojení SSD disků je správná cesta a postupně vytlačí SATA porty z PC desek. I vzhledem k tomu, že rozměrově jsou M.2 vhodnější pro použití v noteboocích než 2.5" SSD disky.
Pokud se GPU spokojí s menší počtem sériových pinů, tím lépe. Bude jednodušší jak použití více GPU, tak i použití více SSD modulů. Dnes je totiž nízký počet PCIe linek zdrojem mnoha kompromisních řešení.

Už dnes bychom potřebovali rychlost PCIe 4.0 pro připojená USB3.1 Gen2. Navíc se očekává zdvojnásobení přenosové rychlosti pro USB3.2. Pak by bylo vhodné, aby si řadič i nadále vystačil s jedním PCIe linkem. Je pravděpodobné, že se v budoucnu bude hodit i pro jiná vysokorychlostní komunikační rozhraní. např. 40G a 100G ethernet.

Navíc není PCIe učeno jen pro domácí uživatele ale je to standard, který bude mít i rozsáhlé firemní využití.

Dále pak argument autora, že řadič PCIe 4 zabere víc místa na čipu než PCIe 3 je úsměvný. :-)
Samozřejmě, tam kde stačí nižší přenosové rychlosti, bude postačit pomalejší verze PCIe rozhraní.
Tam kde je potřeba vyšší rychlosti, převáží výhoda použití nižšího počtu vysokorychlostních linků.

+1
+1
-1
Je komentář přínosný?

Ale no tak .... PCIe 3.0 16x bez problému zvládne dual port 40Gbit nebo single port 100Gbit port. Až dual port 100Gbit dokáže tu sběrnici saturovat. Ten problém který popisujete reálně neexistuje

+1
-1
-1
Je komentář přínosný?

tady jde o to že v PCIe nemáme jen tuto hypotetickou Eth 100GBASE-(T|L|S)X kartu
máte pak high-end grafiku, dále dáte PCIe16x 2TB SSD, mno nedáte už totiž nemáte dostatek linek

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.