Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD běží v laboratoři 7nm vzorek Navi

Zadne highendove NAVI AMD nema a mit nemuze. Vyplyva to z toho co pises v clanku. Vzhledem k cenam a marzi NVidie na RTX2080 (Ti) je zrejme, ze kdyby AMD highendove Navi mela, tak by ho moznou marzi mohla v pohode zaradit na prvni misto, dat tu potencionalni grafiku levneji nez NVidia a stejne by na tom furt v AMD vydelali balik. Takze to, ze Navi je na ctvrtem miste jako mene prioritni jasne musi urcovat, ze jde o cisty mainstream.

+1
-3
-1
Je komentář přínosný?

V nadpise máš jasne napísané že sa jedná o funkčnú vzorku z labáku. A to k hotovému produktu má ešte dlhú cestu.

+1
+5
-1
Je komentář přínosný?

Precti si i clanek.

+1
-4
-1
Je komentář přínosný?

Nutně to z toho nevyplývá.
Je možné, že hi-end varianta v plánu je a marže by byly super, ale pořadí uvedení na trh je dané buď rychlostí vývoje čipu, nebo stavem 7nm procesu TSMC.

Navíc u nové architektury GPU se většinou jako první uvádějí slabší modely, které jde vyrobit snáz.

+1
0
-1
Je komentář přínosný?

Takze muzeme ocekavat ze diky skrtum Navi nebude skalovatelna a nahradi polaris (vykonove Vegu)? Hadam ze vyrabet tak velke cipy na 7nm procesu nebude zadna hitparada ...tudiz MCM bude nevyhnutelne ?
Polaris > NAVI
VEGA > Arcturus(MCM NAVI+ ) >> mozna uz s RT jadry pokud to budou resit jako NV
???

+1
0
-1
Je komentář přínosný?

Bude dalsi generace Xboxu a Playstationu podporovat raytracing? Ja to netusim a teda ani nevim, zda se AMD bude RT zabyvat. Kvuli NVidii verim, ze to smysl nema, pokud to nebudou podporovat konzole, tak je to stejnak jen placnutim do vody a casem to vysumi.

+1
+1
-1
Je komentář přínosný?

AMD se raytracingem uz davno zabyva. Podpora pro real-time raytracing na radeonech byla oznamena v breznu a od ty doby nekolikrat prezentovana. Jen na to nemaji specializovane jednotky jako nvidia v rtx.

+1
-1
-1
Je komentář přínosný?

Je pravda, že sa AMD zaoberá ray-tracingom, ale pokiaľ viem, tak to čo prezentovali v marci v rámci RadeonRays nebol HW, ale SW ray-tracing. A u SW ray-tracingu môžeme dnes o real-time iba snívať. Je to iba akcelerácia RT pomocou stream procesorov a takúto podporu RT už majú obaja výrobcovia dlhšiu dobu. Pamätám si, že ešte v roku 2010 som si mohol spustiť Design Garage demo od NV, kde bol RT renderovaný pomocou CUDA cores na grafickej karte:

https://www.geforce.com/games-applications/pc-applications/design-garage

Takto riešený RT bol oveľa rýchlejší ako keď to robil CPU, ale stále išlo o SW ray-tracing. Rovnako bola prezentovaná na jar tohto roku aj ukážka zo StarWars, ktorá potrebovala štyri Titan V, aby mohla ísť real-time. Jeden Titan V má 5120 CUDA cores a teda bolo potrebných 4*5120 = 20480 stream procesorov, aby to išlo ako tak real-time. NVIDIA s RTX grafikami ale priniesla podporu pre RT na HW úrovni, ktorá umožnila, aby to isté StarWars demo bežalo s RT iba s jednou GPU namiesto štyroch Titan V. Tým pádom, kým nebude mať AMD podporu na HW úrovni, tak tomuto ťažko bude môcť konkurovať. Takže v podaní AMD a s tým, čo prezentovali na jar ako RadeonRays, nekonkurujú RTX a už vôbec sa nejedná o real-time ray-tracing. Aspoň takto to momentálne vidím, ale som otvorený diskusii s pádnymi argumentmi, ktoré by ma presvedčili o opaku. :-) Každopádne AMD nemá v tomto dvere zatvorené. Podpora RT je zakomponovaná do DirectX, takže len potrebujú urobiť GPU, v ktorej ju implementujú na HW úrovni a na úrovni ovládačov, kde to zatiaľ tiež podľa všetkého nemajú. To usudzujem na základe dém pre RT, ktoré sa dajú stiahnuť a aj na základe informácií ako táto:

https://www.reddit.com/r/nvidia/comments/9omn95/rtxdemo_reflections_runs...

T.j. tieto RT demá sa dajú spustiť aj na NV kartách bez podpory RTX, ale u AMD to neplatí, pretože ešte nemajú doriešenú podporu DXR na úrovni ovládačov. Ak by túto podporu mali, išli by tie demá spustiť aj na ich GPU.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

Myslím, že AMD půjde cestou implementace RT akcelerace blízko jader (přímo vedle nebo v pipeline). Protože PS5 taky čekám RT a z toho se AMD chtě nechtě musela odpíchnout (bylo jí to vnuceno poptávkou) nehledě na kontext nVidia RTX 3000 v roce 2020. Taková implementace by jí umožnila lepší paralelismus, škálování čipů a flexibilitu od hry ke hře, od scény ke scéně, kde někde je odlesků hodně a někde málo. Přidat do pipeline jednu nebo tři instrukce k výpočtu průsečíku trojúhelníku s přímkou mi nepřijde jako důvod k vymýšlení separátních RT cores a "svinění" si cache potažmo infinity fabric (možná i s ohledem na MCM).

+1
+1
-1
Je komentář přínosný?

hadal bych ze dalsi XBOX / PS nebude mit v zakladnich verzich RT jadra kvuli cene a provoznim parametrum :)
videl bych to spis cca takto PS5 + dokoupitelny externi modul s RT jadry ktery bude stat jak cela PS5 pripadne dva produkty PS5 a PS5 PRO(pripadne RT) :)

+1
+2
-1
Je komentář přínosný?

Ako AMD implementuje podporu DXR je už na nich. Nemusia to byť separátne jadrá, ale musia vytvoriť takú podporu na HW úrovni. Každopádne keby bolo efektívne iba využiť a rozšíriť aktuálnu renderovaciu pipeline (pridať iba zopár inštrukcií navyše), asi by to NV urobila tiež. Nemali by dôvod pridávať separátne jadrá na akceleráciu dôležitých operácií pre RT a nevymýšľali by úplne novú renderovaciu pipeline, ktorá sa kombinuje s rasterizačnou a cez ktorú sa RT musí riešiť. Viď časť TURING RAY TRACING TECHNOLOGY na stránke:

https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

Výstupem RT core je podle mě jen nějaká delta/abs hodnota pro texture unit: jasu, průhlednosti, barvy (nedejbože pouze jasu). Čili nevidím důvod, proč ji neintegrovat. Hry bez RT budou v té době zastaralé a výkonově zvládnutelné i za cenu nižšího počtu rtCUDA. Ten důvod byl možná ten, že chtěli jít cestou jistoty v situaci, kdy se Turing zase tak neliší od Pascalu, tak proč do něho rýpat. Druhý je ten, že ušetřili náklady na menší čipy, kde jsou RT přípláclá jen kvůli marketingu "na vyzkoušení" a ve skutečnosti nic neutáhnou (720p). Nehledě na to, že můžou klejmovat první skutečně (v)RT jádro a na to, že to beztak museli kvůli PS5 vymyslet tak jako tak - PS4kový hry PS5 utáhne i tak.

+1
0
-1
Je komentář přínosný?

Odporúčam si prečítať kapitolu Hybrid rendering model v dokumente:

https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/...

Sú tam zaujímavé informácie ako napríklad:

" In Pascal, ray tracing is emulated in software on CUDA cores, and takes about 10
TFLOPs per Giga Ray, while in Turing this work is performed on the dedicated RT cores, with
about 10 Giga Rays of total throughput or 100 tera-ops of compute for ray tracing."

Podľa mňa už z tohto je jasné, že jasné, že to nemá šancu ísť iba využitím surového výpočetného výkonu. Na súčasné dorovnanie RTX 2080 Ti by sme potrebovali kartu s výkonom 100 TFlops ak by sme chceli využiť stream procesory na renderovanie pomocou RT. A to ani tých 10 Giga Rays nebude nič moc a je to len začiatok. Preto to asi iba pridaním pár inštrukcií nebude možné. A už vôbec nie pre konzoly, kde je dnes takýto výkon nepredstaviteľný úplne.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

Ale já nikde netvrdím, že RT část pipeline bude malá, jen že bude blíž a ne separátně. Ale pokud je to ASIC jak tensor core, tak to trochu skřípe, to jo.

+1
0
-1
Je komentář přínosný?

taky si myslim ze tohle v soucasnosti nejde uspokojive resit univerzalnim vypocetnim vykonem :) aby to melo smysl tak par dekad se bez ASICu neobejdeme :)

+1
0
-1
Je komentář přínosný?

Ja som o tom presvedčený tiež. Ale možno nás výrobcovia GPU vyvedú časom z omylu. Ktovie. :-)

+1
0
-1
Je komentář přínosný?

:) tak nechci mit na stole 5kW akcelerator :) to uz radeji klasicke topeni

+1
+1
-1
Je komentář přínosný?

A co vy si kefalin predstavujete pod pojmem sw ray-tracing ? U amd to hazi sw vrstva na stream procesory. U nvidie rtx to sw vrstva hazi na rtx jadra... Na obou stranach sw vrstva vyuziva nejake specializovane vypocetni jednotky, jen nvidia je ma o neco specializovanejsi.

+1
+1
-1
Je komentář přínosný?

U RTX špecifické operácie pre RT sú vykonávané na hardvérovej úrovni a teda nie akcelerované procesorovými či grafickými jadrami. Z tohto pohľadu to vnímam rozdielne. Zrejme by bolo niečo podobné ak by sa na HW úrovni pridala podpora inštrukcií u klasických stream procesorov (ako píše Hrdina), ktoré u NV vykonávajú RTX jadrá, ale to neviem posúdiť. Stále si myslím, že ak by to bolo také jednoduché, tak by to urobili aj u NV. Načo by si komplikovali renderovací proces a ešte aj zvyšovali náklady pre výrobu väčších GPU, ak by to mohli urobiť jednoduchšie a lacnejšie?

+1
0
-1
Je komentář přínosný?

"nevim, zda se AMD bude RT zabyvat"

Ona sa tým už zaoberá, ale je celkom možné príde zo svojou vlastnou technológiou spracovania RT.

+1
0
-1
Je komentář přínosný?

Lepšie povedané by bolo, že príde so svojou vlastnou implementáciou DXR. :-)

+1
0
-1
Je komentář přínosný?

Je dost jedno ci to je:
Oland/Cape Verde/Pitcairn/Curacao (GCN1)
Hawai/Bonaire (GCN2)
Tonga/Fiji=Fury (GCN3)
Polaris (GCN4)
Vega (GCN5) ci buduca
Navi (GCN6)

Architektura je v zasade ta ista, iba neustale vylepsovana a optimalizovana. Takze pri rovnakej frekvecii GPU, rovnakej frekvencii a rovnakom type VRAM, rovnakom pocte vypoctovych jednotiek v GPU (SP, ROP, TMU ...), rovnakej sirke zbernice ... je rozdiel vo vykone cipov dvoch susednych architektur mozno ani nie 10%, mozmo viac a mozno menej. Skratka pokial bude maximum 14 nm RX 580 na 2304 SP, tak sa proste na vykon 28 nm Fury X s 4096 SP nedostane, darmo je RX 580 architektonicky popredu s ovelaaaaaaaaaaa vyssimi frekvenciami uplne vsetkeho, furt je RX 580 o 10-20% menej vykonna ako Fury X.

Zoberme si 14nm 1,2-1,3 GHz Vegu64 so 4096SP, ta sice drti 28nm 1 GHz FuryX tiez so 4096SP o 30%, lenze pozrime sa na frekvencie, priepustnost pamati ... atd a v podstate nam vyjde, ze keby sme cip Vegy64 posadili do rovnakeho prostredia ako FuryX, navyse na rovnakej frekvencii, rozdiel vo vykone by bol SOTVA BADATELNY!

Takze aby AMD rozdrtilo 1,5 GHz NV 2080Ti, ktore je o 40% vykonnejsie od 1,3 GHz AMD Vegy64, istotne nejakych 4096SP stacit nebude a nebude to stacit nielen Navi (GCN6) ale ani neexsitujuca/neplanovana GCN7. Jedine pri 4096SP dat vylepsenie Navi (ale ani to Navi zrejme existovat nebude, koncit sa bude pri 2048-2304-2560 SP, mozno 3072) a k tomu zvysit frekvecniu na cca 1,8 GHz, ale to je sci-fi. PRETO uz treba GCN opustit a ist cestou post-GCN, alebo next-gen. Ale obavam sa ze v tej dobe za 1 a 1/4 roka NV bude mat nieco ako 3080 a 3080Ti o 20% nad vykonom 2080 a 2080Ti, takze AMD tych 4096SP nepomoze ani na 2 GHz a ani keby boli v Navi. Proste budu musiet ist na 5120 ci rovno najlepsie na 6144 SP GPU cipy v nejakom next-gen.
Aj NV posledne roky drasticky zvysila pocet CUDA z coho vznikli aj na 16/14 nm rekordne velke mamutie cipy (450-800 mm^2), AMD v tomto ohlade ako keby zaspalo, ved 4096SP uz mal fyzicky cip Fury/FuryX (GCN3) a ten bol 28 nm !!!!!!!!!!!!!!!!!!!!!!!! Dnes na 14 nm by sa to tu malo len tak hemzit s AMD cipmi s 4096-5120-6144 SP a prave by sa malo schylovat k absolutnej technologickej vyzve a malemu zazraku, vydaniu super-duper absolutne najvykonnejsieho 14 nm cipu AMD s 8192SP na 900 MHz ci 1 GHz, podobne ako vo svojej dobe bol 28nm cip Fury/FuryX s 4096SP. Ale AMD proste nechcelo alebo skor nemohlo vyrabat velke cipy: malo prachov, vyvoj stopnuty.

+1
-1
-1
Je komentář přínosný?

Navi přinese solidní karty pro nižší (RX 660) a vyšší mainstream (RX 670/680). Nic víc, nic míň.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

To bych si spíš přál něco jako RX650 - něco mezi 560 a 570. Jinak jim tam ta díra zůstane. Záleží, kam to posadí. Ta Rx 660 by zase zaplácávala mezeru mezi 590 a Vega56. Nemá (pro AMD) smysl uvádět čip s existujícím výkonem.

+1
0
-1
Je komentář přínosný?

@Tom:

"tudiz MCM bude nevyhnutelne ?
Polaris > NAVI
VEGA > Arcturus(MCM NAVI+ ) >> mozna uz s RT jadry pokud to budou resit jako NV"

přesně jak říkáš, všechno už je na spadnutí, v podstatě za rohem. Nejdřív vydají MCM Vegu20 + k tomu jeden (nebo dva) přídavné MCM čipy které budou akcelerovat Rytracing, posléze už všechny další grafické čipy budou MCM kompletně včetně ostaních periferií. MCM bude i Video Dekodér/Encodér, budou mít MCM napájecí kaskádu a MCM paměťový řadič s HBM3. Tímto skvělým počinem AMD definitivně rozdrtí Nvidii, která hned po vydání MCM Navi zkrachuje.

+1
+3
-1
Je komentář přínosný?

Vďaka za rozosmiatie. :-)

+1
0
-1
Je komentář přínosný?
Obrázek uživatele BEGY

RTX měl být řešen externím akcelerátorem (jako kdysi třeba 3Dfx)
Mohl by pak obsahovat bez problémů více jednotek a možná by byl i výkonostně použitelný.

+1
0
-1
Je komentář přínosný?

Jo a dopadlo by to jako s kartičkou Ageia physx :) Nikdy neříkám nikdy, ale nevěřím, že se bude taková doba opakovat (přídavné karty ala 3Dfx;)

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele BEGY

rozdíl je v tom, že na RT je potřeba tolik výkonu, že to prostě v silách grafiky není a nemyslím že v dohledné budoucnosti bude.
Na RT zatím nikdy výkon nebyl, teď taky není a dlouho ještě nebude.
Proto implementovat to na grafiku, která má s výkonem problém sama o sobě je imho blbost.
3Dfx, Physix atd. byly spíš technologie, než že by bylo potřeba je mít kvůli výkonu na externí kartě. Však taky byly brzo implementovány/pohlceny.

+1
0
-1
Je komentář přínosný?

Na RT si myslím bude časem taky výkonu dost na jedné kartě, resp jak by sis to představoval s cenou? Kolik myslíš, že by stála samostatná RT karta, k ní pak ještě koupit klasickou GPU...hm? :)

+1
0
-1
Je komentář přínosný?
Obrázek uživatele BEGY

zatím je +/- výkon na dílčí efekty a to ještě pod základním rozlišením.
Jasně, časem výkon půjde na horu - ale ono taky i rozlišení. Takže bych tak růžově co se týče RT budoucnost neviděl.
Nejsem cílovka na moderní hry, ale pokud by to stálo za to, tak třeba těch 4-5tis bych ještě byl možná ochoten investovat.
A pořád si myslím že RT jako takové součástí GPU jádra prostě nebude. Už takhle jsou ty jádra obludně velký a toho výkonu je na RT potřeba přidat několikanásobně.
Třeba to bude něco jako "duální karta" GPU čip a vedle čip s RT jednotkama.
Ale jak jsem psal - aby to bylo v jednom jádru a zároveň to mělo smysluplně výkonu je už pomalu na technologických hranicích.
U obřích jader padá výtěžnost.
Však se podívejte jak skládáním čipů AMD drtí Intel. Tohle je imho cesta - né monolitický obludy.

+1
0
-1
Je komentář přínosný?

To nedává smysl, v čem by samostatná karta byla výkonnější?

Takové řešení by bylo oproti jedné kartě drahé (akcelerátor by byl v podstatě další grafika, navíc drahá, protože náklady na vývoj by se rozpouštěly do relativně malého množství prodaných kusů) a nevýkonné (protože akcelerátor by jen stěží mohl využívat i prostředky grafiky).

+1
0
-1
Je komentář přínosný?
Obrázek uživatele BEGY

protože aby RT mělo kloudný smysl, tak je potřeba minimálně 2-3x větší výkon. Tedy pokud to vezmu hrubou silou tedy 2-3x více těch spešl jader. A na tuhle nálož prostě není v grafickém čipu prostor.
Pokud bys to tam i nacpal, bude to jádro brutálně velký - a s tím se pojí i vysoké procento nepovedených čipů.
Proto si myslím že by bylo lepší aby to bylo v samostatném čipu. Ten už může být na grafice (něco jako duální karty). Nebo celé GPU formou interposeru jako je skládaná třeba Vega, Ryzen, Threadriper atd.
Nebo případně i jako samostatná karta.

ANO bylo by lepší aby to bylo vše v jednom GPU, ale prostě si myslím že to není technologicky a ekonomicky dobré řešení.

však s velikostí a snižující se výtěžností už zápasí všichni teď....

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Hej ale to je přesně ono. Proč tedy nevyrobí grafickej procák a nesestaví je tak podle výkonu?
Něco jako RX 660-2x MCM čipy, RX670-4xMCM, RX680-8xMCM, RX690-16xMCM(trhač asfaltu) ?

+1
+1
-1
Je komentář přínosný?

protoze by to bylo dobre max pro profi segment a vyvojari her by si trhali vlasy (uz klasicka SLI/CF(mGPU) konfigurace jim dela vrasky na cele a ted to nekolikrat vynasob ...takze vyrobit to umi ale pro hry diky nakladum na vyvoj zatim zbytecne dokud nevyresi logiku komunikace(na ktere teprve pracuji) a navenek se to tvarilo jako jedno GPU :)

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.