Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia naťukla Pascal: mixed precision, NV Link, „3D“ paměti

NVlink - mezi GPU a CPU? To asi nebude hned.
Mezi jádry - to normální smrtelník nepozná
Ale mezi GPU a GPU na dvoučipových kartách jistě - výtěžnost limituje výrobu velkých čipů. Myslím, že za větší část problémů dvoučipových řešení může právě datový přenos (samozřejmě se pak musí uzpůsobit návrh)

+1
+3
-1
Je komentář přínosný?

Ten NVlink začíná připomínat hUMA, potažmo HSA. Nejefektivnější je totiž data nepřesouvat vůbec, ale rovnou nad nimi provádět operace.

+1
-2
-1
Je komentář přínosný?

NVlink nepřipomíná hUMA vůbec ničím, protože funguje na úplně jiném principu než hUMA.

http://streamcomputing.eu/blog/2013-11-14/cuda-6-unified-memory-explained/

http://devblogs.nvidia.com/parallelforall/unified-memory-in-cuda-6/

Důvod proč je ta sběrnice u Nvidie tak rychlá je ten, že se po ní budou kopírovat/přesouvat data mezi GPU a CPU.

+1
-14
-1
Je komentář přínosný?

Ale v důsledku se to (skoro) jako UMA chová. :-) Sice jsou to takové mimikry, ale výsledek je skoro tentýž.

+1
-1
-1
Je komentář přínosný?

právě že nechová. Zatím co u AMD GPU i CPU přistupují do stejného "virtuálního" adresního prostoru v paměti u Nvidie má jak GPU tak CPU svoji vlastní vyhrazenou paměť a pokud GPU přistupuje do určitého prostoru v paměti, nemůže do něj zároveň přistupovat CPU a naopak. Když tedy u Nvidie její GPU pracuje s určitou částí dat v paměti, nemá k těmto datům CPU přístup zatímco u AMD řešení ano a v podstatě se mohou libovolně mezi sebou přepínat na stejné úloze aniž by se musely kopírovat data po sběrnici z jedné paměti do druhé nebo se muselo čekat na uvolnění dat pro zpracování.

cache koherentní NVLink bude až v druhé generaci (dlouho po uvedení Pascalu) a i tam to nejspíš bude fungovat tak, že se určitá data budou duplikovat (rozuměj kopírovat) po rychlé sběrnici mezi pamětí CPU a GPU. To znamená, že pak budou mít jak GPU tak CPU k dispozici stejná data, nicméně pořád to nebude tak elegantní jako hUMA a hodně to bude vytěžovat ten NVLink (nejspíš i proto má tak vysokou propustnost)

PS: díky za všechny mínusy :o))

+1
-17
-1
Je komentář přínosný?

Ano, to je mi jasné, spíše mi šlo o to, že se jinými prostředky snaží o totéž - dodat CPU data bez viditelné prodlevy způsobené čekáním na zkopírování dat. Že červení to dělají pomocí UMA a zelení vysokorychlostní synchronizací dat na pozadí je technický detail - samozřejmě z technického hlediska zajímavý, z praktického pohledu uživatele ale víceméně nepodstatný.

Mně osobně se více líbí sexy řešení od AMD :-)

+1
-21
-1
Je komentář přínosný?

vtip je ale v tom, že u NV řešení tam vždy ta prodleva a čekání na přesun dat bude :o))

"UVM as nVidia prescribed it takes memory management out of the hands of the programmer and moves it to the system; it does not eliminate the need for copies between system and GPU memory, but eliminates the demand for a human to do so. I just wanted to reiterate that for point of clarity. On x86, nVidia's CUDA hides the non-unified memory by implementing the copies and data integrity automatically into the CUDA language implementation, which frees the programmer up to perform other tasks. Everything is still copied back-and-forth between the CPU memory and GPU memory via the PCI Express bus"

(v budoucnosti namísto PCI Express sběrnici přes NvLink s vyšší propustností)

http://www.gamersnexus.net/guides/1383-nvidia-unified-virtual-memory-roa...

+1
-10
-1
Je komentář přínosný?

to jasně, ale totéž může nastat i u (h)UMA např. při kolizích pří zápisu - samozřejmě v daleko menší míře a menším objemu. Někdy se prostě čekat bude.. :-) Samozřejmě je jednodušší počkat si na dokončení zápisu jednoho bajtu, než čekat na překopírování celé stránky (opět ale záleží na inteligenci implementace)

+1
-12
-1
Je komentář přínosný?

podstata mého komentáře spočívá v tom, že to co Nvidia nazývá jako "Unified Memory" ve skutečnosti žádná sdílená paměť není a jedná se fyzicky stále o dva zcela oddělené a samostatné paměťové systémy se všemi důsledky.

+1
+13
-1
Je komentář přínosný?

Takže AMD má za cieľ mať fyzicky zdieľanú pamäť zatiaľčo NVIDIA chce nad rôznymi pamäťovými systémami vytvoriť virtuálnu vrstvu pre jednotný prístup? V tom prípade sa mi viac páči riešenie od AMD. No uvidíme výsledok.

+1
-18
-1
Je komentář přínosný?

Podle mě to je jen "dočasný" mezikrok, protože se zaklínají zpětnou kompatibilitou. Následně, s novou generací CUDA/architektury, to zoptimalizují IMHO.

+1
-17
-1
Je komentář přínosný?

Na OpenPOWER konferenci se rikalo, ze nVidia a IBM budou stavet pro amiky novy superpocitac. Zminoval se tam prave NVlink a fakt, ze to cele pojede v little endian rezimu na Linuxu. Nikdy jsem si to neuvedomil, ale GPU musi interne reflektovat endian architektury na ktere bezi a protom se v IBM rozhodli, ze je lepsi prepnout POWER do little endianu a pouzit Linux. Druha moznost by byl vyvoj noveho GPU a to jim nezaplati ani americka vlada.

+1
-20
-1
Je komentář přínosný?

Propustnost mezi dvema grafikami / cipy neni hlavni problem, alespon ne ve stavajici podobe.
To by XDMA (32Gb/s omezene propustnosti PCI-E) muselo byt efektivnejsi nez SLI mustek (900MB/s).
XDMA je rychlejsi a jeho implementace pro framepacing je snadnejsi (alespon podle AMD), nicmene do srovnani musime pridat daleko vic parametru, napriklad podpora ovladacu. Vetsina her vychazi bez podpory pro bezproblemovou funkci vice grafik a ta musi byt casato dodelana za vyvojare.
MANTLE / DX12 by tohle mohli castecne nebo i plne resit za predpokladu, ze NVidia a AMD pomohou dodat dostatecne vykonne nastroje pro primou kontrolu nad HW a funkcnost uz tak logicky bude stat na vyvojari. Nesmi se ale opakovat scenar - pokud chci, aby neco fungovalo, musim si to udelat sam!
Koneckoncu vyrobce HW je zodpovedny za dodrzeni specifikaci pro API, za funkcnost ovladacu a dalsiho softwaru, ale funkcnost aplikace je uz na vyvojari.
Tohle pokriveni pozic ma k idealnimu stavu daleko a ovoce toho stavu vstrebavame uz dost dlouho, abychom s tim neco zacli delat.

+1
-13
-1
Je komentář přínosný?

Pro multiGPU v současné době neni problém prostupnost mezi čipy, ale latence. Dam ti příklad, když zapojim dva Radeony 290X do CF do dvouprocesorové mašiny (dva Xeony E5-2687W v2) na jeden CPU a jeden PEG řadič, funguje to vesměs OK (resp tak mizerně jak prostě AFR rendering funguje). Jakmile ale zapojim 1 GPu na druhej CPU, tzn data nemohou proudit GPU-PEG-GPU ale musej proudit GPU-PEG-QPI-PEG-GPU, tak stutter je citelně vyšší všude, jede to fakt mizerně. A to je QPI dělané na minimalizaci latencí, jsou tam tak malé že CPU mohou koukat do cache a RAM toho druhého aniž by se to stalo bottleneckem celého systému, ale i toto je v součtu pro multiGPU přílišná latence. Tzn ona komunikace můstek ala GPU to GPU je paradoxně při použití správné technologie mnohem méně latentní.

NVlink má defakto bejt univerzální protokol, něco jako HT. Nvidia pracuje s IBM na něčem based on IBM power CBT a Volta GPU a bude to právě používat Nvlink. Klíčem celé věci do budoucnosti multiGPU je prostě zajistit, aby GPU (a i více jak 2) spolu pracovaly na 1 snímku, jedné scéně, a zbavit se současného stavu kdy každej dělá to své a pak se to musí pracně dávat dohromady. A na toto rychlost a latence PCI-E nestačí, potřebujem něco lepšího.

+1
+8
-1
Je komentář přínosný?

Single Frame Rendering je už dnes podporován přes Mantle na CivBE.

+1
-14
-1
Je komentář přínosný?

Ne, nepoužívá. AMd v něm používá SFR. Split frame reandering, ala dělění SW analýzou (aby si byly nároky na výkon co nejblišší) jedné scény poměrově na 2 části a obě 2 části si každé GPu počítá separé. To co staré SLI z dob NV40 mohlo používat a postupem času to bylo komplet vytlačeno AFR protože AFR dávalo mnohem lepší "čísla" v benchmarcích, a až o 8 let později se recenze začali zabejvat tim že "hele ono to neni plynulý" a začal se řešit framepacing, atd, takže se SFR dostal zpět na scénu.

Tento SFR nemá s tim o čem tu byla řeč nic společného, a zdaleka ideální škálování to neni. Zbavíš se AFR problémů za cenu mizerného škálování... to neni ideální řešení.

+1
+1
-1
Je komentář přínosný?

V překladu. Dohání AMD :D

+1
-4
-1
Je komentář přínosný?

Ano, zatím to vypadá, že AMD má náskok mimnimálně půl roku, spíše však rok. Nvidia ale bude mít pravděpodobně výhodu možnosti vyvíjet přímo pro 16/14nm výrobu.

+1
-20
-1
Je komentář přínosný?

? a AMD na 14nm nevyviji nic ? prece jen ma lepsi vztahy s GF nez kdokoliv jiny

+1
+2
-1
Je komentář přínosný?

vyvíjí. Jenže řadu 3xx vystřelí jako 28nm, takže shrink na 14nm přijde na řadu nejdříve taky cca za rok (a pak lze taky považovat Maxwell za dříve uvedený update uvedený na 28nm než řadu 3xx). Buď o dostupnosti 14/16nm vědí víc než nvidia, nebo naopak už "museli" novou řadu vydat.

+1
+2
-1
Je komentář přínosný?

hej, len je velky problem, ze na tej konfere nikto (ziaden novinar) nemal gule vstat a toto povedat

+1
+17
-1
Je komentář přínosný?

... dalsi pozvani by se mu asi vyhybala...

+1
+9
-1
Je komentář přínosný?

ano dohani, ale problem je ze AMD to neumi prodat, takze ji to prvenstvi je vpodstate k cemu?

+1
-9
-1
Je komentář přínosný?

Da se to i otocit. AMD pomoci techto "nejmodernejsich" technologii dohani (dkonce se zda ze ani neporazi) nvidii na technologiich zastaralych, jak ukazuji prvni sorvnani R390X a Titanu.

+1
0
-1
Je komentář přínosný?

he?
prve porovnania predsa vravia ze r9 390x je rychlejsie
minusky nepomozu

http://cdn3.wccftech.com/wp-content/uploads/2015/03/094646q0lldu88l1h2oq...

zatial nic ine nieje, tj pracujem s touto alternativou

+1
-5
-1
Je komentář přínosný?

článek o NV a diskuse vypadá jako by byl o AMD. Klasika....

+1
+4
-1
Je komentář přínosný?

nech sa paci, vyjadri sa

+1
+7
-1
Je komentář přínosný?

To nevieš, že AMD má všetko lepšie a má veľký náskok pre NVIDIou (hypotetický ročný náskok by bol teda dosť veľký), ktorý ale za nič na svete nevie využiť? :-) Nakoniec aj tak zistíme, že výkonovo to bude tak ako doteraz a nikto nikomu neutečie (čo by sa podľa toho "náskoku" malo stať,inak by to nejaký veľký náskok nebol). Už mi to pripadá ako keby každá nová architektúra NVIDIe bola ihneď zastaralá a prekonaná.

+1
-1
-1
Je komentář přínosný?

AMD samozřejmě nemá všechno lepší, ale v řadě ohledů náskok měla / má. Třeba už první generace architektury GCN je výrazně lépe výpočetně vybavena (a tím nemyslím jen výkon v DP) než Kepler (tohle Nvidia dohání až s Maxwellem) a byla lépe vybavena i technologicky. Zatímco výbava Kepleru končila na plné podpoře DirectX 11 a kompatibilitě s DirectX 12, první generace GCN uměla i 11.1, 11.2 a zvládá DirectX 12 s Resource Binding Tier 3, což nepodporuje ani Maxwell. Poměrně zajímavé je i to, že pokud srovnáme čipy jako Curacao / R9 270X s GM206 / GTX 960 nebo Hawaii / R9 290X s GM204 / GTX 980 při skutečně stejných taktech, tak GCN čipy dosahují vyššího výkonu na milimetr čtvereční jádra, což je s ohledem na jejich stáří, rychlejší podporu double-precision a širší sběrnice (která stojí hodně křemíku) dost zajímavá věc.

Nvidia má v současnosti jednu velkou výhodu, kterou je vyšší energetická efektivita. Tuhle výhodu dokázala prodat takovým způsobem, že média a tudíž i zákazníci zcela ignorují všechny ostatní výhody hardwaru od AMD (viz propad tržního podílu na konci roku). Přitom to není tak dlouho, co příznivci Nvidie hlásali, že spotřeba se v high-endu neřeší, protože kdo dá 10 tisíc a víc za high-endový produkt, nebude počítat pár desetikorun na účtech za elektriku.

+1
-1
-1
Je komentář přínosný?

to je sice hezké, ale ekonomicky z toho nemají tařka nic. NV umí i průměrný hw dobře prodat, hlavně díky kvalitní sw podpoře. Nyní to trošku v AMD pozvedli, ale pořád je to víceméně styl "tady je hw a zbytek si dodělejte sami"...

+1
+1
-1
Je komentář přínosný?

Toto uz neplati a spominat to tento tyzden je dost zaujimave

AMD Starts Linux Enablement On Next-Gen "Zen" Architecture

Published on 17 March 2015
Last week AMD published a "add znver1 processor" patch to the GNU Binutils package.
http://www.phoronix.com/scan.php?page=news_item&px=AMD-Zen-CPU-Znver1

DRI3 Support Finally Added To AMD's Radeon X.Org Driver

Published on 17 March 2015
today it's finally now supported by the mainline xf86-video-ati Radeon DDX driver.

Michel Dänzer of AMD committed the Direct Rendering Infrastructure 3 support over the night along with support for the SYNC and PRESENT extensions of the latest X.Org Servers.
http://www.phoronix.com/scan.php?page=news_item&px=Radeon-DRI3-DDX-Present

A Load Of RadeonSI Commits To Kick Off Monday Morning
Published on 16 March 2015 09:00 AM EDT
Marek Olšák of AMD has landed a number of improvements into mainline Mesa for the RadeonSI Gallium3D open-source graphics driver for benefiting Radeon HD 7000 series graphics processors and newer.
http://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Improvements...

HSA Foundation Releases HSA 1.0 Official Specification
Published on 17 March 2015

The open-source Linux HSA support continues to come along via the AMDKFD kernel driver for AMD APUs and in user-space there's the open-source HSA runtime library for Linux systems.
http://www.phoronix.com/scan.php?page=news_item&px=HSA-Foundation-1.0-Fi...

Ubuntu 15.04 Receives Early Release Of Catalyst 15.3 Linux Driver
Published on 11 March 2015

As usual, AMD has pre-seeded Canonical with a beta of the next Catalyst Linux driver release. This driver is needed to support the latest Linux kernel and X.Org Server of Ubuntu 15.04 with the public AMD.com driver not supporting these latest versions. This has been happening for years with AMD's turnaround time for new xorg-server and Linux kernel support generally lagging.

Known changes for the Catalyst 15.3 Beta include support for X.Org Server ABI 19 (X.Org Server 1.17)
http://www.phoronix.com/scan.php?page=news_item&px=Ubuntu-15.04-15.3-Beta

Takze to AMD rozhodne rozprudilo celkom kvalitne v tomto tyzdni

nVidia teraz len reguje

NVIDIA Releases $15,000 USD Linux-Powered Developer System
Published on 18 March 2015 08:46 AM EDT
This $15,000 research system can handle up to four GeForce GTX Titan X graphics cards, up to 64GB of DDR4 memory, and a plethora of HDD/SSD storage. The system is loaded with Linux and this DevBox is ready out-of-the-box to engage in deep learning. The Linux distribution preloaded is Ubuntu 14.04 LTS.
http://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Digits-DevBox-...

+1
-20
-1
Je komentář přínosný?

Sorry, ale že doteraz AMD kašlalo na linux sa teraz mám zblázniť že niečo konečne robí. Keby robili kontinuálne tak teraz nemám kartu od NV ale AMD, ale keď som mal menší výkon na dedikovanej AMD karte ako na integrovanej od intelu v notebooku tak bolo asi niečo zlé. Viem že to bolo v ovládačoch lebo som mal otvorené ale keď uzavreté sa nedali inštalovať kvôli novšiemu jadru ma len nahnevalo keďže staršie karty od NV s novým jadrom nemali problém.

+1
+8
-1
Je komentář přínosný?

to je spíš k pláči, trochu něco navíc udělají a už je to v pořádku? Snad ne. Čtvrt roku nevydávají nové ovladače. Zítra mají prý vyjít, tak jsem zvědav co za tu dobu vykouzlili když nebyli schopni spíchnout ani jednu mizernou betu (pro W10 TP nepočítám). Kdyby zahodili tu roubovaninu na bývalý ati balast udělali by nejlíp. Takhle se jedna chyba látá záplatou která má další chybu a tak to jde dál.
Dřív se aspoň mohli pochlubit vyšší efektivitou, a ani to už neplatí. Pro ilustraci, výkon Kepler gt 730 na 1,1/5,5Ghz s 384SP/8ROP a 64bit sběrnice dá stejný výkon jako hd 7750 na 900/5500Mhz a 16ROP o 128bit sběrnici. A Maxwell je na tom ještě líp. Proto budou gk s GTX 750 legendární. Proti tomu AMD nic nemá v této nejprodávanější třídě. Pitcairn s 1024SP/256bit proti tomu působí jak slon.
V tom je důvod propadu prodejů AMD grafik, nejenže nenabízí víc než konkurence, ale dokonce míň.
A prodeje slušných 290tek to nespasí, tam není největší poptávka....

+1
+2
-1
Je komentář přínosný?

Ano ale to bylo v době kdy tím NV omlouvala svou top end kartu, která byla nejrychlejší. Současná situace je ale taková že karty AMD jsou jak žravější tak herně pomnalejší. Nehledě na to že mnoho zákazníků NV je u NV z důvodu jejich SW, ne HW. Mě se třeba HW od AMD zdá fajn, ale jejich drivery nestrpim. Naposledy se to dalo u X1xxx řady.

+1
-18
-1
Je komentář přínosný?

Kde a čím Nvidia omlouvala kterou top-end kartu? Prosím o konkretizaci, na zmínku o jakési abstraktní události se nedá dost dobře reagovat :-)

+1
-10
-1
Je komentář přínosný?

Dejme příklad. GTX480 vs HD5870, vs nyní, R9 290X vs GTX980....

+1
-12
-1
Je komentář přínosný?

Zase pohadka pro male deti a fans ..

+1
-10
-1
Je komentář přínosný?

"drivery nestrpim", nazor zname a ted jeste duvod? Ze by ovladace u vic nez desetileti stare grafiky byli lepsi nez ovladace dnes, je dost pritazene za vlasy.
Ja AMD ovladace trpim uz asi tech deset let (pred tim jsem trpel NVidia) a nevidim, ze by ovladace byli casem horsi ani u jedne ze znacek. Jina vec je to s hrami.

+1
-17
-1
Je komentář přínosný?

Já ti ty důvodu vyjmenuji, kterejma HD radeony trpí a X1900 jimi netrpěla.

- Donedávna špatnej overscan/underscan u HDMI (nyní opraveno po 5+ letech)

- U monitorů či TV co podporujou mnoho refreshů na AMD kartách defaultujou na nejnišší podporovanej, to jest dost průser zapojíš li 24hz capable display a spustíš hru/jinej program co nedovede nastavovat refresh ,zkončíš v 24hz (můžeš si zkusit na TV s HDMI v Crysis 1 třeba)

- Dodnes oproti NV nefunguje dobře vynucování stavu AA a AF přes drivery. AF už jakžtakž (roky to byla katastrofa) ale AA je zatím +- stále v režii hry. A to nekomentuji neschopnost nastavit jinou úroveň TRAA než je úroveň MSAA.

- Je seice hezké že přes Radeonpro ( v driverech / CCC to vůbec neni) můžu nastavit délku pedbufferu, teď jen ještě aby to v praxi fungovalo a ne jen že se změní číslo ale inputlag je furt stejnej.

- To samé typ výstupu na HDMI. Nastavim natvrdo v catalystech YBCR 4:4:4, ale do TV jde stejně stále 4:2:2 + audio kanál.

- Dodnes slabší výkony a větší CPU limitace u her používajících DX11 MT rendering.

- Nemožnost nastavení korekce barev monitoru či video layeru. Nastavit to jde, ale jakmile jakejkoliv program šahne na gamu či cokoliv jiného, okamžitě se to vyresetuje a přidá se ona gama co si program řekl. Správné chování je ale zachovat mé nastavení + přidat onu gamu, jako se to děje na NV.

- To samé co se týče barevho profilu/kalibrace monitoru. Neni aplikováno pro fullscreen 3D aplikace. Jo a mam tu začít mluvit o openGL?...

Chjo... takhle bych mohl pokračovat, tohle jsou důvody proč mam NV, neni to v HW. A tohle se začalo dít po příchodu DX10 HD radeonů, do té doby jsou měl ATI karty dost často. Po příchodu GCN se to ledacos zlepšilo, už aspoň jde zapnout TRAA a pod, ale furt to má hodně daleko k ideálu.

+1
-3
-1
Je komentář přínosný?

"Poměrně zajímavé je i to, že pokud srovnáme čipy jako Curacao / R9 270X s GM206 / GTX 960 nebo Hawaii / R9 290X s GM204 / GTX 980 při skutečně stejných taktech, tak GCN čipy dosahují vyššího výkonu na milimetr čtvereční jádra"

O akom takte sa teraz bavíme? Znížený takt na úroveň AMD grafík alebo povýšený takt vzhľadom k NVIDIA grafikám. Pokiaľ sú grafiky Maxwell pripravované tak, aby zvládali vyššie frekvencie, takéto porovnanie nehovorí o náskoku ale o cielenom výsledku a nie je moc relevantné. Ale toto nikto z nás nevie takže ok. Nebudem sa o tomto tvrdení prieť.

"Přitom to není tak dlouho, co příznivci Nvidie hlásali, že spotřeba se v high-endu neřeší, protože kdo dá 10 tisíc a víc za high-endový produkt, nebude počítat pár desetikorun na účtech za elektriku"

Je to asi podobne dlho čo priaznivci AMD vyzdvihovali energetickú efektivitu a teraz tvrdia niečo iné. Proste ľudia často menia názory. Mne osobne vyššia spotreba v high-ende nikdy neprekážala, NVIDIu kupujem z iných dôvodov.

Čo sa týka náskoku všetko napísané je na nič ak sa to neprejaví v praxy. BTW NVIDIA pokiaľ viem podporovala viacero HW features z DX11.1 či 11.2. Neviem o tom, že by sa v praxy, ale použilo niečo čo by NV grafiky nepodporovali. Dokonca aj Microsoft predvádzal DX11.2 na NVIDIA grafike. Vzhľadom na to, že sa AMD už viac angažuje pri vývoji hier, prečo nevyužili situáciu a nepripravili v niektorých hrách niečo v čom by boli oproti konkurencii vo výhode? Hlavne keď s Mantle s tým problém nemali? A DP je kapitola sama o sebe. Pre hráčov nepodstatná. Tiež som si na tom ešte za čias Fermi zakladal, ale za tie roky som DP nikdy nepotreboval ani nevyužil, takže som svoj názor prehodnotil. Tým netvrdím že je to úplne nepodstatné, určite sa nájdu ľudia, ktorý DP využijú. Tam je ale dôležitá aj SW podpora kde opäť AMD nijak nevyniká (a ani nebude kým nezmení prístup a nebude očakávať, že to iní urobia za nich).

"GCN je výrazně lépe výpočetně vybavena (a tím nemyslím jen výkon v DP)"

Čo iné máš na mysli mimo DP? Teoretický SP výkon bol vždy lepší na strane AMD. V praxy sa to ale nikdy nijak neprejavilo. Neprinieslo to AMD žiadnu výkonnostnú výhodu, takže v čom je GCN lepšie výpočetne vybavená mimo DP?

+1
+7
-1
Je komentář přínosný?

Lepsi vykon AMD v cistych SP a DP operacich se projevil na kryptomenach a lamani hesel. Skoro nikdo netezi na nVidii a pro drceni hashu byl paradoxne nejlepsi VLIW od AMD. Pokud jde o "lidovejsi" aplikaci, tak muzu uvest FLACCL encoder z CUE Tools. Jde o OpenCL encoder FLACu a rozdil mezi nVidii a AMD je na hernich kartach vazne velky.

+1
-1
-1
Je komentář přínosný?

Možná to bude znít divně, ale já z toho mám jen a prostě pocit, že co se GPGPU týká, AMD je jen tam, kde byla Nvidia před několika lety (poprvé s tím začala u GTX 280 a v podstatě s tím skončila už s Keplerem) – totiž že snaží dostat své GPGPU mezi normální lidi a cpe GPGPU normálním lidem na herních grafikách, aby vybudovala ekosystém, díky kterému by to GPGPU na AMD bylo v profi sféře atraktivní.

A zatímco Nvidia už má byznys nastartovaný a zase karty striktně dělí na herní a profi segment (s Titanem X už je to asi definitivní tečka za herníma grafikama s výkonem pro GPGPU), AMD se do této fáze má teprve dostat (pokud se mu vůbec podaří se v tom profi segmentu slušně prosadit).

+1
+7
-1
Je komentář přínosný?

No a zrovna tohle bych řekl že je teorie která nedává smysl - tedy z pohledu AMD. GPGPU v podání nvidie je klasická tržní nika, kterou stihla nvidia už kompletně vyplnit. Je tam sice velká marže, ale donutit zákoše ke switchi k AMD je potřeba kromě srovnatelného produktu (který AMD má) ještě přidat podporu a navíc snížit marži. Jenže pak se už ta podpora až zase tak moc nezaplatí, protože těch zákazníků zase tolik není aby se to rentovalo, a navíc nelze předpokládat, že by přešli všichni, takže ten trh by byl ještě menší než je dnes.

Podle mě na to AMD musí jít z druhé strany, tj. masivním zaplavením mainstreamového trhu a vytvořením určitého frameworku, který poskytne GPU jako integrální součást počítače, takže uživatel vůbec nebude prakticky vědět, že něco jako GPGPU používá - voilá, tohle je přece definice HSA. A ono to celkem pěkně funguje, např. akcelerace dekodování JPEG v Kabini..

+1
+1
-1
Je komentář přínosný?

To by to brali ale sviňsky volným tempem – to je v podstatě koncept Fusion, o kterém mluví už od roku kolik, 2006? Řešili to s námi na prezentaci už v době, kdy AMD kupovalo ATI.

+1
-11
-1
Je komentář přínosný?

Souhlasím, že se to vleče, ale na druhou stranu, tohle je koncepčně něco, co daleko překračuje běžné chápání toho, jak PC funguje. Navíc určitý evoluční vývoj tu je vidět - minimálně u APU kde to je přece jen řádově jednodušší, a co je podstatné, Intel se vydal stejnou cestou, což lze považovat za potvrzení správnosti směru.

+1
-13
-1
Je komentář přínosný?

Je plno her kde AMD podava lepsi pomer vykon/velikost jadra, vlastne je to vetsina (pokud nebudeme brat do mereni pouze GameWorks tituly, merit ale kod, u ktereho se neda zrevidovat zdroj je problematicke samo o sobe).
Rozdil se jeste zvetsuje pri vyssim rozliseni. Tedy, ze by se to v praci neprojevilo je milna domenka.

+1
-14
-1
Je komentář přínosný?

"Je plno her kde AMD podava lepsi pomer vykon/velikost jadra"

Vzhľadom na rozdielnosť architektúr a bez vedenia toho aký cieľ mal byť dosiahnutý pri jej návrhu toto naozaj niekto meria a berie vážne? Len aby ľudia neboli prekvapený novým 600mm2 čipom od AMD. Pochybujem, že bude škálovať rovnomerne vzhľadom k veľkosti iných čipov rovnakej generácie.

"Rozdil se jeste zvetsuje pri vyssim rozliseni."

JJ. Toto je vidieť v testoch. AMD grafiky podávajú lepšie výkony vo vyšších rozlíšeniach. Škoda pre nich, že ide o minoritu trhu.

+1
+7
-1
Je komentář přínosný?

Jedna vec je technologicka vybava, a druha je vykon. Nesporne maji radeony nejvyssi podporu DX11.2, ale v praxi jim to vubec nepomaha, pokud to vubec nekdo pouziva - nikde jsem o tom nevidel zminku. Potom je to papirova podpora neceho, co je k nicemu, jako treba TrueAudio. To hrace nezajima, stejne jako omilany vykon v DP, ktery za ty roky nenalezl podporu v jedine hre. Osobne ocenim stabilni a vykonnnou podporu neceho, co ma smysl ted, ne az za tri roky, kdy se to mozna objevi ve hrach.

Co hrace ale zajima casto a velmi, aby na ne pocitac nerval. To je skutecny prinos energeticke efektivity. A radeony nejen ze zerou, ale krome dvou tri vydarenych a patricne drahych nereferenci jsou proste hlucny. Ted to amd dorazi levnym vodnikem... Mel jsem 8800GTX a GTX470, a dost si cenim tichosti Kepleru a Maxwellu.

+1
-17
-1
Je komentář přínosný?

Mixed precision a dalších pár věcí umí Tonga už dnes a Nvidia říká že to bude umět ve 2016? Co k tomu dodat... komu stačí fullhd koupí si s klidným srdcem R9 285 jakožto zatím jediného zástupce nadcházející třístovkové řady a technologociky dostane dnes vše od hsa přes plnou podporu freesync, mantle, dx12 a jistě ještě mnoho dalších featur, které již čip umí a pouze se čeká na jejich zprovoznění v ovladačích

+1
+6
-1
Je komentář přínosný?

Jojo, té kartě to kazí jen spotřeba. Cena se vyvine.

+1
-13
-1
Je komentář přínosný?

btw tak podle toho co je zatím známo GCN 1.2 (neboli Tonga neboli R9 285) umí následující věci, které ani 290X (GCN1.1)neumí:
- HSA, ale ještě se uvidí co a jak všechno vlastně ale např. ona mixed precission
- improved tesselation performance (asi při stejném množství SP oproti GCN 1.1)
- bezztrátová delta komprese což vede k úspoře bandwith paměti
- updated instruction set (v tom budou podle mě i featurky, které čekají na odhalení s řadou 300)
- lepší video scaler, který funguje od omega Catalystů 14.2 už teď a umí takové věci jako zprocesovat low ress video aby vypadalo lépe
- nový video encodér (něco jako Intel quick sync)
- dále jsem našel např. větší počet použitelných rozlišení na GCN 1.2 pro VSR což je featurka která umožní renderovat obraz ve vyšším rozlišení např. 4K a downscalovat ho na full HD (pokud bude stačit výkon) což vede celkově ke kvalitnější scéně, odpadá nutnost AA atd. Funguje už teď
- kompletní freesync, tedy i ve hrách a nejen video/2D

Když to shrnu kolem a kolem, kupovat dnes grafiku tak jedině Tongu. Nvidia je technologicky zaostalá (viz seznam GCN 1.2 fíčur) a všechny ostatní aktuální AMD grafiky jsou "jen" GCN 1.1 nebo 1.0, což se vzhledem k příchodu řady 300 nevyplatí. Takže buď Tonga pokud odpovídá výkonostně tomu co jste hledali anebo počkat. Všechno ostatní vzhledem k tomu co jsem uvedl vnímám jako nerozumné.

+1
-3
-1
Je komentář přínosný?

No, hezkej seznam, ale vetsina tech veci je k nicemu a/nebo je nvidia umi taky. Strucne:
HSA - nikde se nepouziva, k nicemu
lepsi teselace - skoro se nepouziva (teselace obecne), k nicemu
delta komprese - ok, ale Maxwell to umi taky
instrukce - marketingovy zvast, k nicemu
scaler na lowres video... k nicemu, kdo bude dneska koukat na lowres videa
video encoder - k nicemu, stejne jako na vsech ostatnich GPU
VSR od AMD je dost uboha a nepovedena kopie DSR, ktere funguje na vsem a bez omezeni
freesync - rok trvajici hype a stale nikde nic

Takze kdyz to shrnu - Tonga je nejvic fail karta z cele CGN generace. Malo vykonu, hodne zere, predrazena, klasicke SW AMD problemy. Par papirovych technologii to vazne nevytrhne.

+1
-2
-1
Je komentář přínosný?

až na to že zcela chybí zásadní 4GB model. Proto jsou pořád v kurzu 3GB gk Tahiti.

+1
+5
-1
Je komentář přínosný?

S tým VSR a že funguje už teď to je pekná sranda. :-) Keby nebolo NVIDiackeho DSR, ktorému sa AMD fanúšikovia smiali, tak tu ešte nie je ani to VSR. V čom by to mala byť výhoda oproti NVIDIi? Zvyšok je taký ako píše komentár vyššie. Buď to NVIDIA podporuje tiež, alebo je to niečo čo sa nepoužíva a ani sa v najbližšej dobe používať nechystá. Aspoň čo viem. Tá technologická zaostalosť NVIDIe je len sen fanúšikov AMD.

+1
-11
-1
Je komentář přínosný?
+1
-15
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.