Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce GTX 1080 Ti doplní 10 GB paměti

Vega 10 - uz se tesime na zabijaka NVidie. :-)

+1
0
-1
Je komentář přínosný?

NVIDIA ohlásila bezprecedentní finanční výsledky, kde úžasný pohled je na divizi GAMING. Plných 1,244 miliardy dolarů je příjem jen a pouze z herních grafických karet.
NVIDIA děkuje AMD za vyklizení pozic!

+1
-4
-1
Je komentář přínosný?

Tak NVidia mela letos uspesny rok, GTX1070 a GTX1080 byly letos bezkonkurencni a pak jeste vypalili rybnik AMDecku vcasnym vydanim GTX1060. Ale vem treba ted uz se GTX1060 na RX480 nechyta a jak prijde VEGA, tak skoncej i GTX1070/1080 a VOLTA v nedohlednu.

+1
+1
-1
Je komentář přínosný?

Ešte nevieme aká bude Vega výkonná. O Polarise sa tiež istý čas tvrdilo, že bude siahať ku GTX 1070 a kde je reálne už vieme. Okrem toho Vega keď tak by mala byť súperom pre deriváty založené na čipe GP102 (1080 Ti a pod). Veď uvidíme ako to nakoniec celé bude. NVIDIA akurát môže ryžovať minimálne ďalšie 3 mesiace.

+1
+1
-1
Je komentář přínosný?

Ale on Polaris skutecne saha tesne pod GTX1070, jenze jen ve Vulkan a nekterych specifickych situacich DX12 - masivni pouzivani AS.
Ona je ta situace v grafickach podobna jako u procesoru, taky bys mohl rict, ze Intel muze ryzovat jeste do konce unora do prichodu Zenu, coz je samozrejme pravda, ale AMD si proste navrhlo skvely procesor a nejakou dobu trvalo nez ho vyvinuli, stejne tak si navrhli skvele grafiky a taky to nejakou dobu trva nez to realne vydaji, proste nelze rikat, ze maji zpozdeni, nemaji, proste na necem pracuji a az to dokonci a vydaji, tak to bude a az potom muzes srovnavat s aktualni konkurenci, jestli to bude opravdu tak super. Polaris se evidente povedl, neni duvod se domnivat, ze u Vegy a Zenu to bude jine.

+1
+1
-1
Je komentář přínosný?

A ten čas mezitím máš kde? Dovolím si citaci z jednoho filmu: "Chceš čas? Tak si kup noviny Čas (Times)!"

+1
-2
-1
Je komentář přínosný?

Zajimave by bylo, pokud AMD vyda opravdu novou revizi desktopovych karet, ktere by vyvchazeli z tech jejich profi karet a hodne nizsim TDP. Pokud opravdu takova revize existuje a podarilo se jim 480 vyladit-dodelat, tak to bude opravdu lepsi karta nez 1060.
Uvidime..

+1
0
-1
Je komentář přínosný?

Vega 10 by musela ponúknuť toho oveľa viac ako súčasný Pascal, aby bola jeho "zabijakom". Už len kvôli tomu, že príde neskoro. Väčšina ľudí čo chcela high end majú 1070tku alebo 1080tku a pochybujem, že by rozmýšľali nad výmenou tak skoro. Tam by musela byť iná motivácia. :-)

+1
0
-1
Je komentář přínosný?

Přesně tak, by musela mít výkon jak dva TitanyX v SLI a ještě k tomu TDP do 200W...

+1
-4
-1
Je komentář přínosný?

Myslím, že to je málo Jarouši. Já bych řekl i tři TitanyX v SLI, TDP 100W a vodotrysk k tomu!

+1
+2
-1
Je komentář přínosný?

Vodotrysk bude tak i tak, protože to bude mít TDP 400W a kdejakej vodník se na tom uvaří :D :D :D

+1
-1
-1
Je komentář přínosný?

Pokud Vega 10 nabidne vykon nad GTX1080, treba i na urovni GTX1080Ti, pricemz teda se ocekava, ze v DX12/Vulkan bude ten vykon jeste vyssi, tak rozhodne neprijde pozde. Naopak ma naskok rok a pul pred vydanim Volta od NVidie.

+1
+1
-1
Je komentář přínosný?

Ja by som povedal, ze ľudia čo kúpili teraz, meniť za Vegu nebudú. A podľa hospodárskych výsledkov NV z časti Gaming, takých ľudí bolo veľa. Preto si myslím, že Vega príde neskoro a kvôli tomu jej zostane málo priestoru. Ďalšie generácie GPU teraz nehrajú rolu. To by musela byť Vega v DX12 resp. Vulkán výkonnejšia o desiatky percent. Nie tak ako je to teraz.

+1
+3
-1
Je komentář přínosný?

Jo zalezi to i na tom, jak velkej bude nastup DX12 a jak bude Vega vykonejsi v DX12, ale ty desitky procent bych dopredu vylozene nezavrhoval, muze se to stat.

+1
0
-1
Je komentář přínosný?

Stať sa môže všeličo. Ja vidím ako problém v tomto prípade aj to, že NV máva v hrách využívajúcich API DX11 aj DX12 vysoký výkon v DX11, ktorý sa na AMD DX12 doťahuje. Takže ak toto bude trend aj naďalej, tak sa v podstate nič nezmení ak bude jedno aké API sa použije. To by sa mohlo zmeniť iba v 2 prípadoch. Jeden by bol rozdiel v grafike. Proste DX12 by nemalo výhodu iba v akcelerácii ale aj vo vizuálnej kvalite. No a druhý prípad, ktorý vidím ja osobne ako dnes relevantnejší, je vytiahnutie výkonu z nových high end kariet. Ja plánujem prejsť na 1080 Ti budúci rok a tu by som povedal, že aj v 4K mi aktuálny CPU možno nebude schopný kartu využiť naplno. U FHD a 2K je to istota. Mám i7 3770K. S DX12 by to ale malo byť lepšie a na to sa spolieham.

+1
+1
-1
Je komentář přínosný?

Ja osobne ted pred vanoci, kdy budu mit na hry cas, koupim GTX1060, ta mi momentalne staci a casem ji "odhodim" na druhy PC s Ubuntu, kde NVidia jako jedina podporuje graficky server Mir, takze tam NVidii potrebuju. No a pak se rozhodnu, jestli na PC s Windows 10 nahodim nejakou tu Vegu nebo Voltu, bude-li tou dobou uz to NVida mit hotove a bude-li to lepsi nez Vega.

+1
+1
-1
Je komentář přínosný?

Proč pořád ty budoucí časy? Až.... až... až... bavíme se o tom že AMD prostě nemá co nabídnout a ta doba po kterou vyklidilo pole je už hódně dlouhá....

+1
-5
-1
Je komentář přínosný?

Vykon vykon, kazdy resi vykon.... Ja jedu na OLDSCHOOL WLIW4. Rekne mi nekdo uz konecne!!! Vypadaji hry v DX12 lepe nez v DX9-10-11??? To me zajima. Jestli budu mit v DX 11 60+ FPS a v DX12 35 FPS a bude to vypadat lip tak teprve v tu chvily me bude nake DX12/Vulkan zajimat. Jinak si klidne zavrednu v 11ctce a je mi to jedno.......

+1
0
-1
Je komentář přínosný?

To ako budú hry vyzerať závisí od vývojárov a nie od samotného API. Momentálne je situácia taká, že rozdiel medzi DX11 a DX12 v hrách, ktoré využívajú obe API, nie je žiadny čo sa týka vizuálu. Takže z tohto pohľadu je to jedno. Iné je to keď máš slabší procesor ku grafickej karte. Vtedy ak to vývojári využijú, získaš v DX12 slušný boost. Prípadne nebudeš musieť obmedzovať GPU, ktorú si kúpiš. Závisí to proste od situácie a od konkrétnych hier. Nedá sa povedať všeobecne čo je pre všetkých dobré. Každý má iné kritériá a iné HW kombinácie, ktoré na to majú vplyv.

+1
0
-1
Je komentář přínosný?

DX 12 mohou vypadat lepe nez DX9 a DX10 :) a mouhou byt mene narocne nez DX11 ....vyhoda DX12/VULKAN je v tom ze se stejnym HW mohu dostat podstatne vyssi vykon (kolikrat rozdil mezi slideshow a plynulym hranim pri zachovani stejne urovne detailu >> coz je docela podstatny faktor)
suma sumarum mohu se stejne vykonnym HW dosahnout sceny ktera bude vypadat lepe pod DX12/VULKANEM a bude mit stejny prubeh FPS jak pod DX11 s horsimi detaily..nebo stejna kvalita vykresleni s vyssimi FPS pod DX12/Vulkanem (+ lepsi vyuziti multi GPU atd atd)
jestli chceme grafiku posouvat na vyssi uroven az treba na tu fotorealistickou tak ten "vykon, vykon, kazdy resi vykon" je proste potreba >>>jinak to opravdu nejde ....

+1
0
-1
Je komentář přínosný?

Ano, DX12 hry mohou vypadat lépe, je to Shader Model 6.0 oproti 5.1 plus něco málo dalšího - částice/fyzika (víc jisker). Tím neříkám, že když typicky AMD vydá hru pro RadeOny, tak tam už pod DX 11.2 (možná i nižší) můžou ject věci kodifikovaný oficiálně až v DX12.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12

+1
0
-1
Je komentář přínosný?

Ačkoli nejsem cílovka, líbí se mi tyhle super karty, co ukazují výkon, kde jednou bude mainstream.
Pokud se potvrdí konfigurace paměti připojené pomocí různých šířek sběrnic, zajímá mě, zda to poučená nVidia rovnou řekne nebo zda se to bude zase tutlat a bombasticky odhalovat. Prodeje 970ky to nepoškodilo, tak je to asi jedno. Tím spíš, že jak píše Nox, to bude mít malý dopad na výkon.
Osobně jsem toho názoru, že 970ku to teprve poškodí dodatečně, teď když se 4GB běžně používá naplno. Ale to už je fuk, protože je nahrazena novým modelem. Jen majitelům zůstane hořká pachuť v ústech.

+1
+1
-1
Je komentář přínosný?

neplacená reklama taky reklama.

+1
-3
-1
Je komentář přínosný?

Pokud bude paměťové rozhraní skutečně takové, NV to po zkušenosti s 970tkou určitě přizná. Ono tenhle přístup je ale dost ošemetný. Čistě prakticky je takto navržené řešení ekonomicky dobrá a logická volba, ale z pohledu zákazníka je to vždy ošemetné. Zákazník nemá rád kompromisy a ořezaná řešení. Jen ten psychologický pocit, že po zaplnění části vram se výkon o pár procent zhorší je u karty za 25+ tis. Kč trochu problém. Osobně si proto nemyslím, že paměťové rozhraní bude řešeno takto, zvlášť po 970 aféře.

+1
+2
-1
Je komentář přínosný?

No pekne nas Nvidia masiruje, to zas bude palka, no neubehne moc casu a bude to na bazaru za litr

+1
+2
-1
Je komentář přínosný?

Takže po 3.5GB GTX970 ďalšia karta od Nvidie s podivným rozložením pamäte? Už vidím, ako to opäť "zabudnú zohľadniť v špecifikáciách produktu, a zabudnú povedať recenzentom".

+1
+1
-1
Je komentář přínosný?

No pokud bude moct gpu pristupovat k oboum sirkam najednou, tak bych v tom problem nevidel. Ale pokud ne tak tam uz by mohl byt propad vykonu citelny.

+1
+1
-1
Je komentář přínosný?

„No pokud bude moct gpu pristupovat k oboum sirkam najednou…“

Pokud by GPU mohlo zároveň přistupovat k 384bit a 256bit sběrnici, pak by mělo de facto k dispozici 640bit sběrnici. To by mělo citelný dopad na výkon (směrem nahoru), ale je to samozřejmě nesmysl. GPU má fyzicky 384bit sběrnici a z toho může hypotetická GTX 1080 Ti využívat buďto plnou 384bit část a nebo (po naplnění 6GB) 256bit část, po které jsou přístupné zbývající 4 GB.

+1
+2
-1
Je komentář přínosný?

Tak sem to nemyslel. Idea byla ze pokud se zrovna pristupuje ke zbyvajicim 4GB po 256bit, aby slo zaroven pristupovat i do 6GB segmentu bez nakych vetsich latenci coz asi nepujde.

+1
+1
-1
Je komentář přínosný?

Možná rámec dotazu vychází z nedorozumění. Tohle není situace jako u GTX 970, kdy je celková 4GB paměť s 256bit sběrnicí rozdělená na 224bit 3,5GB segment a 32bit 0,5GB segment, kdy každý segment tvoří samostatné paměťové čipy. Tato situace je jiná. Máme plnou 384bit sběrnici (tj. dvanáct 32bit kanálů), ale na některé 32bit kanály jsou připojeny čipy, které jsou kapacitně větší (1GB), na jiné jsou připojené čipy, které jsou kapacitně menší (0,5GB). K paměti se přistupuje po celé šířce 384bit sběrnice ke všem čipům, dokud nejsou všechny zaplněné 0,5 GB dat. Tím jsou menší čipy obsazené ze 100 %, větší z 50 %. Pak už lze nahrávat data pouze na větší čipy (menší jsou plné), ovšem jen po těch osmi kanálech, na které jsou tyto větší čipy připojené. Proto se s nimi komunikuje po efektivně 256bit sběrnici.

Pro nějaké latence navíc tam nevidím důvod, výkon karty bude penalizovaný efektivním zúžením sběrnice pro ty „horní“ 4 GB (256bit) při překročení 6 GB. O kolik, to je otázka, ale je třeba mít na paměti, že 256bit sběrnici má i GTX 1080, takže i když tam pokles bude, nemůže nastat situace horší, než že se výkon přiblíží o stupeň nižšímu modelu.

+1
+4
-1
Je komentář přínosný?

Ale právě píšu uplně dole, že je to celý blbost, i když to celej web papouškuje, protože pokud použijou rychlost 10/12 Gbps u GDDR5X (a vůbec GDDR5X), tak by tento "tvůj" nebo čí vybájenej způsob práce omezil MMU na 8Gbps (nejslabší článek řetězce) a to by tam rovnou mohli naflákat jen GDDR5. Pochybuju, že paměťovej řadič u Pascalu počítá s prasozapojením, kdy každej kanál-čip má jinou rychlost - kterou texturu potřebuješ trošku dřív, kterou trošku později, kde se to bude rozhodovat? podle vzdálenosti? Hovadina na n-tou.... Takže by to navíc znamenalo, že "do zaplnění" to celý pojede na 8Gbps a pak se ty čtyři čipy po půl GigaBytu GDDR5 nějak začnou odpojovat při přístupu do 8čipů GDDR5X přes celkově 256bit. To je prostě celý taková prasečina, že je téměř jistý, že na poštovním balíku bylo (záměrně) špatně napsaný, že je to 384bit karta - čip jo, ale karta je 320bit.

Další věc v té vaší pohádce je, že polovina "do zaplnění" by byla sice 6GB ale pomalejších 6GB, protože potřebují 4 x 32bit GDDR5, aby to nadstavili do deseti, takže by "vyhodili z okna" 4GB dražší GDDR5X. Čili místo 10ti rychlejch čipů napájíme 12, který to celý dokurví, zpomalí a marketingově poškodí... jasan. Rozumíš? 384bit režim by byl právě ten pomalejší, za cenu "rychlejšího" ale jen 256bit režimu VERSUS 320bit rychlejšího režimu.

A pochopitelně naprosto vylučuju, že by použili na 2GB GDDR5 8 256MB čipů v double sided clamshell nebo podobný divadla.

+1
0
-1
Je komentář přínosný?

Geforce GTX 1080 Ti bude uplne zbytecny produkt kdyz lidi hladovi ocekavaju prave Vegu coz bude skutecny HighEnd a ne nejaky repas/provareny Maxwell ktery se jenom tak tvari, prodrazenou cenou urcite, porovnejme:

Vega HBM II pameti / Pascal 1080 Ti GDDR5X

Vega hw akcelerace/pocitani api DirectX 12/Vulkan 1.0 / Pascal 1080 Ti sw emulace pocitani DX12/V

Vega cena min nez 800€ / Pascal GTX 1080 Ti minimalne 1100€ nakolik Titan X pri uvedeni stal 1300€

A jeste je tu moznost ze GTX 1080 Ti bude mit podobne zkriplenou sbernici jako GTX 970, no hura, cili koupe vyhodna jak prase, 1080 Ti neni prosto nic jineho nez blby vyprodej skladovych cipu ktere po fiasku s prodrazenym 1300€ Titan-em X ktery nikto nechtel nakolik ho NVIDIA prilis omezila na roli DP vypoctu ted poslouzi s prominutim k vojebani par skalnych zelenych fanousku ktery si pul roku pote pobezi koupit novou Voltu, fakt prima koupe.

+1
0
-1
Je komentář přínosný?

Fikcie, spekulacie, FUD - jednoducho AMD advocacy za kazdu cenu. Nemyslim si, ze ta znacka potrebuje az tak posadnutych ludi/trolov.

+1
0
-1
Je komentář přínosný?

to Waffer47- kdo ma Titan X si jiste muze dovolit Voltu klidne i zitra, kdyz bude ;-)

Naopak na GTX 1080 Ti se ceka, jelikoz ne kazdej chce utratit tolik jako za Titan X a pokud bude GTX 1080 ti o 20% vykonnejsi nez GTX 1080 tak to pro 4K hrace bude uplne presne.
Na Vegu se cea a jeste cekat bude. AMD uz HBM pouzila a zadny zazrak na to kolik do toho investovala se bohuzel nekonal. Snad to tentokrate dopadne lepe.

K te sbernici bych si vsadil na tu 320bit. Uz s ohledem na Titan X a mozna i s ohledem na GTX 970 aferku.

+1
+2
-1
Je komentář přínosný?

Jenže druhá kombinace dává pro okamžik vydání, kdy bude 6GB kapacita stačit, vyšší celkový výkon.

+1
+1
-1
Je komentář přínosný?

Vážená redakce, prý se očekává ve středu odhalení Vegy?

+1
-1
-1
Je komentář přínosný?

Vega je již odhalena. Stačí se večer zadívat do souhvězdí Lyry.

+1
+1
-1
Je komentář přínosný?

Možná mají dost čipů s vadnou sběrnicí - okraj, takže čip je sice 384bit, ale v reálu bude 320bit. Těžko říct. No bude to zajímavej prasopes. Ale vydat to musí, páč Volta nikde a z Vegy se jim evidentně klepou nožičky.

Ono se taky dost dobře může stát, že Vegu vydají konečně na pořádným procesu, a pokud 1060 2GHz = 1400 MHz Polaris, tak hovadskej čip typu deset miliard tranzistorů na 2 GHz, při dobré double precission (nebo brutální single precission a la konzole) může taky slavnou nVidii na pět let zadupat do země...

+1
-1
-1
Je komentář přínosný?

Takýchto teórií o tom kto koho zadupe do zeme čítam veľa pred nástupom každej generácie grafík od AMD (a nielen u nich). :-)

+1
+4
-1
Je komentář přínosný?

Ale je to dobrá sranda, ne ? :) Kdysi jsme se hádali zda je lepší Atari nebo Amiga, dneska zda AMD či nVidia. (AMD vs. Intel nemá cenu řešit) Amiga rulezzz !

+1
-2
-1
Je komentář přínosný?

Pozor. Víťaz je jasný - Commodore 64. :-)

+1
-2
-1
Je komentář přínosný?

Cist muzete mnohe, ono nejde o to kohokoliv zadupat, ale naopak mit co nejvyrovnanejsi konkurencni prostredi, jinak muzeme za par let nakupovat mainstream grafiky za nasobne vyssi cenu nez dnes. Coz by samozrejme nekteri uvitali, ja ale urcite ne.

+1
0
-1
Je komentář přínosný?

Když už si fandové AMD mysleli, že nvidia nemá další hřebík do její rakve, tak tady další připlouvá.

Vega bude fiasko, TDP bude někde v rozpětí 250-300W, výkon cca jako GTX 1070 za nižší cenu a se strašným referenčním chladičem.

+1
0
-1
Je komentář přínosný?

To info ohľadom Vegy je odkiaľ?

+1
-1
-1
Je komentář přínosný?

buď z www.teentrollvidia.fansupport.com alebo www.blberecidodiskuze.cz
a možno písali v Brave..na štýl čo neviem, to si vymyslím, čo chcem, to vytiahnem do extrému.

+1
+1
-1
Je komentář přínosný?

Vega budou dva cipy, pricemz mensi znich by mel nabidnout vykon blizko 1070 a spotrebu RX480, vetsi pak bude mimo kategorii kam 1070 patri.

+1
0
-1
Je komentář přínosný?

A co takhle 3200 SP, 192 TMUs, 80 ROP, 256bit 8GB na 12Gbps GDDR5X a zbylých 2 GB 128bit 8Gbps GDDR5 pro výpočty, "VR cache", low-energy mode, případně jiný marketingový žvást, aby to jelo i pod DX12? ;)

+1
0
-1
Je komentář přínosný?

I kdyby 1080Ti ty paměti brzdili co nejvíc zvládnou, tak bez problému vydrtí vegu jak nic.

+1
-2
-1
Je komentář přínosný?

Každopádně jinej než 1GB/8Gbit GDDR5X čip se nedělá, takže pokud nVidia nepoužije dva '(v reálu 4) čipy starší a horší, aby si na krabici mohla napsat 384bit, tak bude karta prostě TITAN X se dvěma čipy nepřipájenými, a tudíž 320bit v součtu. Čili článek jaksi trošičku mimo. Toto není připad 970ky.

Tedy pokud smysl článku nebyl v informaci, že nVidia u dražší lepší karty použije méně čipů GDDRX než u výchozí 1080 bez Ti.

+1
0
-1
Je komentář přínosný?

Typicky uzivatel AMD ceka na lepsi zitrky a tesi se, jak si konecne zahraje... Opacna strana hraje davno na svych tecnicky zastaralych kartach... Kdo je na tom lip? To zase bude zklamanych po vydani. Nepoucitelni, vysnete si klidne vykon Titan X a cenu RX 270... To bylo Polaris, Polaris, Polarka... ted je to Vega, Vega, Vega, co to bude priste?

+1
-2
-1
Je komentář přínosný?

Navi, Navi, Navi.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.