Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Pascal razantně zvýší výkon v double-precision a vrátí i half-precision

Volta 3.5x vyšší výkon ako súčasné grafiky? Ako to chcú dosiahnuť? Pascal ešte chápem, počet tranzistorov sa zdvojnásobí vďaka 16nm procesu, ale ako chcú vyriešiť tú Voltu?

+1
-2
-1
Je komentář přínosný?

Jde o výpočetní výkon v double-precision, nikoli herní výkon.

+1
0
-1
Je komentář přínosný?

Wtf

Nieje teoretický výpočtový výkon viac závislý na pošte tranzistorov, ako nejaký herný výkon? (ktorý sa dá navyše manipulovať aj podvodmi, ako sa to už pár krát stalo).

Možno sa mýlim ale nemalo by to byť nejako úmerné počtu tranzistorov? V Pascale to sedí ale čo Volta? Chystá TSMC 36 miliardové čipy? Majú nejaké nové deličky s polovičným počtom tranzistorov pri rovnakom výkone? Fakt nechápem.

+1
-1
-1
Je komentář přínosný?

Podle jejich vlastního grafu v roce 2015 nic nového nevydali. Revize keplera musela tedy mít i z pohledu nVidie v podstatě spíš směšný přínos.

+1
0
-1
Je komentář přínosný?

Tesla K80 se dvěma GK210 vyšla na konci roku 2014 společně s Maxwellem. Proto je v grafu zakreslená v roce 2014.

+1
-1
-1
Je komentář přínosný?

Mě spíše zaujalo, proč na tom slajdu ukazují NVLink - 80GB/s rychlost, když tam pod ním není X86, takže NVLink není pro klasické PCčka? Nebo jak tomu rozumět...?

Budeme odkázaní na PCIE x16 navěky...?

+1
+1
-1
Je komentář přínosný?

NV link je jen specialita pro HPC s procesory Power/ ARM CPU. Tím ARMem je nejspíš myšlen Denver. Pro spotřební sféru Nv link není... (i když si to zjevně někteří redaktoři pctuningu myslí) http://pctuning.tyden.cz/index.php?option=com_content&view=article&id=38...

+1
+1
-1
Je komentář přínosný?

NVlink neni nic speciálního pro HPC. Je to nová sběrnice od NV, může nahradit PCI-E, je mnohem lepší, jze použít od low-power armů až po velké mainframe od IBM. Nvlink se má od Pascalu také používat pro SLI, od Pascalu se princip multiGPU komunikace u NV změní.

Jedinej důvod proč neni napsanej u x86 je monopol Intelu (a na druhé straně AMD) na chipsety. Intel stojí za PCI-E, ne za Nvlinkem, tzn dokud intel do NB svejch CPU nezakomponuje NVlink (šance naprosto minimální) tak tam prostě nebude. Jediná alternativa je chipset sedící na QPI pro Xeony, ale i na QPI má intel lock a tehdy v roce 2008 na něj licensi NV nedal a proto se NV stahle z chipsetů, prostě nedostala povolení Intelu je dělat.

+1
-1
-1
Je komentář přínosný?

zase jen plácáš Docente jako obvykle :( A jak asi ten NV link na běžném PC bude fungovat ? ha ?

Má se od Pascalu používat pro SLI ? nějaký zdroj téhle informace bys sem mohl taky postnout, doufám že to není ten hloupý článek na pctuningu....

+1
-1
-1
Je komentář přínosný?

Taka uhorkova sezona ze az to boli.

Z amd furt len prudia kecy otom ako bude vsetko megaboží, aby te akcie behom celeho roku 2016 nepadli na uplne dno, a nvdia zakonite musi reagovat uplne rovnakym druhom kalerabov.

Cely rok bude peklo, citat tieto hovadiny a skutek utek.

+1
-5
-1
Je komentář přínosný?

Cos cekal, kdyz 28nm tady mame, umm, (temer?) ctvrtym rokem. Caj muzes taky zalit trikrat (ty lepsi), pak uz mas jen vodu...

Jo a u 16nm cekejte 2x delsi okurkovu sezonu :P

+1
+1
-1
Je komentář přínosný?

Keby TSMC nepos.ala 20nm tak by sme mali uz druhy rok 20nm cipy. Namiesto toho sme 20nm preskocili a cakame dalsie 2 roky na 16nm finfet.
Pokial nechcu 10nm opät preskocit tak snad, este raz snad, nebudeme cakat viac ako 2, prinajohorsom 3 roky na lepsi proces. Inymi slovami 2x delsi okurkovu sezonu nepredpokladam :) Pri troche stastia a zasahu vyssej moci to moze byt presne opacne ;)

+1
-2
-1
Je komentář přínosný?

20nm proces nešlo nepos*at. Respektive od začátku se vědělo, že nepřinese nijak výrazný posun, ale počítalo se s tím. Vědělo se, že tam budou velké problémy s leakage (Intel právě z toho důvodu nasadil FinFET už na 22nm procesu) a u výkonných čipů nebude možné téměř vůbec zvyšovat takty oproti vyladěné 28nm výrobě. Výsledek byl jen o málo horší, než se čekalo, ale ten malý rozdíl stačil na to, aby se výrobcům nevyplatilo do 20nm výroby (která je samozřejmě dražší než 28nm) investovat.

V podstatě je otázkou, jestli by 20nm GPU byla citelně lepší než to, co vyšlo na 28 nanometrech. Možná ani ne. V high-endu by se prostor pár desítek milimetrů čtverečních využil na podporu pro double-precision v profi sféře, v mainstreamu by to přineslo úsporu pár milimetrů plochy (snížení výrobních nákladů). Všem čipům by klesla spotřeba o 10-15 %, pokud by běžely na stejných taktech jako 28nm protějšky. Větší očekávání by byla mimo realitu.

+1
0
-1
Je komentář přínosný?

"Výpočty s dvojitou přesností (=double-precision / DP / FP64) asi není třeba představovat, používají se především v profesionální sféře.."
Každý Excel nebo LO používá double, nedovedu si představit ty chyby, kdyby počítal
jenom ve float.

+1
-6
-1
Je komentář přínosný?

Chyby u double vypoctu muzou byt, cirou nahodou, mnohem vetsi nez u floatu. Vyplyva to jaksi z podstaty veci....

Jo a BTW, je velmi snadne udelat vypocet v double tak blbe, ze spravny vypocet ve float bude presnejsi. Pouzity algoritmus je stejne, ne-li vice podstatny, nez pocet platnych cislic pouziteho typu..

+1
-3
-1
Je komentář přínosný?

float mantisa 24 bitů exponent 8bit
double mantisa 52 bitů exponent 11bitů

takže chyby double výpočtů nemůžou být, čirou náhodou mnohem větší než ve floatu.
Kdyby to tak bylo, proč by se takový formát jako double vytvářel, když stačí float.
Počítání ve floatu je vhodné třeba pro DSP.

+1
+3
-1
Je komentář přínosný?

Kdy? Příklad prosím pro obě Vaše tvrzení. Myslíte v extrémně hraničních případech, kdy se single čirou náhodou kvůli své menší přesnosti strefí při např. zaokrouhlení do "správného směru"?

PS ona by to nebyla pro většinu případů taková tragédie, kdyby ve spreadsheet programech byl single, akorát pro to není důvod.

+1
-3
-1
Je komentář přínosný?

Důvod by byl, kratší čas výpočtu, méně zabrané paměti. LO nebo Excel jsou univerzální programy
pro různé typy výpočtů, proto přesnější (a pomalejší) double.

+1
0
-1
Je komentář přínosný?

Pokud spreadsheet používá interpret výrazů, je úplně jedno, jestli je double pomalejší nebo ne (on prakticky není, a to už pěkně dlouhou dobu). Kromě toho mnohem více času sežerou úplně jiné věci.

+1
-1
-1
Je komentář přínosný?

"kdyby ve spreadsheet programech byl single"
Asi by se uživatelům nelíbilo, že při sčítání peněžních částek začnou vznikat zaokrouhlovací chyby už od 8 milionů.

+1
0
-1
Je komentář přínosný?

Za používání binárního FP pro finanční výpočty by se snad mělo věšet za gule do průvanu. Od toho tu je decimal FP nebo fixed point, nebo ne?

+1
+1
-1
Je komentář přínosný?

Při potřebě s cenami skutečně počítat (1/3+1/3+1/3) je to celkem jedno v čem se to počítá, zaokrouhlovací chyby tam budou vždycky. Nevýhoda binárního FP je spíš v menší podpoře vyšších přesností (quad precision) než že by to bylo nějak horší.

+1
-1
-1
Je komentář přínosný?

Tak uživatel narazí na viditelné chyby při neopatrném násobení a dělení. A nedejbože, kdyby chtěl porovnat dvě čísla( 1 == 0,8 + 0,2 neplatí ). Double a quad na tom málo změní. Prostě lajkovi ideálně float nepatří do ruky vůbec, jinak si ji dřív či později ustřelí.

+1
0
-1
Je komentář přínosný?

Ono hlavně přinejmenším na CPU je často docela blbost používat single floats v registrech - nejsou 80. léta a rozdíl ve výkonu je nepostřehnutelný (na rozdíl od čistě vektorových procesorů jako jsou GPU, které jsou výpočetními jednotkami napěchované), protože prakticky všechno sežere režie ostatních komponent (všechna ta "nepočítací" logika, čekání na paměti apod. Takže ten kvalitní algoritmus můžete úplně snadno provozovat v DP, ono se tím nic nezkazí.

+1
-1
-1
Je komentář přínosný?

No super, ale jestli nebude ani Pascal umet asynchronni shadery na DX12, tak at jdou ... (vite kam).

+1
0
-1
Je komentář přínosný?

Kdyby je náhodou nové karty neuměly, tak se nic nestane, červení se sice budou smát a plácat se po ramenou jakou že to mají technickou vymoženost i když mají po X té rebrandovaný čip, ale zeleným to vadit nebude, těch je totiž tolik, že vývojáři budou vědět že něco jako asynchronní shadery používat nebudou...

Červení tak budou sice technologicky dále, ale praktický přínos pro ně bude jen ten že nad tím budou moci... no však víme :)

+1
-5
-1
Je komentář přínosný?

Tak ja si kupuju jen GeForce, Radeona jsem mel naposled X850 a od te doby jsem o nem nechtel slyset, hlavne mi vadi kratkodoba podpora ovladacu, coz se nemeni a kartu od AMD muzete po ctyrech peti letech odepsat. NVidia je v ovladacich uplne nekde jinde, nicmene chystam se na koupi graficke karty v pristim roce a jak Pascal nebude umet asynchronni shadery, tak si poridim novou Radeonku, co bude v pristim roce s tim 2,5x vykonem navic. :-D

+1
-10
-1
Je komentář přínosný?

Takový postoj trochu nechápu - asynchronní shadery nejsou kvalitativní změna ale pouze rychlostní optimalizace. Tzn ta samá karta s nima pojede rychleji než bez nich v aplikaci, která je podporuje. Nic víc. Takže otázka nezní bude/nebude je umět, ale jak rychlá bude vůči konkurenci bez ohledu na jejich podporu a to v mixu her, které budou.
Je to ten samý rozdíl jako delta komprese/HBM/... (tady ale bez nutnosti podpory). Je to zajímavý technicky detail, ale nic podle čeho by se měl člověk rozhodovat, protože celý jejich výstup je o výkonu, který je rozhodující.

+1
+2
-1
Je komentář přínosný?

asynchronní shadery nejsou pouze nějakou rychlostní optimalizací, ale je to jedna ze základních specifikací DX12 API.

http://www.redgamingtech.com/dx12-asynchronous-shader-command-buffer-ana...

+1
+4
-1
Je komentář přínosný?

No a to něco znamená? Ale no tak :)

Jednak se tu bavíme o hypotéze, kterou tady vyslovil zřejmě majitel červené karty a jediné co mohl, je utahování z toho že současné generace něco nepodporují a předjímání že příští generace také ne...

Přitom ono je to zcela jedno, technologicky skvělé červené karty mají v DX12 pořád méně výkonu než zelené karty nehledě na to zda nějakou věc umí nebo ne.

Pokud to náhodou příští generace nVidie nebude umět, tak se svět nezhroutí, jednoduše je bude používat jen málokdo, kdo si může dovolit vývoj odděleného kódu pro různé značky grafické karty. Většína stejně bude ladit kód tak aby to běželo na zelených kartách a vyhnou se všemu co jim vadí... a důvod je zcela jednoduchý na jednu červenou kartu jsou asi čtyři zelené... trh je jasný

+1
-4
-1
Je komentář přínosný?

"No a to něco znamená? Ale no tak :) "

znamená to jenom to , že ta karta nesplňuje DX12 specifikace :))

+1
+1
-1
Je komentář přínosný?

přesně a to nijak nesouvisí s výkonem :)

+1
-2
-1
Je komentář přínosný?

Jistěže nesouvisí :)))

+1
-1
-1
Je komentář přínosný?

No pokud to umi softwarove .... porad to umi ... efektivita je neco jineho :-) ..... Pokud se to porad pocita na GPU je to ok prez CUDA nebo prez cosi jinyho ....... Pokud by to musel pocitat procak pak uz je to teda aspon podle me jina .... ale co ja vim .. sem jen amater

+1
-1
-1
Je komentář přínosný?

A mohu se zeptat které Nvidia karty mají proti stejně drahým AMD větší výkon?
Ano 950 je v % rychlejší než R7 370,750Ti je zase výrazně pomalejší.380 je srovnatelná s 960 kterou jasně poráží 380X.970 nestačí na 390...A Fury je na nových driverech zase o kus rychlejší než 980...

Pokuď někomu budou optimalizovat podle procent trhu a zcela nelogicky vynechájí konzole,tak Intelu....Ten má drtivou většinu trhu

+1
+2
-1
Je komentář přínosný?

Samozřejmě se vždy bavíme o high endu, tedy o nejsilnějších kartách.. Co přesně překonává od AMD 980Ti nebo lépe TitanX a má to stejně jako nVidia jeden čip? Já žádnou takovou kartu od AMD neznám.

Karty pod top modely jsou vždy nějak očesané a záleží na strategii výrobce a obchodní politice, není to o výkonu technologie...

+1
-2
-1
Je komentář přínosný?

V tom případě chce napsat o 980TI a předraženém Titanu...Tedy oblasti trhu kterou drtivá většina kupců naprosto ignoruje :)
Nikoliv obecně o grafikách nVidia které většinou mají soupeře od AMD a soupeře za podobný peníz většinou výkonnějšího.
O DX12 a nVidia bych raději pomlčel...Počkal bych na reálné testy,nikoliv zprzněné engine kvůli nVidii.:)

+1
+1
-1
Je komentář přínosný?

Jak kupujete počítač?

Možná si řeknete ok.. mám 10 tisíc na grafiku, koupím to nejlepší v té hranici a pak zjistíte že to co potřebujete vám dobře neběží... K čemu to je? Utracených 10 tisíc a nic na tom pořádně neběží.

Když kupuju grafiku (a obecně počítač) tak se podívám co od toho chci aby mi dobře běželo a koupím k tomu potřebné železo, nemůžu se přece omezovat penězma. A pokud na to nemám tak mám smůlu, naštěstí to člověk k životu nepotřebuje.

Moc her nehraju takže nepotřebuji mít kartu běžící dobře ve velkém balíku, paradoxně ale hraju hry, které jsou na grafiku spíše náročnější a to nejnáročnější dokonce není, alespoň podle licence počítačová hra. byť to tak používám...

Co si budem povídat nové hry na max si na něčem pomalejším než je dnešní high end nezahrajete.

Mám jen GTX980 protože v době koupě nic lepšího nebylo. Mám ji ale přetaktovanou (1509 čip, 8000 paměti) má to výkon cca 95% 980Ti a například nový ACS si na FullHD v Ultra nezahraju aby to drželo 60FPS. Hraju tedy v rozlišení 2560x1080 kde pro Ultra nastavení nestačí 4GB VRAM. takže musím ubrat - 4xMSAA jen na FSAA, HBAO+ ne Ultra. pak se vlezu na 4GB a běží to relativně často na 60FPS, ale nezřídka i 40... Ale hrát bez MSAA? Jako to se mi stalo poprvé. Nakonec to běží ultra ale bez MSAA a mám VSync nastaven na 1/2 refresh rate, takže mám 30FPS, které to drží stabilně.

Jak by to běželo na nějaké kartě jako GTX950/960 ba 970 či ekvivalentních Radeonech? Ty karty jsou tak slaboučké oproti 980Ti až to hezké není...

Ale i starší hry nejsou buhví co AC BlackFlag je na tom hodně podobně, taky zdaleka nedrží 60FPS při maximálním nastavení (a tom mám jen 2xMSAA). Tomb Raider... něco přes 40FPS (vše na max včetně věcí které nejsou v ultra, 4xMSAA)...

Sice namítnete že si mám snížit detaily, ale kdo sakra koupí novou hru a sníží detaily? Vy chcete platit nemalé peníze za novou hru a pak si ji neužít tak jak autoři zamýšleli? To si raději koupím starší hru, bude to ve slevě za hubičku, poběží na max. na mém HW bez žádného kompromisu a herní zážitek bude vynikající. Vůbec si nedokážu představit lidi co musí žít na grafice radikálně slabší než je ta GTX980Ti, když jako optimum mi přijdou až dvě takové karty a na to co mi doporučuje GeForce experience se mi chce až brečet... většina věcí na nízké nastavení nebo dokonce vypnuto...

+1
-8
-1
Je komentář přínosný?

Proboha,jí přece nikomu neberu touhu vypláznout za grafiku 15 tisíc nebo kolik.pokuď má nutkání hrát vše na max a kolem her se mu točí celý svět::),tak OK.
Osobně už moc nehraju:).Poslední rok nevyšla hra která ´by mně oslovila.Ano některé nové hry na moji R9 280 nepoběží na nějak extra vysokém FSP ani o ultra detailech ani nemluvě.Osobně ale razím jako pamětník 8bitů a Amigy že sebelepší grafika dobrou hru neudělá...
A pokuď podle testů vím že hra nebude mít hratelný FSP,prostě jsi hru nekoupím:)Ostatně stejně tak lidé s střední třídou karet či dokonce hrajících na noťasu.
Mimochodem.Celou sérii Assassin považuji za nehoráznou srajdu.
Upgradovat budu až bude většina hra škubat nebo bude na trhu zajímavá nabídka HW typu ZEN o rozumné cenové kategorii,Tedy grafiku max za.6-7litrů:)

+1
+2
-1
Je komentář přínosný?

20 tisíc mě stálo jen chlazení počítače, grafika za 15 tisíc? no, žádná závratná částka to není, kolem těch 20 tisíc za grafiku mi přijde adekvátní :)

Jinak máte pravdu kolem her se svět netočí a proto, když si k ni sednu, tak si ji chci užít, takže chci aby to vypadalo, takže logicky potřebuji výkonné železo.

Nechápu proč do diskuze taháte "kvalitu" série AC, každému sedí něco... Váš šálek kávy to není ale ti co jej chtějí hrát musí počítat s vysokou HW náročností.

+1
-4
-1
Je komentář přínosný?

Mimo toho že jsi se pochlubil:),by jsi se měl vrátit do reality a chápat že většina dá těch 20 litrů za celé PC :)
Ono vtip je v tom že karta typu 980TI řekněme za +- 18-20 litrů je cca.2X výkonnější než R9 380.Přitom stojí 3X tolik.Tedy,vyhozené peníze...
http://www.cnews.cz/recenze/geforce-gtx-950-nejen-proti-2gb-radeonu-r7-3...

Dnešní hry jsou primárně logicky vytvářeny pro konzole,tedy i na běžných PC většinou musí běhat slušně.Pokuď ne,jsou autoři čuňátka.:)
A rozdíl mezi minimálními a max.detaily? Někdy sotva postřehnutelné,opravdu to z to stojí? Já říkám že nikoliv...

+1
0
-1
Je komentář přínosný?

Je jasné že za highend se platí "exklusivní" příplatek.

Problém je pokud potřebujete kartu co má 2x vyšší výkon, pokud ano, nezbude vám nic jiného než do ní ty peníze dát, protože 3x levnější karta váše požadavky jednoduše nezvládne. A jak jsem psal současné hry mi na přetaktěné 980 neběží nejlépe a to mám jen 1.3 násobek FullHD rozlišení. Vůbec nemluvě o Prepar3D který je důvod proč mám stolní počítač, občas mám lehce přes 20FPS a chci se dostat alespoň na 30. Bohužel to nezvládne ani přetaktovaná 980Ti.

Můžu nadávat na autory že to udělali blbě, ale také chápu že dobré grafické zpracování jednoduše žádá výkon.

Pokud potřebuji vozit paletu cihel autem, koupím si na to dodávku a ne sporťáka :)

+1
-1
-1
Je komentář přínosný?

Ehm. Co se tady člověk nedocte. Ukažte mi grafiku za 10tis na které si člověk nic nezahraje. Jsem opravdu zvědavý. Mezi grafikou za 5tis a 10tis je ~ výkonový rozdíl řekněme 30%-50%. Mezi kartou za 10tis a za 20 tis je rozdíl zpravidla max 5-10%. Na 30fps tedy slovy celé 3 FPS za 10 tis! Nezbývá než majitelům pogratulovat k chytré koupi..

+1
+3
-1
Je komentář přínosný?

Ukažte mi grafiku za 10 tísc kde si pustite ACS na Ultra a poběží 60FPS. Ukažte mi grafiku za 10 tisíc kde si na FullHD zahraju TombRaidera naplno se všemi zapnutými efekty nad ultra nastavení a s 4xMSAA a bude mít 60FPS... a tak můžu pokračovat.

ezi mou grafikou za 15 a grafikou za 20 tisíc je cca 25% výkonu navíc... nevím kde berete ty 3FPS. Ale asi záleží k čemu to potřebujete. Já chci hrát hry s maximálním možným AA, tam hraje roli čistý výkon GPU, a nikdo tak vysoké nastavení AA netestuje.

+1
-2
-1
Je komentář přínosný?

tady třeba: http://pclab.pl/art67022-7.html která karta za 10 to dělá na 60FPS? Která karta za 30 tisíc to dělá na 60FPS? Ani jedna... Za 10 tisíc sotva přesáhnete 30FPS.

+1
-1
-1
Je komentář přínosný?

Pěkná ukázka. 970 za 10tis 32,7fps. 980 za 18tis 34,9. V tomto případě 2,2fps za 8tis. Tedy i vám gratuluji ;)

+1
+5
-1
Je komentář přínosný?

Máte nějaký špatný přehled o cenách... 980tka se dá sehnat v referenčních taktech (což bylo i v tom testu) do 15 tisíc naprosto s přehledem

Ano v tomto případě je to asi 7% rozdíl, velký skok je ale vidět u 980Ti 8.9FPS proti 970 sice nezní až tak moc, ale ona je to cca čtvrtina výkonu navíc. Typické rozdíly 970-980-980Ti bývají vyšší.

A to je to co je pro mne klíčové, pro nejdůležitější činnost na mém počítači totiž můžu s přehledem aplikovat výsledek syntetických testů, které reflektují rozdíly ve výkonu nejlépe a odpovídají realitě - alespoň co jsem měl čest si za poslední půlrok projít rychou cestu z 960 přes 970 k 980. Rozdíly ze syntetických testů byly nejpřesnější k tomu co jsem skutečně získal.

Samotný přechod z 970 na 980+dodatečný ovecrlock mi přinesl v Prepar3D asi 8FPS navíc v kritických scénářích. Zní to směšně, ale pokud porovnáte výchozích 15FPS vs cílových 23FPS... je to 50% výkonu navíc. 150% výkonu za 150% ceny... to je zatraceně fér...

Stále se bavíme o FullHD, resp 1.3x FullHD, takže žádné 4k.... Bohužel SparseGrid Supersampling je s velkým množstvím volumetrických efektů žrout výkonu (z 50FPS na 20FPS ani se člověk nenaděje). Bez 4xSGSSAA ale v Prepar3D nedám ani ránu a ideálně bych 8xSGSSAA, bohužel tohle nezvládne ani přetaktěná 980Ti a v současné situaci to chce jednoznačně SLI, proto doufám v Pascaly a jejich grafický výkon. 50% navíc by už mohlo stačit abych běžel 30FPS v jakékoli scéně. a když tam bude ještě výkon navíc, tak můžu zapnout pár dalších efektů, které teď zapnuté nemám.

Dvojnásobek výkonu současné 980Ti by byl luxus... na tom by běhalo celkem ok i to 8xSGSSAA. Pokud se to podaří a cena bude max v hladině současného TitanX a provozně to bude na úrovni současného, tak bude koupě naprostý no brainer. za tu cenu to bude stát...

+1
-2
-1
Je komentář přínosný?

Majitel rude karty bude mit plnou podporu DX12/Vulkan i na 3 roky starych ... stale jen "trapne" preznacovanych GPU.... Teda pokud mu nevybouchne grafika kvuli ukonceni podpory ovladacu ^^...

"Přitom ono je to zcela jedno, technologicky skvělé červené karty mají v DX12 pořád méně výkonu než zelené karty nehledě na to zda nějakou věc umí nebo ne."

Ten byl dobrej :-) To by slo v tom pripade ze bys to bral tak ze DX12 ma v sobe vse co DX9 a tudiz DX9 vykon je i DX12 !!! co na tom ze nepouziva 90% features z 12ctky ... pak by to asi byla pravda......

+1
-1
-1
Je komentář přínosný?

K čemu vám je podpora HW když to SW nepoužije?

Ashes of the Singularity v DX12.. GTX980Ti byla zhruba na úrovni FuryX, Titan by měl být lehce nad FuryX... A to se bavíme o červené hře která zeleným fakt nejede. V DX11 ukazují zelení červeným záda a jsou rychlejší než červení v DX12.

Mě jako uživatele zajímá jak mi věci, které chci používat poběží, je mi jedno jaké DX jsou použity, je mi jedno jaké featury dané technologie mají. Chci aby se mi to hýbalo, víc mě nezajímá a je mi pak jedno jak se jmenuje grafika, jakou má barvu (stejně na ni přijde vodní blok, tak na barvě nesejde :))...

Mým požadavků v letos na jaře vyhovovali zelení... Jednoduše jsem potřeboval maximální možný výkon a když pominu zbytečně drahého titana, tak 980 tka byla jediná možná volba a update teď nemá cenu, neb mi ani 980Ti výkonově nestačí a SLI nyní nechci, snad budou ty Pascaly ok... a je mě jedno co budou umět pokud mi poběží to, co chci..

+1
-2
-1
Je komentář přínosný?

To, že je tato rychlostní optimalizace specifikována v DX12 nic nemění na tom, že je to JENOM rychlostní optimalizace. Nejspíš nikdy nevýjde hra, která by bez nich nešla spustit a i pokud, tak by to nediskvalifikovalo ani současné karty nv (jen prostě nezvýší výkon), tak proč se bavit v jakékoliv jiné rovině, než výkonové?

+1
-1
-1
Je komentář přínosný?

Bavme se tedy o výkonu. Když Nvidia uvedla GeForce FX, nepodporovala standardizovanou FP24 přesnost, ale pouze pomalou FP32 nebo použitelnou FP16. Také se objevovaly hlasy - proč by to mělo být špatně? Proč by mi to mělo vadit? Vývojáři podporu pro FP16 do her doplňují, kvalita obrazu není horší, tak proč by to měl být nedostatek?

Právě proto, že to není standard. V okamžiku, kdy přišla další generace karet, se vývojáři na implementaci FP16 pro nové hry vykašlali, ty využívaly buďto FP24 nebo FP32 a výkon všech modelů GeForce FX padl na polovinu oproti Radeonům, kterým původně konkurovaly. Stejně to dopadlo s podporou pro SM3.0, kdy se opět opakoval tentýž argument, následovalo ještě několik podobných událostí. Je nějaký důvod se domnívat, že to tentokrát dopadne jinak?

+1
+4
-1
Je komentář přínosný?

hlavne ze budou mit nejnovejsi ovladace....

+1
0
-1
Je komentář přínosný?

Těch "několik podobných událostí" bych rád slyšel. Navíc zapomínáte na opačné případy - aneb jak měl DX10.1 (fetch4) přinést výhodu 3xxx radeonům "v budoucnosti" proti konkurenci (retro testy těchto karet ukazují že zestárly naopak rychleji) a nebo si můžeme střelit i do standardizovaných věci, co dnes mají všichni, ale s razantním rozdílem v rychlosti a stejně nikoho nediskvalifikují (FP filtrování). Nebo tu máme slavné 32-bitové barvy, které před koncem tisíciletí měly přinést trvalejší hodnotu Ati Rage128 grafikám (měl jsem...bohužel) díky nižšímu propadu výkonu. Realita byla taková, že tyto karty v době, kdy by měly zářit už neměly výkon na hraní a konkurence ještě stále zvládala hratelně spustit o pár let později UT2003 v 16-ti bitech.
Ukázal jste klasický "positive bias" - vzpomínáte jen na ty příklady, které sedí a zapoměl, že existují i opačné případy. Zvláště mnou poslední uvedený příklad je klasika - prostě než se něco prosadí, generace které z toho měly těžit stejně nezvládají. Ostatně do menší (GFFX) nebo větší(skoky SM3) míry se projevily i u vašich 2 příkladů.
Může to dopadnout všemi třemi způsoby - jak nulovým dopadem, tak dopadem přiliš pozdním aby to ovlivnilo tyto grafiky nebo i úspěchem (různě rychlým a s různým rychlostním rozdílem). Nevím proč vidíte jen tu poslední možnost... Proto říkám, že důležitý je jen výkon a ne způsob jeho dosažení (bez změny výstupu).

+1
-2
-1
Je komentář přínosný?

Nedílnou podmínkou AS je také preemption a context switch. Okamžitý preemption a context switch grafické úlohy je třeba nezbytný pro virtuální realitu (Time Warp). Takže jestli budeš někdy chtít využít Kepler/Maxwell pro VR, zřejmě to opravdu nebude to nejlepší řešení i když budeš mít výkonu plno.

+1
+6
-1
Je komentář přínosný?

<i>jestli budeš někdy chtít využít Kepler/Maxwell pro VR, zřejmě to opravdu nebude to nejlepší řešení</i>

Já bych tos dovolením napsal jinak - prostě se to na Kepleru a Maxwellu zakucká tak, že výkon spadne jako kámen do lomu a bude konec s použitelností současných nVidia karet na VR záležitosti. Bodka.

Jistě - najdou se lidé, kteří budu tvrdit, že to "není problém", protože si máme co? Koupit nové nVidia karty, kde to už snad bude trošku odlechtáno... no.Možná. Snad. Dejme tomu...

+1
+2
-1
Je komentář přínosný?

Delší podpora v driverech u nVidie.j Jenom mýtus.Ano nVidia je úplně jinde v mrzačení ovladačů pro starší grafiky,aby náhodou moc nekonkurovaly aktuální řadě:) Nemluvě o plných forech referujících že jim opět nejde na X,Y (nejen) starší grafice taktovat,či přímo háže do modré smrti...Výborné drivery:)
AMD alespoň jasně řekne jaké grafiky mají podporu...Opravdu někdo věří že nVidia optimalizuje pro karty typu 4XX a starší stojící proti HD 58xx...

+1
+6
-1
Je komentář přínosný?

Ze je naka karta nepodporovana, ale neznamena ze ti ze dne na den zcerna monitor a muzes ji vyhodit do kose...... Jen ze se uz nevyvyji dalsi verze ovladace....... A opravdu si nemyslim ze je lepsi kdyz mas kartu a "brcalnici" (nezamenovat se Stranou Zelenych) ti vydaj supr novej ovladac omezujci vykon, zakazujici taktovani atd...... Takovou podporu at si strcej tam kam slunce nesviti ....

+1
+1
-1
Je komentář přínosný?

:-)

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.