Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Můj názor na GeForce GTX 1080

hmm, těším se na první testy nové řady...
jenom se obávám prodejních cen a co s nima udělá náš lokální distributor :-/

+1
+14
-1
Je komentář přínosný?

koupíte v zahraničí? České ceny se ale nijak neliší od zahraničních cen.

GTX980Ti má cenovku 649 - 649 x 23,7 x 1.21 DPH = 18611Kč Za tu cenu u nás referenční GTX980Ti koupíte, koupíte ji i podstatně levněji

1080 má cenovku 599 - 599 x 23,7 x 1,21 DPH = 17177Kč a věřím že se tady v podobné sumě ukáže.

Samozřejmě že kurz dolaru může s tou cenou zahýbat, ale to nijak nVidia ani jiní výrobci nakupující a prodávající v dolarech nijak neovlivní.

Osobně doufám že se někde bude dát toho 27. 5. v čechách koupit.. 1080 má přesně takový výkon který jsem se potřeboval dostat a doteď to nebylo možné bez SLI

+1
-13
-1
Je komentář přínosný?

Ve výpočtu jsi zapomněl konstantu amerických výrobců, že 1$=1€... :-D

+1
+13
-1
Je komentář přínosný?

Žádná taková konstanta neexistuje. Jenom lidi dost často zapomínají, že v USA se uvádějí ceny bez DPH.

+1
+3
-1
Je komentář přínosný?

1.21 je ta konstanta a říká se ji DPH jak psal kolega. Když bylo € za 25 a $ za 20 tak se skutečně s lehkým zaokrouhlením dalo říct že $1 = 1€

Dokonce vám povím že tato konstanta platí pouze pro spotřebitele. Takže pokud nejste plátce DPH, tak tu konstantu platíte, pokud jste plátce DPH tak se vás ta konstanta netýká a stojí vás to jen dolar * kurz.

+1
-13
-1
Je komentář přínosný?

To platilo 1 USD bez DPH - 1 Euro s DPH. Prostě koncová cena. V USA DPH nemají a Sales Tax se připočítává až při placení, s tím, že na internetu často ani není.

+1
+1
-1
Je komentář přínosný?

zajimalo by me, kdy se dockam 37-43" 16:9 4k monitoru s gsyncem a non-TN panelem

+1
-2
-1
Je komentář přínosný?

koupit si televizi?

+1
-10
-1
Je komentář přínosný?

Ty mají lag jak prase a o Adaptive Sync si můžeme nechat zdát.

+1
0
-1
Je komentář přínosný?

Jsou to strašní magoři když k počítači připojí 3x 47" 4k@120Hz TV..

strašně nehratelné to musí být :D

+1
0
-1
Je komentář přínosný?

to neplati o kazde TV par modelu ve stredni a vyssi tride ma lag maly max do 40 ms nektere modely i pod 20 ms :) ..btw i ty "nej" monitory s FS/GS maji intput/output lag celkem taky kolem tech 35-40 ms takze nektere TV na tom nejsou zas tak spatne je ale pravdou ze nektere obycejne TV klidne pohybuji i kolem 60-100 ms kvuli postprocesingu a to uz si troufam rici je za hranou :)
......akorat neznam TV ktera by mela AS/FS/GS

navic delaji se i ciste monitory 40" ale taky neznam takto velky monitor s GS/AS/FS ty se delaji myslim do 32" a v ultra wide provedeni o par palcu vic :)

+1
-8
-1
Je komentář přínosný?

Kecy, dristy.. Moja TV ma v gaming mode intput lag 27ms a rozhodne to neni KOMFORTNE na hranie. A to touto hodnotou patri medzi tie rychlejsie. Najrychlejsiu ma tusim Sony s nejakymi +-10ms, ale stale..

+1
-10
-1
Je komentář přínosný?

proc to neni Komfortni o jakou TV se jedna ?
tak zalezi na tom co clovek hraje nektere enginy her si k zakladnimu input lagu klidne pridaji dalsich 70 ms a nektere treba jen 20 ms je jasne ze na profi hrani FPS her se hodi monitory pod 20 ms coz splnuji nektere TV i klasicke monitory ale je plno monitoru obzvlast tech levnejsich ktere jsou na tom podstatne hure ....
tim chci rict ze input lag neni jediny faktor ktery ovlivuje konecny vysledek a +-27 ms je plne dostacujici na casual hrani a i u PC monitoru v nizsi cenove skupine docela bezny parametr :)

+1
+3
-1
Je komentář přínosný?

Hlavně každý ze sebe dělá profi hráče, který se výsledky hraní živí. Pro casual hraní je dostatečná v podstatě jakákoli telka a bez problému si nenáročný člověk vystačí s 4k@30Hz za "pár" šupú. Takoví majitelé konzolí ani nemají moc na výběr a jak se jim hraje.

+1
+2
-1
Je komentář přínosný?

No isteze, pokial hrajes FPS na TV po 6 pivach a s "bleskurychlym" analogovym gamepadom, tak ti 30ms intputlag asi vadit nebude. Nie som ziaden profi hrac, skor rekreacny, ale naprosto nekomfortne sa mi hralo na TV, ked som skusal par hier, vc. GTA 5.

+1
-8
-1
Je komentář přínosný?

Že vám to nevyhovuje neznamená že to nemůže nikomu vyhovovat.

kdyby to byl problém jak popisujete, proč se prodává tolik konzolí? To je tu tolik masochistů?

+1
-6
-1
Je komentář přínosný?

Usla vam pointa zrejme, reagoval som na rakciu "Tom-a" ktory reagoval na trefnu pripomienku uzivatela "uni".

"to neplati o kazde TV par modelu ve stredni a vyssi tride ma lag maly max do 40 ms"

Toto je proste blabol. "do 40ms" neni maly lag masochista nemasochista. ;)

+1
-6
-1
Je komentář přínosný?

Já tvrdím že nějaký imput lag je spoustě lidí naprosto ukradený, kdyby tomu tak nebylo, tak se konzole neprodávají a nepřipojují k dejaké telce

+1
-2
-1
Je komentář přínosný?

Ano ano a modro-cierne saty su bielo-zlate, viac nez 256kbps mp3 neni poznat, fullHD na 5" nema vyznam, 4K je naprosta zbytocnost a koss porta pro su najlepsie prenosne sluchadla.. ;)

+1
+1
-1
Je komentář přínosný?

Necháppu co tím chcete říct?

myslíte že fakt všichni řeší takovou hovadinu? Hry hrajem bezdrátovými herními ovladači, máme 30FPS a náramně si to užíváme aniž bychom se zabývali nějakou hovadinou jako input lag. Jsou nás miliony.

+1
-8
-1
Je komentář přínosný?

Vidim, ze nechapete. To, ze konzum neriesi nejaku "hovadinu" neznamena, ze problem neexistuje. Konzum taky neriesi kvalitu reprodukovanej hudby, konzum taky neriesi kvalitu potravin, konzum pocuva na slevy a najnizsie ceny, konzum voli do vlady zlodejov a komunistov. Stay consumer. ;)

+1
-6
-1
Je komentář přínosný?

Jenže konzum je největší trh. Netušil jsem že tu chodí jen samí profesionálové, kteří budou bez prémií když nedají předepsaný počet headshotů a chápu že input lag znamená že ho nedají.

Ale kolika hráčům to skutečně kazí input lag a kolika dovednost, kolik to řeší.

Počítačové hry mě provázejí řádově od roku 88-89, vždy jsme hrá na takovém zařízení které jsem měl k dispozici a dokud to běželo, tak něco jako parametry čehokoli bylo zcela irelevantní řešit. Stejně tomu je i v současnosti. Ať už hraji na levném IPS monitoru nebo levné televizi používám bezdrátové ovladače a nikdy za život jsem nepocítil že by mě odezva zařízení při hraní jakkoli omezila.

Zvažuji si například koupit levnou 4k televizi mezi 40-50" a připojit ji k počítači a živit ji bude nová 1080. 30Hz bez problémů uživí. Jediný "parametr" co mě bude zajímat bude jak to na tom bude vypadat.

+1
+5
-1
Je komentář přínosný?

Pisal som, ze nie som ziaden profesionalny hrac. Naopak, hru som nezapol uz cca 5 mesiacov ak nie dlhsie. Pisem SAM ZA SEBA, ak ste si nestihli vsimnut, ze mne ten intputlag vadi a povazujem to za vlastnost, ktora kazi komfortnu zabavu hrania sa na TV v zavislosti od typu hry. A nie som ako mozete vidiet jediny, vyssie panuje nazor rovnaky. Takze skusim to po 3. krat a naposledy, to ze VAM alebo konzumu nieco vyhovuje neznamena, ze to musi vyhovovat hned aj MNE alebo zvysnym ludom, ktori si na danej veci potrpia viac, nez labuznik na chlebe s pastekou majkou a spuntami do usi za 99Kc. Chapete? Mna konzum nezaujima a nikdy nezaujimal a to, ze sa 90% ludi zmieri s niecim mizernym neznamena, ze ja ich budem nasledovat. Tot cela pointa mojho zdelenia. Snad to uz je takto jasne.

+1
-5
-1
Je komentář přínosný?

Pak je dobré se vyjadřovat že mluvíte o sobě

"Kecy, dristy.. Moja TV ma v gaming mode intput lag 27ms a rozhodne to neni KOMFORTNE na hranie."

z toho možná píšete o své TV, ale závěr děláte obecný, není napsáno že pro vás to není komfortní...

+1
+1
-1
Je komentář přínosný?

To co citujete je ale napisane tak, ze to vychadza z mojich empirickych skusenosti. Pisem snad, ze to nie je komfortne pre vas alebo vacsinu? Nie, nepisem. Pisem nazor, ktory sa odraza od mojej skusenosti. A ze TV, ktore su na tom este o dost horsie, nez spomenuty Samsung, je vacsina. Jedina Sony vo svojich casoch (i diky PS konzolam) vydala model, ktory mal nejakych 12ms a tam sa to uz rozhodne dalo povazovat za prijemny gaming. Len skoda, ze by som si ziadnu Sony TV nikdy nekupil, aj keby som hral hry, pretoze nic normalne a pouzitelne vzhladom na cenu momentalne (a ani v blizkej minulosti) neponukaju. Cize myslim, ze tuto temu mozeme uzavriet rovnako, ako nema vyznam polemizovat o tom, ze vacsine konzumu staci na plynule hranie 20fps a podobne.

+1
-5
-1
Je komentář přínosný?

Vyborne, kolko TV splnuje intputlag pod 20ms? Prosim o vymenovanie konkretnych modelov. ;)
A jedna sa o Samsung UE55H7000

+1
-6
-1
Je komentář přínosný?

z tech lacinejsich treba KDL42W705B a KDL42W653

btw podle toho modelu co jsi postnul se vsadim ze bude mit input lag kolem 40 ms Samsung s touto cenou a 4:4:4 .... to min nebude .......coz je mirne za hranou ale pro casual hrani by to melo stacit (v zavislosti na dalsich faktorech jasne ze kdyz budu hrat FPS hru ktera mi tam prida dalsich +-70 ms tak to nebude zadna slava )

+1
-1
-1
Je komentář přínosný?

Krotil bych nadšení a to z těchto důvodů:
1. Výkon na 4K/60fps to mít nebude, s tím bude potřeba čekat na hiend
2. Technologicky není jisté jestli DX12/AS konečně korektně fungují (s patřičným nárůstem výkonu)
3. GDDR5X jsou přeci jen mrtvým konceptem, který s námi bude jednu generaci, nevylepšuje oproti GDDR5 ani spotřebu, ani nešetří místo -> karta je opět velká
4. Cena bude do vydání skutečného hiendu s HBM2 přehnaná
5. Gsync je proprietární technologie, preferuji freesync, kde si mohu koupit z Koreje za 15 tisíc 40" 4K monitor,, nahrát do něj freesync firmware a nemusím za něj platit dvojnásobek jako u Nvidie

Všechny nedostatky které jsem zmínil vyřeší hypotetická Vega Nano, ponese jak HBM2, elegantní rozměry, nové výstupy též a o funkčnosti AS u AMD netřeba pochybovat. Mé nadšení si tedy zaslouží tato karta. Tahle NV má navíc škaredý design chladiče ala transformers

+1
+36
-1
Je komentář přínosný?

Hoj :-)
- mě třeba vlna 4K nechytla stejně jako mě minula 3D vlna.
- No k AS jsem čet, že syc to nebude uměl plně paralelně jako AMD, ale ten přepínač má být urychlený
- GDDR5X si nemyslím, že je jen výstřelek do prázdna. Naopak mě mrzí že AMD prováhalo jednu příležitost s HBM... ty paměi přicházejí tak dlouho, že se konkurence stačila připravit právě těmi GDDR5X. Takže Hiend bude HBM2 ale střední třída bude jistě dlouho na GDDR5X
- ano cena se mi jako zákazníkovi nelíbí, ale kdysi měla Nvidia i dražší karty a teď myslím hodně kdysi.
- Gsync mi připadá jako něco navíc za příplatek když tu je freesync.

Já bych nadšení mírnil z jiného důvodu a David Ježek ho tu zmínil. Toto byla prezentace Nvidie a realitu uvidíme zanedlouho v prodejních kusech. A na to jsem zvědavý. Nvidie si mohla ve svý prezentaci něco přikrášlit.
Jinak sedí to co jsem již říkal Nvidia si nyní veme Hiend výkon a AMD vyšší střed střed a nižší segment trhu.

+1
+7
-1
Je komentář přínosný?

"Naopak mě mrzí že AMD prováhalo jednu příležitost s HBM"

He ? coze AMD provahalo ? vysvetlit pls...

+1
+7
-1
Je komentář přínosný?

Dyť to tu píšu... ten nástup a příchod je přílis dlouhý... jak dlouho uz existují? Jak dlouho se o tom mluví? Mezitím se najednou objevily paměti GDDR5X jako alternativa a i jak vidíš se stačily uchytit... (Je mi jasný, že HBM jsou složitější paměti na připojení a možná i na výrobu) To je to prováhání... Jestli chceš operovat s Fury, tak ta karta byla prototyp a jak samo AMD přiznalo, ta karta neuměla využít tak vysoké propustnosti. Karta Furry uměla využít propustnosti jako skýtaly paměti GDDR5 na 7-8GHz... Článek o tom najdeš i tu na DIITu.
Dodatkem myslím samozřejmě oba typy paměti HBM/HBM2.

+1
+4
-1
Je komentář přínosný?

1) To je síce pravda, ale Vega či GP100 zrejme prídu tak za rok. Ja si osobne tiež počkám, ale nie kvôli 4K. Výkon high end čipu totiž vydrží dlhšie obdobie a chcem kartu na najbližšie 4 roky. Možno 5. A na to 1080tku nejak nevidím.

2) Čo je DX12/AS? Je iba DX12, ktorého súčasťou je AS. Počkal by som si na testy, pretože ak bude karta dávať dobré výsledky aj vzhľadom na konkurenciu, tak je jedno či AS podporujú tak ako AMD. Ja by som inak tiež rád očakával, že NV bude mať HW podporu, ale nestaval by som na tom svoje rozhodnutia. Aspoň nie takto dopredu. Ďalšia vec je otázka, čo je patričný nárast výkonu. Beriem ako fail, že NV v DX12 má nižší výkon ako v DX11. Aspoň v doterajších testoch. Keď sa ale pozrieš na testy minimálne v AoS, ta uvidíš, že ich DX11 výkon je oveľa lepši ako ten u AMD. Tak je potom jasné, že nemôžu mať rovnaký percentuálny nárast výkonu ako konkurencia.To, čo by ale mali mať, je adekvátny výkon zodpovedajúci danej triede GPU.

3) Jediná výtka u GDDR5X je, že nie sú také úsporné ako HMB a karta je taká dlhá ako s GDDR5. Čo sa týka výkonu, je to ale v poriadku. Plne dostačuje aktuálnym čipom. Veď aj Polaris nebude mať HBM. Karty v tejto výkonnej kategórii proste HBM nepotrebujú. A že je GDDR5X zastaralá? No a čo je na tom. Doteraz sme si tiež kupovali karty s takýmto konceptom a nikomu to nevadilo. A keďže ani konkurencia nemá HBM, tak je úplne bezpredmetné riešiť aký typ pamäte grafika má.

4) A aká bude cena high endu s HBM2? Bude ešte vyššie ako je aktuálna cena 1080tky.

5) Dvojnásobok ale neplatíš za to, že má monitor G-Sync namiesto AdaptiveSync. G-Sync sa poväčšinou nachádza v lepších monitoroch, ktoré majú lepšie aj všetky ostatné parametre ako 40'' 4K Korejec za 15 tisíc.

"hypotetická Vega Nano, ponese jak HBM2, elegantní rozměry, nové výstupy též a o funkčnosti AS u AMD netřeba pochybovat. Mé nadšení si tedy zaslouží tato karta."

Ok. Tak si nadšený z karty, ktorá príde na trh budúci rok. :-) A skôr sa mi zdá podľa uvedených bodov, že by si si podobným spôsobom vždy našiel zámienky nekupovať kartu od NV. Už len bod 5 ťa dištancuje od týchto GPU. Na druhej strane ti nevadí, že sa monitorom s AdaptiveSync viažeš ku grafikám od AMD (Intel fakt nepočítam). Tento stav bude platiť kým sa NV nerozhodne AdaptiveSync podporovať a to ktovie kedy bude.

+1
-9
-1
Je komentář přínosný?

1. 1080 je tedy mainstream karta? super :)

2. viděl jste Special Event. Díky 1080 si můžete zahrát jakoukoli současnou hru s "every single detail maxed out" a tím není myšleno že dá někdo ve hře ultra, ale to že veškeré věci kolem které lze zapnout, tak zapne. Předvedeny byly tři hry, všechny tři hry běžely po celou dobu na 60FPS. Jedna z těch her byla: Mirrors Ege: Catalyst. Hra o které je známo že se v ní vývojáři snaží AS maximálně využít k výkonové optimalizaci. Přípomínám "everything maxed out, every single detail turned on... at 60FPS". Ta hra běžele tak dobře protože běžela na 1080.

Určitě mají AS podělané že...

Ale koho zajímá AS, když Pascal umí SMP, což bylo po představení samotné karty klíčové představení. SMP zcela mění výkon pro VR, zcela mění výkon a způsob jakým lidé hrají na surround monitorech, na to na co člověk potřeboval tři grafiky už mu stačí 1080 a to ještě bez jakéhokoli dopadu na výkon... v prezentaci padlo něco ve smyslu "its free, what is better than free?".
SMP si ale užijí i lidé s jediným monitorem a umožní naprosto odlišný herní zážitek než dosud.

AS jsou vážně malichernost. Pořídit si dnes kartu bez SMP... to udělá jen blázen :)

3. G5X naopak mrtvý koncept není naopak.

4. 599 dolarů je přehnaná cena na kartu s daleko vyšším výkonem než karta která se prodávala za 1000 dolarů? 370 dolarů je přehnaná cena za kartu výkonnější než karta co se velice dobře prodává za 650 dolarů? Ale děte, vy. Při představení ceny ti novináři absolutně nechápali. Nedivím se, nVidia mohla nasadit 599 na 1070 a 1000 na 1080 a nikdo by netvrdil že je to drahé. zvlášť když to předešly zdůrazněné: "Prodáváme Titan X, stojí 1000 dolarů, teď máme 1080, 2x výkonnější než TitanX, 3 energeticky efektivnější než TitanX". Ta levně to nikdo nečekal, zvláště pak cena 1070 je absolutně neskutečná. Do cenové kategorie kolem 10 tisíc spadl skoro dvojnásobný výkon než tam dřív býval. V tomto směru je to podstatně zajímavější právě tahle karta. Ta totiž zcela nabourává ceny současných karet.. do mainstream segmentu dáte skokově výkon absolutního high endu..

Minimálně vydání plnotučného pascala ceny neovlivní - bude to high end s high end cenou. Co udělá AMD, těžko říct. Minimálně se bude muset naučit SMP

5. tak proč si nekoupíte monitor v koreii a nenahrajete do něj FreeSync.Někdo vám brání?

+1
-21
-1
Je komentář přínosný?

Koho zajímá AS? To je asi tak podobná otázka jako "Koho zajímá norma ATX?" chvíli předtím než zdro shoří a vezme sebou i desku s cpu. Jednou jsou AS součástí specifikací API, tak proč by neměly být implementovány korektně?

+1
+6
-1
Je komentář přínosný?

Takže nás vlastne nezaujíma aký výkon karty podávajú v hrách. Ale najdôležitejšie je, aby podporovali všetky features daného API "korektne". A predpokladám, že jediná korektná implementácia je tá od AMD, že?

+1
-13
-1
Je komentář přínosný?

zatial ano, nvidia este nic neukazala..uvidime

+1
+12
-1
Je komentář přínosný?

Moja otázka bola, čo je to korektná implementácia AS. Na to nie je totiž žiadna šablóna a implementáciu nedefinuje ani špecifikácia. Tá definuje funkcionalitu a rozhranie k tejto funkcionalite (t.j. API od spojenia Application Interface). Nespochybňujem, že AMD má lepšiu implementáciu AS ako NV. Len sa tu hráme zbytočne na slovíčka a pritom je jedno akú stratégiu si ktorá firma vyberie. Ak budú mať ich karty dostatočný výkon na svoju triedu.

+1
-23
-1
Je komentář přínosný?

Korektní implementace se pozná tak, ze nesnižuje výkon ale zvyšuje je. A to hlavně v případe, že daná vlastnost má výkon zvyšovat. Myslím že tady to nejde nijak okecat ;)

+1
+20
-1
Je komentář přínosný?

S tým súhlasím. Zoberme si voči čomu sa výkon porovnával. V AoS bol výkon u NV v DX11 dosť vysoký oproti AMD. AMD s DX12 v niektorých meraniach dokonca v DX12 iba dotiahla alebo mierne prekonala výkon NV kariet v DX11. To myslím tiež hovorí za všetko. NVIDIA dosť vyladila DX11 ešte ako odpoveď na Mantle. Potom sa samozrejme nedá očakávať taký nárast výkonu aklo u konkurencie, ktorá aspoň v AoS mala nižší základ z ktorého sa navýšenie výkonu počítalo. Ale je jasné, že minimálne klesať by výkon nemal a ani by sa nemalo stať, aby high end klesol na výkon nižšieho high endu v porovnaní s konkurenciou. Jedno ale nevieme. Akou mierou to súvisí s AS. Či sa iba to podieľa na nižšom výkone alebo je za tým aj niečo ďalšie.

+1
-2
-1
Je komentář přínosný?

Lol -"Korektní implementace se pozná tak, ze nesnižuje výkon ale zvyšuje je. A to hlavně v případe, že daná vlastnost má výkon zvyšovat.", tak to si zaramujem. Dalsia z hlbokych myslienok. Take nieco ako kvalita implementacia a bezpecnost su dost nepodstatne. Mimochodom rozne "optimalizacie" pri filtrovani textur (a svojho casu to robili aj ATI/AMD aj nVidia) sice zvysovali vykon ale vysledne to vyzeralo hnusne, to je ta "Korektní implementace", lol. Alebo mozeme ist mimo grafik, kazda bezpecna implementacia sifrovania je vlastne nekorektna , lebo potencionalne znizuje vykon.
Mimochodom nevidel som nikde explicitne napisane ze AS maju zvysovat vykon. Oni hlavne umoznuju optimalnejsie vyuzit existujuce jadra v GPU pri odlisnom navrhu enginu (pristupu) - multithreadovy engine alebo skor renderovacia cast. To ci to uz vyvojar vyuzije na zdvyhnutie fps alebo naopak na zvysenie komplexnosti/detailnosti sceny, zalezi na nom ale nikde nieje explicitne dane ze AS = vyssie FPS.

+1
-5
-1
Je komentář přínosný?

Z tohto pohľadu som sa na to ani ja nepozrel a máš samozrejme pravdu. :-)

+1
-7
-1
Je komentář přínosný?

Myslim, ze ta Vase hloubka tu moji jednu vetu, kterou jsem reagoval v pohode prekona :)) Ale jinak mne urcite bude tesit, pokud si s takovym "know-how" da te za ramecek.
- multithreading se urcite nepouziva pro zvysovani vykonu, ze?
- pokud zvysim narocnost sceny (nebo vypoctu) pri stejnem FPS (nebo casu) tak to urcite neznamena, ze jsem ve skutecnosti zvysil vykon, ze?
- Asynchronni procesy se pouzivaji take prave proto, aby se snizil vykon, ze? Urcite proto, ze na rozdil od synchronnich procesu (treba vypocetnich streamu) na sebe potrebuji cekat, ze? Takze doba za kterou spracuji napr. ctyri streamy asynchronne vs 4 streamy synchronne bude urcite delsi (byt je tam nejaky overhead), ze?
To opravdu dava smysl....mozna tady to pro Vas bude jasnejsi.. :))
https://www.youtube.com/watch?v=v3dUhep0rBs

+1
+2
-1
Je komentář přínosný?

"Jednou jsou AS součástí specifikací API"
citujte prosím přesně takovou pasáž z dané specifikace.

+1
-26
-1
Je komentář přínosný?

To není specifikace(kterou se oháněl pisatel na kterého jsem reagoval). A to co píšete nemá formu citace. A překvapivě daný dokument neobsahuje PR termín Asynchronous Shaders, natož jeho definici.

Ono se v daném linku není čeho chytit (předkládá pouze jména funkcí, a jak je používat) a není tam prakticky nic o tom co implementace/driver/GPU musí a nemusí.

Budu předpokládat, že platí to co ve Vulkanu(kde známe specifikaci), že žádná taková povinnost pro konformantní výrobce GPU není. A ona ani nemůže být, protože by to byl nesmysl - nevyrobitelné GPU. Bez citace budu prostě muset předpokládat ekvivalent toho, že si pletete vlákna a jádra. To, že uživatel si může vytvořit nekonečně vláken neznamená, že každé konformantní CPU musí být nekonečno-jádrové.

+1
-3
-1
Je komentář přínosný?

to je jedno jak tomu budeme "nadavat" async compute je soucasti DX12 a tim to hasne
napr. ve feature listu ma taky maximalni mozne velikosti textur objektu atd coz znamena ze to spada do specifikaci ktere nemusime ale muzeme vyuzit v plnem rozsahu .... takze ano Async shaders/compute je soucasti specifikace DX12

+1
-4
-1
Je komentář přínosný?

Věřte si čemu chcete, ale hasne leda oheň. No tak mi tedy ukažte, kde přesně je to ve SPECIFIKACI DirectX 12 napsané.

Jen mimochodem: To co linkujete není specifikace, ale programátorská příručka s pár příklady použití. "Asynchronous compute and graphics example" je název toho příkladu. V překladu "Příklad: nezávislé výpočty a grafika".

To co DX12 má jsou Devices, Queues a CommandLists. To je na delší lekci, ale uvnitř Queue se zpracovává sériově out-of-order a různá Queue na sobě pracují nezávisle až na uživatelovu synchronizaci (PS: nikde se neříká, jak to bude HW dělat pod pokličkou). Nicméně to samozřejmě (i) NVIDIA podporuje.

+1
-7
-1
Je komentář přínosný?

prave ze je tam toho napsane tolik ze nema smysl to sem kopirovat dostatecne voditko jsem uz postnul bud tu mame problem s nechapanim textu na vasi strane nebo si spatne vysvetlujete pojem "specifikace" :)
btw od kdy je preklad Asynchronnous ==> nezavislost to je tak ohnute ze uz to vic ani nejde ano v nekterych prikladech by se dalo pouziti popsat jako nezavisle na necem i kdyz je to porad na necem zavisle .... ale rozhodne se to tak nepreklada :)

+1
-8
-1
Je komentář přínosný?

Fajn, nová "14" nm generace GPU. Nebo 16 nm nebo kolik vlastně.

Teď ještě kdy budou fungovat ovladače, aby všechny ty nové vlastnosti k něčemu byly. Tedy kromě her, které jako obvykle budou patchnuté pro tu kterou kartu (a ovladače pro určité hry). U Nvidie se dá počítat tak za rok dva, až vyjdou Quadra a Tesly na nových čipech.

Zatímco u AMD někdy, pravděpodobně na 100% nikdy, jako doposud.

+1
-24
-1
Je komentář přínosný?

No ale fuj...
Takhle se navazet do ovladacu Ati, ktere jsou oproti 90. rokum uz "lepsi".
Navazeni se do cervenych karet se na diit rovna cervenemu ohodnoceni pod prispevkem ;-)

+1
+1
-1
Je komentář přínosný?

Polaris 10 ale nema soutezit s GP104, takze Radeon R9 480X nebude mit vykon GTX1080 a pravdepodobne ani GTX1070. Polaris 10 ma byt oproti temto kartam levnejsi a mel by urcite soutezit s podzimnim modelem GTX1060 a mozna, pokud u AMD odvedli vynikajici praci, se muze dotahnout az nekam ke GTX1070, ale to uvidime az vyjde a budou realne testy.
Takze kdo trva v teto chvili na maximalne vykonne grafice, tak nema jinou volbu nez NVidia GeForce GTX1080, kdo chce highend od AMD, tak si pocka do zimy na Vegu, zatimco highend s HBM2 od NVidie velmi pravdepodobne bude az z jara pristiho roku.
---
Ovsem zajimalo by me, kolik lidi trva na 4K rozliseni a kolik lidi je technologickymi fandy pozadujicimi VR. Predpokladam, ze jestli se najde 1000 takovych lidi v CR, tak je to hodne. Ostatni maji v penezence pripraveno maximalne neco okolo 10.000Kc a uz s GTX1070 budou mit trochu problem, takze predpokladam, ze stejne jako ja vetsina ostatnich ctenaru i zde netrpelive ocekava uvedeni Polarisu 10 a pak az se rozhodne, zda NVidii nebo AMD.

+1
+14
-1
Je komentář přínosný?

...379dolarovou GTX 1070...

u nas 479€

+1
+11
-1
Je komentář přínosný?

Spíše kolem 405€ ...

379 x 23,7 x 1.21= 10868Kč s DPH.. za tu cenu (+- nějakých pár korun) to tady bude k prodeji.

Pokud nevěříte, tak třeba...

649 x 23,7 x 1,21 = 18611Kč a počítám že za tu cenu u nás referenční 980Ti koupíte.

+1
-6
-1
Je komentář přínosný?

Mne osobne Highend moc nezajima. Je to zajimave si to precist, mit trochu prehled, co a jak, ale davat za kartu vice jak 7 max 8k mi prijdou vyhozene penize. Doba, kdy jsem sledoval kazde FPS je taky pryc :))) Pro mne je nejzajimavejsi nekde do 7k (radeji nize), pokud by se tam nacpal Polaris nebo 1060 a davalo by to 40+ pro 1440p pri strednich a vyssich detailech, tak budu nad miru spokojen ;) Na novych kartach mne motivuje spise HDR, 4k@60 do budouctna a H265.

+1
+16
-1
Je komentář přínosný?
Obrázek uživatele Jabba

Hmmm... tak "dodýchávající GeForce GTX 980 Ti a Radeony Fury / R9 3xx". Já doufám, že je podobně smýšlejících lidí povícero a zároveň jsou i nadšenými ekology, takže tyto "dodýchávající" karty neponesou do bazaru, ale rovnou do sběrného dvora technických služeb... kde si je rád vezmu.

Při této příležitosti bych takto smýšlejícím lidem chtěl poděkovat, neb ač jsem v posledních letech upgradoval sobě, i několika známým jejich "dědečky" - CPU (typicky cosi na úrovni E2140 na E6750, E8500 a Q8300), rozšiřoval jejich paměti, měnil zvukovku a přidával jim HDD, nestálo mě to díky Vám ani korunu. Díky moc přátelé a užijte si mnoho radosti s novými komponentami - zase do příchodu další generace, kterou si nezapomeňte zakoupit ! ;)))))

+1
+29
-1
Je komentář přínosný?

Narusujes koncept konzumu, ekonomove te nebudou mit radi, zato ekologove ano. :)

+1
+18
-1
Je komentář přínosný?

Nemyslim ze bude moc lidi, kteri koupili pred ~1 rokem Fury / 980, a ted ji proste vyhodi ... mozna za 5-6 let, ted putuji do bazaru :)

+1
+7
-1
Je komentář přínosný?
Obrázek uživatele Jabba

Jasně, to byla mírná nadsázka. To nejlepší funkční co jsem tam našel byla GF GTX750 ;))

+1
-1
-1
Je komentář přínosný?

prvni 16nm me sice mine neb nemam duvod upgradovat, ale celkem se tesim na nasledujici pulgeneraci, nejvice asi na nastupce GTX1070 nebo 1060 ktere doufam prijdou nekdy v Q1-2 2017 :)

+1
-11
-1
Je komentář přínosný?

Vývoj byl zmrazen a teď když se to zase rozhýbalo, tak mám dát tolik za kartu bez HBM2? No, musí ten pokrok dávkovat postupně, protože 14nm zákys bude třeba delší než ten 28nm. Nvidia a asi i AMD mě začínají těma cenama za normální mainstream hodně prudit. Snad Intel přehodnotí existenci drahé L4 cache u Irisky a začne naplno tlačit na HBM2. Snad dá AMD ke svým nejvýkonnějším APU to co k nim dávno patří - HBM2. Stejně z fullhd přejdu jedině na 4k až za pár let a i na tom 4k monitoru budu něco hrát ve fullhd, protože se čtyři pixely krásně slijou do jednoho.

Vzhledem k těm cenám by mohly mít grafiky socketové uložení GPU, aby byla možnost lehčí opravy/upgradu jako u CPU.

+1
-4
-1
Je komentář přínosný?

Za tu kartu nemusíte dát ani korunu, prostě si ji nekoupíte.

Nechápu proč se tak čertíte. TitanX za 1000 dolarů... dnes GTX1080, 2x tychlejší, 3x úspornější... 600 dolarů... 1070... rychlejší než TitanX za 379 dolarů...

Vidíte v tom něco? Já v tom vidím že nVidia 1070 je o více než 60 procent levnější než TitanX a má vyšší výkon... Sleva o více než 60%? Gratuluji nVidii, naporsto dokonalá cenovka.

Pujde dnes někdo do obchodu a koupí si jakoukoli kartu za původní cenu když za necelých 11 tisíc tady má Titana? Navíc s SMP... Opětovně začínám přemýšlet o třech monitorech v surroudu.

Mimochodem proč trvat na pamětech, které ten HW neumí dostatečně využít? Možná jste měl jít do nVidie a vysvětlit jim že ty tisícovky lidí a miliardy dolarů které do Pascalu šly měli dát vám, že byste jim to vysvětlil jak se to dělá

+1
+2
-1
Je komentář přínosný?

Tomu absolutně nerozumím :-O Víte co to bude žrát a kolik to bude stát? Kde je vaše ekologické cítění a vaše retorika "na co kupovat pořádné věci, když jdou koupit i nepořádné, hlavně že je to skoro zadarmo" :-D

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Jsou to sice pěkné články ale už měsíce nás na diit krmí tím "jak asi" budou výkoné Polarisy, te´d zase "jak asi" budou výkoné nVidie a status quo je dodržen.
Rád bych se tady ale spíše dočetl jestli si mám na hry pořídit i5 6500 nebo Xeon 6500, jestli mi ve hrách (i těch budoucích) větší cache procesoru bude k něčemu dobrá a jak se to projeví?
Rád bych se dočetl jestli má cenu kupovat SSDv SATě nebo už jen M.2, či doporučení jak se vyznat v PCI-e verzích SSD disků. A nakonec bych třeba rád viděl i nějaké lehčí srovnání (nebo) návod kde zjistit které mainboardy myjí PCI-e linky přímo do CPu a které přes řadiče.

Tyto informace bohužél nevím kde sehnat, měli by tady být a nejsou tady.

Nebo kde a za jakých možností přetaktovat HDMI kabel tak aby opravdu podávál ten kterej výkon. Na projektoru, když jsem ve windows, má myš pár milisekund zpoždění, celej obraz je vláčnej. Pustím si hru a najednou ta hra jede ostře, myš je jak na monitoru, proč? jakto? Kam se ten inputlag poděl? čím to je? proč to tak nejde i ve win.
Pořád jen úvahy nad nekonečným čekáním na karty a procesory které budou aktulní až v lednu 2017, teď je ale květen 2016 a srovnání co si v dnešní době koupit abych neprodělal tady není.

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele Jabba

Přetaktovat HDMI kabel ??? Jak se proboha "taktují kabely" ? No ty kráso...tak o tom bych si taky rád přečetl odborný článek a vyzkoušel to. Ale nejdřív bych se zkoušením asi začal na CINCHích, nebo na SCARTu :))))))

+1
+10
-1
Je komentář přínosný?

Tak "pretaktovanej kabel" si predstavuju jako kdyz vam elektrikar da do zdi CYKY 1,5 misto 2,5 ;) Podobne to bude asi u tech HDMI kabelu, proste se tam pusti vic, ale zahrivat se asi nebudou :)

+1
+6
-1
Je komentář přínosný?

kdyz se da nekde mensi prurez nez je zadouci tak je poddimenzovany :)

u kabelu ktery slouzi pouze k prenosu nelze menit takt :) jestli se tam pousti jine napeti i jiny signal nez je standardem tak to muze poskodit koncove zarizeni ....
problem je ze projektor se mu automaticky prepina mezi nekolika rezimy a dotycny bych chtel vynutit natvrdo nejspise "herni" rezim v kazde situaci protoze mu to tak vyhovuje nejlepe a nevi kde v nastaveni to ma hledat popripade jakou cestou to nastavit na pevno :)

pro Redmarx
ne na googlu se vsechno nenajde a dost casto se stava ze i to co uzivatel najde je nejspise nepresna nebo dokonce mylna informace .....

"odbornych" clanku/recenzi/navodu apod. ktere jsou mimo misu je tam az az ...a kdyz odbocime treba k Wiki tak ta je taky velmi casto vedle jak ta jedle ==> navic jsem si vsiml ze poslednich par let Wiki poupravuji roje dezinfomatoru
a z puvodne pravdiveho tematu se stava lez ci polopravda......zaplatpanbuh je tam historie uprav takze
se da dopracovat k neupravene verzi ale kdo si to kontroluje skoro nikdo a pak prejima lzive informace z Wiki.....

+1
-5
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Díky Tome, přesně tak jsem to myslel.

(jinak ten HDMI kabel je za 1300,-Kč s feritama, v1.4 a pozlacenej a povrch je ještě chráněnej nějakou kovovou mřížkou.)
(projektor se umí přepínat, ale i s natvrdo herním režimem je ve windows inputlag velkej, takže to dělají windowsi a nevím jak to v nich nastavit natvrdo).

+1
+7
-1
Je komentář přínosný?

Tak proceosry jsou jasny - vykon se od Sandy Bridge nikam nepohnul a nevypada to ani na pristi generci Kaby Lake, ze by pridal vic nez treba 1% vykonu, takze v procesorech v podstate neni o cem psat nebo snit.
---
SSD staci SATA, ono hodne zalezi ktere, bezna levna SSD s TLC bunkama kolikrat nevyuzijou naplno ani SATA3, na M.2 si idealne porid SLC SSD, ale za to das tolik, ze to predci i tu GTX1080.
---
Proste ted prave probiha generacni obrod grafik z 28nm procesu na 14/16nm a tudiz se logicky pise hlavne o tom, nebot je to opravdu velke navyseni vykonu a snizeni spotreby, takze to zajima kdekoho narozdil od veci, ktere jsi vyjmenoval a ktere zajimaji jen tebe.
---
Mimochodem, pres Google najdes info uplne o vsem, jen to nekdy neni v cestine, ale v anglictine, coz dneska neni problem. Zdaleka nejsi omezen na DIIT.

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Procesory nejsou jasný. píšu Intel Core i5-6500 s grafickým jádrem a 6MB cache vs. Intel Xeon E3-1220 v5 s 8MB cache bez grafického jádra. Cenově jsou srovnatelné, ale na hry je lepší co? Přece jen je xeon určen pro servery.
____
SSD stačí... neptám se co stačí ptám se co se vyplatí? Nebo jak se vyznat v discích které jsou sice do PCI-e ale řadičem z nich nedostanu víc jak 540Mb/s. Také jde o rychlost přístupu (jo vím že jsou rychlejší než plotnové HDD, ale tak každá nanovteřina dobrá).
Co se týká disku s TLC není to tak hrozný, našel jsem za 7000,-kč snad poslední možné kousky 120GB/s ale ta rychlost je katastrofální, nějakých 150MB/s. A to už je k ceně neakceptovatelné.
____
každý tři dny číst o tom že se posuneme o řád výš s novejma grafickema kartama které budou s HBM2 až za půl roku, už vím, co tam máš dál?
____
přes google najdu úplný kulový, na vyhledávačích musíš vědět co hledat, nenajdeš tam informace "ad hoc" navíc.

+1
+4
-1
Je komentář přínosný?

Ty CPU jsou plus-minus autobus pro hry sumak. Vetsinou ma vyhodu rychlejsi takt, pri stejnem poctu jader, cas od casu, muze pomoct Intelovsky HT, ale neni to pravidlo. Hlavne zalezi, s jakou grafikou to sparujete. Pokud to nebude neco aspon 390/980 tak se to mozna neprojevi vubec. Rozdily 1-2 FPS na hru, kde mi to jede stejne 40+ FPS jsou o nicem. Pokud to jede 60+ tak i i kdyby tam byl rozdil 10FPS, tak je to jedno. Neco jineho by to bylo v momente kdy to CPU pouzivate na intenzivni multitaksove programy, tam vam to muze dat az 20% boost.

Schvalne se podivejte tady, http://www.comptoir-hardware.com/articles/cpu-mobo-ram/31139-experience-... kde je sice starsi, ale pro nazornost dobre srovnani starickeho QX6850 s o 4generacemi starsiom 4690K. Fascinujici je, ze ve vetsine her da staricky QX v pohode hratelne FPS. (mozna ze min FPS uz ne, ale to graf neuvadi). Takze bych to shrnul, s vyjimkou par specifickych her (a to jen se starymi CPU) mi veskere "troleni" o tom, ktery CPU je lepsi, prijde usmevne.

+1
-8
-1
Je komentář přínosný?

Ty CPU jsou plus-minus autobus pro hry sumak. Vetsinou ma vyhodu rychlejsi takt, pri stejnem poctu jader, cas od casu, muze pomoct Intelovsky HT, ale neni to pravidlo. Hlavne zalezi, s jakou grafikou to sparujete. Pokud to nebude neco aspon 390/980 tak se to mozna neprojevi vubec. Rozdily 1-2 FPS na hru, kde mi to jede stejne 40+ FPS jsou o nicem. Pokud to jede 60+ tak i i kdyby tam byl rozdil 10FPS, tak je to jedno. Neco jineho by to bylo v momente kdy to CPU pouzivate na intenzivni multitaksove programy, tam vam to muze dat az 20% boost.

Schvalne se podivejte tady, http://www.comptoir-hardware.com/articles/cpu-mobo-ram/31139-experience-... kde je sice starsi, ale pro nazornost dobre srovnani starickeho QX6850 s o 4generacemi starsiom 4690K. Fascinujici je, ze ve vetsine her da staricky QX v pohode hratelne FPS. (mozna ze min FPS uz ne, ale to graf neuvadi). Takze bych to shrnul, s vyjimkou par specifickych her (a to jen se starymi CPU) mi veskere "troleni" o tom, ktery CPU je lepsi, prijde usmevne.

+1
+2
-1
Je komentář přínosný?

CPU- radeji Haswel Refresh ,ale proc ne SL 6500.
S SSD je to slozitejsi jelikoz MB ktere budes moct poridit maji vetsinou malo PCI-E linek.
Osobne si myslim ze SSD se SATA uz do desktopu nepatri- notebooky jasne.
Pokud SSD TAk PCI-e nebo M.2. a vylozene ne se SATA ale s NVME. Ale i tak te bude vetsinou v plne rychlosti limotovat PCI-E linky vetsinou zbyvaji jen 2 na misto 4. Ale na IOPS to nema vliv.
SATA a NVME je nebe a dudy a never tomu ze se povida ze to nepoznas.

Sam pouzivam Samsung 512GB M.2 PCIe_ACHI SM951 SSD z ebay za nejakych 213€
Ale zaroven zvazuji jit do x99 kde neni limit s PCIe linkama. Tim nechci rici ze nejsou deky pro soc 1151 ktere maji extra brouka ktere je take rozsiruje, ale nez priplacet za z170 radeji pujdu do x99

+1
-4
-1
Je komentář přínosný?

Jooo, takové věci se tu psali za dob starého cdrka. Dnes už to dávno není ono...

+1
+11
-1
Je komentář přínosný?

Námět na článek: Proč stojí grafická karta 20 000 Kč (slovy "dvacettisíc")?
- Mám Radeon HD4870 (512MB nějaké paměti), který stál kolem 5 000 Kč.
- Tehdejší max-end byl dvoučipová HD4870 X2, který stál přibližně 11 000 Kč.

Věřím tomu, že výkonově jsou dnešní grafické karty někde jinde, nicméně Radeon HD4870 má 8 let a pořád se na tom dá hrát.
- Všechny starší hry 1080p, max detaily jako zamlada.
- Aktuální méně nenáročné hry(adventury, arkády) v pohodě.
- Náročnější hry s nižšími detaily se dají hrát.
- Nejnovější jako Quantum Break raděj nezkouším. (42GB download + 55GB instalace?)

Podle mě je stejně drahé vyrobit max-end jak v jedné době, tak v jiné době. Proto je reálná cena dnešního max-endu 11 000 Kč.
- Zdá se mi, že Nvida a AMD mají kartelovou dohodu o cenách. Případně nemají, ale pasivně zdražují a neútočí na sebe.
- Zmenšení výrobního procesu je důvod ke zlevnění(lepší výtěžnost, více jader na waferu) obě firmy ale zdražují.
- Nuceně zdražují protože předchozí karty stály X tisíc a tak novější karta(i když jen přeznačená, s minimálním výkonem featurama navíc) musí stát X + 1 tisíc.

Zajímal by mě článek o dlouhodobém vývoji grafických karet.
- Zástupce grafiky dané éry(Nvida i AMD), výrobní technologie, výkon ve FPS stará hra, výkon ve FPS současná hra, cena.
- Jde mi o to najít vhodné rozmezí(počet let) pro koupi grafické karty.
- Příklad: Kdybych každý rok kupoval grafiku, tak přírustek výkonu je minimální(odhaduju max 10 %) nicméně nový model stojí tisíce.
4870, cena 5000, Counter Strike 80fps, Firewatch 10 fps
4890, cena 5000, Counter Strike 85fps, Firewatch 11 fps
5870, ...
- Pokud mě stála grafická karta 5000 Kč(50fps), tak nová grafická karta za 5 000 Kč mi musí dát minimálně 100% výkonu navíc(100fps ve stejné hře, stejné detaily).

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Jabba

Ono je asi zbytečné na tohle reagovat, ale zkusím to.

*Takhle to nefunguje. S takovým článkem se nikdo dělat nebude, moc práce - minimální efekt...
*Pokud tě zajímá srovnání tvé karty s čímkoli jiným, použij srovnávače, které ti dají HRUBOU představu
gpuboss.com nebo třeba www.hwcompare.com

*Hrát se dá na lecčems a pokud si vystačíš s Unrealem, Quakem (1-3), a třeba Operací Flashpoint, vystačíš si i s GeForce2MX

*Ty karty stojí tolik kolik stojí, protože dostatečné množství lidí je jejich cenu ochotno akceptovat. Pokud by jí neakceptovali, cenovka by byla jiná.

*Řeknu ti tajemství. Když jsem dělal ve Foxu, nahlédl jsem trošku za oponu a reálná cena neznačkového PC (komponenty+doprava+uskladnění+kompletace+platy lidí a prémie pro vedení) je 50-60% ceny prodejní. Nalep na to logo HP a hned je to o pár tisíc dražší :)))) Takže se dá předpokládat, že i reálná cena jednotlivých dílů bude +/- na stejné úrovni. Zbytek si jistě dovodíš ;))))

*Článek o "dlouhodobém vývoji grafických karet" by ti možná čistě z technologického hlediska napsala "stará garda", ale je to náročné, bídně placené a jen Bůh ví, jakou by to mělo čtenost. Čili pokud si to nehodláš zadat na objednávku s tím, že bys to zaplatil, tak nic takového nečekej...

*Novou kartu vybírej dle svých finančních možností a nenadávej, "proč je to tak drahé" (z toho je jasný, že na to prostě nemáš a působí to trapně). V každé cenové kategorii se něco vybrat dá (jen nesmíš chtít grafiku za 1.200Kč s DPH)...

+1
+5
-1
Je komentář přínosný?

Když vás baví hrát na elektroodpadu, tak na něm hrejte. Nikdo vás nenutí nic kupovat.

Ceny HW šly neskutečně dolů. Před 25 lety jsme dávali 80 tisíc za 386 s 4MB paměti a 20MB HDD s EGA grafikou...

a tehdy 80 tisíc byly jiné peníze než dnešních 80 tísíc. máme zlaté časy, HW za hubičku s neskutečným výkonem.

Ale miluju lidi co vezmou cenu HW v korunách z dob kdy byl dolar něco jako 15-16 korun a porovnávají to s cenou kdy je dolar 24 korun.

Pokud těch 5000 odpovídalo cca 260 dolarům, což tuším byla +- cena té karty s 512MB paměti, tak dnes by ta karta stála cca 7500. Přitom by ta karta byla pořád za 260 dolarů...

Lidi co nevidí moc daleko kolem sebe pak samozřejmě budou nadáváat jak to nenažraní výrobci zdražují, ale vůbec nebere v potaz fakt že kurz měny, která určuje kolik co bude stát se prostě změnil...

Pro některé takové by to mohl být šok, mohli by zjistit že ceny HW zůstávají už dlouhou dobu +- stejné, někde dokonce nějaký ten kus ceny ubrali.i když to u nás na krámě stojí o tisíc víc než dřív.

+1
-7
-1
Je komentář přínosný?

Ne nemáme, zlaté časy byly 2 polovina 90.tých let (hlavny když se začalo hodně taktovat, Celerony 300/333A) a dále, až konec minulé dekády, ony zlaté časy vyvrcholili cenovou GPU válkou ala 2008/9 kdy se dala sehnat GTX260 za 3800kč a pod.

Cca 2011/2012 ale nastala stagnace, vývoj výkon v CPU se krutě zpomalil, AMD přestalo konkurovat a Intel začal rejžovat a u GPU se také vše zpomalilo a začala stagnace + prodeje mainstream čipů za high end ceny, stagnace výkonu neni taková jak u CPU, furt se to ještě někam hejbe, ale zpaté časy už jsou pár let pryč. Ta GTX260 ve své době byla ekvivalentem dnešní GTX980TI a koukni kam se to hejbe, to snad nemůžeš vidět pozitivně.

+1
+7
-1
Je komentář přínosný?

A berete v potaz náročnost výroby stale menších a menších technologií? Inflaci? Rostoucí cenu práce? Tedy celkovou finanční náročnost na vývoj a výrobu? Jak padlo na Special eventu. nVidia několik let vyvíjela Pascal a nové featury, padlo na to několik miliard dolarů, podílely se na tom tisíce lidí. Fabriky vyrábějící čipy se musely přizpůsobit nižšímu výrobnímu procesu, museli vyslet, vyrobit a vyzkoušet výrobní linky, což znamená spousty peněz a logicky to musí jít poznat ve výrobních nákladech těch nových čipů...

V neposlední řadě je třeba brát v potaz nabídku a poptávku. Když vám vysoké ceny vadí, nekupujte, nikdo vás do toho nenutí, jelikož ty firmy finančně nekrvácí (ok, AMD krvácí, a to paradoxně prodávají levnější produkty), tak se najdou kupující a dokud ten počet bude dostatečný není jediný logický dovůd k tomu jít cenou dolů i kdyby to nakrásno kvůli zmíněným nákladům stále znamenalo černá čísla.

+1
-1
-1
Je komentář přínosný?

rozdiel kurzu medzi 2016 a 2008 je 60% :) cize si k 5000 pripocitaj 60%, tj vo vysledku 8000 a za tolko cca sa predava GTX970 co je karta kategorie HD4870, cize nevidim ziadnu zmenu oproti tomu ze CZK bola na tom pred 8 rokmi podstatne lepsie...

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Tom M

alebo co trapi slovenskeho chuja... CZK pred 8 rokama

+1
-3
-1
Je komentář přínosný?

To by nemohl brečet jak jsou ti výrobci nenažraní a strašně zdražují.

Má 512MB verzi, ta stávala asi o 20-30 dolarů méně než 1GB verze.

+1
-8
-1
Je komentář přínosný?

Jak je videt, tak nVidia zase jen predtavila srot, stejne jako v podani rady GTX900. Vsude se mluvi o HBM2, ale nVidia zase musela pouzit cosi jedinecneho aby byla jakoze napred pred AMD. Bohuzel blbcu se najde zase hodne co to koupi stejne jak vsichni kupovali zmetek v podani GTX970. Rada GTX1000 je zase jen prepsane cislo, ktere nic nezmeni a i s novou technologii se WAU nekona jako tomu bylo v podani 8800GTX/ULTRA.

+1
+4
-1
Je komentář přínosný?

EHM ŠROT? Sorry já sice fandím AMD a nechi tu v žádném případě monopol, ale o jakém šrotu tu mluvíš? Tahle karta střední třídy je výkonnější jak předchozí karty nejvyšší třídy... Tomu říkáš šrot? :-) I kdyby to nebylo tak růžové jak to Nvidia na svý prezentaci namalovala, tak to je pořád pěkný posun. A AMD bohužel s HBM celkem prováhala šanci... Než se HBM pořádně rozjede tak tu je slušná alternativa GDDR5X... Napsat, že to je šrot jhe fakt zcestné a až zavánějící fanatizmem...

+1
-9
-1
Je komentář přínosný?

nVidia muze prezenkovat na papire co jen chce. Pokud neprobehnou testy realnych grafik, ktere pujdou do prodeje tak je to za me porad srot, jelikoz spolecnosti nVidia neverim uz ano to ze se jmenuje nVidia, chvalili se jak rada GTX 900 umi DX12 a ona ho zas tak ani neumi, GTX970 je 4GB a ono je to taky jinak, ovladace jsou nejlepsi a jen WHQL je to nej a to co dela pri AMD je des ze dela BETY atd. a ono nakonec aj ovladace jsou na nic a oprava je to same jen prepsana cislice. Takze proto za me srot. Ukazat v 3D Marku jak je to super karta je to same jak ukazat v AUNTUTU jak je mobil dokonalej :-D. Proc nepouzili pri ukazce DX12 kterou posledni 3D Mark umi. Ono to zas tak zhave nebude.

+1
+13
-1
Je komentář přínosný?

Testy už některé proběhly, vidět bylo něco co dřív nebylo vůbec možné, vidět byly hry které běžely naprosto vymaxované nez jediného záškubu... ale když chcete být paranoidní, tak buďte.

GTX970 má 4GB paměti, nebo tam snad tolik není. Že je k části pomalejší přístup neznamená že tam paměť není. A jelikož je to nejrozšířenější karta, tak to lidem ani nevadí. Jinak by to nekupovlai. Stejně jako lidem s GTX960 nevadí užší paměťová sběrnice. Lidi zajímá výkon té karty a její cena. Když se to vejde do jejich požadavků, tak jsou ty čísla zcela bezpředmětná.

A proč zvolili prezentaci her a ne 3D Marku? Je to jednoduché... Lidi si nekupují takovéhle grafiky proto aby na tom doma pouštěli nějaké 3D Marky a koukali na výsledná číslíčka ale proto že chtějí hrát hry (pokud to nepoužijí k jinému profi účelu). Koho zajímá výsledek synetického testu, který neukáže výkon v konkrétním herním titulu. A přesně proto ukázala nVidia hry a zveřejnila i nějaké srovnání s předchozí generací - viz produktový web.

Prostě si na té kartě zahrajete každou dnešní hru maxed out ve stabilních 60FPS. Co víc si většina hráčů přeje? S dosud existujícími kartami tomu zdaleka tak není. 60FPS maxed out i na FHD s OC GTX980Ti není zdaleka vždy dosažitelné.

pokud chcete srovnat výkon, tak se koukněte na údaj TFLOPS. Ten nejlépe řekne jak je karta silná i když to vůbec neříká jak ta karta poběží ve hrách.

BTW když ty vámi zmíněné testy pouze potvrdí to co je už známé, tak věřím že svůj chybný úsudek s pokorou uznáte.

+1
-7
-1
Je komentář přínosný?

Hele sice taky píšu všude, že se má počkat na reálné produkty, ale nazvat to šrotem je fakt z cesty.... A klidně si mě tu fanboys mínuskujte jak chcete.... Ano souhlasím 970 byla totální ojeb na zákazníky a našlo se mnoho takových co ji i tak když už to věděli kupovali což nechápu... Ovladače Nvidie mě taky pozlobily já používám prakticky vždy 2 a více monitorů. Ale už mám klid jen sem delší dobu trčel na 362.
PS: jestli si myslíš, že tím že karty Nvidie budes nazývat šrotem pomáháš AMD tak děláš pravý opak... Kolik Ti je? Řek bych že tohle by Ti už mělo dojít...
A propo já mám herní PC AMD FX8320@4,6GHz+R9 380X a pracovní I5+750Ti, takže můžu s klidem na duši ríct že nejsem fanatikem ani jedné ze značek... Byť mě Nvidiačtí fanatici + AMD hateři nazývaj AMD fanatikem...

+1
+6
-1
Je komentář přínosný?

To jako chces tvrdit, ze mas doma dve PC? ...... jedno herni a jedno na praci? OMG!
"970 byla totální ojeb na zákazníky" ..... co je to za picovinu? Jaky ojeb?:o)

+1
-10
-1
Je komentář přínosný?

To nechci tvrdit to je fakt... ostatně pokud budu počítat datový centrum a treba i Raspberry Pi B+, 2, 3 tak i víc...
Ano 970tka byla ojeb - i všichni redaktoři (krom zeleného Obermaiera) to veřejně prohlásili... Podívejh se tu na shrnutí za uplynulý rok... Jako aby mi prodejce zamlčel pravdu o specifikacích... sory to je ojeb... I když se pak vymlouval na marketing...

+1
+5
-1
Je komentář přínosný?

Jo, ty myslis takovou tu totalni picovinu, ze to melo min nejakych ROMu (:o) nez bylo na papire jo? To byl fakt ojeb jak cyp:o) To je jak kdyby intel prodaval 1151 pinovy procesor o on mel ve skutecnosti jen 1150 pinu a lidi to chteli vracet:o) Samozrejme, o nic nejde, nema to absolutne zadnou souvislost s funkci daneho vyrobku, ale nekdo to nazve ojeb ......

+1
-4
-1
Je komentář přínosný?

opět to co jsem psal pokud nemáš základní znalosti poGoogli... Neseděla propustnost a i počty jednotek ve specifikacích...
A zamysli se co a jak píšeš děláš ze sebe jen hlupáka...
(protože jen hlupák by byl š´tastný že ho někdo obelhává... Lidi si kupovali tu kartu i kvůli specifikacím tak jako při nákupech čehokoli jiného) A Ty z toho máš ještě srandu a radost... co jiného se dá napsat...

+1
+7
-1
Je komentář přínosný?

Aha tak to jo ..... jako ja verim, ze se najde par debili, co kartu kupujou kvuli specifikacim ..... nebo telefon kvuli nejakemu tutututu ...... ale nas ostatni, inteligentni lidi, zajima spis vykon daneho HW nez papirova specifikace ....
Ja opravdu nevim jak moc je to filozoficka otazka nebo spis jen inteligent-debil, se ptat, zda je podstatny treba deklarovany pocet tranzistoru .... ja osobne jsem toho nazoru, ze kdyz by treba intel napsal, ze nova i7 ma 10 miliard tranzistoru a pak se opravili, ze je to jen 8 miliard, tak to proste NENI duvod si stezovat .... protoze to cislo je zcela virtualni, neovlivnuje ani koupi, ani vykon, ani spotrebu, dokonce se neda ani nijak zjistit nebo overit, je to proste JEN virtualni cislo jako ony ROP .... mozna je to spis otazka jednoducheho testu: kdyby se nvidia nikdy nepriznala, ze udelali chybu v nejakem reklamnim letaku, tak by se o tom nikdy nikdo nedozvedel, protoze karta by mela vykon jaky se od ni ocekaval a nikdo by neresil picoviny. Sak ona taky nvidia na to tusim snad ani nijak nereagovala ne? Nejake pocty jednotek nebo mhz uz NIKOHO nezajimaji od prvnich pentii, kdy zacalo zalezet na architekture a ne MHz .... koupis si snad CPU od AMD proto, ze ma 8 jader a bezi na 5GHz?:o) Samozrejme ze ne, koupis si 4jadrovou i7, ktera bezi na 3GHz, protoze je 2x rychlejsi:o)

+1
-8
-1
Je komentář přínosný?

BTJ..takovy dotaz... proc se michate do HW, kdyz o nem nemate ani paru...Vase domena je Mrkvosofti software ;)
Fakt bych rad videl tu i7 na 3Ghz, ktera je obecne 2x rychlejsi nez FX 9590..ze Vam to troleni za to stoji.

+1
-1
-1
Je komentář přínosný?

Nechaj ho, on si zije svoj diskopribeh :D

+1
-1
-1
Je komentář přínosný?

" Ano souhlasím 970 byla totální ojeb na zákazníky a našlo se mnoho takových co ji i tak když už to věděli kupovali což nechápu"

Väčšina ľudí nesleduje dianie okolo HW. My tvoríme mizivé percento zo všetkých. No a keď si pozrieš na marketing, tak je jasné prečo toľko ľudí 970tku kupuje. U 99% hier svieti táto karta ako odporúčaná. Plus je tiež odporúčaná ako minimum pre VR. Proste všade kde sa pozrieš vidíš 970tku. To ale na druhej strane nemení nič na tom, že ide o dobrú kartu. Ľudia sú s ňou spokojní, takže ju kľudne odporučia aj iným. Ja osobne by som si ju nekúpil kvôli pocitu, že nedostávam to čo je na papiery. O nič iné totiž nejde. Táto karta za daný peniaz podáva dobrý výkon, ktorý je taký ako sme mohli vidieť v recenziách. Teda zavádzanie na papiery bolo (za to si NVIDIA zlízla oprávnene kritiku), ale reálny výkon nikto nemanipuloval. Preto by som ani neodrádzal iných ak by kartu chceli. Proste by som im povedal ako to s ňou je a nech sa rozhodnú samy.

+1
-3
-1
Je komentář přínosný?

JJ Marku já tohle nerozporuji. Vím že karta podle toho co někteří říkali má i tak pěkný výkon. Určitě se při tom nesmí narazit na těch dalších 0,5GB paměti protože už z logiky je jasné, že to musí dělat potíže. Nevím prý je toho taky dost na forech, že když ta karta narazí na těch 0,5 tak to dělá potíže.
Jak dobře víš já řešim princip. Nepodpořím podvod pro to, aby si někdo neřekl tak tohle mi prošlo takže můžu zvesela pokračovat a třeba ještě i zkusit víc co mi ještě projde.

+1
-2
-1
Je komentář přínosný?

KOCHREN: Neberu ti tvuj nazor. Jen muj nazor je takovej, ze rada GTX 1000 zase bude to same jak GTX 900 serie jen s vetsim vyknem. Nikdo nepotvrdil DX12, jen se nvidia chlubi papirove necim co nebylo odskouseno a ukaze jen 3D Mark, ktery je za me nesmysl. Stejna chvala byla na GTX 970 a jak to dopadlo. Neni to spatna karta, to ne, ale je to podvod na zakaznikla stejne jak DX12, ktere GTX 900 umi hur nebo neumi a hardwarove je nastavene na maxwellu DX11 a ne DX12 narozdil od AMD. Az uvidim testy na DX12 hrach a ne zase jen na crysis 3 a dlasich 5 let starych hrach, tak uznam ze sem nemel pravdu. Do te doby si stojim za tim co sem napsal

+1
-3
-1
Je komentář přínosný?

Žiadny podvod s DX12 sa nekonal. AMD má výhodu v lepšej implementácii AS, ale kompatibilita z väčšej časti je na aplikačnej (software-ovej) vrstve. Preto aj staršie grafiky majú podporu DX 12.0. Keby šlo o HW, tak ju väčšina nemá.

+1
+3
-1
Je komentář přínosný?

Takze kdyz je to teda jen SW problem, tak proc uz ho u nVidie nevyresili???

+1
-7
-1
Je komentář přínosný?

Čo mali presne vyriešiť? AMD má navyše HW podporu AS a to je najzásadnejší rozdiel oproti konkurencii. Ale to čo teraz má robiť rozdiel je zlepšená efektívnosť aplikačnej časti (ktorú spracováva CPU a nie GPU). Preto si trebárs aj moja stará GTX 780 môže písať podporu DX12.0. A preto si to môžu písať všetky novšie (a časť aj starších) grafiky vrátane Maxwellov. Pretože to nie je o HW GPU, ale o SW. Ja nepopieram, že podporu AS má AMD lepšie zvládnutú. Ale o žiadny podvod zo strany NV sa nejedná. Nestačia vám reálne kauzy a problémy, že si musíte ďalšie vymýšľať?

+1
0
-1
Je komentář přínosný?

No Marku ano DX12 je sic díky rozdělení na tiery možné napsat i u Fermi, ale tak asi není úplně OK napsat že plně podporuji DX12 když to tak úplné není :-) Ale jak sem psal jestli ten přepínač je urychlený a vylepšený tak ty propady nemusí být až zas tak velké. Nicméně to se dozvíme až někdo veme reálný prodejný kousek a spustí na něm Ashes of Singularity... Tam je zatím největší využití AS. Nyní se tu můžeme tak leda dohadovat o papírových dracích.

+1
-4
-1
Je komentář přínosný?

U starých GPU sa uvádza podpora DX12.0 a u niektorých Maxwell a u nových GPU zasa podpora DX12.1. Teda nie je tam niečo ako plná podpora DX12 (teda vrátane všetkých featire levelov a tierov). Čo sedí aj z hladiska AS pretože rozhranie implementované majú. To, že to na rozdiel od konkurencie riešili cez SW je už druhá vec, ale špecifkácia API neurčuje ako sa má dané rozhranie implementovať. To už je na samotných výrobcoch. Týmto nijak nehájim riešnie NVIDIe, mne sa páči samozrejme viac to od AMD. V tomto prípade ale proste o podvod nejde.

EDIT: Pod DX12.0 si teda predstavujem iba SW časť bez dodatočnej HW podpory (v zmysle novej funkcionality). Inak by si staršie karty nemohli písať podporu ani tej 12.0 verzie.

+1
-1
-1
Je komentář přínosný?

http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benc...

No Polaris vypadá na takovou skomírající hvězdičku

+1
-1
-1
Je komentář přínosný?

tak tady třeba ukazují DOOM http://www.svethardware.cz/geforce-gtx-1080-nastupuje-pristi-tyden-budou...
Jinak pokud to s AS nebude moc slavný, ale i přes ten přepínač ta karta bude výkonnější jak AMD s plně paralelním AS, tak co chceš vyčítat? Ano i kdyby to neuměla to na 100% ale i tak to hrubou silou zmákla víc tak prostě je to víc. (pokud by to nezpůsobovalo nějaké problémy a propady ve hře)
DX12 nejsou jen AS i když AS je nedílnou stránkou DX12. Nicméně někdo šalamounsky rozdělil DX12 na několik tierů... Takže i když se mi to nemusí líbit klidně můžou napsat na krabici DX12...
něco jiného je řada 9xx kde díky absenci DX12 prvků se výkon propadá na úroveň nižších a levnějších karet. Ano tady je problém a jak říkám Nvidia nečekala, že DX12 přijde tak brzy.

A uzavřu to tím co pořád opakuji... ČEKÁM NA REÁLNÉ PRODEJNÉ KUSY A JEJICH RECENZE.

+1
-6
-1
Je komentář přínosný?

s tim souhlasim, taky cekam na realne kusy kde se ukaze co a jak

+1
+3
-1
Je komentář přínosný?

:-) jsem rád že jsme se shodli :-) mě šlo jen o to hrubé označení... Kdyby to nefungovalo čipy by hořely a pod tak pak by to označení sedělo.

+1
-6
-1
Je komentář přínosný?

Tak museli sme se zhodnou, jinak to ani neslo. Jako sem zvedavej na to co bude v realu. No snad uz to bude jen vse lepsi. Vypada to zatim, ze ano, ale az tak za 2-3 mecice bude vse jasne :-)

+1
-2
-1
Je komentář přínosný?

to musela cekat vsak jak dlouho je tu Mantle podle me to proste jen nestihli implementovat do navrhu

podivejte jak treba pekne BNV kontrovala Eyefinity svym SMP na kterem zacali makat chvilku potom (tohle treba AMD pokakalo ze koncept Eyefinity prestali rozvijet mit neco jako SMP do toho jeste funkcni Async compute by bylo super ....vim ze obe technologie jsou jen pro minoritni cast zakazniku ale potencial v tom je...)

+1
-4
-1
Je komentář přínosný?

"střední třídy je výkonnější jak předchozí karty nejvyšší třídy" ....... tomuto nerozumim .... na kazdem webu pisou, ze je o 30% rychlejsi nez dosud nejrychlejsi titan x ...... nechapu proc se mluvi o stredni tride, kdyz je to hiend??? Je to proste rychlejsi nastupce predchozi generace za stejnou cenu 980 a pulku titanu ..... ja myslim, ze je to naprosto v poradku ...

+1
-4
-1
Je komentář přínosný?

tak zkus zauvažovat třeba na to přijdeš...
pokud ne tak je to pro to, že Hiend je tvořen velkým čipem jako byl Titan a pak 980Ti. 1080 je stejně jako 980tka vytvořen ze středního čipu. A pak tu jsou malé čipy jako např 960tka... Tak.. doufám, že už Ti to dobliklo :-)

+1
-6
-1
Je komentář přínosný?

Co je prosimte "velky cip"???
To mi prijde jak diskuze uplnych debilu o tech "okradenych" ROPech u nejake te grafiky. VSICHNI vedeli jaky ma ta grafika vykon a to, kolik ma nejakych vnitrnich jednotek NIKOHO, OPRAVDU NIKOHO, nezajima! A pokud nekdo kupuje grafiku podle toho, kolik ma nejakych vnitrnich virtualnich jednotek, tak mi je ho nesmirne lito .....
By me zajimalo, co na 300mm^2 je na 1080ce maleho, JE to proste velky chip ....

+1
-4
-1
Je komentář přínosný?

jestli nevíš takové základní věci tak je mi líto ale nebudu Ti tu vysvětlovat a vypisovat vše... Strýček GOOGLE Ti poradí...
PS: bez základních znalostí by ses tu moc neměl pouštět do debat...

+1
0
-1
Je komentář přínosný?

My, normalni a inteligentni (!!!) lide, nakupujem pocitacove komponenty podle vykonu, NE podle poctu ROP, poctu Mhz, poctu tutututu, velikosti kremiku (OMG) - zkratka nejakych nicnerikajicich cisel, ktere se nedaji porovnat ani v ramci jedne generace stejneho produktu od jednoho vyrobce!
Kdyz je GTX1080 aktualne (zdaleka) nejrychlejsi kartou na trhu, tak ja - PAN BTJ, ji nazvu hiendovou = IMHO - nazyvat ji za mainstream muze leda kreten ......
Ja si nemyslim, ze tohle je otazka nejake vnitrni viry, fanatismu nebo proste jen obycejne lidske hlouposti, to je otazka ciste vulkanske logiky:o) Nazveme nejnovejsi i7ku lowendem, protoze za pet let tu mozna bude rychlejsi procesor .... OMFG!

+1
-10
-1
Je komentář přínosný?

mainstream je 1070 a ta přináší do mainstreamu výkon dosud absolutní špičky. za cenu mainstremu.

+1
-4
-1
Je komentář přínosný?

Taky jsem za mainstream povazoval x60 a x70 ..... tady jisti lide za pouze mainstream povazujou x80 i presto, ze je to nejvykonnejsi karta na trhu. Tak .... clovek se stale uci:o))))

+1
-12
-1
Je komentář přínosný?

Skôr sa miešajú pojmy mainstream karta a mainstream čip. Kochren očividne hovoril o mainstream čipe čo GP104 určite je. To, že ho NV dokáže použiť na high end GPU je vec druhá a ich plus. Samozrejme GTX 1080 je karta, ktorá je ako celok jednoznačne high end (s mainstream GPU čipom) ako výkonom tak aj cenou. High end čip od NV ešte len príde budúci rok - GP100. Na ňom budú založené nové high end grafiky. :-)

+1
-4
-1
Je komentář přínosný?

Ale chapes, ze jsi napsal celkem oxymoron ze? "Hiend prijde pristi rok .... "
Pokud by GP104 mel byt mainstream cip, tak bych tak nejak logicky ocekaval, ze bude i nejaky lepsi cip .... to, ze lepsi cip bude za rok, za dva, je asi celkem jiste, stejne jako, ze bude vychazet rano slunko:o) To by jsme totiz mohli oznacit dnes vsechno jako totalni odpad a rict, ze hiend vyjde za 10 let .... to je proste strasna vocasarna.
Stejne jako znaceni tech GPU ..... cekal bych, ze GP104 bude proste novejsi nez GP100 .... si pamatuju, ze to snad tak i kdysi byvalo.

+1
+2
-1
Je komentář přínosný?

Ja byl toho nazoru, ze za hi-end se bere neco, co je v dane chvili nejlepsi, ale tak asi nejdu s dobou a unikaji mi krucialni zalezitosti ve zmene terminologii dnesni mlade generace. Treba za mych mladych let se strileckam rikalo FPS .... dnes se FPS rika konzolovym hram pro retardovane jedince ovladane dvema tlacitky, tak co se da delat:) Pisu si ... dnes mainstrem ("hlavní proud") znamena high end ("ve vyšší kategorii") a high end uz neexistuje ..... rikam, dobre vedet:o)

+1
-8
-1
Je komentář přínosný?

"dnes mainstrem ("hlavní proud") znamena high end ("ve vyšší kategorii")"

Ale ono to predsa platí. Na karty ako celok. Keď sa ale bavíme o vnútrajšku a v tomto prípade o čipe, ktorý nové Pascal karty nesú, tak nejde dnes ešte nejde o čip najvyššej triedy. Za ten sa považuje veľký GP100 čip. Tak isto to bolo aj u Keplera (GK100) či Maxwella (GM100). Čipy s prívlastkom x04 (GK104, GM104 či aktuálny GP104) sú mainstream resp. čipy strednej triedy. Nie high end. V tomto prípade sa high end nevzťahuje na výkon či cenu ale iba na to do akej triedy patrí čip pre grafické karty. Samozrejme ako GP104 tak aj GP100 môžu byť použité na high end GPU (kde sa už bavíme o výkone a cene koncového produktu a teda toho čo zaujíma zákazníka). Takto to aspoň vnímam ja. :-)

+1
+2
-1
Je komentář přínosný?

A taky je treba mozne ze GP104 je proste to nejvyssi, co nvidia vyda a zadne GP100 pristi rok nebude:)

+1
-4
-1
Je komentář přínosný?

nerikalo se FPS hram DOOMovky ? :D

+1
+2
-1
Je komentář přínosný?

rikalo :)

+1
-2
-1
Je komentář přínosný?

Ashes of The Singularity... Jen Radeon Pro Duo má o 1FPS víc než GTX1080 :)

http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

+1
-9
-1
Je komentář přínosný?

a co ma byt ? :D
jasne a Fury ma o 3 fps mene a 390 o 6fps a 980ti o 9 fps
rekl bych ze to bude hra ktera potrebuje velmi slusne CPU a ze ne vzdy si dobre poradi s multi GPU resenim (hadam jen dle toho ze i se stejnou kartou byvaji extremni rozdily v zavislosti na CPU)

+1
+4
-1
Je komentář přínosný?

Co má být? že v té hře 1080 dosahuje v podstatě stejného výkonu jako AMD karta za dvojnásobnou cenu. Polaris pak podává velice nepřesvědčivé výsledky.

A co je slušné CPU. Počítáte že si k tomu někdo bude pořizovat něco horšího než i7?

Vsadím se s vámi že 1080 nakrmím na 100% obyč pentiem na 3.2GHz a naopak že 5960X na 4.6GHz nebude stačit živit GTX950... Použiji na to Prepar3D v3 v fullHD rozlišení s 8xMSAA a 8xSGSSAA

+1
-4
-1
Je komentář přínosný?

takze kdyz mi karta s i-5 udela dejme tomu 30 fps a ta sama karta s 6x jadrovou i7 udela 60 fps v te same hre se stejnym nastavenim tak mam takovy benchmark brat vazne a jako hruby nedostatek ?

uz z tech testu je jasne ze kdyz jsou ostatni AMD/NV karty ze stavajici generace tesne v zavesu za PRO DUO i za 1080 tak to by stalo se nad tim aspon trochu zamyslet proc tomu tak je kdyz v jinych hrach jsou ty rozdily mnohem vetsi ...

navic i 980ti ma jen o 9fps mene pritom papirove by mel byt rozdil mnohem vetsi ...

+1
+4
-1
Je komentář přínosný?

berete si to jak chcete, nehodlám s vámi polemizovat nad prostým konstatování, závěry ať si z toho dělá každý sám, nic víc, nic méně.

Jedna argumentace, která je podstatou věci...

In Ashes of the Singularity, the Nvidia GTX 1080 has framerates that are around 10-12% higher than AMD's R9 Fury X. These scores were provided by the same gamer on the same system, so this comparison should be fairly accurate.

+1
+4
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.