Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Aktualizováno - GeForce GTX 1080 Ti ohlášena: předobjednávky od čtvrtka

Bez nativní podpory api DirectX 12 koupě jak prase, uplne zbytecny, zprasený produkt, rekvas.

+1
+1
-1
Je komentář přínosný?

Prosím definujte nativní podporu DX12. Buď karta podporuje nebo ne. Tato podporuje a pro spotřebitele je klíčový finální výkon ne jakým způsobem k němu produkt dojde. TitanX výkon má, bude ho mít i 1080Ti, tohle už by mělo v klidu zvládat všechny nové tituly na FHD v max. detailech na 60+FPS Těch v průměru 35% výkonu navíc oproti 1080 by to mělo zaručovat.

+1
0
-1
Je komentář přínosný?

JirkaK - nativni podpora/akcelerace api je kdyz cip/hardware jeho kod umit pocitat svou interni logikou(je nato od navrhu prizpusoben/navrzen) a ne ze jeho kod dodatocne softwarove/nalepen do-emuluje skrz svou hrubou vypocetni silu, jednoduse Pascal nedokaze DX12 akcelerovat interne ale jenom ho propocitava externe teda softwarove z cehoz plyne nulovy az nizsi %+ vykonostni narust(FPS), rok 2017 jiz bude rokem kdy prijdou herni tituly zalozene na api DirectX 12 masivne(...PS4 Pro, Xbox One S...), cili majitele grafickych karet Geforce budou proste vykonostim bonusem tahani nakratko jelikoz jejich cip bude jiz hodne zastaraly.

Hardwarove pocitani api DirectX 12 zvladala jiz pred 5 lety vydana prvni CGN grafika AMD Radeon HD 7970, cili Geforce GTX 1080 Ti je karta horsi jak 5 let stara ale prodavana za sakra nenazranou cenu.

Kdyby nebylo AMD nemeli by sme tu api DirectX 12 ktere vzniklo na pilirech api Mantle nakolik se lidi z AMD jiz nemohli divat na to spani na vavrinech, to ze DX12 Microsoft umele omezil jenom na tupe a debilni Windows 10 je vec druha.

Kdyz vyjde Volta ktera uz nema byt jenom prachprostym refreshem Maxwell-u jako Pascal, potom se muzeme o pocitani nizkourovnoveho kodu api DirectX 12 NVIDII zacit bavit, zatim ne.

Dekujte AMD ze mate dnes to co mate, DX12, Vulkan, ZEN, ze Intel slevnuje, NVIDIA jak jiz tradicne vyprodava sklady hodne zastaralych grafickych cipu, do pul roku bude GTX 1080 Ti na bazarech za polovicni cenu, jelikoz tu bude Vega a Volta pred vydanim, koupe GTX 1080 Ti sou proste naprosto vyhozene penize!

+1
+1
-1
Je komentář přínosný?

NVIDIA nič neemuluje. Všetko počíta cez HW jej grafických kariet. Keby došlo k SW emulácii DX12, tak by mala výrazne horšie výsledky ako konkurencia. Problémom je to, že sa začali viac využívať compute shader-e. Na túto situáciu je AMD lepšie pripravené. NVIDIA HW sa musí "prepínať" medzi compute a rendering úlohami, zatiaľčo AMD ich rieši asynchrónne a paralelne. Lepšie v tomto prípade využíva svoje zdroje. Podstatné ale je, že GPU od oboch výrobcov počítajú compute aj rendering úlohy na HW. Nedochádza k žiadnej emulácii. CPU by to nestíhal spočítať ani zďaleka tak ako GPU. To by GPU od NV nestratili iba jednotky percent ale desiatky percent výkonu. A už vôbec by nemávali aspoň mierne zlepšenie ako je to napríklad u GTX 1080 či GTX 1070. Takže naozaj menej toho fanatizmu a viac faktov.

+1
-3
-1
Je komentář přínosný?

Marek Moravčík - ja nepsal o sw emulaci/pocitani kodu api DirectX 12 skrze CPU ale GPU, tobe se proste hodi kdyz si sam dohodis co jiny nenapsal. Samozrejme ze kod prochazejici skrze GPU je odlisnejsi, narocnejsi, proto se i dnes dost prostredku presunulo z akcelerace CPU prave na GPU(DirectCompute, CUDA, Vulkan), aby se procesorum odlehcilo.

+1
+4
-1
Je komentář přínosný?

Ak sa píše o emulácii nejakej feature, ktorú má riešiť na to špecializovaný HW, tak sa tým myslí akcelerácia cez CPU. Ak danú feature akceleruje spomínaný HW, už sa nejedná o emuláciu, ale o HW akceleráciu. Podľa toho čo si napísal, by sa za SW emuláciu na GPU dalo označiť všetko, čo GPU akceleruje. Ani to, že NV niečo na HW úrovni vykonáva odlišne ako AMD, neznamená, že to emuluje. Takých odlišností medzi týmito firmami je viac.

+1
-5
-1
Je komentář přínosný?

Poprosím ludí čo mi dali mínus, aby mi vysvetlili rozdiel medzi SW emuláciou grafického API a jeho HW akceleráciou. Ja totiž žijem v domnienke, že ak grafické API akceleruje GPU, tak nejde o emuláciu. Rád sa nechám poučiť. :-)

+1
-4
-1
Je komentář přínosný?

Spatne.

Muzete emulovat x86_64 program na "SW procesoru" na Apple iPhone s A6 procesorem. Od toho je to slovo "Emulace", fingujete HW, jakykoli HW. Cili muzete i emulovat beh DX12 kodu, napsaneho pro DX12 GPU HW na DX11 GPU HW, pokud ten software emulator (tady driver) dobre napisete. A nekdy je levnejsi napsat SW, nez navrhnout tranzistory.

+1
+7
-1
Je komentář přínosný?

Ok. Čo teda NVIDIA iba SW emuluje z DX12? To by ma celkom zaujímalo. Pokiaľ viem, nevyužívajú asynchrónne shader-e, ale compute a rendering úlohy riešia po starom. Ale to nie je emulácia. Všetky úlohy normálne akceleruje HW grafickej karty. Toto sa proste nedá nazvať SW emuláciou DX12. Je to obyčajné preusporiadanie úloh, ktoré GPU potom rieši. A to ani nehovorím o tom, že AS nie je jedinou súčasťou DX12.

+1
-4
-1
Je komentář přínosný?

Reakce byla na vas predchozi prispevek, ze ktereho bylo jasne, ze nevite co to emulace je.

Neresim jestli, co a jak nVidia emuluje. Z vaseho prispevku... Pokud nVidia GPU neobsahuje HW obvody, ktere by ji umozlily pocitat async shadery nativne, pak nutne z principu veci EMULUJE pocitani async shaderu. A je jedno, jestli to nVidia driver hodi pres cuda cores, nebo pres CPU, nebo pres DSPcko zvukovky. Pri emulaci se ztrati nejake procento (jake zavisi na vyvojari sw) vykonu na rizeni te emulace.

"Je to obyčajné preusporiadanie úloh" - Tady prave obnazujete svou neznalost. Vyvojar napise nejaky kod, otestuje ho, vyladi ho a da ven s razitkem a domnenim, ze to pojede dobre, protoze ten HW je "compliant". Jenze po ceste k tomu sedne vyvojar u nVidie, rozlozi to, preusporada a posle na uplne jine jednotky, pak nutne dosahne jineho vysledku nez puvodni zamer. Jestlize se snazite obhajit tuhle praktiku (zelene bryle?), pak s vami nema cenu bavit. Nerozumite SW, nerozumite HW a nerozumite vztahu mezi nimi.

+1
+5
-1
Je komentář přínosný?

"okud nVidia GPU neobsahuje HW obvody, ktere by ji umozlily pocitat async shadery nativne, pak nutne z principu veci EMULUJE pocitani async shaderu"

Predpokladám, že máte vedomosti o tom, čo to vlastne je počítanie async shader-ov. Takže ma môžte opraviť ak sa mýlim. Ja to vidím tak, že ide o schopnosť GPU paralelne spracovávať compute a rendering úlohy. NVIDIA GPU túto schopnosť momentálne naozaj nemajú. Na ich strane sa v ovládači tieto úlohy preusporiadajú tak, aby ich daný HW čo najefektívnejšie spracoval. A tu vidím miesto kde NV stráca výkon (aj keď nie v každom prípade). Po tomto sa compute aj rendering úlohy odosielajú do GPU podľa pokynov v ovládači, kde sa dané úlohy naozaj aj vykonajú. Reálne na GPU. Toto podľa mňa nie je emulácia. Nikto predsa nesimuluje a ani neemuluje paralelné vykonávanie týchto úloh, ale snaží sa ich odosielať do GPU čo najefektívnejšie k danému HW.

"Vyvojar napise nejaky kod, otestuje ho, vyladi ho a da ven s razitkem a domnenim, ze to pojede dobre, protoze ten HW je "compliant". Jenze po ceste k tomu sedne vyvojar u nVidie, rozlozi to, preusporada a posle na uplne jine jednotky, pak nutne dosahne jineho vysledku nez puvodni zamer. Jestlize se snazite obhajit tuhle praktiku (zelene bryle?), pak s vami nema cenu bavit."

V prvom rade nič také neobhajujem. Za druhé, ovládače GPU takúto prácu riešia už od nepamäti. Obsahujú dokonca úplne prerobené kódy shader-ov, alebo ich značné úpravy a kopec iných vecí, ktoré zabezpečujú, aby všetko bežalo k danému HW efektívne. Jeden bývalý vývojár od NV sa sťažoval ako musia opravovať a prepisovať kódy po vývojároch hier. Mám to brať tak, že obhajujete postup, že sa na to mali vývojári od NV či AMD vykašlať a nechať taký sprašený kód bežať, pretože veď bol napísaný na "compliant" HW? Predpokladám, že nie, ale je to asi taká otázka akú ste položili vy mne. Pokiaľ výsledok v ovládačoch po úprave dosiahne efektívnejšie využitie HW, tak potom nech sa radšej vykoná. V opačnom prípade je to samozrejme fail. Vy sa teraz tvárite ako keby išlo o niečo nevýdané a nové, čo tu ešte nebolo. Pritom takéto úpravy v ovládačoch sa dejú na bežnej báze. Ja by som bol tiež samozrejme rád, keby aj samotný kód hier fungoval bezchybne už zo strany jej vývoja. Prax ukazuje ale niečo iné. Čo sa týka NV, tak tento problém je pokiaľ viem iba u Mawqell grafík, pre Pascal sa podobná úprava nerobí.

+1
-3
-1
Je komentář přínosný?

Vzasade to mate spravne, ale neuvedomil jste si, ze HW podpora pro AS prave vyzaduje obvody, ktere dokazou rozdelovat ty ulohy. Tuhle cast emuluje ovladac nVidie. Je jedno, ze to tak delal davno. Konec diskuze.
Navic, DX12 byl navrzen krom jineho, aby eliminoval zatizeni CPU. nVidia tedy tim, ze zatezuje CPU (na kterem ten ovladac bezi), aby preusporadala ulohy, protoze na to nema HW jde proti tomuhle zameru. Ale to je uz jen perlicka na zaver.

Nesnaste se prosim davat souvislost mezi veci, ktere spolu nesouvisi. To ze existuji vyvojari, kteri neumi pracovat s API tak, jak je navrzeno a delaji prasarny, ktere potom AMD a nVidia musi v ramci servisu pro zakazniky resit, to nijak nesouvisi s tim, ze nVidia emuluje nektere ficury DX12.

A ano, ja sem zastancem toho, ze vyrobci HW by nemeli opravovat sracky vyrobcu SW. Jsem vyvojar a kdyz zprasim IO operace take nepujdu za vyrobcem HW aby prekopal ovladac aby to mi to fungovalo. Je to o kulture a profesionalite.

+1
+6
-1
Je komentář přínosný?

Beriem to, že NV využíva SW scheduler, ktorý riadi vykonávanie úloh na GPU (myslím, že tak je to pre Maxwell, ale pre Pascal pokiaľ viem táto úprava nie je a tam sa rovnako ako u AMD do ničoho nezasahuje) a ok uznávam, že toto je emulácia toho čo AMD rieši HW akceleráciou. Sú podľa mňa ale aj situácie, kedy proste AMD aj NV musia upraviť resp. riešiť riadenie úloh, ktoré idú na GPU. Už len kvôli tomu, aby daný kód bežal efektívne na viacerých architektúrach GPU, ktoré daná spoločnosť ešte podporuje. Samozrejme nesmie to byť kontraproduktívne a teda nesmie to kaziť výslednú prácu vývojárov, ktorí pracovali na pôvodnom SW. Celkom by ma zaujímalo koľko času stratí NV kvôli AS scheduleru. To bude zrejme závisieť aj od toho ako je napísaná pôvodná aplikácia. Aj DX12 hra sa dá napísať tak, že sa bude fronta úloh napĺňať jedným thread-om, ak vývojári nevyužijú nové vlastnosti tohto API. Ak to ale pôjde multithreadovo tak aký bol celkový zámer, tak by to mal byť iba zlomok času z toho, čo sa získa.
Inak ďakujem za diskusiu. Pre mňa bola poučná. Rád sa bavím s ľuďmi, ktorí vedia o čom rozprávajú.

+1
-2
-1
Je komentář přínosný?

"A to ani nehovorím o tom, že AS nie je jedinou súčasťou DX12."

Pohlavni organy taky nejsou jedinou soucasti cloveka. Dokonce ani ne nezbytnou. Ale ruku na srdce, budete preferovat partnera/partnerku s pohlavnimi organy, nebo bez? :D

+1
+3
-1
Je komentář přínosný?

Grafická karta není jen HW. Grafická karta je principiálně něco jako základní deska v počítači. Obsahuje různé "prvky". Některé prvky - může to být typicky hradlové pole, mají pouze HW konstrukci bez jakéhokoliv software. To znamená, že na vstup se přivede signál a "téměř" okamžitě se objeví jeho zpracovaná verze na výstupu. Doba trvání tohoto "téměř okamžitě" je daná jen rychlostí a počtem tranzistorů uvnitř prvku. Tomuto se říká HW akcelerace. Kromě toho ale je na grafické kartě i plnohodnotný počítač se svým interním procesorem. Výstupní signál z procesoru nevznikne ze vstupního signálu "téměř okamžitě", protože je vyroben programem tohoto počítače. Podle délky programu a složitosti jeho zpracování a výkonosti procesoru může vznikat výstupní signál z této jednotky i relativně dlouho. Protože postup zpracování vstupního signálu je popsaný softwarově, říká se tomuto postupu emulace.
Takže i když DX12 vždy zpracovává grafická karta a ne procesor PC, tak podle vybavení grafické karty může toto zpracování probíhat HW akcelerací nebo SW emulací. Z principu věci je SW emulace vždy pomalejší, čili karty nevybavené HW akcelerací budou mít vždy menší výkon. Je to hodně zjednodušené, ale snad srozumitelné.
To tedy znamená, že nejmodernější nejvýkonnější karta, která nemá HW akceleraci DX12 a musí vše zpracovávat softwarově, může být méně výkonná, než průměrná zastaralá karta, která však HW akcelerátor DX12 obsahuje. Ale nemusí. :-)

+1
+6
-1
Je komentář přínosný?

JJ. Je to perfektne zrozumiteľné. :-) Ja som bol od začiatku zle nastavený už z diskusií z minulosti, kedy mi ludia tvrdili, že NVIDIA emuluje compute úlohy na CPU namiesto GPU a tak som najskôr bral aj príspevky predtým. Ale chápem čo si napísal a ďakujem za konštruktívny príspevok.

+1
-4
-1
Je komentář přínosný?

Marku to rikate spatne. Nvidia podporuje Async Compute uplne. Pouze vyuzivaji jinou implementaci, nez AMD. AMD slo cestou zrychleni prepinani kontextu, zatimco Nvidia implementovala inteligentnejsi bufferovani compute operaci - kontext prepina pomaleji nez AMD, ale za jedno prepnuti udela vic compute prace, nez AMD. Oba pristupy maji sve vyhody i nevyhody a v jedne hre tak muze byt lepsi reseni AMD a v jine bude zase lepsi reseni Nvidie. Zalezi ciste na workloadu dane hry. Trochu me zarazi, jak tady nad tim naprosti laikove mudruji, ba se za to dokonce do krve biji v diskuzi. To je skoro tema na nejakou psychiatrickou studii.

+1
-4
-1
Je komentář přínosný?

Ja som bol práve v tom, že NV na to ide zrýchlením prepínania kontextu a AMD má zimplementovaný HW scheduler, vďaka ktorému lepšie riadi rozdelovanie úloh a že dokáže naozaj paralelne vykonávať compute aj rendering úlohy. Bral som to tak, že NV má kvôli pomalejšiemu prepínaniu kontextu straty (týka sa starších generácií od Maxwella nižšie, nie Pascala) a preto potrebuje úlohy v ovladači zoradiť tak, aby sa compute a rendering úlohy striedali čo najmenej. Mne ani nejde o to biť sa za tento názor v diskusii. Vychádzam z toho čo som vyrozumel z rôznych článkov na nete. A nemám problém upraviť si názor, ak mi povie niekto skúsený, kto s daným rozhraním pracoval, ako to je. Keď som čítal články ako napríklad tento

https://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvid...

tak sa tam píše, že AMD dokáže vykonávať rozdielne typy úloh paralelne. To mne pripadá, že ak by sa iba AMD menilo kontext, tak by sa vykonávali sekvenčne. Alebo sa nakoniec nič paralelne nevykonáva? Celkom ma zaujíma ako to teda naozaj je.
Mne do toho ako som si to predstavoval vyšlo logicky aj to čo písal Mali. Vaše vysvetlenie má ale tiež logiku, pretože vychádza z iných predpokladov. Ak poznáte dobre túto tému, mohli by ste ju viac rozviesť? Podľa mňa by to zaujímalo aj ostatných.

+1
0
-1
Je komentář přínosný?

Rekl bych, ze tohle je trochu lepsi zdroj.

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070...

Implementacni detaily v kazdem pripade nejsou dulezite. Dulezite je, ze obe architektury - GCN i Pascal - podporuji Async Compute naplno.

+1
-2
-1
Je komentář přínosný?

Podle mne nemate ani Vy pravdu, pokud napisete, ze "implementaci detaily nejsou dulezite". Tato veta je velmi riskantni a pro mne to vrha pochybnosti o tom co tady pisete.
Predem reknu, ze nedelam vyvoj softw. grafik, tudiz o AS jako takovem vim houbelec (vyjma toho, co tady omila kazdy :) ).
Presto si dovolim tvrdit, ze implementace daneho rozhrani je nesmirne dulezita. Nekdy dokonce tak dulezita, ze rozhoduje o tom,zda-li toto rozhrani pouzit nebo ne. Prikladu z praxe z jinych casti SW developmentu muzu uvest mnoho. Je to prave implementace daneho rozhrani, ktera napr. urcuje, nejen jakou funckcionalitu zavolate, ale i jak ji zapracujete do vaseho algorytmu. Casto mate napr. vicero moznosti, jak danou vec provest (jako ze temere vzdy tuto moznost mate). Pak dle konkretni implementace, konkretniho vyrobce, musite stejne psat specificky kod, protoze pokud pouzijete slaba mista dane implementace, tak se Vam to vrati ve spatne performance nebo jinych problemech.

ps: samozrejme nemusite videt dovnitr implementacniho kodu, dulezity je vysledek implementace, ktery se Vam vraci.

+1
+1
-1
Je komentář přínosný?

Vy si pletete implementaci softwarovou na urovni aplikace/ovladacu a mikrokodu/hardware na urovni GPU.

+1
-1
-1
Je komentář přínosný?

Pokud volam rutinu DX12 tak volam funkci OS, ktera po te vola ovladac. Tak daleko se myslim nemylim. DX12 kod vi, ze kdyz na nem zavolam AX, on zavola dale DX z ovladace.
Tudiz nevim, v cem je problem v tom co jsem rekl. Jak je naprogramovan ovladac nebo mikrokod karty mi je v tento moment preci uplne jedno, ja ten preci nevolam, ja volam DX12

+1
-1
-1
Je komentář přínosný?

postnu sem citaci z Bedřichem linkovaného Ananda:

"At the same time however I feel it’s important to note that the scheduling change alone won’t (and can’t) guarantee that Pascal will see significant gains from async compute across the board. Async compute itself is a catch-all term – there are lots of things you can do with asynchronous work submission/execution – so async doesn’t mean that a game is making significant use of concurrency. Furthermore the concurrency is still based on filling execution bubbles, and that means that there needs to be bubbles to fill in the first place. In other words, the greatest gains from async will come from scenarios where for whatever reason, the graphics queue and its synchronous shaders can’t completely saturate the GPU on its own."

+1
0
-1
Je komentář přínosný?

Dík za zdroj. Týmto si môžem upraviť názor podľa toho ako to je.

+1
-1
-1
Je komentář přínosný?

jenže ono to tak není :-))

+1
0
-1
Je komentář přínosný?

Nie je to tak ako píše annadtech, alebo Bedrich?

+1
+1
-1
Je komentář přínosný?

Mne osobne Bedrich teda mate...

+1
0
-1
Je komentář přínosný?

Ja už by som sa najradšej preniesol cez teórie z oboch strán do reality. :-) Je dobré vedieť ako to naozaj je. Z toho čo tu bolo napísané, mi vychádza, že najlogickejšia je časť Bedrichovho komentára, kde hovorí, že obaja výrobcovia majú AS implementované s tým, že sa ich implementácia líši. A tým pádom im vyhovuje rozdielny implementačný postup v rendereroch hier. Takže búdú hry, v ktorých viac to pôjde lepšie Radeonom a hry, kde to pôjde lepšie ich konkurentom. Keby NV nemala určitým spôsobom naimplenmntovaný AS, tak by si nemohla dovoliť mať nálepku DX12 na ich grafikcých kartách. Plus na gpureportz.cz v teste pre GTX 1070 namerali, že táto karta rovnako ako radeony, spracováva compute aj rendering úlohy paralelne. Viď:

http://www.gpureport.cz/recenze/50-asus-strix-gtx-1070-o8g-gaming/async-...

To je architektúra Pascal. U Maxwella je AS zrejme riešené emuláciou naozaj tak ako píše vyššie Mali. A preto dochádza k poklesom výkonu. Tam zasa je vtipné to, že si môžu písať DX12 kvôli tomu, že ešte existuje feature level. Aj u Keplera mi ovládač ukazoval podporu DX12 ale feature level 11.0. :-) Nie je to proste jednoznačné. každopádne som zvedavý na ten avizovaný ovládač GPU, v ktorom NV slubuje 16% nárasty výkonu u jej grafík v DX12 hrách:

http://www.pcgamer.com/nvidia-is-working-on-a-big-directx-12-gpu-driver-...

To myslím ale sľubovali aj v minulý rok v lete. Takže uvidíme.

+1
0
-1
Je komentář přínosný?

Ne, podpora znamena podporu API. Opravdu vas nemusi zajimat co se deje vevnitr. Pokud vas to zajimat musi, pak je API spatne. Jedna se pouze o API a jeho vykon. Klidne muze byt uvnitr skritek s kalkulackou.
Pokud musite resit, jak to vevnitr funguje tak je rozhrani spatne(ale to samozrejme nemusite ani u NVIDIE ani u AMD).

Jinak AMD samozrejme Dekuju, moje penezenka sice AMD proklina a place, ale 1800x je jedina cesta.. ;D

+1
+2
-1
Je komentář přínosný?

To neni uplne spravne.

API vam zprostredkovava ovladac. Pro HW primo nepisete. Talze by vas nemuselo zajimat, jakje to uvnitr udelane.
JENZE! Pokud udelate nove API proto, protoze nejak nevyhovuje to stare a pak vyrobce HW udela nakou obezlicku, ktera sabotuje vase snazeni, duvod proc to nove API delate, pak to samozrejme problem je.

M$ udelal DX12 krom jineho proto, aby snizil naroky na CPU. nVidia HW nepodporuje asynchroni shadery, tim padem ovladac nVidie, ktery bezi na CPU vyzaduje nejaky CPU vykon, aby mohl emulovat asynchronni shadery pomoci nevyhovujiciho HW. To jde proti zameru M$ a z principu veci by nemel mit HW nVidie cedulku DX12. A vas jako uzivatele by melo zajimat, ze vyrobce HW dela takovehle divne praktiky :-)

+1
+6
-1
Je komentář přínosný?

V RotTR DX12 přineslo na mojí GTX1080 navýšení FPS o více jak třetinu - ne však nezajímavé průměry, ale minima, Hra, pokud nepoužiju SSAA běží v DX12 60 FPS celou dobu, v DX11 dropovala v některých scénách i na 45. Pokud takto budou v NVIDII sabotovat všechno, je pro mě DX12 dar z nebes.

+1
-2
-1
Je komentář přínosný?

Dal jsem Vam plus, ale souhlasim jen z casti.
Proto jsem psal, ze vas zajima API a jeho vykon. Co a jak vyuzite je pro vas blackbox. DX12 nespecifikuje spotrebu :-) Pokud vykon tohoto API bude v dusledku srovnatelnej s AMD grafarnama(+-10% opravdu neopravnuje k zavrzeni, pokud vykon api nespecifikuje(jakoze ne)), tak vas to opravdu nezajima, co se deje uvnitr. Az vas to zacne omezovat vazne, tak je problem, ale zatim zdaleka nikde toto nenastalo. Ani to nevypada.

+1
0
-1
Je komentář přínosný?

"nVidia HW nepodporuje asynchroni shadery, tim padem ovladac nVidie, ktery bezi na CPU vyzaduje nejaky CPU vykon, aby mohl emulovat asynchronni shadery pomoci nevyhovujiciho HW. To jde proti zameru M$ a z principu veci by nemel mit HW nVidie cedulku DX12. A vas jako uzivatele by melo zajimat, ze vyrobce HW dela takovehle divne praktiky"

Či môže mať NV cedulku DX12 závisí od toho ako je napísaná špecifikácia. Ak by NV nespĺňala mandatory funkcionalitu API, ktorú musela naimplementovať, tak by ju mať nemala. Keďže ju ale má, tak zrejme splnila to, čo bolo treba. V opačnom prípade by sa už ozvali iné firmy. Pochybujem, že by to minimálne AMD nechala len tak, keby si konkurencia lepila podporu grafických API ako sa jej zachce. A nielenm AMD, pretože by išlo o nekalú praktiku.
Potom ako píšem aj vyššie, je otázne koľko zo získaného procesorového času minie NV na SW scheduler. Ja by som povedal, že je to len zlomok z neho, ak sa DX12 využije tak ako má (teda s multithread renderingom v aplikačnej vrstve).
A tiež ako píše JirkaK, tak napríklad taká GTX 1080 z nového API ťaží tiež. Ja to môžem potvrdiť tak isto, pretože tiež vlastním túto GPU.

+1
0
-1
Je komentář přínosný?

Tak jeste jednou - Nvidia podporuje Async Compute uplne. Pouze maji jinou implementaci, nez AMD, viz. muj prispevek nahore.

+1
0
-1
Je komentář přínosný?

Radeony nepodporují DX12 feature level 12_1. Přesto nebudu tvrdit, že DX12 nepodporují. Zjistěte si, jak je DX12 koncipováno a že obsahuje čtyři feature levely.

+1
0
-1
Je komentář přínosný?

Waffer trochu míň fanatismu by to chtělo..
Ale koukám, že dnes má hlídku JirkaK, takže diskuse bude opět plodná. ;o)

+1
+9
-1
Je komentář přínosný?

proč by, výkon titanu za zaváděcí cenu 1080, 1080 o cca 3k dolů, 1070 i cca 1.2k dolů, to mi přijde fajn a kopíruje to progres předchozí generace.

Tady není o čem diskutovat, to že někdo kouká na nálepky a nezohledňuje výkon tak se jen ochuzuje. 1080 slouží třičtvrtě roku a rozhodě její koupě nelituji jak tady mnoho lidí porůznu podává a určitě se přidá i tady, že kdybych počkal, mohl jsem mít víc výkonu za stejné peníze... Nedej bože kdybych čekal na Vegu jak mnoho lidí při představené 1080 navrhovala.

+1
+1
-1
Je komentář přínosný?

JirkaK - ja nerikam ze GTX 1080 je zla karta, ale je hodne jiz zastarala, kdyby nemela NVIDIA k dispozici novej 16nm vyrobni proces a k tomu GDDR5X od Micronu, tezko by jednak pridavala dodatecne jednotky do cipu/GPU tak zdvihala frekvence cipu a grafickych pameti, jednoduse NVIDIA mela stesti, inovace v tom neni, naprosta nemodernizace, presne jako kdyz porovnam ZEN a Kabylake, ZEN je neporovnatelne modernejsi, Kabylake je jenom o 4K a Netflixu.

+1
-1
-1
Je komentář přínosný?

A keby AMD nemalo k dispozícii 14nm a HBM pamäte tak čo by bolo? Toto nie sú argumenty.

+1
+2
-1
Je komentář přínosný?

Na 28nm dokazalo AMD prekopat/integrovat vic veci jako NVIDIA, CGN je tu uz nejaky ten patek(5+ roku), kde je dnes NVIDIA? u recyklace...

A jeste jedna vec inteligente, Fury X na 28nm melo prvni generaci HBM pameti, ma je dnes Pascal? ma je v roli Titan-u X a bude je mit u 1080 Ti? ne, na Fury Nano nesahla NVIDIA ani prdem.

Vysoce prodrazene FE(Fuck Edice) jsou je poslednim zelizkem ojebavani zakazniku v roli NVIDIE.

+1
+3
-1
Je komentář přínosný?

"Na 28nm dokazalo AMD prekopat/integrovat vic veci jako NVIDIA, CGN je tu uz nejaky ten patek (5+ roku), kde je dnes NVIDIA? u recyklace"

Naozaj? A prečo dnes AMD do Vegy implementuje veci ako Tile Based Rasterizer, ktoré majú NV grafiky od Maxwellov? Žeby každá firma mala svoje plusy a mínusy?

"A jeste jedna vec inteligente, Fury X na 28nm melo prvni generaci HBM pameti, ma je dnes Pascal? ma je v roli Titan-u X a bude je mit u 1080 Ti? ne, na Fury Nano nesahla NVIDIA ani prdem."

Pomohli Fury X či Nano HBM pamäte k tomu, aby boli výkonnejšie ako ich konkurenti? Sám vieš, že nie. Aj Vege bude na nič platné z pohľadu výkonu, že má HBM namiesto GDDR5X, ak neprekoná konkurenčné grafiky voči ktorým bude smerovať. Použitie typu pamätí vôbec nehovorí o tom, kto je vyspelejší. Na druhej strane má použitie HBM výhodu aspoň v tom, že výrazne zmenšilo GPU ako celok, čo určite viacerých ludí osloví.

"Vysoce prodrazene FE(Fuck Edice) jsou je poslednim zelizkem ojebavani zakazniku v roli NVIDIE."

Čo to má spoločné s tým o čom sa bavíme? Ja by som si FE edíciu tiež nekúpil, ale tvrdiť, že ide o o..nie zákazníkov je prostý nezmysel. Ak NV našla ludí, ktorí za tie GPU požadované peniaze dali a sú s pokojní s tým čo majú, tak prečo ich nepredávať.

+1
-3
-1
Je komentář přínosný?

"...ja nerikam ze GTX 1080 je zla karta, ale je hodne jiz zastarala..." A má AMD nějakou kartu, která na tenhle zastaralý bazmek stačí? Vega? Kde se to dá koupit?

+1
0
-1
Je komentář přínosný?

A načo sú tej Fury tie HBM pamäte?
Sranda keby to bolo tak ružové ako píšeš tak sa AMD topí v peniazoch a NV krachuje.

+1
-2
-1
Je komentář přínosný?

A k čemu jsou ty inovace, když se to pořád nějak neprojevuje na výkonu? Karty ve svých cenových segmentech jsou +/- výkonově pořád nastejno... z těch vašich keců to ale vypadá, že AMD by mělo Nvidii válcovat, což se neděje...

+1
0
-1
Je komentář přínosný?

na válcování je nejlepší parní válec, ten to bere Vidia neVidia

+1
+1
-1
Je komentář přínosný?

"Na 28nm dokazalo AMD prekopat/integrovat vic veci jako NVIDIA, CGN je tu uz nejaky ten patek(5+ roku), kde je dnes NVIDIA? u recyklace..."

Nvidia recykluje i AMD stále recykluje (CGN), v čem je rozdíl?
V tom, že CGN bylo navrženo tak kvalitně, že nic jiného netřeba narozdíl od Nvidie, která je neschopná vynalézt něco nového?

LOL

+1
0
-1
Je komentář přínosný?

e-mentalwafer pocuvaj : marek je narozdiel od teba vzdelany. ty si priklad ked dojdu argumenty tak nadavky,. amd troll

+1
0
-1
Je komentář přínosný?

Tak já si kartu nekupoval dle toho zda je zastaralá nebo jaké inovace přináší - a že jich není málo - ale kvůli tomu jaký mi poskytla výkon, to jakým způsobem toho dosahuje mi je zcela irelevantní, jak tu někdo psal, pokud tam budou počítat skřítci na kalkulačkách a data budou kydat vidlema je mi, jako zákazníkovi ukradené, protože to plní, vcelku úspěšně má očekávání. I když tady bude naprosto dokonalá, inovativní technologie, ale nesplní základní požadavek - výkon, tak mi to nijak nepomůže.

Když vám dám na stůl RX480, která je zřejmě inovativnější než GTX1080Ti a zmíněnou 1080Ti ať si jednu z nich vemete... kdo šáhne po inovaci a kdo po výkonu?

+1
-2
-1
Je komentář přínosný?

Definuj nativní podporu DX12. Máš tři resource binding tiers a čtyři feature levely. Zatím žádná grafika nesplňuje vše. Vše ostatní jsou tvoje dojmy.

+1
0
-1
Je komentář přínosný?

Jdi uz do prdele kotote. Stejne te tady trpi jen kvuli flame diskuzim ktere vyvolavas.

+1
-4
-1
Je komentář přínosný?

Nie tak, ako tvoj prispevok.

+1
0
-1
Je komentář přínosný?

A co na to Jarda? Challenge accepted? :o))

+1
-1
-1
Je komentář přínosný?

Jarda se v diskuzi na pct nechal slyset, ze na web fanatickejch priznicvu AMD uz nevleze, snazil se tady delat osvetu, ale je to marny. :-D

+1
+5
-1
Je komentář přínosný?

abys nelitoval )))

+1
0
-1
Je komentář přínosný?

Pěkná karta za ne moc pěknou cenu, snad to ještě o trošku klesne s příchodem AMD. Ale kdo ví, že jo? nVidia už dlouho nemá v high endu konkurenci, tak podle toho ty ceny vypadají.
Nápadně to připomíná situaci Intel / AMD :-D (v kratším horizontu pochopitelně).

+1
-1
-1
Je komentář přínosný?

Cena je náhodou naprosto skvělá, stejně tak GTX 1080 po slevě je opravdu dobrý kup.

Tímto je AMD fakticky konkurence neschopné.

+1
-10
-1
Je komentář přínosný?

Cena je mozna hezka, ale ne pro obcany CR. Nejsem debil, abych kupoval grafarnu za 20% mesicniho platu.

+1
+2
-1
Je komentář přínosný?

Tak to máte docela slušnej plat... nemělo tam být 200%? Nic ve zlým, jen se ptám.

+1
0
-1
Je komentář přínosný?

Ta cena teda znamena zlevneni GTX1080? A teda asi slevi i GTX1070, GTX1060/6?

To by bylo dost zabijacky pro AMD, protoze by tak NVidia davala stejny ceny pri lepsim vykonu v DX11, malinko horsim nebo stejnem vykonu v DX12 a pouze horsim vykonu ve Vulkan, kterej stejne zatim skoro nikdo nepouziva.

+1
0
-1
Je komentář přínosný?

1080 zlevnila o 100$, 1070 o 30$, u 1060 není změna
1080 a 1060 budou mít rychlejší paměti

+1
+1
-1
Je komentář přínosný?

Proč zabijácký? AMD nemá nic konkurenčního k 1070 a více, takže ji vyloženě trápit nemusí. A nikdo nepočítal, že by s Vegami šli tak vysoko, jako byl Titan atd..

+1
+1
-1
Je komentář přínosný?

to ze vega prekona 1080ti je vic nez pravdepodobne, AMD se soustredilo na CPU proto tu jeste nejsou GPU

+1
-1
-1
Je komentář přínosný?

Nelzi. Pak nam to tu Jirka zase bude zpetne predhazovat. Ja zatim videl akorat Battlefront ve 4k s vsync pri 60fps, obcas neco malo pod, coz da i 1080OC s prstem v nose a rezervou... Takze zatim zadna slava. Samozrejme nevime, jestli to byla nejlepsi Vega, nebo jestli to byla vubec Vega.

+1
+4
-1
Je komentář přínosný?

Teď jsem zkoušel tutoriálovou misi Overpower v Battlefrontu 4k a moje upravená Fury má v místech, kde je natáčené video s Vegou avg 49,1fps, minimum ~39fps a max 93fps (když jsem lovil na nebi A-wingy a X-wingy). Co jsem koukal na utube, tak Vega tam měla minimum cca 55, takže tak. Myslim si, že přestože Vega toho určitě nabídne hodně, tak ani tu 1080 nedá.

+1
+1
-1
Je komentář přínosný?

Nemyslím si, že Vega bude rychlejší než 1080Ti. Kdyby ji dorovnala, bude to každopádně velký úspěch.

+1
+2
-1
Je komentář přínosný?

a už začíná hype, stejně jako RX480 dorovná 980Ti, možná půjde i přes.

Ještě před pár dny jsem všude četl že Vega mírně překoná 1080, najednou už má nejméně o 30% výkonu více. Kde to to AMD bere?

A AMD se soustředilo na CPU ne na GPU? Jelikož jsou to dvě oddělené divize, tak bych vsadil na to že každý si dělal na svém písečku, nebo si myslíte že si ta jedna část AMD válela šunky?

+1
-2
-1
Je komentář přínosný?

Tomuhle trolleni se neda rikat hype, nevychazi to z zadnych ofiko informaci, jen blaboly.

+1
+5
-1
Je komentář přínosný?

To je zajímavý, Marek Moravčík a JirkaK nereagují na Much Doga, kterej píše taky nesmysly, ale je to proti AMD, tak je to v pořádku. Jste prostě stejní fanatici jako ti, co tu píšou, že Vega překoná 1080Ti, jen jste na opačné straně O Veze ví všichni tady kulový, ale máte plný huby keců.
Stejně to bude "plichta" jako vždy, někde bude lepší nVidia a někde AMD - a kdo je teda vítěz??? (stejně jako u R9 390x970 nebo RX 480x1060). Jste nudní a honíte si tady jen pindíky...

+1
+3
-1
Je komentář přínosný?

Reagujem na to, čo je pre mňa zaujímavé. A v tejto diskusii to bola implementácia AS. Ty tiež nereaguješ na nezmysly, ktoré sem píše Waffer47. Asi ti to tiež vyhovuje. :-)

+1
-3
-1
Je komentář přínosný?

Ne, nevyhovuje - proč bych potom psal:
"Jste prostě stejní fanatici jako ti, co tu píšou, že Vega překoná 1080Ti, jen jste na opačné straně O Veze ví všichni tady kulový, ale máte plný huby keců."
Jsi (a JirkaK taky) prostě nVidia fanatik a Waffer AMD fanatik, a jsme zase u toho porovnávání pindíků.
Jediný co je fakt je, že v průměru má DX12/Vulcane větší přínos pro AMD. Obzvlášť když se podívám zpátky na Maxwell architekturu, kdy nVidia fans tvrdili, že nVidia DX12 umí dobře a lidem tlačili horem dolem karty typu 960 nebo 970 - obzvlášť na CZC.

+1
+2
-1
Je komentář přínosný?

Mňa hlavne zaujíma ako to, o čom sa bavíme, naozaj funguje. Nikde nepopieram, že z nových API viac ťaží AMD. Jediné k čomu som mal pripomienky bolo, že ten nárast u nich je z časti marketingový a dosiahnutý tým, že sa v porovnávacích hrách podhodnotil výkon kariet v DX11 resp. OpenGL.
V tejto diskusii je pre mňa obzvlášť zaujímavé sa porozprávať o AS, pretože ma táto téma zaujíma. Nie preto,. aby som obhájil výkon NV kariet, ale preto, lebo chcem vedieť ako sa veci naozaj majú. Nie vyfabulované rozprávky z oboch táborov. Sám som zistil, že som bol v omyle ohľadom toho ako to u AMD a NV pri AS funguje. To beriem ako prínos. Nebaví ma už riešiť flamewar medzi AMD a NV, pretože to mi nič nedá.

+1
0
-1
Je komentář přínosný?

Psát o Markovi, že je fanatik, chce hodně černé brýle. Existuje snad nějaká povinnost na vše reagovat? Nebo na koho?

+1
+1
-1
Je komentář přínosný?

Myslím, že je to může trápit, jelikož díky zlevnění se zvýší NVIDIA market share, lidé budou prodávat 1060/1070/1080 a kupovat 1080 či 1080 Ti, ty ceny jsou fakt super vzhledem k výkonu.

AMD je rádo, že má karty na úrovni GTX 1060(jen tedy AMD řešení má horší výkon v PhysX a vyšší spotřebu, teploty a hlučnost), oproti 1070/1080/1080 Ti nemá NIC.

+1
-10
-1
Je komentář přínosný?

Ano, nemá nic, takže ji to trápit nemusí. Tedy ji bude trápit to období, kdy se budou prodávat tyto 1080 a 1080ti, a AMD nic, ale do prodejů 470 a 480 to nezasáhne.

+1
+2
-1
Je komentář přínosný?

Ono je to trochu jinak, kazdej nefanousek, teda clovek, kterej vybira podle parametru a kterej ted svym financnim limitem sahne na GTX1070/GTX1080 si pozdeji v tomto roce nekoupi Vegu, nebot ta do teto skupiny grafik rozhodne bude patrit. Urcite se neda cekat, ze ten kdo ted koupi (koupil) NVidii, pobezi jeste v tomto roce znovu kupovat grafiku.

Takze vysledek aktualnich slev NVidie bude jen a jen to, ze Vegu si tento rok koupi jen fanousci AMD, kteri na ni za kazdou cenu cekaji a snad i tady na amdfans webu vsichni vedi, ze fanousku AMD zase tak moc neni.

Dam priklad:
Pred rokem a skoro pul jsem koupil Skylake, pobezim ted pro RyZena? Nepobezim a to jsem jim ohromne nadsen. Ovsem AMD aspon RyZena aspon castecne vydava +- stejne jako Kaby Lake, takze urcite nejaky aktualni zakazniky, kteri planovali vymenu PC na tento rok, Intelu urvou.

Pred necelym mesicem jsem koupil GTX1070, pobezim tenhle rok pro Vegu? Nepobezim, ikdyby byla ze zlata. Na veskere hry ve fullHD mi totiz bohate staci GTX1070 a jiste bude stacit minimalne do konce tohoto roku a predpokladam ze i cely pristi rok.

Takze ve vysledku je mozne, ze nekdy koncem pristiho roku udelam nejaky upgrade a ze pokud tou dobou stale Intel nedokaze odpovedet na RyZena (8/16 se mi hodi na praci), ze u nej nebo mozna az jeho nastupce skoncim. Je mozne, ze Vega predvede takovy vykon, ze u ni koncem pristiho roku skoncim nebo skoncim u nastupce Vegy, ale ona NVidia chysta Voltu, takze to je jeste hoodne otevrene.

Jedinne kdy se mi doufam AMD trefi do noty je muj plan pred temito vanoci upgradnout notebook, moc ho nevyuzivam a dostacuje zatim Core2Duo, ale uz je to dedecek a APU RyZen Mobile muze byt hodne zajimave jak vykonem tak cenou.

+1
+3
-1
Je komentář přínosný?

Vždyť píšete naprosto to samé co já! Psal, jsem, že nevěřím, že lidé, kteří si koupili 1060 6GB a výše teď poběží pro novou 1080 TI! A asi ani ne pro Vega. A pokud náhodou je upgrade zajímá, tak je nic nenutí nepočkat si š měsíce na Vegu, už jen proto, že i výkon na úrovni 1080 Ti by srazil ceny.
Samozřejmě lidé s nižšími, či staršími kartami momentálně o slevněných 1070, 1080 či TI začnou uvažovat a klidně si ji koupí.

+1
+1
-1
Je komentář přínosný?

Opravdu si majitel GTX1060 bude kupovat krtu za dvoj nebo dokonce trojnásobek? To asi dost těžko viď;-)

To spíše z idiotů, co vyměnovali GTX980Ti za o 30% Výkonější GTX1080 nyní budou vyměňovat za o 30% výkonnější GTX1080Ti. zOvce v praxi. Na druhou stranu, GTX1080Ti jim alespoň dá možnost si zapařit pořádně ve 4K. Takže to není takový nesmysl, jakým byl ten přechod GTX980Ti->GTX1080

+1
+8
-1
Je komentář přínosný?

S tím 4K jsi nahrál JirkoviK na smeč. :o))

+1
-1
-1
Je komentář přínosný?

proč by? Na 4k to stačí, pokud člověk nebude hrát na max. nové tituly.

na max to pro náročné tituly vyjde na to FHD, konec konců, nebyl tu teď článek kde MS pro Halo Wars pro ultra, 60FPS na FHD doporučuje právě GTX1080Ti? Proč by v MS tak odrazovali lidi, když by ty požadavky nebyly náročné

+1
0
-1
Je komentář přínosný?

Tak je otázka zda to je odrazování lidí a nebo dohazování lidí Nvidii. ;o)

+1
+1
-1
Je komentář přínosný?

Pak by asi mělo smysl kupovat Fury, kterou mimochodem doporučují v případě AMD. Výkonově to tedy bude dost rozdílné, ale kde nic není, ani smrt nebere.

+1
+1
-1
Je komentář přínosný?

Ve 4K si pořádně zapařím i s 1060, třeba CSko :D

+1
+1
-1
Je komentář přínosný?

A odvažuji se tvrdit, že až na naprosté výjimky jako Crha :-), nikdo, kdo má 1060 a výše nepoběží hned pro novou nVidii, ale počká na Vegu, jestli se to celé ještě nějak nepohne, zvláště teˇˇd po Ryzenu.

+1
+4
-1
Je komentář přínosný?

vzhledem k ceně mám velké cukání 1080Ti pořídit, ale stále ve mě trvá přesvědčení že 1080 mi musí vydržet dva roky, ještě 1 a čtrt zbývá, pak bude dobrý čas na upgrade a šáhnou po tom co bude v podobné cenové relaci poskytovat nejvyšší výkon v kombinaci s provozními vlastnostmi.

+1
-1
-1
Je komentář přínosný?

... nebo brzy vyjde nová verze simulátoru ;)

+1
+1
-1
Je komentář přínosný?

Těch vychází více. Aktuálně je na spadnutí nové verze P3D kde je prim přechod z 32 na 64bit, nikoli zásah do grafického enginu, s tím co to umí jsem ok, problém je ale právě v paměti, 32bit aplikace si musí vystačit s 4GB paměti

+1
+1
-1
Je komentář přínosný?

Ja myslim, ze clovek co kupuje 1060 urcite neni cilovka pro Ti, to stejne se vicemene da rict i o 1070. Ze se najde par jedincu je mozne, ale urcite tvrdit neco takoveho plosne je temer ryzi hloupost ;) .. koukam prispevek od Dodge.. tak to nebudu daleko od skutecnosti ;)

+1
+2
-1
Je komentář přínosný?

Mno, to je vždycky otázka momentálního rozpoložení a financí ;) Momentálně mám 1060, ale třeba jako cílovka na 1080 (ne Ti) po slevě bych se cítil. Ale na to, jak často a co hraju, je to zbytečný. Možná klukovi za vysvědčení, ale to už se vyplatí počkat na inovovaný Polarise, Pascaly či Vegu. Cena, výkon, zelená, červená, znáte to... :)

+1
+1
-1
Je komentář přínosný?

Presne spadate do te kategorie "par jedincu" ;)
A jinak urcite ano, pokud nekomu ty penize za to stoji, at si to koupi.

+1
0
-1
Je komentář přínosný?

Já myslel, že to "Ti" je odlehčenina 1080, a ono dle tabulky je to něco navíc... No pokud já vůbec někdy budu kupovat grafiku kvůli hraní, tak si to bude kvůli tomu 64 bitovému Train Simulator na Unreal Enginu, který snad ještě nevyšel, a tam se budu řídit striktně doporučením pro něj. Jinak nebudu řešit jako vždy raději nic a ať žije integrovaný Intel GMA.

+1
+1
-1
Je komentář přínosný?

Intel GMA 950? :)

+1
+2
-1
Je komentář přínosný?

Ten už je pasé ... nemá "pixle šejdrem"

+1
0
-1
Je komentář přínosný?

O DX12 zase tolik nejde, karta má výkonu jistě dost. Jde jen o to, že udělali ze všech kupců Titanu X úplné blbce. Ale NV zákazníkům to asi vůbec nevadí

+1
+5
-1
Je komentář přínosný?

Takouto logikou asi aj AMD urobilo z majitelov kariet rovnakého výkonu ako RX 480 po jej vydaní. Tiež si dané karty kúpili za citeľne vyššiu cenu. :-) Majitel Titanu X môže byť v klude. Zaplatil za to, že výkon aký má teraz 1080Ti, má on už niekoľko mesiacov. Podľa mňa sa na to pozeráš iba zo svojho pohľadu. Bolo by ti ľuto dať toľko peňazí za GPU a podľa toho uvažuješ. Ja by som tiež peniaze aké stál Titan za GPU nedal, ale zasa by som nerobil z ludí, ktorí si tieto GPU kúpili, hlupákov. Nikto ich do kúpy nenútil a verím, že vedeli, čo robia.

+1
-4
-1
Je komentář přínosný?

„Takouto logikou asi aj AMD urobilo z majitelov kariet rovnakého výkonu ako RX 480 po jej vydaní. Tiež si dané karty kúpili za citeľne vyššiu cenu. :-)“

8GB R9 390, který byl nahrazen RX 480, stál před Vánoci 2015 $259. Půl roku poté ho nahradil 8GB RX 480, který stál $239. V případě RX 480 se tedy bavíme o poklesu hodnoty R9 390 o $20. V případě GTX 1080 Ti se bavíme o poklesu hodnoty Titan X o $500. To má být srovnatelné?

+1
+5
-1
Je komentář přínosný?

No, porovnávat to s RX 480 není úplně šťastné, aby ses dostal na cenu Titanu, tak k 1080Ti si připočteš 70% ceny (700USD*1,7=12000USD) , to u RX 480 rozhodně není...
Trochu míň toho fanatismu by to chtělo

+1
+6
-1
Je komentář přínosný?

Věřte, nevěřte, ale i když bude 1080Ti v běžném prodeji, tak se najdou lidi co si koupí Titana. Že to není racionální? No jeje ale pokud se chce někdo chovat iracionálně, je to jeho věc, to neznamená že je to idiot, jen má své rozmary. Někdo takové prachy dá za flašku dobrého vína k večeři, někdo to naháže do automatu, někdo si dá do auta za půl míče audio za dalších 300k, někdo ty prachy zašije do polštáře. Každý máme něco

+1
+1
-1
Je komentář přínosný?

Neverim, ze si ted nejaky normalni fanda bude kupovat Titan. Tak mozna ve sleve ;)
Koupi to nekdo, kdo jeho potencial vyuzije, jinak je to uz jen 'marketingova' karta.

+1
+4
-1
Je komentář přínosný?

Já věřím na Jardu, babička chce doma titána

+1
+6
-1
Je komentář přínosný?

:)))

+1
+4
-1
Je komentář přínosný?

Ano je to marketingová karta nebo karta pro ty co explicitně potřebují to co poskytuje a 1080Ti to nenabídne.

Ale věřím že se najdou i třeba takoví lidi kteří si řeknou... koupím titana, prostě jen pro tu image kdy se před svými kolegy/kamarády/návštěvami prostě nemůže prezentovat s 1080Ti "pro socky".

Můžete mít parádně vypadající a padnoucí oblek na míru od neznámého krejčového, budete mít na sobě stejně vypadající od předního návrháře, vyšel vás 100x víc, plní stejnou funkci ale s tím prvním si prostě nemůžete do "high society", musel byste si připadat trapně.

+1
0
-1
Je komentář přínosný?

To je uz o socialni inteligenci nebo neinteligenci ;)

+1
0
-1
Je komentář přínosný?

Osobne si myslim, ze par lidem, co si Titan koupili, to trosku v hlave vrtat bude. Preci jen ten rozdil je velky a i kdyz je nekdo fanda do znacky, tak taky treba ty penize taky nejak hlida, byt je da za takovuhle kartu.
Uplne stejne si ale myslim, ze jsou jedinci, kteri si to koupili a jejim to jedno :)

+1
+1
-1
Je komentář přínosný?

Asi tak. :-)

+1
-1
-1
Je komentář přínosný?

Přitom pod DX12 ti stačí 16 vláken a 2 x Vegu a seš vysmátej (která bude tím pádem za 599).

+1
0
-1
Je komentář přínosný?

To ešte uvidíme ako to bude s výkonom Vegy. Mňa zatiaľ s testami v SW Battlefront a Doom nepresvedčili. SWB mal zapnutý limit a v Doom ukázali výkon, aký mám ja s OC GTX 1080.

+1
-2
-1
Je komentář přínosný?

oni už si s tou cenou |Vegy nějak poradí...

+1
+1
-1
Je komentář přínosný?

ako vies ze si poradii?? zase vyplod tvojho amd trolenia..))

+1
0
-1
Je komentář přínosný?

Docela me prekvapuje, ze sahli po plne aktivnim chipu s jen lehce oriznutou pameti. But ma proces TSMC prekvapive dobrou vyteznost i pro tak velke chipy a nebo se obavaji vykonu Vegy a radsi zvolili nakladnejsi konfiguraci chipu (horsi vyteznost), aby byla 1080 Ti bezpecne vykonnejsi nez Vega 10.

+1
0
-1
Je komentář přínosný?

Waffer47 opět přispěchal s dávkou "hate" na Nvidia, jen aby si mohl kopnout, ale Vega nikde a to je nám rudými slibována od loňského září. Tak jim alespoň zbylo pomlouvat cokoliv. Na jednom fóru perlí Crha, tady zase Waffer47, hrozná bída co dokáží lidé pro zaslepenost k jedné značce. Řeči o podpoře/nepodpoře DX12 už začínají být trapné, nikde se žádný zásadní odskok AMD karet nekoná, spíše někdy naopak. Takže pak začnou argumentovat nárustem, který je ovšem díky bídnému výsledku pod DX11. Ono o DX12 se nedávno vyjádřil herní vývojář - http://www.notebookcheck.net/Is-DirectX-12-worth-it-A-game-developer-giv... (přínos do 10% pokud na tom ztratí opravdu hodně času, peněz a vyhrají si s optimalizací) Takže tato hype bublina již taky pomalu splaskla.. RX 480 je poražena v některých titulech od 390/390X, častou soupeří s "očesanou" GTX970, takže co tady AMD předvedlo ? Zatím celkem nic, jen pořád na něco čekáme.. Tak pane Waffer a teď se do mě můžete pustit a ztrapnit mě, já vás tady nechám při vašich hate zase na delší dobu samotného, jste přeci třída..:)

+1
+1
-1
Je komentář přínosný?

Ty to vidis taky trochu moc jednoduse. Jednak Waffer neni Crha, at uz je jak chce vyhraneny, tak Crha je uplne jiny level. Za druhe, usuzovat z jednoho komentare jednoho vyvojare na to, kolik mi to cele rozhrani da, je taky tak trosku 'waffer' ne? Lidi delaji z produkty development roky a stejne je do detailu neznaji ve vsech aspektech. Osobne bych to bral trochu s rezervou, takova vyjadreni, dokud je neuslysis od aspon od vicero lidi z vicero firem, ktere vedi o cem mluvi.
A ten pokrik se 480 je tady uplne zbytecny...jsou to stejne blaboly, jako z druhe strany. At uz 480 nebo 1060 ma sve lepsi a horsi stranky. Nekde ma neco navrh 480, nekde 1060. Kazdy at si koupi co je mu blizsi. Ja bych si treba nekoupil 3GB verzi ;)

+1
+2
-1
Je komentář přínosný?

Oba to sami a ty meles taky.

Vsechny nove ohlasene velke enginy jedou na DX12 nebo dokonce neco malo bude behat i na Vulkan. Z toho je zrejme, ze RX480 je velmi dobra volba pro lidi co nechteji utratit za grafiku moc penez, casem se smiri s nizsimi detaily a hlavne si kupujou grafiku nejdriv po 5 letech.

Je proste neodiskutovatelna pravda, ze Polaris a Vega si v DX12/Vulkan vedou lepe.

To ze dneska hraju a jeste chvili budu hrat hlavne DX11 a tak jsem si v klidku koupil GTX1070 a pockam si na Volta pripadne co bude v te dobe u AMD, az nastane potreba vymenit GK, to je druha vec.

+1
0
-1
Je komentář přínosný?

Jestli si mohu mírně rýpnout, nemeleš taky trochu? "Je proste neodiskutovatelna pravda, ze Polaris a Vega si v DX12/Vulkan vedou lepe." Vega už vyšla a jsou testy? ;)
Jinak s tím DX11 (a méně) to u sebe mohu potvrdit, když vidím dlouhý seznam her na mém Steamu, co mne ještě čekají.

+1
0
-1
Je komentář přínosný?

Muze mi nekdo vysvetlit, proc by zakaznik ted kupoval titana? Kdyz nepocitam ty lidi, kteri smysleji nejdrazsi-nejlepsi a v podstate nevi co kupuji

+1
0
-1
Je komentář přínosný?

Už jen samotný název Titan zvýší vaši prestiž a výkon o desítky procent.

+1
0
-1
Je komentář přínosný?

Titána si kupují titáni. Polaris si kupují polarizovaní, Vegu si budou kupovat vegani. Pascala si kupují asi packalové (bude aplaus?), Voltu si budou kupovat voltariáni ;)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.