Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k DirectX 12 Multiadapter spojí výkon integrované a samostatné grafiky [video]

Konecne bude mit pro hrace integrovana grafika nejakej smysl. Toto trvalo.

+1
+23
-1
Je komentář přínosný?

pravda dobra vec pro majitele notebooku co maji jak dedikovanou grafiku tak i grafiku v CPU.

+1
+23
-1
Je komentář přínosný?

Moc bych se neradoval...
"Nevýhoda je jediná - pokročilá podpora pro více GPU musí být zahrnuta na straně aplikace, nelze ji prostě zapnout nebo vypnout v grafickém ovladači, jako tomu bylo dosud."
S tím jak jsou hry neoptimalizované a odfláknuté v dnešní době, tak to multi GPU řešení nebude stejně skoro nikdo dávat do her.

+1
+3
-1
Je komentář přínosný?

Ani možná nejde o to, že by se "nechtělo" (samozřejmě - stojí to čas a peníze). Ale představa, že musíte vybalancovat libovolnou kombinaci různě výkonných karet je strašná. Pokud se předem neví, že budete mít přesně "HD4400+R7 250X", tak jak má vývojář vědět kolik a co může přesunout na kterou grafiku? Máme stovky různě výkonných grafik, které navíc mají své silné a slabé stránky, takže je ani nejde pro tyto účely jednoduše seřadit.
Samozřejmě všechno jde vyřešit, ale toto si budou moci dovolit pouze AAA tituly.

+1
-15
-1
Je komentář přínosný?

Tak v tomto by som zrovna velky problem nevidel. Prakticky vsetky integrovane karty su bud nieco od Intelu HDxxxx alebo potom nejake tie Radeony v AMD APU. A zasa ten vykonnostny rozdiel a skalovanie nieje nejake extremne. Ostatne aj dnes sa v hrach pouziva detekcia GPU a na zaklade toho naciatnie prednastavenych parametrov. Jednoducho si egnine zisti integrovanu GPU a podla toho rozdeli vykon. Alebo da moznost hracovy nejakym sposobom menit rozlozenie v pripade takehoto systemu s 2 GPU. Povedzme 10% vypoctov na integrovanu a 90% na dedikovanu.
Skor co bude bolestive je optimalizacia shaderov aby to bezalo rozumne aj na jednom aj na druhom, respektive pisanie viacero verzii uz aj koli roznemu pristupu ovladacov k danemu kodu.

+1
+15
-1
Je komentář přínosný?

To "povězme 90:10" nebude fungovat skoro nikdy.
I pokud to omezíme jen na integrované grafiky, tak máš rozsah od Atom IGP až po top Iris/top Kaveri (cca 10x vyšší výkon!) a na druhé straně to může být spojeno s čímkoliv od GeForce 420 (má DX12 ovladače, ale je pomalejší než spousta IGP) až po Titan X a rychlejší karty budoucnosti. Takže reálný poměr výkonu může být cokoliv mezi 99:1 až po 10:90 (dGPU:IGP). A to se bavíme o zjednodušeném řazení, které nezohledňuje slabé a silné stránky jednotlivých GPU.
Chtít balancování po uživateli je ... úsměvné. Tohle udělá poweruser, ale uživatel normálně nenastavuje ani low/high detaily. Pokud se nezůčastníš pár usertestů aplikací, tak si neumíš představit, jak na první pohled jasné věci jsou pro většinu uživatelů nepochopitelné.

+1
-16
-1
Je komentář přínosný?

O cem se to tu bavite? to co popisujete je prave stav do DX11 ale DX12 bude pristupovat k dvoum grafikam jako k zjednodusene receno jedne. Je to neco jako jestli ma jedna grafika 512 nebo 1024 SP o rozdeleni prace se nestara uzivatel natoz nejakej pevne danej pomer 90:10 ale prave engine s ovladaci a to bude kooonecne s DX12 a Mantle+ vyreseno. A do her se to implementovat bude uz z duvodu lepsi skalovatelnosti i mezi identickyma grafikama CF/SLI

+1
+8
-1
Je komentář přínosný?

Tak to bohužel nefunguje. DX12/Mantle jsou nízkoúrovňová rozhraní a naopak PŘIDÁVAJÍ práci programátorovi proti DX11 a tím mu na druhou stranu umožňují větší volnost co on udělá.
Ostatně v článku máš napsáno, že programátor určuje kterou část práce dá které kartě.

+1
+18
-1
Je komentář přínosný?

Taky to nevidim moc ruzove, ale spis nez ladeni ze strany vyvojaru her bych to videl na integraci v enginech. Vyrazne vic bych veril chytrym hlavam v Epicu, CryTechu, Dice, Unity, ... co maji na starosti jadro jejich enginu nez vyvojarum her. Ti maji z pohledu hry vyrazne dulezitejsi veci na praci, napriklad funkcnost hry. :-D

Nebude to zadna sranda, ale dovedu si predstavit reseni, kdy se na finalnim buildu hry nameri obecna statistika zatizeni a z toho se sestavi zakladni profil toho co vlastne hra od GPU potrebuje. Pri prvnim spusteni si pak engine hry udela mini benchmark kazdeho GPU v PC a podle toho nejak rozhodi ulohy pri renderovani. Je to vlastne "jen" hodne vylepsena autodetekce detailu. Vzdycky se pak muze pustit rendering na obou GPU nebo na tom silnejsim a zkontrolovat jestli nedoslo ke zhorseni FPS nebo latance neulitava nekam k certu.

Samozrejme to predpoklada hodne flexibilni engine slozeny s hooooodne mazaneho vicevlaknoveho kodu. Docela hrozivy predpoklad :-D

+1
-13
-1
Je komentář přínosný?

No slava. Doted byla integrovana grafika nutne zlo, nasilim vnuceny kus kremiku, ktery nikdo (kdo stavi pc na hry) nechtel, ale jinak moznost prakticky nebyla. Po 5 letech necinosti integrovane grafiky konecne oziji a zaslouzi si sve misto na cipu.

+1
+20
-1
Je komentář přínosný?

To je ale blbost ne? Tak predpokladam, ze na beznou praci, jela vzdy primarne ta integrovana a PCIe grafika byla vypla ...... nebo mi chces tvrdit, ze nekdo jen hraje hry? Tak pro to mizive procento to mozna platilo no ....

+1
-34
-1
Je komentář přínosný?

Zaprve to musi podporovat deska, za druhe musi byt monitor zapnuty do MB. Ale MB nema tolik konektoru pro vice monitoru, a integrovana grafika nelze pouzit pro monitory zapnute do grafiky (alespon na tom mym starym srotu). Takze cely ty roky je pro me integrovana grafika jen prekazejici kus kremiku.a nikdy vykazala zadnou cinnost.

+1
-5
-1
Je komentář přínosný?

Presne tak. Ja tu integrovanou HD4400 jen na zacatku prohnal par testama abych zjistil ze nema ani polovicni vykon jako ma prastara ATIna HD 3850 pasiv natoz aby mela aspon ctvrtinovej vykon jako novejsi AMD HD 7750 pasiv. Jinak je snad deaktivovana (v biosu nic neni) nebo stale neco zere, netusim. Monitor (TV) je zapojen do dedikovane ktera v idle rezimu zere 00nic, mereno s a bes dedikovane grafiky.

+1
+17
-1
Je komentář přínosný?

Mam i7 a AMD 290X, monitor pripojen do 290X - grafiku v CPU pouzivam pouze na DXVA akceleraci, protoze dedikovana grafika se pri DXVA zacne dost znacne (na to ze ma mit specialni UVD) zahrivat a tudiz hlucet.

Bohuzel pri pouziti grafickeho vystupu z i7 prestane fungovat u AMD ZeroCore, takze idea desktop na i7, hry na 290X (pri zapojeni vystupu z obou grafik do stejneho monitoru a rucniho prepinani) jde stejne do haje. A to uz nemluvim o tom, ze vybrat neprimarni grafiku pro rendering hry je obcas taky nemozne.

+1
-18
-1
Je komentář přínosný?

Ale no tak AMD, nesnaz se byt vtipny ..... tam u grafik nefunguje vubec nic. Ti maji jeste dnes 60Hz bug!!! Kokoti!
Jinak dost spoleham na to, ze sikoupim desku aspon se trema, ctyrma vystupama a pojedu 99.9% veci na tom a kdyz tam bude iris pro, tak se muzu na PCIe grafiku vysrat. A kdybych nahodou z nejakeho duvodu externi potreboval, treba pro 4k HDMI 2.0, pokud nebude na desce nebo tak neco .... tak verim, ze to proste bude fungovat v pohode zapnute do desky a bude si to data preposilat bez problemu po sbernici, kdyz zapnu 3D a nazhavi se ta externi grafika .....
Nekdo mi tu pred lety tvrdil, ze takhle nejak ten optimus (nebo co) funguje a tak dneska je to snad samozrejme (pochopitelne vyjma ATI).

+1
-27
-1
Je komentář přínosný?

60Hz bug měla nVidia i ATI.
Ale např. u srovnatelně staré ATI R9100 (taková příšernost, co snad ani neměla existovat) není problém DVI výstup 1280x1024 v 75Hz.
U nVidia FX 5600XT prostě v 1280x1024 75Hz nerozjedeš. Jsi zatentovanej v 60Hz navěky - přes DVI. Přes VGA není problema...

Tož tak s AMD (ATI) a 60Hz bugem.

+1
+12
-1
Je komentář přínosný?

Mel jsem 5750 a 6850 nebo tak neco ..... obe jsem vracel .... rozdil celeho roku a PORAD tam byl 60Hz bug! Dokonce i s novyma ovladacema to nefungovalo na stare 3xxx, tak jsem musel tahat nejake stare, kde to jeste jelo ....... ATI je shit a nikdy uz mi nesmi pres prah!
Kazdy ten rok jsem psal incident na ATI, pokazde vyresili uplne hovno ..... cele jejich diskuzni forum se okolo toho tocilo a nikdo nebyl schopen spravit to tlacitko v ovladacich "override EDID" ...... PROSTE SHIT!

+1
-24
-1
Je komentář přínosný?

Ale byla :) Stačí koupit CPU bez integrované grafiky, u Intelu to jsou Xeony

+1
-28
-1
Je komentář přínosný?

Bezva. Takze abych si nekoupil neco co nepotrebuji, tak musim zaplatit mnohem vice. Vyjde lepe koupit i s tim co nechci a nikdy nevyuzit.
Takze mensi upresneni - neni na vyber u normalne cenenych procesoru.

+1
+28
-1
Je komentář přínosný?

co je to za blbost?? Xeon je levnější, já kupoval Xeona hlavně kvůli nižší ceně než je klasické i7....

+1
-31
-1
Je komentář přínosný?

Levnější a výkonější, komedie. Lidi platí u i7 za značku.

Taky mám Xeon a krom taktování mi nic nechybí.

+1
-16
-1
Je komentář přínosný?

pardon? jak je to s tema levnejsima xeonama proti iX ? http://ark.intel.com/compare/75036,75052 me se je nejak nedari najit ... :(

+1
-19
-1
Je komentář přínosný?

takze to levnejsi neplati univerzalne pro celou radu I? pro I5 ..
http://ark.intel.com/compare/75036,75052 tydle mi prijdou ze jsou stejne funkcne rozdilne jako vami uvedene (ale alespon to turbo stoji za to ;) )
http://www.czc.cz/intel-core-i5-4430/129693/produkt
http://www.czc.cz/intel-xeon-e3-1220v3/130472/produkt

+1
-19
-1
Je komentář přínosný?

Co si nejdříve zjistit informace a pak soudit ?

+1
+14
-1
Je komentář přínosný?

Jaka necinnost? Na grafice v procesoru prece bezi desktop.

Samozrejmne jsou k tomu potreba dva monitory, ale kdo ma dneska doma jenom jeden monitor, ze.

+1
-29
-1
Je komentář přínosný?

aha,uz chapem, preco z relativne sympatickeho aero(w7) sa stalo odporne modern gui(w8+)
lebo integrovane grafiky mali problem s aerom

+1
+12
-1
Je komentář přínosný?

Pockat. To jako budu mit 2 monitory, ale budu moci vyuzivat v dany cas pouze jeden? nebo jak je tohle mysleno?

+1
-14
-1
Je komentář přínosný?

Pokud vím, tak používání integrované grafiky v ploše a přepnutí na dedikovanou mělo umět LucidVirtu. Četl jsem nějaké ranné benchmarky a pak, že technologie umřela. Nevím jak je to s tím teď, jestli to vůbec v nějaké podobě přežívá, nevím.
Druhá věc je to, co popisujete vy. Ideálně je tohle zapojení funkční. Jeden monitor zapojený do integrované na kterém jede plocha a druhý monitor do dedikované na kterém se budou spouštět hry. Vidím v tom ale několik zádrhelů. Aby ded.grafika usnula, budete muset pokaždé ve windows odpojit "projektor" (přes win+p). Hra musí podporovat volbu na který monitor poběží výstup. U některých her jsem vyděl volbu GPU, ale to bude asi stejné jako nastavení monitoru.
Nechce tohle redakce trochu podrobněji PROŠETŘIT?

+1
+12
-1
Je komentář přínosný?

konecne se mozna povede to, ze se vyuzije potencial integrovane grafiky u CPU, hlavni grafiky od AMD a pak nejake levne od nVidie na Physics a jine proprietarni veci. to bude dobrej mismas. Driv to myslim fungovalo ale nvidia to zamerne utla. ted uz to nebude vec ovladacu ale primo operacniho systemu, takze maj smolika. teda jestli nevymyslej zas nejaky umely kurvitko

+1
+13
-1
Je komentář přínosný?

To stejný mě přesně napadlo po přečtení článku - physx a další nvidiácké uzavřené utilitky :-) tím že to dřív fungovalo si jistej nejsem, nikdy jsem o tom neslyšel.
No, evidentně to šlo... http://www.vrworld.com/2014/07/31/nvidia-disables-gpu-physx-2nd-non-nv-g...

+1
+14
-1
Je komentář přínosný?

ano, fungovalo to, pak to určitou dobu po "zákazu" šlo zprovoznit nějakým hackem. Jak je to teď, nevím.

Ale bylo by zajímavé koupit si nějakou lacinou geforcku na podřadnou práci. :-D

+1
+10
-1
Je komentář přínosný?

Já to myslel tak, že není důvod, proč by to nějakým zázrakem mělo s DX12 najednou jít... :)

+1
-19
-1
Je komentář přínosný?

Zasa by som nebol az tak prehnane nadseny z tohto riesenia. Papierovo to vyzera dobre ale realne no neviem. Multi GPU zasa nieje az tak rozsirene medzi hracmi, tam kde su 2 gpu - integrovana a dedikovana, sa vecsinou jedna o notebooky s integrovanou intelou. Na desktope ked uz niekto ma dedikovanu GPU tak ju ma vecsinou slusne alebo aspon primerane vykonnu a zasa v notebookoch to bude asi docela na prd s latenciou a pristupom do pamete. Skor by som to vydel ako vyuzitie ingerovaneho gpu na DirecCompute alebo ratanie fyziky alebo niecoho podobneho.

+1
-18
-1
Je komentář přínosný?

Dle meho nazoru je to pekna blbost, kto proste chce hrat hry koupi si vykonnou externi kartu a jede, kto dela jenom ucetnictvi, prohlizi si internet a video(HTPC) tomu staci integrovana karta.

Uz ted je ve hrach chyb jak nasrano, Lucid Logix(virtu mvp) se tez snazil s-kombinovat ruzna gpucka, jenomze rozdilnost architektur cipu, takty a ovladace z toho udelali jenom sracku.

Aby DirectX 12 jeste vic nedosralo to co dnes jak tak jede, ja nevim R9 od AMD sou dnes za smesne penize, Mantle je ocividne lepsi jak DX12 a kdyz k tomu pripocteme FreeSync ktere je zadarmo co resit?

Jako spajat nejake integrovane cudo s externi a nak to potom blbne? k cemu(3-5FPS navic)? je lepsi si koupit kazde 2 roky novou externi kartu a dosahnu vic jak kombinaci s integrovanym GPU.

Kdyz DirectX 12 prinese kvalitni nerozesrane hry, to mi uplne k spokojenosti staci.

+1
+11
-1
Je komentář přínosný?

IMHO to ma smysl pro lidi, kteri nehrajou hry tak casto aby si kupovali vykonnou externi kartu, ale vystaci si s necim levnym co ma mozna tak dvakrat trikrat vetsi vykon nez grafika v procesoru (kterou koupit musi, bo procesory bez grafiky jsou highend). Je v tom jeden hacek: takovi lidi asi nebudou hrat AAA hry, ale pritom jenom AAA hry si budou moct dovolit tyhle optimalizace ...

BTW, ne, R9 jeste porad nejsou za smesne penize. Mozna tak R7.

+1
+12
-1
Je komentář přínosný?

Pravda je, že Mantle víceméně dnes už funguje, ale vyvíjí ho jen malá skupinka lidí. Cesta vpřed je standardizace a všeobecná podpora, protože pak nebude hrozit, že to tu malou skupinku přestane bavit a nechá toho.

+1
-15
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.