Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Lucid hlásí: Hydra technologie dokončena

Už vidim ty dotazy na foru: "Mam na desce Hydra a koupenou grafiku 5870X2 ale ted jsem si vzpomněl, že mam v šupliku Geforce2 MX 440... ale nejde mi to té díry ..co s tim? "

+1
0
-1
Je komentář přínosný?

Zni to az moc hezky. Nechapu, jak chteji spojit rozdilnou podporu technologii (ruzny verze DirectX, rozdilny nebo jinak fungujici OpenGL funkce) a hlavne jak budou vysledek posilat z jedny grafiky do druhy kvuli zobrazeni. Dobre vyladeny firemni reseni bude urcite skalovat lip nez neco univerzalniho a i kdyby to nemelo drahou licenci, pochybuju, ze se vyrobci grafik rozhodnou podporovat neco, co nenuti zakaznika si v budoucnosti prikoupit jejich kartu, pokud bude chtit zvysit vykon.

+1
0
-1
Je komentář přínosný?

qee: Podle mě DirectX a OpenGL si Hydra řeší sama a využívá sílu GPU až pro funkce na nižší úrovni (jinak by nakonec ani nemohla škálovat výkon atd.)

+1
0
-1
Je komentář přínosný?

Takze ATI ma CF, nVidia ma SLI a Intel bude mat Hydru. :) Nema nahodou aj ATI nieco s nazvom Hydra, co suvisi s pripojenim viacerych monitorov na gk? To by mohla byt nejaka dalsia zalobicka, che!

+1
0
-1
Je komentář přínosný?

to Snejk:  .. no hydravision ..ale to se myslim tyka vyhlazovani v 2D ... kdyztak me nekdo  opravte ... ..  ja si myslim  ze amd uz si nejakej cas svuj mustek  dela, tak urcite s tim  nesekne   ..... ta vec od Lucidu se bude spis tykat nejakych serverovych zarizeni

+1
0
-1
Je komentář přínosný?

Jestli to bude fungovat, tak intel nebude potřebovat pro zprovoznění SLI čip nForce 200 a nVidia bude mít další problém.

+1
0
-1
Je komentář přínosný?

Hydravision je, pokud si spravne pamatuji, "multimonitor" reseni (virtualni plochy) a tak IMHO k zalobe nedojde, neb nazvy jsou na prvni pohled jasne rozlisitelne (ikdyz oba se tykaji GK).

+1
0
-1
Je komentář přínosný?

No ja myslim, ze tech 50 patentu jim bude naprd, jakmile si zelenocerveni nebo zeleni usmysli, ze to nechcou. Zakazou v ovladacich a nazdar. Intel s larrabee prijde pozdeji a nejake opengl nebo directx ho trapit nebude, 100% skalovani u integrovane grafiky nikoho nezajima, stejne tak u produktu od S3. Nvidia potrebuje prodavat svuj sli enabler, takze to chtit nebude urcite. Jediny, kdo se tvari open je AMD, ti by na tom mohli dokonce neco vytriskat, pokud by jim to prineslo 100% skalovani, ale myslim, ze na tom makaji sami a jednou to dovedou levneji. Podle me to nebude konkurenceschopne. Dopadne to jak s Ageiou. Chvili se to bude tlacit, v recenzich se zmeri, jak je to dobry, ale 8 tacu za desku bude moc, bude to reseni pro ethusiasts, ale pak je nekdo koupi nebo budou zit ze soudnich sporu nebo oboji.

Mmch taky vam vychazi pokazdy stejny cislo pri odesilani prispevku :)?

+1
0
-1
Je komentář přínosný?

To weepy - no jestli to chapu dobre, tak je mozne ze pro provoz se nebude instalovat ovladace na graficke karty, ale prave ovladac na hdyru, ktera se bude tvarit jako grafika a ty opravdove grafiky si najde sama. No uvidime.

+1
0
-1
Je komentář přínosný?

>>weepy: tlacit to budou modri. aby k integrovane grafice byli schopni zamestnat jakekoliv jine GPU. to neni zas tak blby napad. jeste aby tahle Hydra umela vypinat napajeni grafiky ve slotu a modri maji Hybryd SLI resp. PowerXpressbez vlastni karty a muzou nechat cervenozelene, aby se honili za vykonem ;)

+1
0
-1
Je komentář přínosný?

Předpokládám, že kombinace 2 karet od různých výrobců (např. ATI a nVida) asi nepůjde, nebo se pletu?

+1
0
-1
Je komentář přínosný?

2 Janke  v clanku sa pise  "spřáhnout výkon většího množství libovolných GPU do jednoho celku", takze predpokladam, ze je jedno ake budu tie GPU..

+1
0
-1
Je komentář přínosný?

jfb: což by znamenalo že ovladače na hydru by se musely rovnat současným ovladačům ati a nvidie dohromady - tomu snad nikdo nevěří žeby se to povedlo, možná tak za 10 let vývoje ano, ale do roka po vydání pochybuji žeby vyvinuli něco lepšího než beta ovladače s 50% výkonem originálních ovladačů.

+1
0
-1
Je komentář přínosný?

Janke, Snejk: Na tom obrázku je jasně znázorněná červená a zelená grafika. Co to asi tak může znamenat, když v tom článku použili slovo "libovolných"?

+1
0
-1
Je komentář přínosný?

>>JeJe: ale on snad nikdo nebude delat nove ovladace na cervenozelene grafiky, ty pojedou jako vypocetni jednotky pro Hydru engine. Jak efektivni tohle reseni bude oproti pouziti reseni ATI nebo nVidia, to se nechame vsichni prekvapit

+1
0
-1
Je komentář přínosný?

Petrib: však ano, nikdo nebude dělat další ovladače pro grafiky ati a nVidia, ale bude muset udělat ovladače pro onen čip = bude muset udělat ovladače rovnající se dnešním pro grafiky, to kde bude ten čip brát výkon sice může být jedno, ale pořád ovladače ho musí zpřístupnit aplikacím stejně jako dnešní ati a nvidia (dirextX, opengl). Tam vidím problém - vyladit ovladače netrvá jen rok, ale řeklbych že několik let.

+1
0
-1
Je komentář přínosný?

To by byl vpravde mistrovky kousek, vymyslet cip, ktery vlastne "parazituje" na vykonu jinych cipu. Jestli je tohle pravda, jsem velice zvedavy, co na to AMD a NV. :-) Ze by slogany: "Hydra je zelena, tak jen NV!" nebo "Hydra chrli rude plameny, tak jen AMD/ATI!"?

+1
0
-1
Je komentář přínosný?

Tato diskuze je nyní společná i pro článek IDF 2008: LucidLogix nabízí čipy Hydra 100.

+1
0
-1
Je komentář přínosný?

Tato diskuze byla založena k článku Lucid hlásí: Hydra technologie dokončena.

+1
0
-1
Je komentář přínosný?

Já bych to zase moc nepřirovnával k Ageia PhysX. U tohoto produktu byl problém ten, že pro něj nebyla smysluplná podpora ve hrách. Naopak pokud by Hydra měla být univerzální a tvářit se už jako normální grafická karta, tak je podporovaná už dnes u 100% akcelerovaných her. Mně by se celkem líbilo, koupit si základní desku s Hydrou, k tomu nějakou středně výkonnou grafickou kartu, a za dva roky si v bazaru sehnat za pakatel ještě jednu a získat tak dvojnásobný výkon. Investice do budoucnosti i možnost ultra výkonu okamžitě.
Nicméně i mně se zdá ta pohádka o univerzálnosti až moc růžová na to, aby to byla pravda. Čekám háček. Kotvičku od Titaniku.

+1
0
-1
Je komentář přínosný?

Takže pak do pc strčím ATI i nVidu :-) ? No jestli to bude fungovat a to bez nějakých omezení tak to bude docela zajímavé řešení které může převálcovat ostartní.

+1
0
-1
Je komentář přínosný?

kluzo1> Prevalcovat koho, kdyz to potrebuje ATi nebo nV k chodu? :-)

+1
0
-1
Je komentář přínosný?

Nevim ale přitom množství dat který to musí zpracovat bych pochyboval o spotřebě/teplotách a taky ta univerzálnost mi přijde až moc dokonalá sami výrobci GPU maj problém dělat kvalitní ovladače co se týče optimalizací pro různé hry...

+1
-2
-1
Je komentář přínosný?

Velmi ma zaujima ako to ten cip bude riesit interne - zasielat vypocty na GK? Vsak dnesne drivery pre GK su sialene zlozite, v podstate su prekladacom medzi DX (OpenGL) API a internymi instrukciami GPU.

Snad Lucid nekce tvrdit, ze oni dokazu obsluzit lubovolnu kartu. Ked zobereme do uvahy, ze vyvoj driveru Naneau pre nV sa robi spatnym inzinierstvom. To iste ATI, ten zoznam registrov co vydala k svojim cipom je nehorazne dlhy. To nam kce Lucid nakecat, ze oni z GPU vytiahnu celych povedzme 500Gflops, len tak bez driverov k cipu.

Ale nadruhu stranu, pre notebooky byto bolo asi vyborne riesenie, ktore byokrem toho zobrazovalo vysledok na LCD booku (v suvislosti s tym si precitajte recenziu na PCT na asucacku ext.grafiku - no strasny paskvil).

+1
0
-1
Je komentář přínosný?

Takže nakonec to tedy bude HW rozbočovač, který bude ovládaný softwarem (ovladači). Jinak než SW ovládáním toho "komu práci pošlu" nedosáhnou kompatibility s novými grafikami. Což znamená, že aby dosáhli minimálně stejného výkonu než grafika od ATI nebo nVIdia, jejich ovladače musejí mít minimálně, ale spíše větší výkon než jsou ovladače od nV a ATI - v budoucích několika letech to vidím jako utopii. Na zelené louce v současnosti nelze napsat nové ovladače tak, aby dosáhly minimálně srovnatelných výsledků než několik let vyvíjené...

+1
0
-1
Je komentář přínosný?

Celé je to pěkná blbost - pro jednu grafiku je to úplně na nic, u dvou grafik je otázkou, o kolik klesne výkon proti SLI / Crossfire (tipuju hodně, celý ten koncept vyžaduje celkem robustní softwarovou vrstvu a hlavně hromadu komunikace) a víc než dvě grafiky dnes nikdo nechce. Proč by si měl člověk dobrovolně degradovat výkon své / svých grafických karet nějakým nesmyslem?

+1
0
-1
Je komentář přínosný?

by ma zaujimalo ako potom bude fungovat geforce physx

+1
0
-1
Je komentář přínosný?

Zajimalo by me, jak se to cele zachova pri pouziti karet s ruznou podporou DX (napr 10.1 a 10), kdyz hra bude pod DX 10.1. Aby z toho nakonec nebylo jen reseni pro GPGPU (nebo jak ta zkratka je - napr folding@home) aplikace...

+1
0
-1
Je komentář přínosný?

A kdyz se do toho tak opira Intel, tak mozna cili na vyuziti pro raytracing...

+1
0
-1
Je komentář přínosný?

Já si myslím, že je zbytečně psát znova ovladače - osobně bych takové řešení pojal jako zasílání požadavku na GK pro vykreslení určitého počtu řádků scény (dle výkonu).

+1
0
-1
Je komentář přínosný?

Podle obrazku je zrejme, ze samotny vystup obrazu pujde z jedne z podrizenych karet. Tezko verit, ze by programatori z Lucidu dokazali napsat univerzalni driver pro vsechny karty na svete, tak aby tato low-level HW funkce fungovala, takze je zrejme, ze kazda podrizena karta bude potrebovat standardni ovladace od sveho vyrobce. Hydra pak pravdepodobne pouze pouzije nejake to standardni API (DirectX, ci OpenGL, to uz je asi celkem jedno jake) aby je zaukolovala a vysledkek pak zase pres standardni API posle jedne z nich ke zobrazeni. Samotne ovladace jednotlivych karet pak mohou byt pro bezne aplikace skryte, klidne mohou byt skryte i pro cely OS, v principu by Hydra cip mohl obsahovat dvoujadrove Pentium, kde kazde jadro obslouzi jeden samostatny OS, ktery bude komunikovat s jednou kartou, to by ale nebylo dostatecne skalovatelne, takze spise muze Hydra driver vyuzit virtualizace a provozovat takovy OS pod Hypervizorem jako virtualni PC. Bohuzel vubec neznam moznosti DirectX API, takze netusim, jakym zpusobem je mozne rozparcelovat 3D rendering a nakolik to muze byt efektivni, napada mne, ze temer jiste bude mozny frame - interleaving, ale to by vyzadovalo shodne rychle karty, jinak bude narust vykonu omezeny tou nejpomalejsi GK. Kazdopadne jiz dlouho cekam prichod GK bez vlastnich vystupu, dnes je jiz implementace samotneho radice displeje a vystupu natolik trivialni, ze neni duvod jich nenasekat primo do cipsetu tolik, kolik je tam dnes treba USB portu. Takze kazdy si pak vybere zakladni desku s vystupy dle libosti a osadi jen GPU s pameti a dalsi omackou okolo dle pozadovaneho vykonu (dle pozadovaneho vykonu v patricnem poctu kousku) a nebude muset tak jako dnes hledat kompromis mezi podporou zobrazeni a 3D vykonem. Sice se drive tvrdilo, ze nakonec vsechny karty budou mit vystupy stejne, co do kvality, ovsem dodnes se jednotlive karty jednotlivych vyrobcu stale lisi co do kvantitiy i co do schopnosti, takze podle mne by takova skladacka s idelane open-source ovladaci pro samotny video vystup byla naprosto skvela (nebo alespon tak dobra, jako blahe pameti karty Matrox rady G400 -:) ).

+1
0
-1
Je komentář přínosný?

RaStr: Tady nejde ani tak o skladani vysledku (interleaving, tiling apod.), jako spis o dilci ulohy. Cili ze nektery trojuhelniky se poslou orezat, transformovat, otexturovat a nasvitit na jednu kartu a jiny na druhou. Problem je, ze pro nasviceni musi kazda karta pocitat se vsema svetlama a v tom horsim pripade bude hra mit dynamicky stiny, kde bude muset karta znat i vsechny trojuhelniky. Nehlede na to, ze budou muset nejakym zpusobem sdilet z-buffer. No v linearni skalovani neverim ani omylem. Byla by tu moznost, ze ten cip bude figurovat jako "thread dispatch engine" (nebo jak tomu na grafikach nadavaji) a posilat na GPU primo vypocetni pozadavky (jako GPGPU). Jenze to bude v tom pripade ten cip hodne komplexni, bude dost zrat a topit a v neposledni rade ho bude dost brzdit sbernice.

+1
0
-1
Je komentář přínosný?

napada ma jedna moznos ako to cele moze fungovat: rozdelenie rozlisenia. Cip by rozparceloval napriklad 1024x768 rozlisenie na dve 512x768 a to vratane prikazov a vsetkych veci. Vysledny obraz potom bud spoji manualne a posle do jednej kary, alebo, co by som viac uvital, posle na monitory oboch kariet. Keby dokazal obsluzit 8 monitorov naraz so styrmi grafikami, bol by som rad. Hrat v rozliseni 5040x2100 alebo 3360x4200 moze byt zaujimavy zazitok. Rozhodne velke uplatnenie v strategiach a simulatoroch (ci uz hernych alebo realnych, priemyselnych).

+1
0
-1
Je komentář přínosný?

jojo2: Nojo, ale kazda karta renderuje trochu jinak, pouziva jiny aproximace pri filtrovani textur, jinej antialiasing apod. Ve vysledku bys dostal obraz, kde by se sudy a lichy radky (nebo leva/horni a prava/dolni pulka) lisily mozna natolik, ze by to vypadalo blbe. Nehlede na to, ze pri puleni rozliseni bys musel mit obe karty stejne vykonny, jinak bude ta rychlejsi cekat na tu pomalejsi a to moc linearni skalovani neni.

+1
0
-1
Je komentář přínosný?

jojo2: Jeste dodatek - tenhle princip je stary dobry SLI na Voodoo kartach (oops, napoveda do souteze :) ), cili prokladani radku obrazu ze dvou karet (Scan-Line Interleave).

+1
0
-1
Je komentář přínosný?

qee: No prave kvuli tomu, ze jedna by brzdila druhou mi neni jasne, jak by to slo udelat, ze by jedna pocitala treba tri nasledujici framy a ta druha mezitim stihla spocitat ctvrty frame, a tak porad dokola, to by snad slo, ale nevim, jestli se daji framy takhle bufferovat a navic by to asi nicemu moc neprospelo, protoze hra by tak nabirala velkou latenci. Co se tyce skladani vice obrazku dohromady, tak to by teoreticky slo, pokud by se obraz napred slozil a potom teprve by se provedl AA v Hydre, tak by to nemuselo vypadat tak hrozne, ale opet zustava problem s rozdilnou rychlosti karet. Na rozlozeni na dilci ulohy renderingu bych moc neveril, protoze karty by museli sdilet data o renderovane scene a na to je PCIe v porovnani s rychlostni RAM na kartach prilis pomala, spise by to bezelo pomaleji nez rychleji. Nicmene je jasne, ze my to tady asi nevymyslime, protoze pokud ano, tak bychom asi jiz davno byly alespon 50% spolumajiteli Lucidu, nebo ne ? Takze nezbyva nez pockat, co se o tom jeste dozvime, tedy pokud to nedopadne podobne, jako treba holograficky zapis, nebo Netbursti Pentia na 10GHz :-( !

+1
0
-1
Je komentář přínosný?

Hydra driver je mezi DX (OGL) a driverem karty (nVidia, ATI, Intel), karty ruznych vyrobcu kombinovat nelze
poskladani vysledneho obrazu (vcetne z-bufferu) resi Hydra HW viz jejich patenty
rozdeleni renderingu viz http://www.pcper.com/article.php?aid=607

+1
0
-1
Je komentář přínosný?

proc by neslo kombinovat karty ruznych vyrobcu ? ... uz ted lze mit HD4870 co renderuje a k tomu 9600 ktera pocita PhysX fyziku atd ;)

+1
0
-1
Je komentář přínosný?

Dwarden: odpoved je v Q/A sekci odkazovaneho clanku
Lucid vice-mene rika, ze OS neumoznuje soucasny beh 3D aplikaci pouzivajicich rozdilne drivery

+1
0
-1
Je komentář přínosný?

No tak sa nechame prekvapit. Z marketingovaho hladiska to bud bude uspech ako 3DFX Voodo alebo neuspech ako Aegia.

+1
0
-1
Je komentář přínosný?

Jestli a jak bude Hydra fungovat je vcelku irelevantní. Hydra totiž příchází poněkud s křížkem po funuse. Kdo vlastně dneska potřebuje SLI/Crossfire. Pro rozlišení 1920x1200 dneska stačí jeden Radeon 4870/Nvidia 260. No a kolik z vás si pořídilo monitor s rozlišením 2560x1600? A jestli se nová genrace chipu (5xxx) ati povede stejně jako 4xxx, a výkon jednoho chipu vzroste na dvojnásobek, tak už nebude vůbec žádný důvod kombinovat více graf. karet dohromady.

+1
0
-1
Je komentář přínosný?

:) Může se do zdát podivné , ale vždy tu bude skupina zákazníků , která si připlatí za několik FPS navíc i formou neekonomického SLI . A pokud se navýšení výkonu bude opravdu blížit linearitě , tak není důvod obávat se že by Hydra zákazníky nenašla . Ostatatně společně s masově užívanou grafikou coby fyzikálním koprocesorem SLI dřív nebo později akceptuje větší skupina zákazníků .
Dnes není rozumný důvod k užití SLI , ovšem co není ted´může být zítra a nezávislost na typu použité grafiky i podpory toho kterého rozhraní ( především pochybného SLI made by Nvidia ) by mnozí ocenili už ted´.

+1
0
-1
Je komentář přínosný?

Xspy: Pro pocitani fyziky na druhy karte neni SLI potreba, pouze pokud chces pouzit obe grafiky k renderovani obrazu.

+1
0
-1
Je komentář přínosný?

Jack001 >> no ale nezabudaj, ze aj hry budu pritvrdzovat. Dnes maju najzlozitejsie sceny v Crysis 1.2M trojuholnikov. Preco by o rok nemohli mat 5M a dvojnasobok dynamickych svetiel, alebo dvojnasobok shaderoveho kodu.

+1
0
-1
Je komentář přínosný?

Je to jako v obchodě - chvíli poptávka převyšuje nabídku a chvíli opačně. Když CPU prolomily 2G hranici, tak se objevovaly řeči, že v masovém měřítku nikdo víc výkonu nevyužije. A nyní je v podobné situaci grafika. A vždycky se najde něco, co zvýší poptávku a jedeme dál. Docela dobře si pamatuju chvíle okolo 3DFX-1 kdy se prorokovalo, že akcelerací grafiky se CPU dostává na druhou kolej. A v čase TNT2 najednou se zjistilo, že CPU nestíhá fyziku. A tak dále a dále. Takže si zvykněme, že pokud se situace zdá stabilizovaná - dneska mase stačí jedna karta, tak zítra to tak nebude. A proto si Intel jistí trh, aby byl připraven na houfně zakupované multigrafické běsnění :-) Teď ještě, aby nezaspali výrobci multizdrojů a skříní, zdá se, že jeden zdroj světu nestačí....

+1
0
-1
Je komentář přínosný?

Gee - ¨Přesně tak . SLI z prapůvodu právě souvisí s navyšováním výkonu ve hrách  a pokud někdo dnes mluví o SLI má tím na mysli právě dvojici (A více karet) za účelem vyššího FPS ve hrách . Fyzika v době ,kdy bude potřeba se snad už bez stejných karet obejde , ale škálování výkonu s různými grafikami které bude ovládat další čip , to vidím na mnoho klacíků pod nohami Lucidu .    

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.