Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Přechod na jednotné shadery u nVidie bude postupný

....a s tím samozřejmě větší spotřeba a větší přehřívání celého čipu. Já chci zpátky S3 ViRGE :-))

+1
+1
-1
Je komentář přínosný?

Bohuzel, herni maniaci to vidi jinak :-)

+1
+1
-1
Je komentář přínosný?

A vlastne i samotny Microsoft :-) (Vista aero)

+1
+1
-1
Je komentář přínosný?

Měl bych otázku. CO jsou tedy reálné výhody unifikovaných shaderů??? Podle popisu to výkon není(výkon unifikované shader jednoty je nižší než specializované), zabírá to více místa(které by se dalo použít pro další specializované shader jednotky) a tím pádem to i více hřeje. A co jsem prozatím slyšel, tak z toho co nv naznačila vyplývá, že externě se bude jejich hardware chovat úplně stejně, takže pro vývojáře to taky nic moc nepřinese.
Takže zopakuji svou otázku - CO jsou reálné výhody unifikovaných shaderů? (skutečně bych si rád udělal obrázek)

+1
+1
-1
Je komentář přínosný?

2 pitipi - asi to bude výhodné do budoucna :) místo 6 specializovaných jednotek o velikosti V použiješ 12 univerzálních jednotek o velikosti dvě V - :D čímž bude výkon stejný ale budeš moct účtovat víc :)))

Ne ve skutečnosti to opravdu smysl má, ale přirovnal bych to k 64bit.
Děsná bomba a hromada lidí má opravdu 64bit procesor, ale 64bit Widlí je poskrovnu :)

+1
+1
-1
Je komentář přínosný?

ptipi: pokud se orientuješ podle toho, co píše Kirk, tak ano. Ale určitě jsi o některé hře četl, že je limitovaná výkonem pixel shaderů; u jiné, že je limitovaná výkonem vertex shaderů... Znamená to prostě, že je kvůli specifickým požadavkům hry jedna část čipu přetížená, zatímco se druhá "fláká". No a tohle se u unifikované architektury nemůže stát - prostě se unifikované jendotky rozdělí na takový poměr PS a VS, který dané apliakci nejlíp vyhovuje a běží celý čip naplno. Krom toho o zvýšení plochy čipu +30-40% čtu vůbec poprvé, protože až dosud jsem četl o hodnotách okolo 8-15% pro logiku potřebnou k relizaci unifikované architektury oporti architektuře R5xx (většinu další logiky už ati implementovala na současné architktuře - viz UTDP a podpora pro dynamic branching, což je v USA klíčová záležitost). Další věc je, že plocha čipu klesne o to, co v současné době zabírají samostatné vertex shadery, takže nevidím důvod, proč by unifikovaný čip měl být jakýmkoli způsobem neefektivní :-) Viz Xenos, který při svých 230 milionech tranzistorů integruje ještě northbridge a při stejné frekvenci je rychlejší než G70 nebo R520.

+1
+1
-1
Je komentář přínosný?

Presne tak, proste nVidia zaspala, nebo zatim nemuze koupit nekoho, kdo ma architekturu unifikovanych shaderu vyresenou, a tak mlzi a vymlouva se, ze to neni potreba :-) Navic tipuju, ze ATI v tom uz par patentu mit bude, kdyz ma USA v Xenosu.

+1
+1
-1
Je komentář přínosný?

Narust plochy- otazka je jestli ten narust plochy byl myslenej vzhledem k USA archytekture nebo vzhledam k novym PS4.0(DX10). To mne tam z toho neni uplne jasny a arch. USA a PS4.0(DX10) neni to samy!!! Jak je u NVIDIE videt jde to udelat i bez USA.

+1
+1
-1
Je komentář přínosný?

NO-X to celkem dobře popsal, tak jenom doplním další výhodu. Při použití GPU s USA pro negrafické účely je mnohem jednodušší GPU naprogramovat a dostat z něj víc výkonu. Takže třeba taková komprese/dekomprese videa na GPU celkem zrychlí.

+1
+1
-1
Je komentář přínosný?

re no-X: Právě ani podle tvých předpokladů mi to nijak extra výhodnější co se týká výkonu nepříjde. Jestliže vezmeme předpoklad, že unifikovaný shader má na jednotku plochy asi o 20% nižší výkon(jednak je podle tebe asi o 8-15% větší a jednak je unifikovaná shader jednotka o něco méně efektivní, než specializovaná)a za předpokladu, že současný poměr PS:VS je cca 5:1(což firmy nevybraly rozhodně náhodou, ale jako optimální poměr, když je poměr jednotek fixní), tak co se týká výkonu na plochu, tak v PS nemůžeme získat prakticky nic ani při ideálním stavu využití všech shader jednotek k tomuto účelu(maximálně 1/6 výkonu navíc, ale 20% výkonu jsme přece ztratili už jen tím, že jsme použili unifikované shadery...) a jediné místo kde se dá získat je výkon ve VS, který ale je u nových her mnohem méně vyžadován.
Skutečně jediná rozumná oblast je dynamic branching, kde by to mohlo přinést výkon navíc, ale pokud vím, tak ten v hrách téměř vůbec není využit(prozatím).

+1
+1
-1
Je komentář přínosný?

re no-X : a víš dobře, že ohánět se zabudovanými grafikami do konzolí je nefér, protože tam výkon vychází z masivní optimalizace programů na konkrétní stroj(+ u xenosu je přítomna super-rychlá 10MB paměť, což nemá s unifikovanými shadery nic společného a určitě počet tranzistorů v ní nezapočítali do těch 230milionů).

+1
+1
-1
Je komentář přínosný?

ptipi: Ne, já mluvím o výkonu v pixel shader operacích. EDRAM se projeví pouze při zapnutém FSAA (MSAA) a některých Z-ops. Jinak stále nechápu kde bereš tu jistotu, že unifikovaná architektura je méně efektivní, když jsem ti dal názornou ukázku čipu s 230mil. tranzistory, který je rychlejší než čip s 300 či 320 mil, tranzistory. Pokud bys bral v potaz reálný výkon i s FSAA a započítal i EDRAM, která má necelých 100mil. tranzistorů, tak stále Xenos vychází jako nejefektivnější řešení a to ještě obsahuje northbridge.

nVidia, resp. Kirk, toho tvrdili opravdu hodně, třebaže HDR+FSAA nemá smysl, nebo že pro HDR+FSAA je třeba víc než 2GB paměti... Dokud jejich produkty nepodporovaly RGAA, tvrdili, že jde o špatnou technologii, jelikož v některých úhlech nepodává optimální výsldeky :-))) Nebo si taky vzpomínám na kritiku "špatného" AFR, které teď funguje jako hlavní režim nVidia SLI, stejně jako kritiku 3Dfx SLI v letech 1998-2000. A v dnešní době je opět aktuální záležitost okolo karet s dvěma GPU, ohledně které se též už nV vyjádřila - konkrétně po vydání Voodoo 5, kdy v jednom rozhovoru prohlásili, že dokud budou jejich karty s jedním čipem konkurenceschopné, nebudou nic podobného vydávat :-) Tohle je stále tentýž způsob marketingu - dokud určitou technologii sami nepodporujou, je ta technologie špatná a zbytečná... a někteří lidé se na to stále a stále chytají...

NeomeN: USA je součástí specifikace SM4.0, takže JE to totéž. Možná si pleteš USA s unifikací výpočetních jednotek (USC). Jinak než začneš pro argumentaci používat pokroucený fakta od nVidie, tak bych ti doporučil přečíst si prvořadě něco o požadavcích WGF a pokud možno od Microsoftu, který tyto požadavky určuje. Třeba tady: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f...

a konkrétně pak tuhle stránku:
http://img453.imageshack.us/img453/7267/wgf2tr.png

+1
+1
-1
Je komentář přínosný?

hm.. a co vlastne prinesie DX10 okrem noveho modelu zapojenia grafickeho ovladacado OS, teda myslim po stranke zlepsenia kvality zobrazovania 3d. To som sa este nikde nedocital. vsade je len spomenuty shader model 4, ale ake vyhody bude poskytovat? resp. laicky povedane ake nove vizualne vymozenosti prinesie,  dynamicke soft tiene a reflekcie, alebo nieco podobne, nevedel by niekto dat link na takyto clanok?

+1
+1
-1
Je komentář přínosný?

V současný době je kvalita (pokud nám nejde o záležitosti jako FSAA nebo anizotropní filtrace) obrazu a efektů omezena spíš nápaditostí autorů her, než možnostmi hardwaru. Mnoho shaderů v současných hrách nijak výrazně nepřesahuje specifikace SM1.x a složitějších záležitostí je skutečně pomále. Pro dosažení "kvalitnějšího" obrazu by bylo třeba spíš vyššího hrubého výkonu a práce vývojářů, než lepší technologické výbavy hardwaru - naprostá většina zlepšení obsažených v poslední generaci grafických čipů stejně cílila na dosažení vyššího výkonu, což je v současnosti nejpodstatnější limitující faktor.

Krom unifkovaných shaderů je zajímavou součástí SM4.0 i tzv. geometry shader, který může být použit i pro zajímavější grafické efekty a zvýšení kvality obrazu, na kterou jsi se ptal (např. vyspělejší obdoba technologie truform, resp. tesselator, který umožní zvýšení komplexnosti modelů, nebo různé efekty jako motion-blur založené na možnostech geometry shaderu...) jak říkám, už teď je možností habaděj, jen nejsou využity.

+1
+1
-1
Je komentář přínosný?

re no-X: to že specializovaná shader jednotka je rychlejší potvrdili i představitelé ATi zhruba v době, kdy se poprvé věřejně začalo mluvit o unifikovaných shaderech(vím, že tehdy se "hádali" o kolik je méně efektivní - nvidia samozřejmě tvrdila o hodně a ati, že jen o trochu).
A co se týká Xenosu - to o té 10MB EDRAM byl jen doplněk. Podstatná část mého sdělení byla, že výkon Xenosu vychází HLAVNĚ z toho, že jsou PŘÍMO na něj aplikace optimalizovány(s žádnou nVidii, ale dokonce ani odlehčenými/staršími verzemi od ati se absolutně nemusí u xboxu počítat). Pokud by to skutečně bylo o tolik lepší co tvrdíš, nemyslíš, že by to ati už dávno použila v grafikách pro PC?(menší počet tranzistorů, vyšší výkon...proč tedy nějaká R580?)

+1
+1
-1
Je komentář přínosný?

ptipi: myslím, že ATi technologie z Xenosu použít teď nemůže, protože podepsala s MS dohodu, že nějakou dobu tato technologie bude výsadou Xboxu.

+1
+1
-1
Je komentář přínosný?

TyNyT: máš v podstatě pravdu, ale patent, na který si koupil microsoft práva, je ona EDRAM s integrovanou logikou
ptipi: vycházíš z nedostatečného množství informací (které jsou navíc poměrně nepřesné)
 
1. těžko posuzovat, zda je specializovaná jednotka pomalejší nebo rychlejší. S čím to porovnáváš? Totiž, unifikované jednotky Xenosu jsou poměrně malé a jednoduché (sice jak v čem, no ale plocha čipu, kterou zabírají, je poměrně nízká). Takže pokud bereš výkon na jednu jednotku, tak to zázrak není, ale pokud vezmeš výkon na počet tranzistorů, tak vychází stále líp (viz předchozí výsledky), protože se jich do čipu "vejde víc", konkrétně 64 u Xenosu (z nichž je 48 aktivních).
2. Dá se to posuzovat i z druhé strany. Vezměme jako fakt, že je specializovaná jednotka rychlejší. Jenže k čemu jí to bude v případě, že musí čekat na jinou specializovanou jednotku, která je přetížená a nestíhá? Pak se výsledná efektivita celého čipu může pohybovat i kolem desítek procent. A nám nejde o výkon(efektivitu) jedné jednotky, ale o výkon(efektivitu) celku. Podívej se třeba na R520 a G70. Pipeline G70 zvládá 2 MADD operace v taktu, pipeline R520 zvládá jen 1 MADD operaci v taktu. G70 má o 50% víc pipelines. Tzn. při stejné frekvenci by měla být 3x rychlejší. A je? A právě na tom je vidět, že v současnosti nejde o výkon jedné jednotky. Dispatcher ATi dokáže mnohem efektivněji vytížit dostupné jednotky, takže i s polovičním teoretickým výkonem je na tom stále velice dobře nehledě na to, jakou efektivitu samostatná pixel pipeline má.
3. proč ATi čip s unifikovanou architekturou nevydala dřív je docela známá věc. Po vydání R300 začal vývoj unifikovaného čipu R400, ale ještě nebyl dokončený a bylo třeba reagovat na NV40 (6800), tak došlo na R420 (X800). Ve vývoji bylo pokračováno pod označením R500; zároveň se vyvíjel Xenos jako konzolová verze (proto se dříve často chybně Xenos označoval jako R500). Jenže unifikovaný čip bez DX10 je na tom jako by byly současné čipy bez DX9... Takže ATi musela vzít některé technologie R500 a spojit je s prvky tradiční architektury R300, aby mohli nabídnout plně funkční čipy (R520). Takže důvod, proč ati nevydala unifikovaný čip dřív, je prostý - absence softwarové podpory. R600 je návrhově hotový už od minulého roku a v současné době čeká jen na DX10 a vychytání 80nm výrobní technologie.
4. "výkon Xenosu vychází HLAVNĚ z toho, že jsou PŘÍMO na něj aplikace optimalizovány"
Ale já mluvím čistě o pixel shadingu. Parametry hardwaru jsou nezávislé na softwarových optimalizacích. A unifikovaná architektura je unifikovaná od toho, aby byla schopna dosáhnout maximální efektivity i bez specifikých optimalizací. Že ATi navrhuje čipy tak, aby podávaly max. výkon i bez optimalizací, resp. že specifikcé optimalizace nepřinášejí zdaleka takový nárůst výkonu jako u nVidie, tvrdí i Carmack. Takže by mě zajímalo, jaký optimalizace pro grafické jádro máš na mysli (PP Xenos nepodporuje, balancování poměru zátěže PS a VS taky nemá smysl, protože tomu se Xenos přizpůsobí sám atp.)

+1
+1
-1
Je komentář přínosný?

1. Ano, výkon Xenosu asi vychází lépe na jednotku plochy(i když jsem žádné výkonové porovnání zatím neviděl - a teoreticky jsi sám dokazoval, že čísla nehrajou roli), než výkon PC grafik, ale znovu je to spíše otázka specializovaného použití, kdy není třeba zachovávat kompatibilitu(nebo výkon ve hrách, které nepočítají s unifikovanými shadery,...). Protože jinak shader jednotky odpovídající komplexnosti jako specializované zabírají více místa(podle tebe o 8-15%, podle nv o 30-40%)
2. Porovnávat pipeline G70 s R520 je nesmyslné - pipeline R520 totiž zabere více jak o polovinu více tranzistorů. A když dojde k porovnání výkonu na počet tranzistorů při stejné frekvenci, tak ati jedině dokázala, jak umí optimalizacemi plýtvat(ale když ony se ty optimalizace tak dobře vyjímají na reklamních materiálech...a potom jde nahoru i prodejnost, takže hloupé to rozhodně není). To samé dokázala ati i u R580 kdy dokázala téměř bezvadně proplýtvat přes sto milionů tranzistorů na optimalizace, které v praxi přinesly ani 10% nárůst výkonu oproti stejně taktovanému čipu od nV(který má ale skoro poloviční plochu...skutečně jsem tehdy nepobral, proč nV nevytáhla se shruba stejně velkým čipem jako ati, co do počtu tranzistorů, ale s 32 nebo i třeba 40 pixel pipelines - ale určitě mají dobré důvody a vidí mnohem více než tady my...hlavně co se týká způsobu jak získat peníze).
3. Asi ano.
4. Ani výkon v shaderech není konstantní pro všechny "typy" - v PC nv více sedí jednoduché shadery, ati zase komplexní s dynamic branchingem a určitě podobné pravidlo bude platit i pro Xenos. Prostě vždy platí, že když děláš program na konkrétní stroj, tak to je rychlejší než když musíš dodržovat kompatibilitu.

Ale abych nezdržoval - unifikované shadery mi prostě příjdou jako jen další vyhypovaný název, který si výrobci grafik budou moci přilepit na bok krabice, jež ale nepřinese nic víc, než maximálně mírné zvýšení výkonu. Ostatně brzo uvidíme, jak si vedou klasické architektury, proti těm s unifikovanými shadery v reálu. Třeba se ukáže, že se pletu.

+1
+1
-1
Je komentář přínosný?

Promin ptipi, ale pripadas mi jako tiskovy mluvci nV, ses za to aspon dobre placeny? Protoze ta tva veta, ze jde jen o vyhypovany nazev presne sedi na tu No-Xovu teorii o tom, ze co nV nema, to je zbytecne az do te doby nez s tim sama prijde (a realnych prikladu dal dost). Bohuzel nV s tim prijde vzdy az po odkoupeni nejake firmy, co tu technologii vlastni..... cili jejich vlastni vyvoj je otazkou...

+1
+1
-1
Je komentář přínosný?

ptipi: Když to vezmu selským rozumem, tak minimálně v 3DMarku nastane obrovské zvýšení výkonu u testů pixel/vertex shader, protože v obou pojede naplno celý čip, nikoli pouze pixel/vertex jednotky. :o)

+1
+1
-1
Je komentář přínosný?

K bodům 2. a 4. se dál nebudu vyjadřovat, jen bych opakoval, co jsem už jednou napsal. Takže 1... tahle čísla pocházejí od vývojářů her a potvrdil je i Dave Baumann (šéfredaktor B3D), který se s mnoha SW vývojáři i zamětnanci ATi a nVidie zná osobně. Není důvod těmto informacem nevěřit, cokoli řekl, se zatím potvrdilo (ano, byl to on, kdo už téměř před rokem tvrdil, že R520 bude obsahovat 16 pixel pipelines, čemuž se čtenáři v českých diskusích jenom smáli a stále věřili Inquireru a jeho pohádkám o 32...). Někteří lidé jsou ale nepoučitelní a namísto důvěryhodným zdrojům věří radši tomu, co se víc blíží jejich představám...
 
"specializované zabírají více místa(podle tebe o 8-15%, podle nv o 30-40%" Pokud číslo 30-40% pochází od nVidie, není se čemu divit, ale zároveň to může být pravda. ATi už totiž má implementovaný dispatcher v R5xx (podle vyjádření bývalého zaměsnance ATi tato logika zabírá zhruba čtvrtinu až třetinu plochy těchto čipů). nVidia nic podobného ve svých současných čipech nemá, a proto je pro ATi přechod na unif. jádro snazší a stačí k tomu nižší množství tranzistorů.

+1
+1
-1
Je komentář přínosný?

re paja666: promiň, ale i kdybych vzal všechny teorie od no-Xe jako pravdivé, tak stále se bude jednat JEN o nárust výkonu v idálních případech o pár desítek procent, které je zaplaceno větší plochou čipu(a ta plocha se dá využít i k jiným metodám zvýšení výkonu...). A NIC JINÉHO. Navíc porovnávat to s grafikou, která není určena do PC je trochu mimo(NV2A v XBOXU taky zvládala Halo v kvalitě, na který byl v PC třeba Radeon 9700 PRO/GF FX5900 a přitom šlo jen o trochu upravený PC chip narozdíl od Xenosu). A když se ti něco nelíbí, co někdo jiný říká, tak ho okamžitě označit za podplaceného, je...nízké.(btw - to samé dělá ati - pamatuješ na příchod PS3 s řadou 6800?)

re MAGIC: Ano...naprostý souhlas. A určitě přinejmenším z části tu jde právě o tohle.

re no-X: tou větou, co jsi citoval jsem nechtěl říct, kdo má pravdu(jestli ty, nebo nv), ale jen vyvrátit tvůj názor, že unifikované shadery budou méně náročné na plochu(tzn ať v tvém případě, nebo v případě nv - vždy bude třeba zvětšit počet tranzistorů).

A pro zopakování - není tak daleko, co si budeme moci ověřit, co unifikované shadery skutečně přinesou. Celkem se těším, jestli ukážou něco nového.

+1
+1
-1
Je komentář přínosný?

2ptipi
V case ked NV presla na SM3, to bolo ciste len o marketingu, hlave museli vsade vyvesit porovnanie SM3 a SM2, ktore bolo v skutocnosti porovnanie SM3 a SM1.1(nanajvys 1.4), ale vo vedsine pripadov si NV necha vyslapat cestu od niekoho ineho a do novych technologii sa moc nehrnu, skor osocuju tych co sa snazia zaviest nieco nove, ale marketing maju dobry vela hier je optimalizovanych pre NV, v poslednej dobe bol najvyznamnejsi prepad vykonu ATI R5x0 serie vo FEAR kde v deme mali asi o 60% lepsie vysledky ako v plnej "optimalizovanej" hre

+1
+1
-1
Je komentář přínosný?

ptipi: Takže myslíš, že technologický přístup nVidie bude lepší a u ATi jde jen o marketing? Můžeme se tedy těšit, že SM4.0 bude na G80 implementovaný tak skvěle, jak skvěle byl implementovaný SM2.0 na NV30 a SM3.0 na NV40? A že přístup ATi k SM4.0 bude stejně špatný, jak špatný byl u SM2.0 a R300 nebo SM3.0 a R5x0?

No nic... aspoň se přestaň ohánět nepodloženými informacemi - sice nevím, odkud jsi je převzal a nechci tě z ničeho sočovat, ale skoro mi přiapdá, že jsi si jen překroutil fakta tak, aby se ti hodily do krámu...
1. NV2a měla víc ALUs než novější GeForce 4 Ti, nevím odkud jsi vzal, že šlo "o trochu upravený PC chip".
2. 6800 a SM3.0? Řekni mi, JAKOU konkrétní technologii, která souvisí s SM3.0, má GF6800 dobře implementovanou, funkční a efektivní... Já vidím jen HDR bez FSAA, pomalý nefiltrovaný vertex texturing a neefektivní dynamic branching. Zapomněl jsem na něco?
3. "stále se bude jednat JEN o nárust výkonu v idálních případech o pár desítek procent, které je zaplaceno větší plochou čipu"
Proboha kde bereš tu jistotu? Dal jsem ti příklad - Xenos. Je menší, je efektivnější, je unifikovaný. Myslíš, že si ho Microsoft pro Xbox vybral proto, že dává lepší výsledky ve 3DMarku?
4. "Porovnávat pipeline G70 s R520 je nesmyslné - pipeline R520 totiž zabere více jak o polovinu více tranzistorů."
Zajímavý, ale nesmyslný názor. Můžu se zeptat, odkud jsi to převzal?

+1
+1
-1
Je komentář přínosný?

re no-X:Viděl jsi snad, že bych napsal, že přístup jedné firmy je lepší než jiné? NE. Já jsem jen říkal, že se ATI chová STEJNĚ jako NV(když si přečteš, co jsem napsal, tak jsem dával nepěkné ukázky chování obou stran).

1.NV2A sice měla více ALU, ale oproti GF4 měla mnohem nižší frekvence GPU (233MHz vs 300MHz) i pamětí (400MHz vs 650MHz, i když s odděleným frame-bufferem) a navíc měla horší verzi LMA, takže v hrubém výkonu rozhodně výrazně rychlejší, než NV25 nebyla. Přesto bylo na PC pro stejnou kvalitu potřeba o generaci novější stroj (aspoň s FX5900/Radeonem 9700)- výkon u konzolí vždy vychází z optimalizace(opakuji se už asi popáté, ale vůči tomuhle faktu máš asi mentální blok, nebo se ti prostě nehodí do krámu).
2. Jakou konkrétní technologii? Přece funkčnost a použitelnost ve všech prozatím vydaných hrách s podporou SM3.0(ne vždy je to v ultra-vysokém rozlišení, ale aspoň 1024x768 funguje vždy na řadě 6800) - a to je podle mně podstatné. Na druhou stranu - kolik her si s X1800 zahraješ se zapnutým FSAA + HDR?
Ano, výkon v PS2 u FX řady byl tristní. O G80 prozatím co se týká výkonu ani jeden z nás nic neví, takže prozatím těžko posoudit.
3.Microsoft nevybral Xenos, ale vybral ATI, která pro MS Xenos vyrobila "na zakázku"(ale toto je vlastně jedno). Důležité je - KDYBY to bylo skutečně tak výhodné(nízký počet tranzistorů a vyšší výkon než X1900), tak by to ATI vydala(samozřejmě upravené) místo R580. Jenže evidentně to tak ATI neudělala a určitě má proto dobrý důvod a tady jsou 2 možnosti : A) Není to tak výkonné jako R580 nebo B) Výkonné to sice je dostatečně, ale Xenos je oškubán o funkce, které jsou u PC verze nezbytné a PROTO má méně tranzistorů. V žádném případě se ale neočekává, že další generace grafik od ATI bude mít méně tranzistorů (což tvá tvrzení o jednoduchosti US implikují).
4. Vycházím čistě z počtu tranzistorů v čipu - G70 300 milionů vs R520 320 milionů. Jistě - asi jsem se vyjádřil nepřesně, když jsem mluvil čistě o pipelines. Bohužel bez věcí okolo, které výkon podporují nemá cenu výkon měřit. Nicméně bavili jsme se o efektivitě na počet tranzistorů - tu má 7800 na stejné frekvenci evidentně vyšší než X1800.Ano, výsledný výkon byl nižší, což bylo ale dáno tím, že 7800 je o půl roku starší a na horší výrobní technologii a tudíž i nižších frekvencích.(pokud bys to chtěl vyzkoušet, tak vem 7900GTX(jen drobně upravená 7800), podtaktuj ji na 625/1500 a porovnej s radeonem X1800XT. Výjde ti, že při nižším počtu tranzistorů a stejných frekvencích je celkem výrazně rychlejší).

re ASD: Ano - SM3.0 byl hlavně o marketingu a já neříkám, že ne. Ale stejně tak je o marketingu HDR+FSAA(ani X1900 to pořádně nezvládá), a předpokládám, že stejně tak o marketingu budou unifikované shadery. Samozřejmě hlavně ze začátku - později, jako všechny technologie, které jsem zmínil, se asi uplatní. Jenže navíc narozdíl od dvou předešlých jmenovaných technologiích mi prozatím nikdo neřekl CO, krom možného nárůstu výkonu(který je ještě diskutabilní) unifikované shadery přinesou třeba do her. Protože prozatím to vypadá, že všechno bude umět i G80(otázka jak efektivně, ale to nemůžeme předem soudit), která nebude na tomto principu založena.

+1
+1
-1
Je komentář přínosný?

ptipi: Jak tak znám no-X, je sice trochu zaujatý, ale ví co říká a nepamatuji si, že by se někdy příliš mýlil, nebo že by se jím uváděné informace ukázaly jako hrubě nepravdivé.

Mimochodem, netušíte někdo jak na tom má být USA se spotřebou? Je jasné, že pojede častěji naplno a tudíž se bude více pohybovat u maxima, ale kde to maximum bude? nVidia teď ATI na poli spotřeby celkem válcuje a to nemluvím o poměru spotřeba/výkon, který je třeba u G73 vynikjící.

+1
+1
-1
Je komentář přínosný?

2ptipi, no-X: koukám že se tu rozvinula zajímavá diskuze. K ptipimu "HDR+FSAA(ani X1900 to pořádně nezvládá", co tím přesně myslíš, mě připadá, že to zvládá docela dobře - tedy pokud tak lze nazvat max. 13% zpomalení proti FSAA bez HDR (viz. http://www.elitebastards.com/cms/index.php?option=com_content&task=v...)

Jinak k benefitu US: úspora tranzistorů to očividně nebude, protože pokud musím implementovat příslušný "shader" univerzálně tak na to budu potřebovat víc tranzistorů než na jednoúčelový. Samozřejmě pokud to neberu tak, že když je budu mít univerzální, tak jich ve výsledku nabouchám do čipu míň. Zjevná výhoda US bude pro vývojáře, kteří se nebudou muset tolik nimrat se shaderovými kódy a s tím, kolik ještě operací a kterejch do shaderu můžou strčit. Výrobci grafických čipů se pak můžou předhánět v tom, kolik US na čip dají a nemusí řešit, jako teď, kolik kterejch operací pro pixel a vertex tam strčit natvrdo.

+1
+1
-1
Je komentář přínosný?

Ještě podotýkám že jsem měl NV 4200, pak ATI 9700, ATI 9800XT, teď mám NV 6800GT a už bych měl X1900XT kdybych nebyl zatvrdlej na AGP :-). Rozhodně se nepovažuji za fandu jedné konkrétní firmy, jsem fanda 3D technologií.

+1
+1
-1
Je komentář přínosný?

oo Viper oo: máš v podstatě pravdu, jenom ta "velikost" unifikované jendotky je diskutabilní. Stejně jako velikost specializované jendotky může být velmi různá (prostě podle toho, kolik zlvádá operací a jaké má schopnosti). Pokud třeba specializovaná jednotka bude zvládat 2xMADD, bude obsahovat dvě mini-ALUs a integrovanou TMU, bude nesrovnatelně komplexnější, než unifikovaná jednotka, která bude zvládat jen základní operace. Současný trend je používat co nejvyšší množství co nejjednodušších jednotek a to z jednoto důvodu: pokud pipeline obsahuje dvě ALUs, z nichž každá umí ADD i MUL a program potřebuje provést např. 8x ADD a 0x MUL, tak vlastně polovina obou ALUs nedělá nic, mini-ALUs taky nedělají nic, texturovací jednotka totéž a jen čekají, než se provede 8x ADD. Tzn. čím vyšší komplexnost, tím nižší efektivity v neoptimalizovaném kódu bude dosahovat. Naopak pokud jednotka bude zvládat jen 1x každou základní operaci, zvyšuje se pravděpodobnost, že bude využita "naplno". Závěr si každý zvládne udělat sám.

+1
+1
-1
Je komentář přínosný?

re: ptipi
Co sa tika HDR+FSAA na X1900 tak pokles vykonu pri zapnuti AA je len asi 10% a v Obliovone dava aj v tejto kombinacii vyssi vykon ako 7900GTX. A co sa tyka porovnanie vykonu X1800XT a 7900GTX tak vykon je velmi podobny a napr prave Obliovon kde je masivne vyuzity SM3 ma ATI jasne navrch(http://www.firingsquad.com/hardware/oblivion_high-end_performance/page5.asp) v niektorych pripadoch sa na 7900GTX dotiahne aj X1900AIW, ktora ma len polovicne mnozstvo pamete a podstatne nizsie takty, Proste hry kde sa viac vyuzivaju nove technologie shaderov su prakticky vzdy domenou ATI.

+1
+1
-1
Je komentář přínosný?

Re Viper,ASD : On základní problém je, že už vlastní HDR to nezvládá a potom to samozřejmě dalších 10% už pošle jen plně do kytek. Viper v tomto ohledu krásně nahrál, když postnul ten článek z elitebastards - 23 FPS(průměr v 1280 Outdoor) já rozhodně za použitelné nepovažuji.(a když se podíváte, tak jsem nepsal, že je to z důvodu zapnutí FSAA, jen že tuto kombinaci to nezvládá a je to čistě marketingový trik na současných kartách(krom CF zapojení...), který samotná nezvládá ani nejlepší karta).
A co se týká toho, že je 7900GTX méně výkonná(firingsquad). Mluvili jsme o výkonu na počet tranzistorů při stejném taktu(čti efektivita). A v tomto ohledu je GeForce i v oblivionu minimálně na stejno s radeony(o 50 milionů méně než X1800 a o více než 100 milionů méně než X1900). Mimochodem - o pár stránek dále je indoor a tam zase vychází lépe GeForce. Samozřejmě, jako každé pravidlo, i v tom co jsem řekl můžeš najít vyjímky(jako třeba absurní případ, kdy FX5900 v 1600 při 4xAA porazila ve War3 X800 XT PE a přitom grafiky už nebyly bržděny procesorem). Důležité je, jak se to chová v průměru a tam je 7900 GTX tak cca o 5% pomalejší než X1900XTX, což více než vyváží o třetinu menším počtem tranzistorů(stále se bavíme o efektivitě).

+1
+1
-1
Je komentář přínosný?

a neni oblivion optimalizovany na ati? (neviem len sa pytam). lebo osobne si myslim ze ked niekto nieco programuje tak to robi na kompe v ktorom je nejaka grafika, tak predpokladam ze ten prog. optimalizuje na tu grafiku. z toho vypliva ze neexistuje prog ktory je univerzalny, takze stale bude nektora firma mat lepsie vysledky v niektorych hrach. preto berem herne testy z rezervou

+1
+1
-1
Je komentář přínosný?

zahorak: Prosím? Oblivion je optimalizovaný pro nVidii, je to TWIMTBP hra: http://www.nzone.com/object/nzone_twimtbp_gameslist.html
Což je mimochodem důvod, proč oficiálně nepodporuje HDR+FSAA a ATi musela přinést podporu oklikou přes drivery.
 
ptipi: Tvoje matematika je zajímavá. V průměru je X1900 možná jen o 5% rychlejší než 7900, ale kdo dneska hraje +-2 roky starý hry, který jsou do průměru v mnohých recenzích započítaný? Pokud do průměru vybereš pouze aktuální hry vydaný v minulých 6 měsících, jsou ty výsledky dost jiné, což mimochodem připomíná situaci FX vs. R9x00...
 
Co se týká Oblivionu, běhá na X1900 s HDR+AA rychleji než na 7900 jen s HDR. V 1280*1024 na max detaily +HDR+AA = 30FPS v nejnáročnějších scénách: http://www.pcinpact.com/articles/a/186/0.htm?pge=3
je zajímavý, že se ti to zdá málo, v jedné diskuzi na nejmenovném serveru se asi pět majitelů 7600GT dušovalo, jak si báječně zahrajou s HDR (který mizerná X850 nepodporuje) a že 15FPS, na kterých jim to běhá, je pro Oblivion víc než dost :-) Celkově vzato - 15FPS na HDR je dost, ale 30FPS na HDR+AA je málo... Takže účel světí prostředky a když jde o obhajobu GeForce 7, tak to platí dvojnásob :-)))

+1
+1
-1
Je komentář přínosný?

ASD: Tak to se pleteš, oblivion 3.0 shadery vůbec nepoužívá. Sice je v ini souboru nějaká položka enable 3.0 shaders, ale rozdíly pokud vim nikdo nepozoroval. Ostatně, neexistuje hra, která by je využila, jedině nejaký dema od výrobců karet a 3Dmark. Sice je pár her umí, ale to je jen aby se neřeklo, v grafice rozdíl pokud vim u žádný hry neni. Hlavní výhodou 3.0 shaderů měla bejt vyšší rychlost, (u hodně složitých shaderů až několikanásobně) jenže s nvidií to neni pravda.

ptipi: nvidie dřív dělávala dobrý karty, ale poslední dobou dou strašně dolů. Začalo to pochybnou GF4MX, docela drzost prodávat o dvě generace starší kartu pod stejným názvem. Potom řada FX, narychlo tam nacpali 2.0 shadery, jenom aby to tam bylo, bez ohledu na to, že jejich použítí kartu několikanásobně zpomalí. GF6, zdají se celkem v pohodě, dokud někoho nenapadlo otestovat 3.0 shadery. Sice je zobrazí, jenže se jaksi nevyskytuje ono až několikanásobné zrychlení, které by teoreticky měly přinést díky dynamic branchingu. Ukázalo se, že pokud není stejné rozhodnutí ve čtverci tuším 64x64 pixelů, tak dynamic branching vůbec nefunguje a karta počítá úplně celý shader. U GF7 je ten čtverec sice o něco menší, ale i tak mnohonásobně větší než u Ati (myslim 4x4). V důsledku toho ve složitých 3.0 shaderech X1600 hravě rozdrtí i ty nejvyšší GF6, jednoduše proto, že GF6 počítá klidně několikanásobek výpočtů, který stejně na konci zahodí. GF7 je na tom o něco líp, ale stejně je zrychlení při použití DB o hodně menší než u ATi.
A ještě ten trapnej marketing nvidie (3Dmark 2003 - 2.0 shader test zvýhodňuje ATI, protože nepoužívá čistě 2.0 shadery, ale kombinaci 2.0, 1.4 a 1.4 a naše karty na to nejsou uzpůsobený.; 3Dmark 2005 - test zvýhodňuje ATI, protže používá všude 2.0 shadery, i tam, kde nejsou zapotřebí.; Hardware schopný HDR+FSAA se neobjeví dřív jak za 5 let (těžko říct, jestli to byl fakt takovej kiks, nebo jestli to byla snaha prodat co nejvíc karet ještě než uvede ATI svoje karty); A navíc to jejich podvádění v 3Dmarku, kvůli kterýmu vydal futuremark několik patchů atd.)
A dalčí věc je náročnost pro vývojáře. Dneska má většina her v sobě 2 verze, standardní a pro nvidie. Jeden důvod je, že je nvidia "uplácí" kdy za anpsání kódu pro ně a vložení loga TWIMTBP poskytují např HW zadarmo a v závisostli na tom i hodně dalších vývojářů přidá kód pro nvidii, protože nechtí vydat hru, která by na nvidiích běhala 2x pomalejš než ostatní hry. Ale stejně se na to spousta vykašlala. (a nejen Valve(HL2) který spolupracuje s ATI) A tohle přiznal to i Carmack, kterýho ATI asi hodně naštvala za to že vypustili doom3. Pokud se provádí specifický optimalizace a ladí se výkon, tak se dá z nvidie vymáčknout dost. Kdežto pro ATI stačí napsat kód a další optimalizace je většinou zbytečná. Můžeš si tipnout, kterej přístup mají programátoři radši.

+1
+1
-1
Je komentář přínosný?

Už jsem sice nechtěl nic napsat, ale naposled.
re no-X : zase kdybych přistoupil na tvoje podmínky(jak už jsem udělal několikrát, i když nebyly podle mě zdaleka přesné a férové), tak by musel radeon x1900 podávat v průměru o 40% vyšší výkon oproti GF7900, aby se na ni dotáhl, co se týče efektivity(280 vs 385milionů tranzistorů) a o tolik vyšší výkon rozhodně nepodává(to musí uznat dokonce i fanATIk).
A to že banda pro změnu nvIDIOTů si myslí, že 15fps je dost mě vcelku nezajímá. Protože ani 23fps, kdy počet snímků klesá až na 15 rozhodně dost pro skutečné hraní (a né jen prohlídky "jak to taky může vypadat")není.(a to, že sis z 23 pro prezentační účely udělal 30, je tvoje věc)

re KillerZero: Je pěkné, jak ses rozepsal, ale na co jsi vlastně reagoval? O tom, že nvidia prodávala jinak velice úspěšné GF4MX, jsme se vůbec nebavili(btw GF4MX vyšly v době, kdy konkurence v tomto segmentu taky neměla HW s podporou shaderů, až později se proti nim postavily radeony 9000). To, že FX mělo s 2.0 shadery problém jsme už řekli, dynamic branching se ještě teď skoro nepoužívá(takže 1,5 roku stará karta má právo nebýt v tomto excelentní),...
V dalším odstavci jsi se zmínil o podvodech v 3DM, ale snad i ty víš, že v tomto ohledu si obě firmy nemají co vyčítat(pokud se ptáš, co ati, tak ta jednu dobu měla posunuté mipmapy blíže a potom si zase v driverech určovala, co se v jakou chvíli má natáhnout do paměti - a tím nemyslím žádný obecný algoritmus, ale systém "ve dvacáte sekundě načti křídla motýla"). HW schopný utáhnout HDR+FSAA tu ještě není, (když pominu CrossFire) a co se týká čistě teoretické možnosti spustit HDR+FSAA, tak tu už má dokonce GF6xxx, protože SuperSampling při HDR můžeš zapnout(sice máš z toho povedené promítání diapozitivů, ale teoreticky to funguje). Potom když dojdeš k tvým dvěma typům "Pro nVidii a zbytek", tak se to dá stejně dobře přepsat na formulaci "pro nvidii a pro ati", protože prakticky jen ati je tím zbytkem. A co se týká programu TWIMTBP, tak nechápu, co máš proti, že výrobce HW sponzoruje vývojáře(slovo "podplácení" v tomto ohledu může použít snad jen fan..., pardon, chtěl jsem napsat "naprosto dokonale perfektně nestranný pozorovatel"), protože to je úplně obyčejná strategie používáný skoro všude, typu "něco zadotujem a ono se nám to vrátí". Mimochodem díky tomuto programu vznikla například perla Trackmania Nations - zdarma plná verze velice návykové hry.

A tím jsem už skutečně s touto diskuzí skončil, protože vždy se najde někdo, komu když už doložím co jsem napsal před tím, tak řekne "a nvidia tamto a ono..." a vysvětlovat stále dokola, že si nemají tyto dvě firmy(ani jiné dvě v oblasti CPU) co vyčítat se mi opravdu nechce. Prostě podle rčení "everyone likes underdogs" si firmy, které se vyrovnali leadrům na trhu nebo je dokonce pokořily získají fanatické fanoušky, kteří se jich drží za každou cenu dávno potom, co dětská fáze "nevinnosti" skončila a stala se z nich stejná firma jako "ten hnusný moloch"...

+1
+1
-1
Je komentář přínosný?

ptipi: ano, napsat, že nVidia je super protože to prostě tak je a prohlásit diskuzi za uzavřenou, to je skutečně geniální postup...

"tak by musel radeon x1900 podávat v průměru o 40% vyšší výkon oproti GF7900, aby se na ni dotáhl, co se týče efektivity(280 vs 385milionů tranzistorů)"

počet tranzistorů G71 pochází od nVidie a počet tranzistorů R580 od ATi. Nikdo neví, jaký je skutečně jejich počet, ale ví se, že v ATi i nVidii používají různé způsoby pro jejich počítání, některé nezahrnují cache čipu, některé vynechávají zase jiné části a oba výrobci postupy na počítání tranzistorů mění tak, jak jim to vyhovuje kvůli marketingu. Skvěle to na jednom zahraničním fóru napsal uživatel atomt: "All I know is that I would not want to count my balls using either ATI or Nvidia method."

Dál je třeba zdůraznit, že probírání efektivity podle počtu tranzistorů má smysl pouze tehdy, pokud jsou oba srovnávané čipy vyrovnané jak po výkonnostní a technologické stránce, tak po stránce kvality obrazu. Málokterý uživatel si vybere pomalejší kartu s horším obrazem a absencí moderních technologií jen proto, že má v jádře míň tranzistorů. To je naopak ostuda, na které je vidět, do jaké míry nVidia šetřila na úkor technologií a kvality obrazu, jen aby ji výroba čipu vyšla o nějaký dolar levněji. V ceně karty se to ale neprojeví, 7900GTX nejsou levnější než X1900XT, takže pro zákazníka to skutečně význam nemá.

"a to, že sis z 23 pro prezentační účely udělal 30, je tvoje věc"
kde vidíš 23FPS? http://www.pcinpact.com/images/bd/news/27302.jpg

"O tom, že nvidia prodávala jinak velice úspěšné GF4MX, jsme se vůbec nebavili"
Nevšiml jsem si, že bys měl výhradní práva na určování směru diskuse.

"(btw GF4MX vyšly v době, kdy konkurence v tomto segmentu taky neměla HW s podporou shaderů, až později se proti nim postavily radeony 9000)"
GF4MX nepodporovala ani evn. bump mapping standardizovaný už v DX6 skoro čtyři roky před jejím vydáním. O podpoře PS u této karty ani nemá smysl diskutovat.

"dynamic branching se ještě teď skoro nepoužívá"
viz. Oblivion. Nebo ti rozdíl v min. FPS nepřipadá dostatečný pro obhajobu implementace DB a budeš půl roku čekat, než se architektura NV40/G70 s podporou DB znemožní úplně? To je argument o ničem. Je to totéž, jako když zastánci GeForce FX (a mezi nimi snad i ty) tvrdili, že prakticky žádné hry tehdy SM2.0 nepoužívaly, a proto je FX lepší volba.

"takže 1,5 roku stará karta má právo nebýt v tomto excelentní"
Mluvíš o NV40? Tak jaký smysl pak měla podpora SM3.0, když v něm má karta právo nebýt excelentní? (já bych naopak řekl, že dokonce neexistuje čip s horší podporou SM3.0, než je NV40 - pokud o nějakém víš, se s tím). A jestli tedy uznáváš, že SM3.0 na 6800 není zapotřebí, tak jakou výhodu tahle karta měla oproti X800XT? Levnější nebyla, chladič měla hlučnější, výkon nižší, ale všichni se jí zastávali kvůli SM3.0. Pokud sám říkáš, že podpora SM3.0 na téhle kartě je taková jaká je, tak jde jinými slovy o ten největší o*eb na zákazníka, jaký nVidia v posledních dvou letech zvládla udělat. Stalo se u GeForce 4MX, stalo se u GeForce FX, stalo se u GeForce 6/7, proč by se měla s GeForce 8 situace nějak měnit?

"V dalším odstavci jsi se zmínil o podvodech v 3DM, ale snad i ty víš, že v tomto ohledu si obě firmy nemají co vyčítat"
Kdy naposled někdo ATi dokázal nějaký podvod, kterým by byl zvyšován výkon na úkor kvality obrazu? Pokud nemáš konkrétní důkazy, tak na čem stavíš své tvrzení, že si v tomto směru nemají obě firmy co vyčítat?

"HW schopný utáhnout HDR+FSAA tu ještě není"
Zřejmě proto, že HDR+FSAA podporuje ATi a ne nVidia :-) Mimochodem, AA2x neexistuje? R5xx ho v mnoha hrách zvládají téměř bez propadu výkonu a zdvojnásobení EER přináší odstranění většiny nejviditelnějšího aliasingu.

"tak tu už má dokonce GF6xxx, protože SuperSampling při HDR můžeš zapnout(sice máš z toho povedené promítání diapozitivů, ale teoreticky to funguje)"
Funguje, kvalita je poloviční, propad výkonu dvojnásobný a hry to nepodporujou. Tady se bavíme o reálným přínosu pro uživatele, ne o teoretický podpoře neefektivního oversamplingu při nehratelným framerate.

"A co se týká programu TWIMTBP, tak nechápu, co máš proti"

To je jednoduchý - tenhle program přinese peníze nVidii, nikoli dlouhodobější použitelnost hardwaru pro uživatele. S příchodem NV40 přestaly být podporovány NV3x a v majoritě her vydaných po NV40 začaly NV3x podávat oproti dobovým Radeonům zoufale nízký výkon. Dokud nVidia sponzorovala, daly se výsledky ještě srovnávat, ale potom už šlo i o rozdíly přesahující 50%. Není důvod se domnívat, že po EOL NV4x/G7x bude situace jiná. GPU, které pro konkurenceschopnost potřebuje speciální podporu ze strany vývojářů, aby se vyrovnalo jinému GPU, které tuto podporu nepotřebuje, není nikdy dobrá investice.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.