Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Procesor AMD Fusion staví na vylepšeném Phenomu

No no trend MultiGPU karet je kravina sama o sobě. Výrobci tím maskují neschopnost nebo nemožnost se dostat k výkonějším Single GPU čipům s přijatelným odběrem (myslím, že postavit GPU výkoný je hračka pro ně, jen by takovej GPu asi papal více jak 200W :) ). Já osobně MultiGPU nekoupim nikdy, jedině, že by celá taková X2 karta žrala pod 100W celá.

+1
0
-1
Je komentář přínosný?

spotreba pod 100W ? Iba ak v 2D :-)

+1
-2
-1
Je komentář přínosný?

a> toto je uz davno vyriesene cez Hypertransport
http://www.hypertransport.org/tech/tech_htthree.cfm?m=3

a RAID z RAM modulov na Hypertransport od Vionlin memory, ktore jke tu uz viac a ko mesiac
http://www.hypertransport.org/news/pr/PR_Violin_12-10-07.pdf

vid obr na
http://violin-memory.com/tech/vxm.html
stare rieseniemislo na PCIe
http://violin-memory.com/products/violin1010.html

+1
0
-1
Je komentář přínosný?

Soundczeck: pred takymi 5 rokmi bola takisto kravina multi-core procesor... a pozri sa na to dnes - po jednojadre uz ani pes nestekne...

+1
0
-1
Je komentář přínosný?

2 heh: To je pravda, ale procesory preci jenom zerou trochu min a hlavne spotreba neroste s kazdym dalsim jadrem tak dramaticky jako u gpu, nehlede na to, ze ne kazdy ma misto ve skrini na dlouhou dvouslotovou grafiku, ktera funguje jako maly ohrivac.

+1
0
-1
Je komentář přínosný?

IMHO u grafik má víc procesorů větší smysl, než u procesorů.
Když se podíváte na návrh i jediného grafického čipu, je to vpodstatě jen hodně spolupracujících "malých procesorků", dvojnásob u DirectX10 čipů.
Z tohohle pohledu by víc jader mohlo spolupracovat snadněji, než u CPU.

+1
0
-1
Je komentář přínosný?

tady se asi zapomina na to, ze GPU jsou dneska priserne velky monoliticky cipy. Cim vetsi cip je, tim vic energie prejde do tepla diky ruznym nedokonalostem kremiku. Na tak velkych cipech je to proste problem ukocirovat. Takze kdyz budete mit č cipy s celkovou rozlohou jako jeden velky, tak jejich vyzarene teplo bude celkove o dost mensi. Takze staci i o dost mensi prikon.
Jedinej problem je v propojeni tech soucasti tak, aby to bylo efektivni jako jeden monolitickej celek.

Takze klidne si tady piste ze multi=gpu nikdy. Ja se naopak tesim, az si treba u DELLu budete moct v notasu vybrat, kolik R8xx cipu tam narvat.

+1
0
-1
Je komentář přínosný?

Aha, zajímvé. Už před pěti lety AMD odkryla své nadpozemské plány, procesor a grafická karta v jednom co dokáže nahradit high-end grafické karty. Tento nadpozemský produkt se neustále oddaloval a oddaloval až nakonec vyšlo najevo, že AMD plánuje to, co Intel bude mít o rok dříve (Havendale) a že vlastně z té hypervýkoné grafiky se nám vyklube ořezávátko na úrovni IGP...

A dál jim to žerte! Fakt se směju... AMD technologicý inovátor, cha cha cha. Nakrmila co mohla a nakonec skutek utek...

+1
+2
-1
Je komentář přínosný?

Narozdíl od Torrenzy tohle považuju za slepou cestu. Do kanclu stačí integrovaná grafika na fošně a hráč musí měnit grafiku častěji než CPU.

+1
0
-1
Je komentář přínosný?

joker_: To nesjou DX10 čipy ale čipy se SM 4.0...
kaapo: Já jsem vždycky žil v tom, že to co čip spotřebuje vyletí ven v podobě tepla... Nebo ty snad znáš nějaký druh energie, který se jmenuje "výpočetetní" a nebo nějak tak?

A taky jste všichni vedle jak tak jedle - jediný důvod co výrobce GPU nutí opustit velké monolitické čipy je škálovatelnost - navrhne se jedno jádro a čím výkonější grafika tím více bude obsahovat čipů... Jak prosté...

+1
0
-1
Je komentář přínosný?

happymaster:
1) jedine co vyrobce tlaci jsou prachy. Co je levnejsi vyrobit: hodne cipu s plochou 100mm2, nebo jeden s plochou 10000mm2? (umi nekdo takovej cip vubec vyrobit :)?)

2) k tomu teplu. No v podstate mas pravdu. Problem je v tom, ze ve vice-vrstvem cipu se ti ty vrstvy muzou nakombinovat tak, ze ti vlastne ve vertikalnim smeru vznikne tyristor. Pak tam vznikaji proudy cipem, ktere ho muzou i znicit a ty maji nezanedbatelny podil ve vytvorenem teple. Procpak se asi Intelu zdrzel 45nm proces? Jednim z duvodu byly i problemy s temito proudy. Maj nejaky konkretni nazev, ale ten si uz nepamatuju.

+1
0
-1
Je komentář přínosný?

A v neposledni rade je vyhodou vic mensich GPU min prostredku na vyvoj. Udela se jeden cip a vykon grafiky se urci poctem cipu. Misto aby se vyvijelo nekolik ruznejch GPU.

happymaster: Kolik tepla cip vyzari zavisi na vstupnim napeti a plose cipu. Plocha sice zustane v souctu stejna, ale pri vyrobe mensich cipu pujde mnohem lip rozlisit kvalitni a min kvalitni. Pak do highend grafik strci ty nejkvalitnejsi, takze do nich nebudou muset pro stabilni chod cpat takovy napeti a vysledny teplo bude mensi. Kdyz se vyrobi jeden velkej, tak se kvuli horsi kvalite v jednom miste musi treba celej cip napajet vyssim napetim, ze jo...

+1
0
-1
Je komentář přínosný?

"Guzmír @ 89.102.121.42 - dnes, 25. ledna 2008, 16:58
Narozdíl od Torrenzy tohle považuju za slepou cestu. Do kanclu stačí integrovaná grafika na fošně a hráč musí měnit grafiku častěji než CPU."

Mi přijde vyměnit nějaký GPU + CPU Fusion levnější než vyměnit CPU + Grafická karta.
Další moment je ten že k výkonnější grafárně je potřeba i výkonnější procák. Fussion je tedy naprosto vyhovující řešení, CPU i GPU si můžou výkonově navzájem vyhovovat.

+1
0
-1
Je komentář přínosný?

"Pak do highend grafik strci ty nejkvalitnejsi"

To je nejspíš pravda a vůbec mne to netěší. Občas jsem zkusil do různých kancelářských PC osadit levné grafiky (např. GeForce 7300 a ekvivalentní, ale na výrobci z principu nezáleží) a značně mne znechutilo, jak moc se přehřívají. Přitom oproti onboard srágorám občas nějaké výhody mají. Mimo jiné to, že vyhovující desky s onboard grafikou nejsou vždy dostupné.

+1
0
-1
Je komentář přínosný?

kaapo: Však ano, každé firmě jde o prachy... ;) Jinak jsem chtěl pouze reagovat na to, že spousta lidí si myslí, že to teplo co čip vyzáří je produktem "nízké účinnosti" čipu a že správně by se měla všechna energie "přeměnit" ve výpočty. Přitom z pohledu fyziky je každý čip pouze kus kovu, ve kterém se mění elektrická energie na tepelnou a ty výpočty jsou jenom takový bonus navíc... Je to jako topná spirála, akorát čip má ten bonus, že tím svým zahříváním dělá i nějaké výpočty...
qee: Přesně jak říkáš...

+1
0
-1
Je komentář přínosný?

happymaster23: tu topnou spiralu bych nepodcenoval. zkus si takovou topnou spiralu co zrovna pocita prilozit na pokozku a uvidis, jak dlouho si budes ten vysledek pamatovat.

+1
+2
-1
Je komentář přínosný?

Poen: To co vykládáš je naprosto idealistická představa. V praxi to vypadá, že na jedno CPU se vystřídají 2-3GPU. Dám ti příklad:
Jednou kdysi dávno, byl procesor jménem AthlonXP 2600+. Psal se rok 2002 a všichni se dušovali, že k takovému brutal procesoru patří grafika jako GF4Ti4600. Neuplynulo moc času a k tomu samému procesoru zrazu všichni přiřazovali grafiku odpovídající Radeonu 9700. Uplynul další rok a zrazu byla odpovídající grafika k tomuto procesoru něco jako vanila 6800. Dnes mám u toho samého procesoru Radeon X1950 Pro a nutno říct, že už v nejedné hře mě více limituje grafika, než ten opravdu dnes už předpotopní procesor.
Co tím chci říct? Za těch šest let se výkon jednoho jádra procesoru cca zdvojnásobil. Zvýšil se sice počet jader, ale to zdaleka nepřináší takový nárůst. Zatímco výkon grafik se za tu samou dobu minimálně zdesetinásobil - nemluvě o SLI/CF. Takže neexistuje odpovídající si kombo procesor:grafika, které by si odpovídali i po roce nebo dokonce delším čase.

+1
0
-1
Je komentář přínosný?

Poslednych 5 - 6 rokov sa drzim zasady, ze AMD do notebooku nepatri. Zda sa, ze nadalej sa nic nemeni... :-)

+1
-2
-1
Je komentář přínosný?

Posledních pět až šest let se držím násady.

+1
0
-1
Je komentář přínosný?

ptipi: To se ti tak jeví jenom proto že hraješ/hráls starý hry ve vysokém rozlišení a pustupně přidávals grafické detaily zatěžující převážně jen GPU :-) IMHO je to efekt způsobený tím že dané hry byly navrženy pro mnohem silnější grafárnu než jsi měl jako první. Vývojáři mají vždycky to nejlepší železo.
Jde jednoduše o to na co je hra navržená. Pokud bude navržená na Fusion 1 na full detail půjde tam všechno plynule na full detail pokud bude navržená na Fusion 2 ...
Myslím že není těžký to pochopit.

+1
0
-1
Je komentář přínosný?

Ho: A co tím chtěl básník říci? Stačí vypnout ventilátor GF8800GTS, nechat grafiku vystoupat na 110°C a stačí se prstem jenom přiblížit ke chladiči...

+1
0
-1
Je komentář přínosný?

Soundczeck> Skutecne? Podivej se, jak par let zpet vypadaly profesionalni grafarny (vygoogli si treba wildcat) a pak to prijd zopakovat...

+1
0
-1
Je komentář přínosný?

randy: Proč myslíš že AMD nepatří do NB?

+1
+2
-1
Je komentář přínosný?

SoundCzech: Shinigami ma pravdu.

http://www.thedodgegarage.com/3dfx/q3d_aalchemy.htm
http://www.thedodgegarage.com/3dfx/q3d_mercury_brick.htm

(Vsecko je to ze stranky http://www.thedodgegarage.com/3dfx/ - dilo nadsence, co sbira 3Dfx HW - projdete si to, je to uzasne - zvlast ty casti o poslednich kouscich a prototypech)

+1
0
-1
Je komentář přínosný?

kaapo: ten paraziticky tyristor tam vzdy je pokial to nie je SOI, kvoli CMOS strukture ako takej, je tam uz z definicie. Inak ten latch-up co CMOS suciastky dokazu chytit je dost zabavny, obvod ktory normalne zerie tak 10mA dokaze zhltnut aj 1-2A a to ho znici. Odkedy pouzivam obmedzenie prudu na 0.5A tak uz sa to nestalo :). Spominal som uz ze ten latch-up sa da u CMOS suciastok vyvolat uz len tym ze do vstupneho alebo vystupneho pinu pustite nejaky maly prud? Chipsety intel 865 a spol takto zvykli vyhoriet, aj pocas chodu stroja len tak zhorel southbridge po pripojeni USB niecoho. Ale vinim Intel - schemy ktore poskytli vyrobcom dosiek boli vsetky vadne, ako ochranny odpor tam bol 0 ohmov... VIA tam mala 1.5kohm. Lutujem tych ludi ktorym to nezreklamovali.

+1
0
-1
Je komentář přínosný?

happymaster23: mel to byt vtip. Ne zaklad hadky/flame s tebou. Ach jo. ;o(

+1
0
-1
Je komentář přínosný?

re Poen: To se mi opravdu jen nezdá, že procesory posledních pět let přešlapují na jednom místě zatímco grafiky se stále ještě zrychlují. Stačí si uvědomit, že s tím šest let starým procesorem můžu v klidu hrát na střední detaily Crysis(v timedemu cca 27fps) v 1280*1024. Na druhou stranu neexistuje grafika z té doby, která by Crysis vůbec rozjela a už vůbec ne na střední detaily.
Ale klidně si vypočti poměr výkonu GF4Ti4600(nejvyšší highend té doby) vs 8800Ultra tri-sli(nejvyšší high-end dneška).Dostaneš poměr (3*)128 1D procesorů @ 1.5GHz/ 4 4D procesory @ 0,3GHz (k prvnímu by jsi mohl přičíst ještě sekundární MADD jednotky, k druhému ještě 3 VSU). Dostaneš poměr výkonu (3*)40:1. Zatímco u procesorů bys podobným postupem dospěl maximálně k (4*)2:1.(v závorce je přispění více grafik/více jader)

Navíc na Fusion nikdo hry dělat nebude, protože se bude jednat o opravdu hodně nevýkonné řešení pro grafiku, vzhledem k tomu, že se bude jednat jen o alternativu ke grafice v čipsetu(jinak to ani nejde vzhledem k absenci rychlé grafické paměti u tohoto řešení). Bude śpěch, pokud bude moci konkurovat výkonem low-end samostatným grafikám.

+1
0
-1
Je komentář přínosný?

ptipi: Radku ? :-)
Fusion je hudba budoucnosti a ty už víš že bude co se týče výkonu nanic :-)
Řekl bych že bude zásadně záležet na tom jak AMD nakonec Fusion pojedná. Nakonec vývoj stejně u mixed řešení typu Fusion zaparkuje. Externí sběrnice se totiž velice brzi stanou kritickou stránkou celé architektury, zvláště pokud bude potřeba krmit ne jedno ale třebas šestnáct GPU jader.
Zaostávajícího poměru bych se nebál, sice CPU bude vždy méně výkonné v absolutních číslech (je univerzální) nicméně bude sledovat nároky GPU. Třebas zmnožením svých jader.
Dá se předpokládat že pokud nebudou CPU výkonem stačit ani ve zmoženém počtu, časem se oddělí další specializované jednotky na chroustání kritických částí "aplikační pipeline".

+1
0
-1
Je komentář přínosný?

re Poen: k prvnímu tvému blebtu - nadávky si odpusť. To, že vidím fusion jako kancelářskou a mpc záležitost a ne do výkonných pc, má své opodstatnění.
A k tomu zbytku - evidentně jsi nepochopil slovo z toho, co jsem napsal. Ale popořádku:
1. Fusion ani alternativa od intelu nemůžou výkonově stačit na samostatné grafiky výše než v low-endu(nižší maintream možná...možná). Protože:
a) Dokonce ani plánovaný tří-kanálový řadič u nehalemu nemá ani poloviční paměťovou propustnost co DNEŠNÍ high-end grafiky! A to velkou část propustnosti pro sebe bude potřebovat samotné CPU.
b) plocha čipu byť i mainstreamové grafiky je větší, než u běžného CPU -> společně by dávali obrovskou plochu(tzn ani na mainstream grafický čip ve fusion není místo).
c) každé mainstream GPU žere v zátěži minimálně 80W. Společně s klasickým 65W cpu by to nespadalo ani do 130W obálky. Tzn tam nemůžou dát nic, co by se v dané době rovanlo byť jen mainstreamu.
2. Když jsem mluvil o vývoji, tak mi absolutní čísla byla ukradená. důležité je, že i když by jsme brali u CPU že každé další jádro přidá 100% svého výkonu, tak za posledních šest let se výkon procesorů zvýšil maximálně 8x. Výkon grafik se za tu samou dobu zečtyřicetinásobil(pokud bereme sli tak se výkon zvedl 80x resp 120x u tri-sli, CF vice versa). => GRAFIKY SE VYVÍJEJÍ PODSTATNĚ RYCHLEJI NEŽ PROCESORY(a to i při ideálním započtení více jader CPU).

Teď už snad musí být jasné, proč není možné udělat podobný hybrid jako konkurenci více než low-endu(v dokonale ideálním případě nižšímu mainstreamu).
Stejně tak by mělo být jasné, že grafiky zastarávají podstatně rychleji než CPU. Proto vázat výměnu grafiky na výměnu CPU nemá přinejmenším u herních (tzn mainstream a výše) strojů význam.

+1
0
-1
Je komentář přínosný?

ptipi: ono to je triviální: procesory (tak jak je známe dnes) tu jsou už přes 30 let (pokud bysme to brali včetně procesorového pravěku, lze přidat dalších 20 let). "3D" grafické adaptéry (v segmentu dostupném normálním smrtelníkům) tu jsou od dob Matroxu a 3dfx, tedy cca roky 94-95. To je "pouhá" polovina doby.
Vývoj pak vždy probíhá nejdříve po velkých skocích, aby "v závěru" zpomaloval, jak postupně již není co optimalizovat a zrychlovat. Viz např. analogie vývoje konstrukce auta či letadla.
 

+1
0
-1
Je komentář přínosný?

Ještě k té generační obměně CPU vs. GPU. U CPU máme jasně danou x86 architekturu, kterou si tyto s minimální obměnou táhnou od pravěku. GPU se na druhou stranu mění poměrně radikálně spolu s API protože na nich nepotřebujeme spouštět kritický software (například OS) x-let starý - to umožňuje nepoměrně rychlejší pokrok ve výkonu a přidávání funkcí (T&L, shadery). Proto se mi zdá hybrid jako nešťastné řešení.

+1
0
-1
Je komentář přínosný?

Tynyt: Výkon grafických karet poroste i nanále steným tempem jako dosud. Důvod je prostý. Úlohy, které grafické karty řeší jsou celkem dobře paralelizovatelné, tj. pokud má designer grafických chipů 2x větší množství tranzistorů, bude mít navrhnutý chip 2x větší výkon. Nárůst výkonu graf. karet se zastaví až v situaci, kdy nebude mít smysl ho dále zvyšovat, tj. až graf. karty zvládnou při slušném framerate renderovat rozlišení 2560*1600.

+1
0
-1
Je komentář přínosný?

ptipi, Poen: S tou pametovou propustnosti to neni uplne pravda... Proc maji grafiky tolik svoji rychly pameti? Hlavne kvuli zpozdeni dat mezi RAM<->CPU<->PCIE radicem<->grafikou. Tady de facto celej ten retez odpada, je tu primo radic pameti a nic mezi. Zpozdeni stejny jako mezi GPU a pameti na samotny grafice. Spousta dnesnich mainstream grafik jeste ma DDR2 (treba i planovany Radeony 3650), takze s prenosovou rychlosti to neni tak horky. S tim celkovym prikonem uz je to vec jina, musi to jit samozrejme uchladit a v notebooku je to vubec problem...

+1
0
-1
Je komentář přínosný?

Jack007: Tohle rozliseni samozrejme padne pomerne brzo, ale zapominas na to, ze hry nejsou jenom o rozliseni. Porad bude stoupat pocet trojuhelniku a rozliseni textur, prijdou pokrocilejsi metody osvetleni a stinovani, vyssi bitova hloubka pro HDR, zvysi se naroky na fyzikalni vypocty a dalsi a dalsi veci, ktery bude muset neco pocitat. Takze vyvoj se hned tak nezastavi. A kdo vi, treba se za par let zacnou herni svety stavet z "molekul" misto z trojuhelniku...

+1
0
-1
Je komentář přínosný?

qee
co to placas za nesmyyly, jaky zpozdeni dat, ty pameti tam nejsou kvuli zpozdeni , ale kvuli rychle praci samotne karty a ne aby cekala az si udelal cas procak ci radic dma, posle ji data z ram atd.. i dma si vyzaduje cas , aby byla samostatna a nepotrebovala okolni system(more textur,dat, vypoctu, vzorcu....), kdyz uz chces neco konkretniho napsat , tak napis, ze proste dnesni sbernice nedosahuji ani 1/20 propustnosti grafik, proto ja treba jedu na 512MB grafice kvuli vysokym rozlisenim, aby byla grafika samostatna, a nemusel ji porad tak hodne krmit procak pres uzke hrdlo sbernice
 
sbernice nemaj zadny zpozdeni, jen malou propustnost dat proti tomu, co zvladaj dnesni high end gpu
 
meles kraviny, je jasny ze, kdyz chces poslat 8GB tam to po lince 0,5GB bude trvat dlouho , ale zadny zpozdeni dat tam neni, jen konretni tok dat, ktery tece jako voda z kohoutku, nebo ty mas opozdenou vodu ze pustis kohoutek a cekas az ti potece voda, ktera uz mela byt v umyvadle

+1
0
-1
Je komentář přínosný?

re qee: promiň, ale jsi mimo snad ve všech ohledech. Jednak to co jsi napsal by se dalo napsat i o grafikách v čipsetech - a o "rychlosti" u nich nemůže být řeč. A potom DDR2 verze Radeonu 3650 je mířena do low-endu - cenou dost pod 2k.
Dále latence, i když rozhodně výkonu neprospívají, tak na něj až zas tak velký vliv nemají(schová se to často za cache uvnitř gpu) a na konec jsi naprosto zásadně podcenil propustnost paměti. Ostatně o tři články výše je test Radeonu 3690. Můžeš jasně vidět co udělalo oseknutí sběrnice na polovinu s výkonem. A to i s tou zuboženou sběrnicí má více než 2x tak větší propustnost jako má klasické CPU s dual-channel 800MHz DDR2 pamětma. Při představě že ještě bude CPU takto ubohé(vzhledem ke grafickým pamětem) přenosové pásmo sdílet s grafikou je jasné, co to s výkonem zákonitě musí udělat.

+1
0
-1
Je komentář přínosný?

a za druhe , bude hezke sledovat ten souboj fusion o pamet a o data , neb je to uz z principu dnesnich PC naprosta kravina spojovat do jednoho cipu, , navic urcite jak zname amd bude tam zas chyb jako svin(ani Intel neni neomylny :)) )a zadna graficka pamet , heh vse v ram ,to nebude nic dobreho prijit o grafickou pamet, je videt ze to tu je samej usmudlanej studentik a pise blaboly stylu , jedna baba povidala
 
opak ja vidim reseni typu x*jadra cpu -- vypocetni cast s velkou ram a lepsimi sbernicemi a propustnosti ram 
 k tomu x*jadra Gpu v podobe dnesnich karet s vlastnimi xGB kurevsky rychlych ram
 
proste model jak ho zname dnes, skalovatelny kdo hrace a pro vedatory na vypocty bez grafiky :)))
 
ps...  budoucnost fusion,,,  cpu -- moje data svine,  gpu --na to ser cpu ted kreslim, ramka bezte dop*dele nestiham vy kr*teni, cpu makej a nekecej, gpu jdi se vys*at musim kreslit, to bude bordel

+1
0
-1
Je komentář přínosný?

Nechcem tu nejako teoretizovat, ale podla mna ak to ma byt do kanclu a do notbuku a proste klasicka nevykonna grafika hlavne na video, tak je uplne jedno ci je v procesore alebo cipsete a podla mna je omnoho vyhodnejsie to mat v cipsete, nakolko je to jeduchsie a lacnejsie, zbytocne to nebude narusat procesor. Inac k integrovanej grafike teraz AMD prilepilo cez 32bit pametove rozhranie 64MB DDR2 /cipset myslim 780G/ a vykon stupol o 40 percent uz na slusnu uroven/, pre notbuky sa mi to zda az dostacujuce, vykon je tam fakt velmi dobry, a komu nestaci, mame tu pridavne grafiky. Podla mna fusion nieje nejaka super vec, ci je v procesore, ci je v cipsete, na pouzitie ake oni hlasaju je vga v cipsete vyhodnejsia.

+1
0
-1
Je komentář přínosný?

fotoba na tebe sem byl tak zvedavej , ty fanaticky amd priblblo z CVUT, si nejdriv spocitej, jaky tam jsou prenosy dat a pak se podivej, co umi prenes dnesni high end grafiky a zjistis, ze bys potreboval HT verze minimalne 5, a porad jeste naprosto zabijes sbernici pro pouzivani CPU
 
a netahej zas do diskuze nesmyslny linky na technologie pro nejaky armadni ci google meeeegaaaaservery co do dnesnich PC netahej, soorry ale tebe musi clovek vzdycky poslat do p*dele

+1
0
-1
Je komentář přínosný?

a> nie som z CVUT
a mimochodom
HT3.0 ma prenos pri 32 bit HT
20,8 GB/s (166,4 Gb/s) na HT linku
cize pri 16 bit HT pouzivanom AMD je to
10,4 GB/s (83,2 Gb/s) na HT linku
GDDR4 ma prenos do 11,2 GB/s/modul...
cize na mass market to staci...
http://en.wikipedia.org/wiki/GDDR4

+1
0
-1
Je komentář přínosný?

fotoba
aha sorry , uz asi starnu a nepamatuju ip cvut presne 147

+1
0
-1
Je komentář přínosný?

fotoba
 
cize , tedy rikas , ze je to super, takze kolik ht 3.0 linek bude potreba, minimalne 4 linky jen pro grafiku, teda a co cpu, to aby melo aspon dalsi 2 linky, a co pro zbytek , nevim nejak HT neverim, bude to jen slozitejsi a funkcne mimo , a kde chces brat tolik GB za vterinu, kdyz dnesni Ram na to nema , a raid pole ram je nesmysl, vhodny jen pro servery
 
porad minim rozumny vyvoj a ne futuristickou predstavu necoho, co zdarne s PC nema nic spolecneho

+1
-3
-1
Je komentář přínosný?

fotoba, cize vyrobci grafik nasadi 512bit pameti a muze se ti HT jit vys*at na pohrebiste dejin pocitacoveho spadu, 
 
kdyz uz sme u toho, vzpominas, jak si se certil pred "roky" jak bude x krat rychlejsi 64bit system, opak se stal pravdou, kde jsou ty mega rychle systemy, myslim ze u nas doma urcite ne, proc jsou porad jen 64bit Ram, proc se neudela rovnou ram aspon 512bit, s rychlejsimi sbernicemi, i HT by se dalo vyuzit, ale proste vyvoj architektury se zastavil na blbe x architekture
 
myslim, ze parsovat linky na clanky ti jde dobre, ale to je vse, vic nic neumis, nebo to proste kolem sebe prehlizis a zijes s imaginarnim PC ze clanku, ktere tak dobre umis nalinkovat do prispevku

+1
0
-1
Je komentář přínosný?

512 bit pameti ? HAHA a modul bude dlouhy jak klavesnice....na pianu.
A deska asi dvacetivrstevna aby tolik dratu bylo z nekolika modolu kudy tahat.
Koukam samy futurolog.
ptipi: To mas burt, budes mit teravykonnou grafarnu/ny ale bude ti to k nicemu bo ji nebudes stihat ukolovat. Predobraz situace jde najit ve vypocetnich gridech - vedectochnickych vypocetnich prasarnach nejtezsiho kalibru.
S tou pameti je to fakt, pravdepodobne to dopadne nekolika urovnemi cache jako u CPU, nejvyssi jako dedikovane. Ono je to prast jako uhod, pri pouziti vice GPU jader ci karet zase dochazi k prelevani dat prez dost pomale sbernice. Dobudoucna se muze ukazat Fusion jako dost vyhodnejsi moznost.
Vyvin tepla. Ano to je ovsem aktualni problem jenom pokud se technologie zdima nadoraz. Pokud se pouziva "s rozumem" tepla je malo.
Velka monoliticka jadra. Ano problem, moznost reseni ? 3D cipy ktere jsou nyni ve vyvoji. Pripadne vice jader nalepenych na jedne desticce. Porat lepsi reseni nez tahat sbernice desitky cm prez nekolik cons budice sbernic a jine problemy.

+1
0
-1
Je komentář přínosný?

premejslej nez neco vysmolis
dnesni grafiky maj uz vic jak 256bit pameti a neni to zadny problem , uz pred rokem meli vic nez 256bit a rozhodne to nejsou klavesnice,  to ze OP ram se pouziva ve slotech ddr 2 dimm je jen z prehistorickeho hlediska tez taky kvuli snadne volitelnosti upgradu uzivateli, navic vyrobci si mohou za ty draty samy, kdyz neumej udelat novy standart a pameti osadit pekne kolem cipu jako je to bezne u grafik a deska proto musi mit vice vrstev ,  celkove pouzivaj porad stejny rozlozeni procak vlevo a ramky vpravo, navic kdyby pouze upravili adresovani desek a urcite veci v biosu slo by snadno ze 4 slotu dimm 64 bit udelat virtualne 2 pameti o 128bit ovsem pouzitim 4 modulu, jenze pak by to bylo zase tezsi ukocirovat co se frekvenci a vybavovani tyce, bylo by to ovsem citlivejsi, jenze by si tim zdvojnasobnil datovou propustnost
 
a sme zas u te limitace sbernic, pac bys zas potreboval rychlejsi sbernice, rychlejsi procak a atd..., proste vyvoj nezastavis , ale ani neurychlis, pac za vsim hledej jen penize a pak az uzitek pro lidi
 
jo a jen tam pro info profi grafiky maj i 512bit pameti, jen ta cena neni pro nas smrtelniky

+1
0
-1
Je komentář přínosný?

Poen
ty si blahovej a myslis , ze kdyz to spojis do jednoho slepence x cipu, ze tam nebudou sbernice, heh ty si my ale srandista viď
 

+1
-2
-1
Je komentář přínosný?

Poen
 a jeste si nam nevysvetlil, kde bude mit tvuj fusion pamet s xGB s propustnosti kolem stovekGB/s jako bude standart za chvili u top grafik , aby mohli renderovat virtualni svet her v top rozlisenich (ver nepouzivam ted min nez 1680*1050) a v kvalitach textur minimalne 4k*4k a bitovy hloubce minimalne 32, to pak budou tak nadherne obrazky a omalovanky her, ze vlastne budes hrat svuj vlastni interaktivni film, a ver dnesni hry uz dokazuji opravdu velke kvality, jen je nikdo neoptimalizuje , taky k cemu, kdyz kazdy 4 az 6 mesicu se grafiky vice paralizuji a urychluji a oni zas musi jit na ruku vyrobcum , aby meli lidi furt co dokupovat a urychlovat, a zase nikam ale moc nespechaji, pac potrebuji vydelavat, a kdyz je netlaci konkurence do predu, tak si hezky rejzujou nase penize

+1
0
-1
Je komentář přínosný?

Na sbernice architektura narazi tak jako tak. PCIe zas tak gumova neni, vzdy budou na externi sbernici pritomny budice a dalsi problematicke objekty a skutecnosti. Az se tak stane pak se ukaze.

S rozlisenim bych si hlavu nelamal, framaebuffer se zase tak casto nekopiruje, konkretne tak 60-200x/s to je prd. Texturovani a vypocty to je jina na to ovsem staci nekolikaurovnova cache, aktualni context ma vzdy par mega, co si taky myslite ze jde naraz nacpat do registru GPU dat ?.
Schvalne se podivejte jak (spolu)pracuji jadra na dvoujadrovych grafarnach a jak /rozdilne/ (spolu)pracuji dve grafarny ve sli. Co je tam navic, zbytecne a pomale co zvysuje spotrebu, latence a krevni tlak.

+1
0
-1
Je komentář přínosný?

Poen
ano pane chytry, tedy porid si v budoucnu tvuj nesmyslny fusion a s rekneme 50MB cache  a uvidis ze si prd zahrajes, ty asi nevis, ze musis mit nekolik vykreslenych snimku (jenze pane chytry , abys je vykreslil musis mit shader a dalsi programy pro vga, a hlavne pane chytry musis mit pristup ke vsem texturam,objektum, entitam a dalsim castem virtualniho sveta polygonu, ktere potrebujes),ktere teprv pak muzes specialne upravovat jako ruzne druhy postprocesu a filtrovani, ale tobe je to proste sumak, ty chytroline, proste grafika co potrebuje spoustu pameti pro ruzne textury,objekty , vypocty, shader fce a dalsi veci,tez ty nic nerika frame buffer a dalsi soucasti renderovaciho procesu, proste ty klidne zatizis cely pocitac , zahltis mu vsechny sbernice na maximum, abys teprve zjistil, ze to je slepa cesta, ze to jen kresli, kde mas ale pak prostredky pro zvuk, pro procesor, pro rnd pristupy komponent do ram, atd., proste nesmyslne 1 vga integrovanou v cpu zabijes cely system
 
pane chytry, nerikal jste jako nekteri pred lety, k cemu grafiku, staci jen rychly cpu a to vam to spocita i nakresli, ha opak, dneska, chcete mit super zvuk -- mate super pridavnou zvukovku s 128MB pameti, a dalsi vydobytky moderniho pc , ktere tezko nahradi nejaky supercip, ne nadarmo se rika integrovane reseni je to nejlevnejsi a vetsinou taky nejmene vykone

+1
0
-1
Je komentář přínosný?

a jeste sem zapomnel, vite oni existuji tez ruzne pole predpocitanych objektu a dalsich soucasti polygonoveho sveta, polygonove mapy, modifikovane textury a dalsi, v budoucnu jeste pribydou fyzikalni vzorce pro gravitaci, deformace, letani , osvetleni ,vitr, a dalsi ruzne vychytavky (nektere uz jsou), ktere proste musite mit neustale po ruce , kdyz neustale mate snimat nejaky svet , treba krajinu, proc si myslite, ze se jednotlive objekty casto kopiruji (treba strom --- ruzne verze ---- more kopii ---- vysledny efekt les,   myslite , ze vas fusion to urychly , kdyz bude kazdou jednotlivou entitu porad dokola pocitat a renderovat z ruznych uhlu, pac nema pamet, kam by si to efektivne ulozil VGA PAMET )

+1
+2
-1
Je komentář přínosný?

jen tak pro info, uz na stredni --- kde byl tehdy hit 3D studio, bylo bezne renderovani jednoho snimku , ktery mel i 15MB to mi malo neprijde na pouze jeden snimek, lol a aby se vyrenderoval bylo potreba mit  kolikrat 150MB textur nekdy i vice,  no pane mel byste tenkrat videt ty ruzne stroje(sestavy a jejich rozdily, zda mely cpu klasicke ci serverove, zda mely integrovanou kartu ci klasickou, zda mely 32/64/128MB VGApameti a dalsi ruzne rozdili )
 
a vykreslovaci vykon, pane lisil se pouze  ve"stovkach" procent to mi teda rozhodne stovky procent neprijde jako malo, a vite co vzdy dopadlo nejhure, integrovane reseni s malou vlastni pameti a sdilenim ram pro grafiku, tam to byla vylozena katastrofa

+1
0
-1
Je komentář přínosný?

Absolutne graficke pipeline nerozumis, ani po HW ani po SW strance :-)

+1
0
-1
Je komentář přínosný?

poen
 tak to vysvetli, kdyz ja melu kraviny, lec nenapsal sem nic nepravdive, (vyrobci grafaren, jsou proste amateri, co dali na prdel  intelu a amd, pac jejich cipy  maj brutalni vypocetni vykon, jaky si ani nedovedes pedstavit, ty jeden bl*ecku, to ze ten vykon je jen pro jeden ucel uz je vec druha, ale s prichodem dx10 a vyssi se to zobecny pro vice uloh nez jen grafiku)
 
studoval jsi to vubec nebo jen hrajes machra, kdesi cosi baba povidala

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.