Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD s Amkor pracují na grafickém čipu budoucnosti

Bezva článek, sice je to už dost vyšší dívčí, ale tyhle zajímavosti se člověk hned tak někde nedočte.

+1
-1
-1
Je komentář přínosný?

Rozhodně pěkný článek a více takových zajímavostí, bastlení a ne až tak známých postupů jako tomu bylo dříve na cdrku ;)

+1
-1
-1
Je komentář přínosný?

V AMD zase pořádně zaspali. Ivy Bridge, který přijde za půl roku, bude mít paměti také rovnou v modulu CPU - http://semiaccurate.com/2010/12/29/intel-puts-gpu-memory-ivy-bridge/

+1
-1
-1
Je komentář přínosný?

Otázka je, jestli to zrovna IB k něčemu bude. Pro potřeby procesoru to není třeba a nevěřím, že IB bude mít grafiku tak výkonnou, aby jí standardní paměti brzdily.

+1
-1
-1
Je komentář přínosný?

Inženýři v Intelu určitě dobře ví, co dělají. A proto si myslím, že výkon grafiky v IB půjde výrazně nahoru. Intel má chipy s IB už hotové, ukazoval je na IDF 2011. http://semiaccurate.com/2011/09/21/analysis-intel-shows-off-haswell-minu...

+1
0
-1
Je komentář přínosný?

Uvidíme. Já si nemyslím, že by grafika v IB s vlastní pamětí svým výkonem překonala grafiku v Trinity bez vlastní paměti.

+1
-2
-1
Je komentář přínosný?

už to bylo řečeno, napsána řada článků, takže nechápu proč by tomu mělo bý najednou jinak. IB GPU posílí max o 40%, což je pořád málo, na trinity to rozhodně mít nebude. Je mi líto, ale žádný zázrak v podobě přiintegrované paměti to nezachrání. Výkonější grafika prostě potřebuje více streamprocesorů, tj. více tranzistorů a tolik jich Intel grafice ochoten věnovat není. Jen se podívejte kolik % čipu zabírá grafika v SB a kolik v Llanu a hned vám to musí být jasné. S malým kašpárkem se velké divadlo zahrát prostě nedá, i když musím uznat, že grafika v SB odvádí dobrý výkon na 1 tranzistor. No a k praktické použitelnosti je třeba ještě odečíst "kvalitní" Intel ovladače, které jsou např. v AF tak 10 let za Nvidia a Ati, ale to už tu též bylo řečeno i dokázáno, takže se nebudu zbytečně opakovat

+1
-1
-1
Je komentář přínosný?

Pořádnou grafiku bude mít až nová generace CPU Haswell - podle článku na SA u varianty GT2 zabírá většinu křemíku právě grafická karta.

+1
-4
-1
Je komentář přínosný?

IB ma byt CPU ne APU takze cekat ze grafika prekona Trinity je smesne. :)

+1
-3
-1
Je komentář přínosný?

a co je apu? apu je prodavac ze simpsonu a nesmyslny nazev amd. intel delal cpu s grafikou uz pred mnoha lety. amd tomu dava nacancanou znacku, ale je to jen nazev a nic vic. jinak je to to same

IB je CPU+iGPU, Trinity je CPU+iGPU. nacancane nazvy amd pravdu nezmeni. a to ze delas zaver jen z nazvu je velmi usmevne

+1
-1
-1
Je komentář přínosný?

tentokrát s tebou musím souhlasit. U mě je APU i SB, prostě každé CPU a GPU v jednom pouzdře a je jedno jak výkonné (nevýkonné), koncepčně je to totiž to samé. To co no-X píše je ale taky částečně pravda, on to jen rozlišuje z jiného hlediska - použitelnosti, nikoli architektury řekněme. Quick sync je sice pěkný, ale hry nám nějak neurychlí, skromně bych si dovolil tvrdit, že více lidí raději uvítá ten lepší herní výkon, proč jinak by APU kupovali, že, když Intel má CPU lepší. Ach anebo jsem zapomněl, on APU vlastně nikdo nekupuje že? ;-)

+1
-3
-1
Je komentář přínosný?

Jakej je podle Vás rozdíl mezi CPU s integrovanou grafikou a APU?

+1
-2
-1
Je komentář přínosný?

APU mají těžiště v grafice, SB/IB v procesoru. Takže i když se jejich trhy částečně překrývají, opravdu to není totéž. O SB/IB se zajímají zákazníci, kteří si chtějí koupit procesor. O APU se zajímají zákazníci, kterým jde i o určitý grafický výkon. Rozhodně si nikdo nekoupí SB kvůli jeho grafice. Je to asi takový rozdíl, jako tablet s integrovaným foťákem a foťák s připojením k síti. Na papíře to vypadá stejně, ale každé je pro jiného zákazníka.

+1
0
-1
Je komentář přínosný?

"Rozhodně si nikdo nekoupí SB kvůli jeho grafice."

zase lzi. co treba quick sync? hardwarova encoding/decoding feature je typicka pro high-endova gpu, jenze quick sync je nekolikanasobne rychlejsi. a vyrobci zakladnich desek dokonce jdou tak daleko, ze integruji technologii lucidu pro prepinani dGPU a iGPU na prakticky vsechny zakladni desky s chipsetem Z68. pro ty, kdo nevedi, tato technologie umoznuje vyuzivat normalni diskretni gpu a pro specificke ukoly i iGPU v SB, vcetne prave quick syncu

takze pane soucek, je docela dost lidi, kteri si kupuji intel procesory kvuli grafice

+1
-3
-1
Je komentář přínosný?

jistě že si řada lidí koupí SB/IB kvůli jeho grafice, přesněji řečeno kvůli jeho "blbé" grafice, protože mu stačí a lepší nepotřebuje. Je prostě taková jaká je, je slabá a asi taková být měla, nezabírá tak mnoho tranzistorů a neprodukuje tolik tepla a to je tak všechno. Blbost je ale vychvalovat ji snad kvůli výkonu/ovladačům to je tragédie. A quick sync je jen okrajová záležitost

+1
-2
-1
Je komentář přínosný?

hm, ale kvuli nicemu jinemu nez quick sync nema lucid virtu smysl. co se tyce spotreby, tak se nic nezlepsi, viz. http://www.anandtech.com/show/4330/asus-p8z68v-review/2

+1
-1
-1
Je komentář přínosný?

1) kdo říká že každý uvedený produkt musí nutně dávat smysl...
2) jde o osobní preference
3) APU si koupím když nepotřebuju brutální výkon ale chci občas hrát hry
4) SB/IB si koupím pokud nechci hrát hry ale zase chci výkonné CPU.

Musím souhlasit s postojem, že to vypadá stejně ale není to stejné.

+1
0
-1
Je komentář přínosný?

apu ma maly cpu i gpu vykon. takze kdyz chci hrat hry, koupim si sb + diskretni grafiku

+1
-1
-1
Je komentář přínosný?

kazdy nehraje nejnovejsi tituly ve Full HD... nekomu staci 1024x768 a 3-4roky stare hry... na to ma APU vykonu až až

+1
0
-1
Je komentář přínosný?

no to asi jo, ale to i ty 3 roky stare grafiky

+1
+3
-1
Je komentář přínosný?

a?

+1
-2
-1
Je komentář přínosný?

asi chtěl říct, že než APU, tak si máš sehnat raději starou žravou grafiku :D

+1
-2
-1
Je komentář přínosný?

a jak se mi to vleze do mini-ITX HTPC?

+1
-2
-1
Je komentář přínosný?

skutečně. Jednoduchou logikou (vzhledem k tomu že většina nepotřebuje ani quick sync) pak docházíme k tomu, že tím pádem ani celé lucidvirtu nemá smysl. Dávat si do systému další jejich ovladače, které jsou závislé na dalších ovladačích discrete GPU smrdí ještě víc než Optimus

+1
0
-1
Je komentář přínosný?

...který alespoň funguje tak, jak má

+1
-2
-1
Je komentář přínosný?

nastesti se da lucid virtu nastavit tak, aby byla defaultni grafika ta diskretni a prepinalo se na integrovanou, kdyz je potreba. tim padem kdyz by byly problemy s rozpoznavanim vhodnych situaci, fallback bude k diskretni grafice a jejim ovladacum. ale souhlas, ze kdyby tam ten dGPU rezim nebyl, tak by to smrdelo dost

+1
0
-1
Je komentář přínosný?

btw ta tvoje "hardwarova encoding/decoding feature" přibude i do Trinity, stačí pozorně číst články i o konkurenčních produktech, pak je ehm trapné vytýkat jim, že něco nemají, když to ve skutečnosti mít budou

+1
+1
-1
Je komentář přínosný?

a kde neco vytikam trinity? to mi teda ukaz! ja jen rozporuju noxovo tvrzeni, ze si intel procesory lidi nekupujou kvuli grafice. kupujou, minimalne kvuli quick syncu. dalsi tvrzeni sis vysnil asi

+1
-3
-1
Je komentář přínosný?

90% uživatelů netuší že QS existuje...

+1
-3
-1
Je komentář přínosný?

jeste jinak: 90% uzivatelu netusi, ze existuje graficka karta/cip

+1
-2
-1
Je komentář přínosný?

QS není součástí grafiky, to je samostatný obvod. Na tvrzení, že si SB nikdo nekoupí kvůli grafice to proto nic nemění. Kdyby takováhle věc s patřičnou SW podporou přišla před 10 lety, kdy zpracování jednoho filmu trvalo přes noc, tak by za QS lidi Intelu utrhali ruce. V dnešní době je to jen check-box feature.

+1
-3
-1
Je komentář přínosný?

Já ti nevím, ale nevyužívá QS eu jednotky igpu imho?

+1
-5
-1
Je komentář přínosný?

je videt, ze nox vubec netusi, ktera bije. mily noxi, kdyz das do systemu s dedikovanou grafikou cpu od intelu s quick syncem, tak ti quick sync fungovat nebude. mas zdroje, tak si to vyzkousej a nedelej ze sebe tulpase

+1
-4
-1
Je komentář přínosný?

nevim kdo netuší která bije ale...

"Quick Sync is an application-specific integrated circuit."

nevyužívá iGPU, je to specifický obvod využívající jen sám sebe...

+1
0
-1
Je komentář přínosný?

ja ani nerikam, ze vyuziva grafiku. ale je soucasti graficke casti. a pokud je vypnuta graficka cast, quick sync nefunguje. vyzkousej a uvidis. takze jak rikam, nox netusi, ktera bije. ty ocividne taky ne. aspon ze webwalker ma kapku rozumu

+1
0
-1
Je komentář přínosný?

a to někdo popřel? ja vím že je současti bloku GPU ale je to zkrátka dedikovaný obvod nezávisly na VGA. jen je prostě v čipu implementován společně s ní... disable iGPU = disable QS. to ale nikdo nepopírá.

+1
-4
-1
Je komentář přínosný?

to asi nema smysl rozebirat. podle me to uz jednoduseji nez v predchozich prispevcich popsat nejde. jestli jsi to nepochopil, tak asi ani nepochopis

+1
+4
-1
Je komentář přínosný?

chapeme to oba stejne ale kazdy o tom mele jinak...

QS je soucasti jadra iGPU avšak je na něm nezávislý (výpočetně),ale závislý fyzickým umístěním (na čipu).
pokud dojde k deaktivaci části GPU kde se bohužel nachází i QS chip, vypne se i ten... je to věc implementace. Během výpočtu QS nevyužívá výpočetní bloky iGPU.

+1
+1
-1
Je komentář přínosný?

Nevím, nevím, co bys tam pak programoval a jak by ...?
Ale raději toho nechme.

+1
+1
-1
Je komentář přínosný?

takže vidíte, nakonec jste sám uznal, že IB ještě nebude ten pravý APU drtič z pohledu GPU výkonu :-)

+1
-1
-1
Je komentář přínosný?

Není pravda, že výkon vzroste "maximálně o 40%". O 40% vzrostl výkon v jednom testu už na předprodukčních ovladačích a hlavně na IGP, které jelo pouze na 2/3 finální frekvence.
V podstatě můžeš očekávat, že výsledný výkon bude zhruba na úrovni dnešních IGP AMD nebo jen lehce pod.

+1
0
-1
Je komentář přínosný?

Pokud ovšem kvalita obrazu a SW podpory zůstane na úrovni SB, bude reálná použitelnost stejná, jako je nyní :-)

+1
0
-1
Je komentář přínosný?

Určitě sám víš, že se má změnit AF na úhlově nezávislé a na rovinu - i kdyby ne, tak v kategorii lowendu se opravdu nehraje na to, aby všechno vypadalo na 100%, ale na to aby se to hýbalo.
Druhou stranou jsou ovladače a ty se taky zlepšují mohutnými skoky (jak výkonem, tak kvalitou obrazu dělá díky své zaostalosti zdaleka největší pokroky - viz zářijový driver update). Asi to ještě nebude na roveň amd/nv v době vydání ib, ale na casual hraní to bude více než dostatečné.

PS: vážně by bylo fajn, kdyby jste se v nějakém testu podívali jak intel bojuje s ovladači - tzn porovnání starších vs novější a co tomu ještě skutečně chybí, protože spousta pověr o jejich problémech je už zastaralá (a část jich asi ještě zůstává pravdivých).

+1
-1
-1
Je komentář přínosný?

Také bych se přimluvil za nějaké testy pokroku v Intel ovladačích.

+1
+3
-1
Je komentář přínosný?

souhlas. zase zaspali. dokonce i nvidia uz nekolik mesicu zpatky potvrdila spolupraci s TSMC na vyuziti TSV. stale si myslim, ze by to mohlo byt vyuzite uz u kepleru. ale i kdyby ne, tak mi prijde, ze naskok pred amd maji intel i nvidia dostatecny

co se tyce te samotne technologie, tak ja se osobne dost tesim na gpu, ktera budou mit vrstvene bloky na sebe (od amd i nvidie). s cpu to neni tak jednoduche, protoze unifikovanych bloku tam moc neni. ale gpu ma unifikovanych bloku vetsinu a vrstveni je dle meho logickym krokem dal

+1
-4
-1
Je komentář přínosný?

Me by jen zajimalo jak takovej chip z nekolika vrstev budou chladit. Chladic preci priplacnete jen na tu horni vrstvu a co ty chudinky dole ?

+1
-4
-1
Je komentář přínosný?

Chlazení chip nebude problém, protože skládat na sebe se budou pouze chipy s malou spotřebou. V 16 GB microSD kartách je také 8 chipů na sobě a nevšiml jsem si, že by se mi microSD karta přehřívala :-) .

+1
-2
-1
Je komentář přínosný?

Malej detail - samotné obvody čipu jsou po zapouzdření ze spodní strany (při pohledu na vrch pouzdra). je to kvůli tomu aby se vůbec daly natahat propojovací drátky k pinům. To lesklý co bylo vidět např. u AthlonůXP byl vlastně spodek čipu!
Co z toho plyne ? Že teplo se musí prodrat celou tloušťkou čipu od obvodů ven už dneska, takže je celkem jedno kolik vrstev to bude mít, jen se musí zachovat max TDP aby se celek nepřehříval...

+1
-1
-1
Je komentář přínosný?

System s mezikusem pouzivala i ati u rage mobility. Nekde jsem videl takto udelanou i AGP grafiku, ale ted nemuzu najit nikde foto, tak aspon jedno foto modulu...
http://www.linuxjournal.com/files/linuxjournal.com/linuxjournal/articles...

+1
+1
-1
Je komentář přínosný?

jj, to se používá dosud - ale je to stále jen víc klasických čipů v jednom balení... křemík umožňuje použití výrazně širších sběrnic a taky výraznější úsporu energie (otázka je, o kolik :-)

+1
+2
-1
Je komentář přínosný?

já jsem myslel Si interposer oproti současnému MCM, který zmiňoval Vlask, ale to nevadí :-)

+1
0
-1
Je komentář přínosný?

samotný SI nijak

+1
-3
-1
Je komentář přínosný?

abych to upřesnil: SI je pouze mezičlánek k dosažení úspory. Samotná úspora spočívá v použití LPDDR2 pamětí skládaných na sobě pomocí TSV + SI
( http://www.jedec.org/standards-documents/focus/mobile-memory-lpddr2-memo... )

MCM přináší největší úspory především v ploše (a ceně) než ve spotřebě jako takové. Pořád potřebuješ pro danou řířku sběrnice určitý počet čipů. http://images.anandtech.com/doci/4307/4600MCM.jpg

Zatímco MCM už s námi nějakých pár let je, technologi skládání (stacking) je poměrně nová.

+1
+3
-1
Je komentář přínosný?

Právě šířka I/O čipu spotřebu ovlivňuje i sama o sobě, takže i s použitím identické vnitřní architketury pamětí tam k určité úspoře mělo dojít. Z toho důvodu se výrobci CPU a GPU v posledních letech poměrně orientují na to, aby sběrnici - i když potřebnou přenosovou kapacitu má - nezatěžovali, pokud to není opravdu nezbytně nutné.

+1
-2
-1
Je komentář přínosný?

myslím, že hlavními důvody (ne)používání široké sběrnice při konvenčním zapojení pamětí jsou cena a nároky na pcb.
GPU musí mít určitou velikost, počet linek je vyšší, pcb náročnější na výrobu, počet paměťových čipů se také zvyšuje a s ním i využitá plocha.

To vše SI+TSV elegantně obchází. Plochu zvyšuje minimálně,cenu také, umožňuje použití velmi široké sběrnice, umožňuje použití pomalejších (levnějších) pamětí.

+1
0
-1
Je komentář přínosný?

To je sice pravda, ale jen částečně. V dnešní době jsou prakticky všechny čipy (Cayman, Fermi) dostatečně velké na to, aby mohly nést 512bit sběrnici, ale nenesou ji. Nikolik proto, že by to zvýšilo cenu (počet vrstev) PCB. Vždyť 12 vrstev mělo PCB 512bit HD2900XT stejně jako 256bit HD4870. Je to kvůli energetickým nárokům. Dokud existují dostatečně rychlé paměti na to, aby grafickému jádru stačily, snaží se výrobci nepoužívat zbytečně širokou sběrnici.

+1
+1
-1
Je komentář přínosný?

Konkrétně tedy 6vrstvé PCB Radeonu HD 2600 XT = $4.65. 12vrstvé PCB Radeon HD 4870 = $6.36. 14vrstvé PCB GeForce GTX 280 = $7.37. Tolik k fámám o strašně drahých PCB grafických karet se širokou sběrnicí.

+1
+1
-1
Je komentář přínosný?

Velmi zajímavé.

+1
-2
-1
Je komentář přínosný?

jirko,cena pcb je jen jednim z mnoha faktoru.Dle tveho prikladu by se mohlo zdat ze jde o male castky,ale pri celkovem objemu prodanych karet uz to neni zanedbatelna polozka. Vyrobci setri i na dalsich komponentach jako je mnozstvi pametovych cipu,chlazeni,pocet vystupu atd. Proto je cena rozhodne hlavnim faktorem nikoliv spotreba. Samotnou sbernici rostou energeticke naroky minimalne (cenove hodne). Na sirsi sbernici je obvykle napojeno vetsi mnozstvi pametovych cipu a to uz spotrebu zvysuje,stejne jako naroky na velikost a cenu pcb. Takze musis do te sve kalkulace zapocitat vsechny faktory,ne jen rozdil ceny pcb/ks....

+1
-2
-1
Je komentář přínosný?

Já si to představuju v živých barvách..., manager si spočítá že na milionu kusů to dělá několik mega což je pro něj nová jachtička a rozhodne...

+1
0
-1
Je komentář přínosný?

Jenže náklady na PCB nejdou na hlavu AMD ani Nvidie, ty jdou na hlavu výrobců. Proto to jsou právě výrobci, kdo přichází s jednoduššími PCB s menším počtem vrstev. Naopak AMD a Nvidie mají opačný zájem a aby si nekazili pověst (poruchovost a stabilita), mají často jejich referenční návrhy více vrstev, než je bezpodmínečně nutné. Snad jediná výjimka byla Nvidia v době GT200, kdy po dlouhých vleklých ztrátách sama přišla s osekaným návrhem referenčního PCB GTX260. Naopak spotřeba ovlivňuje výrobní náklady daleko větší měrou - samotné napájecí obvody vycházejí podle karty na $4-10 a chlazení na $2-25, což je mnohonásobek ceny PCB. PCB je skutečně to poslední, co se v nákladech řeší. Spotřeba krom toho ještě rozhoduje o úspěchu u OEM výrobců (kterým žravější karty prodražují zdroje) a v profi sféře, kde se při tisících až desetitisících kartách projeví každý watt.

+1
-1
-1
Je komentář přínosný?

jirko ty o tom mluvis jako by sama sbernice byla tou nejzravejsi soucasti GPU :-) vytrhavas to zbytecne z kontextu 1. Nikde netvrdim ze jde jen a pouze o PCB 2.pro vyrobce GPU jsou pozadavky firem prodavajicich karty smerodatne (jde v prvni rade o vyrobni naklady) 3.Cayman s 512bit sbernici by byl drahy pro vyrobce kvuli narocnejsimu pcb a vetsimu poctu pripojenych pametovych cipu.Samotne pridani sirsi sbernice by spotrebu Caymanu nijak drasticky nezvedlo. Podivej se treba na Parhelii. Vnitrne 512bit GPU ale pameti byly napojeny 256bit (coz bylo i tak v te dobe dvojnasobek obvyklych 128bit) Proc ale rozsirovat sbernici kdyz mame dostatecne rychle pameti na stavajici sbernici se stejnou propustnosti ze ? uz se mi nechce to tady dal rozebirat, ale samotna sbernice sama o sobe nezvysuje spotrebu GPU, ale naklady na vyrobu a spotrebu graficke karty spolu s dalsimi faktory ktere jsem jmenoval ano.

+1
0
-1
Je komentář přínosný?

Cayman s 512bit sběrnicí by neměl smysl, protože není paměťovou propustností nijak výrazně limitovaný a pouze by došlo ke zvýšení spotřeby. Srovnání s Parhelií nerozumím. ATI i Matrox v roce 2002 měly 256bit interface. Výjimkou tehdy byla Nvidia s NV30. Jinak prakticky každé GPU s DDR pamětmi mělo interně sběrnici řešenou tak, aby dosahovala dvojnásobné šířky nebo frekvence oproti externímu rozhraní, protože by jinak DDR rozhraní, nedokázala využít.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.