Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Jen-Hsun Huang v čele Intelu? Téma spojení s Nvidií se opět otevírá

Achievement unlocked: True GPU core.

+1
-1
-1
Je komentář přínosný?

:) Aby to nedopadlo tak, že se do CPU slotu bude strkat GPU a procesor půjde přes redukci do PCIe. 0:)

+1
-1
-1
Je komentář přínosný?

ja bych takove spojeni uvital, beztak pouzivam CPU od Intelu a GPU od Nvidie, tedy APU na bazi technologii obou firem bych docela dobudoucna uvital coby srdce mobilni pracovni stanice :)

+1
-1
-1
Je komentář přínosný?

Jo takové APU Broadwell + GPU část od NV + vyráběné v továrnách Intelu by APU od AMd zabilo, a to všechny. Ale sloučení firem, proč? Kdo by z toho benefitoval? Obě firmy jsou v dobrém postavení. Slučují se většinou firmy co maj problém ale knowhow a technologie.

No i když sloučení AMD a ATI, když se to dělo obě firmy byly úspěšné a obě dvě tím těžce utrpěly. To hlavně Nvidia musí vidět, protože Intel to asi moc neohrozí.

Co já vidim je reálná spolupráce ala že si Intel bude licencovat GPU návrh od NV. Sloučení firem ne.

+1
-1
-1
Je komentář přínosný?

Jaký je rozdíl, jestli máš top-end technolgii cpu Intelu a top-end technologii gpu nVidie v jednom nebo dvou čipech? Plocha obou jdnotek je stejná, jejich spotřeba a zahřívání taky, pouze se nachází na jednom kžemíku, některé interakce mohou být rychlejší, hlavně ale prací jedné trpí druhá - tedy když grafika topí, procesor se zbytečně taky ohřívá. Nezávislé chlazení je lepší z dlouhodobého hlediska. I výroba je složitější - s plochou čipu roste míra chyb exponenciálně.
Navíc u výkonných celků začne prudce narůstat limit pamětí, který je společný, a neomezený řadič se tam narvat také nedá. Procesr s veklými paměťovými workloady nepracuje, proto je vliv pamětí na výkon grafiky větší, a tedy v každém APU je grafika zbržděná. A pokud chceš výkonnou grafiku na realtime render třeba Nitrous prostředí v 3dsmaxu, stejný čip sám o sobě bude rychlejší a pružnější, než čip v APU s pamětí 2000 MHz.

+1
-2
-1
Je komentář přínosný?

Myslím, že některé tvé úvahy jsou poněkud kontroverzní a navíc si zase výhody tohoto řešení nějak rychle přeskočil, ale nevadí.
Jistě že na hry tohoto řešení ideální není, ale pro gpgpu však zcela jistě je.

+1
-2
-1
Je komentář přínosný?

"navíc si .. přeskočil" nedává smysl. Možná "navíc jsi .. přeskočil" :) Pište česky.

Výhody jsou, jaké? Drobný nárůst výkonu díky přímé komunikaci. Ovšem architektura nVidia čipů nemusí být taková, aby se vůbec dalo získat integrací nějakou výhodu - třeba by musely být nějak upraveny a omezilo by to jejich schopnosti. Možná to je důvod, proč jsou Intel gpu téměř k ničemu.

Jistě bych ale uvítal základní grafické jádro nVidia, klidně s výkonem na úrovni Intel HDG, ale s plnými schopnostmi. Plná podpora všech technologií, interpolace obrazu, akcelerace formátů, staré hry bez defektů a chyb. Intel HDG jsou použitelné možná na zobrazování grafů a webu. To možná umí bez chyb a naplno. V tom se APU AMD liší od "skoro"APU Intelu - mají skutečnou gragiku, s plnou podporou všech technologií, které můžeš potřebovat. O výkonu ani nemluvím.. A dokone mají i skutečný procesor s plnou podporou všeho, co po procesoru můžeš chtít.

Dělat APU s grafikou výkonnější, než základ, nemá smysl. Vždy se víc hodí dát uživateli možnost vybrat si, kterou část systému chce priorizovat. Jsou operace, kde je to procesor, ale kde se stále hodí grafika se všemi schopnostmi... Proto jsou APU AMD také nesmysl, třeba A10. Výkon grafiky super a ve vztahu k procesoru dobrý poměr na hry a multimédia, ale na nějakou náročnější práci je procesor slabý. Samotný (a lepší) proceosr ale AMD neposkytuje, což je chyba.
A že má APU nízkou spotřebu? Věřím tomu, že kdyby se vzala stejná grafika, a stejný procesor, a daly se samostatně, budou na tom se spotřebou téměř totožně.

+1
-1
-1
Je komentář přínosný?

A i GPGPU potřebuje výkon na té grafice. Viz. realtime render Nitrous v 3ds atd.. Základní grafika Intel způsobí, že toto rozhraní se, narozdíl od IHDG bude zobrazovat korektně a se vším, bez lagů a chyb, ale nezaručí plynulost ve větší scéně.

+1
-1
-1
Je komentář přínosný?

A i GPGPU potřebuje výkon na té grafice. Viz. realtime render Nitrous v 3ds atd.. Základní grafika Intel způsobí, že toto rozhraní se, narozdíl od IHDG bude zobrazovat korektně a se vším, bez lagů a chyb, ale nezaručí plynulost ve větší scéně.

+1
-1
-1
Je komentář přínosný?

Pokud se to implementuje sparávně výhody tu jsou. Vždy je to energeticky efektivnější než diskrétní GPU s vlastní kaskádou, atd. Dále je to méně poruchové. Méně BGA čipů = méně studeňáků. A dále kdyby GPU část nebyla GPGPU impotentní, může mnohem rychleji dostávat data z CPU případně pokud by byla implementaceč dobrá i sdílet data z cache.

Nevýhoda je velice omezený hrubý herní výkon GPU části kvůli limitaci prostupností do RAM.

Ale rozhodně by to fungovalo lépe než to co zatím předvádí AMD, ala mizerná CPU část kombinovaná s o generaci zastaraly GPGPU unfriendly grafickym jádrem. Nejhorší je to asi v praxi v laptopech kde je ten CPU ještě těžce underclocked.

+1
-2
-1
Je komentář přínosný?

Nebudeme si nic moc nalhávat, AMD je na tom bídně s efektivitou, toť k nízkým taktům.

Podle čeho soudíš, že je to energeticky efektivnější? I dva samostatné čipy mohou sdílet napájecí kaskádu, jde jen o přesměrování vodičů jinam.

Křemík není zrovna pružný, a čím větší je čip, tím menší může být ohyb (poloměr křivosti) na místě, kde čip je. Menší čipy jsou tudíž do notebooků přímo výhodnější, pokud se bavíme o studeňácích, vzniklých ohybem.

CPU zrovna příliš mnoho dat nemá, a trvalo by Intelu asi dlouho, seznámit se s architekturou nVidia čipů, musely by proběhnout úpravy nejspíš i rozsáhlé, aby mohlo dojít ke sdílení cache. Sdílení cache je samozřejmě výhodné vždy, ale zase, pokud k cache přistupuje procesor, nemůže k ní přistoupit grafika, chce-li jiný záznam. Adresovat naráz dvě místa není v současných iplementacích možné. Tím ale dojde k problémům ovlivňování, funkční závislost, problém je i synchronizace operací - přístup k atributu, který právě procesor načetl a hodlá měnit,.. Sdílení cache by v neoptimálních situacách přineslo víc škody,y než užitku, a těch neoptimálních je drtivá většina od doby, kdy známe multitasking. Možná proto už je grafický subsystém naprosto nezávislý na procesoru a pracuje sám za sebe už hodně let.

Souhlasím ovšem s tvrzením, že Intel HD Graphics jsou GPGPU impotentní.

Paměť ale neovlivňuje jen herní výkon, ovlivňuje i výkon výpočetní, kdy si grafika taky musí sáhnout do paměti velmi často, jen tam místo textur má data.

+1
-1
-1
Je komentář přínosný?

Napojení igpu je u Intelu díky L3$ a ringbusu daleko jednodušší nežli u APU AMD.
Zatímco APU musí využívat dva linky, jeden přes frontu žádostí do L2$ a druhý přímý do řadiče paměti. U Intelu je gpu napojeno přímo na ringbus a chová se vlastně obdobně jako další jádro. Data pak může tahat přímo ze společné L3$, nebo ji obejít a tahat přímo z paměťového řadiče.

+1
-3
-1
Je komentář přínosný?

To je super, ale její zobrazovací schopnosti končí s videem. Integrace nV gpu by nejspíš byla stejně problémová, jako u AMD. Jeda by nV dala Intelu know-how a on se pokusil převymyslet své igp.

+1
0
-1
Je komentář přínosný?

To je fakt a Bůh ví, jestli už Huang nějakou tu know-how nedal Intelu k dobru :)

+1
-2
-1
Je komentář přínosný?

Aneb že by igpu v haswellu mohlo být schopné zobrazovat korektně více, než solitaire a flash?

+1
-1
-1
Je komentář přínosný?

Děkuji za opravu textu, samozřejmě tam mělo být "jsi". Jinak, opravdu si cením lidí, co jdou přímo k meritu věci :)

Ten váš "drobný nárůst výkonu" ovšem v některých gpgpu úlohách znamená třeba to, že na APU Zacate může dokončit úlohu dříve, nežli na dedikovaná HD 5870 :)
Vše je závislé na tom, kolik času úloha tráví výpočtem a kolik času zas transférem dat.

S tou spotřebou tomu věřit samozřejmě můžete, věřit se dá přeci lecčemu ")

+1
-1
-1
Je komentář přínosný?

Já si opravdu cením lidí, kteří díky online a sms komunikaci przní češtinu. :)

Kolik takových úloh je (procentuelně ku všem), ve kterých by se z přímé komunikce těžilo? Ve chvíli, kdy je GPGPU úloha programována a běžící na GPU (GPU jako takové je multijádrový x86 nekompatibilní procesor s velmi omezenou instrukční sadou, a grafická karta je vlastně počítač), je zde komunikace CPU-GPU minoritní. Grafika si něco dělá, komunikuje se svou vlastní pamětí, byť data si musí do paměti nechat nahnat procesorem.

+1
-3
-1
Je komentář přínosný?

Pokud je pro vás vynechání písmenka "j" przněním češtiny, v tom případě jsem tedy prznitel :)
Jinak opravdu nemusíte vysvětlovat, jak gpgpu funguje, myslím, že už jsem něco časem pochytil. Kolik takových úloh je však nevím, důležité ale je, že jsou. Čím větší objem dat je přenášen, tím lépe pro APU. Navíc komunikace mezi cpu a gpu není jednostranná, jak popisujete, ale probíhá i obráceným směrem (device-host).
Toliko k věci komunikace, další výhodou APU bude jistě také snazší implementace paměťové koherence.

+1
+3
-1
Je komentář přínosný?

A teď k nevýhodám. Nemožnost nastavení výkonového poměru (podčip v APU nevyměníš), limitace cpu i gpu sdílenou (a pro gpu pomalou) pamětí v troufnu si tvrdit většině případů, složitější výroba (tudíž dražší prodkt), menší odolnost (nejen mechanická), a také větší proud v napájení, čili při studeňáku silnější a smrtelnější indukce, například.

+1
-1
-1
Je komentář přínosný?

Pokud bych byl škarohlíd, zeptal bych se tě na význam slova "prodkt", ale nejsem :)

Pokud by bylo APU takovou špatností, jak říkáš, určitě by se do ní nehrnul AMD, Intel, nVidia, VIA (abych nediskriminoval Tralaláka) či ARM. Tvůj problém je v tom, že stále vidíš gpu v APU pouze jako herní záležitost a nikoliv jako výpočetní.

Můžu ti kontrovat příklady naprosté nesmyslnosti používání dgpu třeba v dnešních laptopech, ale proč bych to dělal? Každý ať si koupí co mu libo :)

+1
-1
-1
Je komentář přínosný?

Ale nevidím. I výpočetní GPU je silně limitováno pamětí, a nějaká cache procesoru ho trápit nemusí. 90% GPGPU workloadu je, nebo se přinejmením dá napsat tak, aby byl nezávislý na procesoru. V tu chvíli by APU samozřejmě ztratilo, protože limity propustnosti tam jsou, a co teprve práce se sdílenými prostředky. APU AMD jsou založená na filozofii multimédií, nikolig GPGPU, mají aplikaci pro konverzi videoformátů na gpu, jsou použitelné na hry, na HD filmy a jejich akceleraci, ovládají moderní technologie pro práci s obrazem, mají dobrou energetickou efektivitu.. U Intel GPU chybí prostě jen ty schopnosti a podpora. Rozjeď si na nich jakoukoliv 3D modelovací aplikaci... Není ani náročná na výkon, ale IHDG v ní má obrazově cca půl sekundy latenci. Děs. VIA to nebere tak vážně s výkonem, má tam gpu víceméně jako zobrazovátko s ještě menší univerzálností a podporou, ale dělá hlavně do embedded věcí, kde se aplikace dělá na míru a je vyladěná.. ARM pak dává mobilům možnost zobrazovat se ve 25 FPS, přehrávat nové obsahy ve vyšší kvalitě, atd. Ale taky se to s tím výkonem přehání. Nicméně tam jsou i hry. Je potřeba si uvědomit, že hry jsou tahounem potřeby po výkonu, a ten po vývoji..

Překlep je něco jiného, než psaní si. Píše to tak skoro každý, protože píše, jak vyslovuje. Protože už je z těch chatů uplně degenerovaný. :)

+1
-3
-1
Je komentář přínosný?

No, a jak si poznal, že se u mě o překlep nejednalo ? :)

APU od AMD jsou díky uarch VLIW těžce závislé na kompileru a ne příliš vhodné pro výpočty (i když překvapivě to zas tak špatné není). Nicméně i oni tvrdí, že jsou někde v půlce cesty. Jestli to AMD přežije, tak opravdový APU čip se vším všudy by se měl objevit někdy v roce 2014.

U žádné dnešní gpgpu aplikace nemůžeš vynechat cpu. Díky nesjednocenému paměťovému prostoru musíš tvořit hosta (na cpu), který se musí starat o dodání a sběr dat (gpu nemá přístup k RAM). Samozřejmě se vývojáři snaží tento přenos dat provádět naráz a co nejméně je to nutné, ale vyhnout úplně se mu prostě nejde. Takový gpgpu rendering je prakticky "jednosměrný" provoz, podobně jako hry, pokud si však otestuješ úlohy typu Scan & Reduction (velká pole) narazíš na problém se šířkou přenosového pásma. Postnul bych ti graf průběhu těchto úloh, kdyby to šlo, ale nejde (HD 5870 tam dobrých 95% času úlohy tráví tranférem dat).

Když nebudu brát v úvahu nVidii, která si hraje na vlastním písečku jménem Denver, tak celkem snadno zjistíš, komu jde především o výpočty - ti jsou nyní sdruženi pod HSA Foundation. Mám za to, že jim o hry nejde, ale kdo ví?

+1
-2
-1
Je komentář přínosný?

Nic není zadarmo. Podpora Cudy stojí nVidii ztrátu jinde, konkrétně nižší hrubý výpočetní výkon a nižší i herní výkon, než by měl být...

Tak jistě, že dedikovanou grafiku brzdí přístupy k paměti, ale je takový problém využít její vlastní 2+GB navíc 3x rychlé paměti? Opravdu je to tak rozsáhlý kus dat, nebo to musí neustále cestovat ven? Nevím, s tímhle jsem se nesetkal, ale to už je GPGPU na úrovni enterprise řešení a ne GPGPU, které by pomohlo běžnému smrtelníkovi tam, kde to potřebuje - render obrazu, konverze videa, realtime render a práce s HD videem (to jsem viděl v Adobe Premiere CS5 na GT240 už dříve, v reálném čase byly aplikovány editace obrazu a hned přehrávány, Ci7 by se s tím pokaždé tak deset minut počítal, aby zobrazil tu půl minutku... ), a takové ty věci.. Nějaká jiná varianta GPGPU, která by byla zajímavá pro "běžný" trh mě nenapadá. Tady vládnou hry. APU neni moc vhodné ani pro jednu, zvláště v případě, kdy procesory bez grafiky nejsou, tedy alespoň ve filozofii AMD APU to tak je. iGPU intelu jsou zase prachbídně.

Mě se prostě nelíbí, že přijdu o možnost stanovení cílové částky a vybrání si přesně, jaký výkon procesoru potřebuji, a jaký výkon grafiky potřebuji. Stejně tak kolik operační paměti, jak velký/rychlý disk...

Navíc není technicky možné dostat top cpu a gpu pod jednu střechu. Velký čip je těžko vyrobitelný, to nám Fermi myslím jasně ukázalo! Je to plýtvání.

Budeme se hádat o kravinách? Sám víš, že to nebyl překlep. :-)

+1
-2
-1
Je komentář přínosný?

"ale je takový problém využít její vlastní 2+GB navíc 3x rychlé paměti? Opravdu je to tak rozsáhlý kus dat, nebo to musí neustále cestovat ven"

Ano je to velký problém, APU a všeobecně HSA potřebuje unifikovaný paměťový prostor pravě proto, aby se zabránílo zbytečným (latentním) transferům a obě části jak GPU tak CPU mohi do stejné paměťi přistupovat najednou. Toto zatím nelze, sdílená paměť s grafikou v dnešních CPU s iGPU je něco zcela jiného.

První co by se mohlo blížit koncepci opravdového APU by mělo být AMD Kaveri, i když ani to nebude úplně to "reálné APU" tak jak je to prezentováno v budoucích heterogenních architekturách (pořád bude poznat kde je PU a kde GPU), ale Kaveri je taková první vlaštovka. (Steamroller CPU + GCN).

U skutečného APU se všemi HSA featurami už na die shotu nepůjde rozeznat která část je CPU a která GPU (tak jako například u LLano nebo Trinity), prostě ty dvě části natolik prolnou, že to bude vypadat jako např. Larrabee :o))

+1
0
-1
Je komentář přínosný?

Jasne, ale nik nehovori o workstation-e integrovanej v apu. Pre apu segment (notebooky, ultrabooky, htpc, mini-pc, all-in-one, ...) by spojenie intel cpu a nvidia gpu do apu bolo skvele a zrejme by predcilo vykonom aj spotrebou amd apu.

+1
-1
-1
Je komentář přínosný?

toto jest reakce na mě?

Pokud mám dvě věci (cpu a gpu), jakékoliv, tak je fakt jedno, jestli jsou pod jednou střechou, nebo každé pod svou. Tzn kombinace jako mají dnešní ultrabooky, Core i5 a GT630M například, to by se vklidu dalo dát do apu, ale rozdíl ve spotřebě i výkonu by byl nulový, resp grafika by byla horší a silně závisela na operační paměti... Takže by to vlastně bylo ještě horší, výťěžnost horší, výkon horší, oprava horší (dražší), méně kombinací pro přelévání výkonu mezi gpu a cpu (Ci7 mit igp, Ci3 mit GT640M).. Ne, v tomhle smyslu jsou apu ve všech parametrech horší.

+1
-1
-1
Je komentář přínosný?

Apu je specificka kategoria, ktora si zobrala za vzor mobilny svet ako napr. SoC v smarfonoch, kde je tych komponentov v cipoch integrovanych este viac. Uzka integracia komponentov na jeden cip prinasa vyrobcom jednoduchsi zivot. Naklady na vyrobu su nizsie, jeden integrovany cip je zrejme lacnejsi ako viac cipov. Jednoduchsia vyroba plosakov, nesporna uspora miesta, ktoreho je malo v malych mobilnych zariadeniach, menej cesticiek na plosakoch z cipu do cipu. Jednoduchsie chladenie, napr. u ultrabookov menej heatpipe-ov a podobne. Apu nie je zamerane na hyper vykon ale len na "dostacujuci" vykon, ktory je potrebny na klasicke scenare pouzitia v tomto segmente. Obmedzenim sa na "dostacujuci" vykon sa da usetrit aj na spotrebe cipu nastavenim vhodnych frekevencii, potom si grafika vystaci aj so systemovou ramkou. Inak low-end grafiky byvaju casto osadene pomalou ddr3 a nie gddr takze strata priepustnosti neni az taka citelna. Apu ma vyznam hlavne pre mobilne zariadenia, pre desktop to nie je az take zaujimave, mozno len pre specificke pouzitie.

+1
-2
-1
Je komentář přínosný?

No jak to tak vypadá, APU míří i do desktopu, a myslí to vážně.

Ono ty SoC v mobilech jsou osekané hlavně funkčně (proto jsou x86 nekompatibilní), což by desktopové ani notebookové APU postihnout nemělo - měl by to být plnohodnotný hardware.
A když vezmeš plnohodnotný hardware (mainstream cpu + mainstream gpu), dostaneš se už na velikost "velkou", 400mm2+, což je problém vyrobit v jednom čipu s dobrou výtěžností...

+1
-1
-1
Je komentář přínosný?

No jestli myslíš tu jednu desku s "profi" trinity tak to jo, ta vyloženě ukazuje budoucí směr APU v desktopech :D

+1
-2
-1
Je komentář přínosný?

Antimonopolní úřady i AMD si dle mého na Intel došláply hodně lehce (zřejmě úplatky a touha AMD aspoň po nějaké hotovosti), ale tohle spojení by neprošlo i kdyby se Intel stavěl na hlavu.

+1
-1
-1
Je komentář přínosný?

Taky si myslím, že by to nemělo projít, pokud v antimonopolních úřadech sedí příčetní lidé.

+1
-1
-1
Je komentář přínosný?

Každý má jistě svou cenu...

+1
-1
-1
Je komentář přínosný?

By me zajimalo co udela Jen-Hsun Huang s tou kerkou nvidie na rameni... Podle me to neproje.

+1
-1
-1
Je komentář přínosný?

Na druhé rameno si dá vytetovať Intel inside a je to :-)

+1
+4
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.