Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GPGPU akcelerátory pro CPU socket nemají smysl, míní AMD

Jste to pojali dost laickym ockem :) Vsechny zminene problemy JDE resit:

1) pin count - neni problem, socket jen udava rozhrani kterym se ma komunikovat (HT/QPI)

2) memory - muze se jednat o MCM (multi-chip-module) a interni siroka a rychla pamet bude primo u hlavniho cipu (stejne grafiky potrebuji jen 1-4G rychle pameti, nejsou optimalizovany na 32G v dimm)

3) power - modul muze mit pridavne napajeni, pripadne lze pouzit povedenejsi cipy v low-power provedeni (mobile)

A jako jedno negativum je, ze na to nepujde nasadit klasicky chladic pokud se to tam teda vse integruje...

+1
-5
-1
Je komentář přínosný?

Ale tady mluvíme výslovně o CPU socketu (jmenovitě 940 v případě Torrenzy, případně AM3+, G34 a C32, pokud bychom si to měli promítnou na současnou platformu). Že to lze vyřešit jiným způsobem je jasné, ale procesorové sockety se takto opravdu využít nedají. Jak bys chtěl do balení čipu integrovat přídavné napájení nebo vytvářet MCM modul, když tam pro nic z toho není prostor? :-)

+1
-3
-1
Je komentář přínosný?

Njn, expert co vydal poplašnou zprávu o konci světa (AMD x86) rozdává další rozumy. Já osobně nechápu, proč by někdo měl chtít pasovat grafický čip do současného socketu, spíš tu jde o snahu Intelu umožnit zákazníkovi průběžně upgradovat GPGPU část systému, tak jak je to běžné u CPU a klasických pamětí - prostě se přidá paměť, přidá procesor, vymění procesor. Jak psal kolega nademnou, pinout není problém, paměť může být na MCMku a napájení není už vůbec žádný problém, VRM modul je u serveru naprosto normální věc, prostě se tam místo procesorovýho dá pro grafickou kartu. Navíc se tohle řešení dá použít pro čímdál populárnější blady. Vždycky mě potěší, že když něco nemá AMD, tak to vlastně nikdo nepotřebuje, ale tohle se naštěstí vztahuje jenom svět redaktorů Diit.

+1
-3
-1
Je komentář přínosný?

Cílem "socketových akcelerátorů" jako Torrenza bylo vyhnout se komunikaci se systémem (cpu a ram) přes pomalou PCI sběrnici s vysokýma latencema. Nic víc, nic míň. Veškeré spekulace o nějakých MCM ram jsou nemístné, protože gpgpu pracuje (musí pracovat) se systémovou ram. Lokální paměť (jako vram u gpu) je využita jako buffer, který musí být synchronizován se systémovou ram (právě přes pomalou PCI).
AMD problém napojení gpgpu akcelerátoru vyřešilo svým projektem APU, čímž Torrenza prakticky ztrácí smysl a ani Intel nic takového nemá.

+1
-5
-1
Je komentář přínosný?

proc by GPGPU mela pracovat se systemovou ram? vubec nemusi. data se hrnou do grafiky a co ta s nimi udela, je ciste na driveru. uz si to uvedomte. ta smyslenka, co tu siril kdysi snad noX, ze jsou graficka data (hadam odtud beres svou analogii ke gpgpu) zaroven v graficke a systemove pameti, je naprosty nesmysl. funguje to stylem push & forget. a pokud by jsi snad chtel zkusit argumentovat mnoha malymi datasety cestujicimi mezi cpu & gpu, tak na to rovnou zapomen, protoze pomaly context switching GPGPU zabranuje efektivite takoveho pristupu

@happymaster23 helet asi bych byt tebou necekal nejakou kloudnou smysluplnou reakci. staci se podivat na ten banner napravo a vse je jasne

+1
-4
-1
Je komentář přínosný?

Protože už je to poněkolikáté, co mi přisuzuješ výroky, se kterými nemám nic společného, uděláme to následovně. Buďto doplníš link, kde jsem něco takového řekl, nebo tento a další podobné posty budou řešeny v souladu s pravidly. Důsledně.

PS: Rekalama je Abacusu (což bys zjistil, kdybys na ni kliknul). Co v ní propagují, je jejich volba.

+1
-4
-1
Je komentář přínosný?

nešlo by zavést v podstatě karmu na diskusi? když se někdo dostane do určitého negativního limitu (např. -100) může následovat třeba hláška BANNED...
hned by byl čistší vzduch :)

+1
-6
-1
Je komentář přínosný?

Jenom to ne, co bych si pak počal, pro co bych žil? ;-(

+1
0
-1
Je komentář přínosný?

víte co posledně řekl Zdenda Polreichů...
"vyndejte si tu hlavu z pr***e"

+1
-6
-1
Je komentář přínosný?

A nechceš mi tu ocitovat ještě něco z Blesku? :D

+1
-7
-1
Je komentář přínosný?

aha, to mam prochazet vsechny clanky tady na diitu, na ehw atd., vcetne diskuzi? ja si moc dobre pamatuju, ze jsi to tvrdil. ale kdyz uz chces dodrzovat pravidla, dusledne, za to, ze te obvinuju z neceho, co jsi dle tveho nerekl, tak ti neco pripomenu

http://www.diit.cz/diskuze/i-amd-prichazi-s-mobilnimi-40nm-novinkami/39175/

"no-X | 7. 12. 2011 16:57
Aha, takže jsi přesvědčený, že redakce není pod NDA? Přesvědčený... :-))) Ty jsi fakt klaun. 7.8.9."

"terrorist | 7. 12. 2011 17:56
"Aha, takže jsi přesvědčený, že redakce není pod NDA? Přesvědčený"

a kde to jako tvrdim? lzes. otevrene. jen si uvedom, ze tim mozna potesis tech deset amd "klaunu" (pouzivam tvuj vlastni vyraz), ktere tu vsichni dobre znaji, ale ostatni to mozna neprehlednou a treba si na zaklade toho i nejaky obrazek o tobe, jako autorovi, udelaji

to me naprosto staci :)"

a takovych prikladu bylo vic. asi si to budu v budoucnu nekam ukladat, abych to pak mel po ruce. dvoji metr?

+1
-3
-1
Je komentář přínosný?

"...data se hrnou do grafiky a co ta s nimi udela..."
No a odkudpak se ty data do grafiky hrnou a kampak se zase zpět modifikovaná vracejí?
Hádej, dám ti 3 pokusy :)))

+1
-4
-1
Je komentář přínosný?

"Lokální paměť (jako vram u gpu) je využita jako buffer, který musí být synchronizován se systémovou ram (právě přes pomalou PCI)."

data se do gpu pameti nahrnou a pak se v systemove muzou zahodit. zadna synchronizace neni nutna. a zpet se nevraci ta data, ale nejaky vysledny dataset, ktery muze byt mnohonasobne mensi (treba nekolik vektoru) nebo se dilci vysledky muzou vyuzivat k real time simulacim, .. jasne jsi napsal synchronizovany buffer

+1
-3
-1
Je komentář přínosný?

No vidíš, skoro jsi se trefil. Hostitelská aplikace musí nejdříve odeslat na gpu kernely a následně jim dodávat vstupní data, nad kterými se provede výpočet a výsledek je vrácen zpět. Komunikace je tedy RAM-GPU-RAM. Kolik výsledků je vráceno řešit nemusíš, protože to záleží na druhu výpočtů, může to být méně, stejně nebo více dat, nežli tam posíláš vstupních. Tahle komunikace u dgpu je prováděna přes pomalou pcie sběrnici. "Socketové akcelerátory" by toto obešly a komunikovaly přes systémovou sběrnici jako je HT.
U AMD tohle nyní odpadá, protože u APU je RAM připojena ke gpu přímo, speciální sběrnicí Onion a Intel má svůj ringbus.
V současné době gpu nemá přímý přístup k RAM, proto komunikaci zprostředkovává hostitelská aplikace. V následné fázi vytvoření memory coherence, kde budou cpu a gpu sdílet stejný paměťový prostor a přijde na řadu právě ta "synchronizace".
Jenom nevím, proč ti to vůbec vysvětluju, protože to je marná snaha :)

+1
-6
-1
Je komentář přínosný?

za prve, co ma tento tvuj prispevek spolecneho s tim, ze jsi tu tvrdil kraviny? myslis, ze kdyz sem (jeste navic spatne) pretlumocis clanek z wiki, ze jakoby mavnutim kouzelneho protku zapomenu, na ty tve nsmysly? ne.

za druhe, nejdriv tvrdis, ze tam je synchronizace uz ted a najednou jsi to zmenil na "bude" tam synchronizace (coz je zase spatne, protoze je to plytvani prodstredky). to je mi ale nahoda

za treti, pcie rozhodne neni pomala. a uz vubec neni pomala pro bulk prenosy velkych dat najednou. ale v cem by "relativne" pomala byt mohla (a tim myslim, ze bude i tak stale velmi rychla), je intenzivni presun malych dat, coz odpovida nejake pofiderni synchronizaci

za ctvrte, priste si ten wikiclanek lepe precti, at ho pretlumocis dobre. diky

+1
-3
-1
Je komentář přínosný?

V současnosti je přenos dat mezi cpu a gpu prováděn explicitně pomocí hostitelské aplikace. Pokud se ti nelíbí popis tohoto stavu slovem "synchronizace", klidně to akceptuji, je mi to tak nějak jedno.
Rád bych jenom připomenul, kvůli jakým nesmyslným výrokům jsme se dostali až sem:

"proc by GPGPU mela pracovat se systemovou ram? vubec nemusi. data se hrnou do grafiky a co ta s nimi udela, je ciste na driver"

Takže, pokud stále budeš vyhledávat nějaké zástupné problémy v mých textech, jenom abys utekl od svého původního příspěvku, který z tebe dělá pitomce první třídy, s diskusí s tebou končím. No vlastně už jsem skončil.

+1
-4
-1
Je komentář přínosný?

holt tu tvoji perlu budu muset postnout jeste jednou: "Lokální paměť (jako vram u gpu) je využita jako buffer, který musí být synchronizován se systémovou ram (právě přes pomalou PCI)."

pises tam jasne sysnchronizovany buffer, ne presouvani ze systemove ram. tohle proste neokecas. a GPGPU opravdu se systemovou pameti pracovat nemusi. pracuje pouze z vlastni pameti. to, ze se tam jednou za cas nahrnou data ze systemove pameti a pak se zase nejaka vysipou do systemove pameti, je naprosto normalni. to bys take mohl rikat, ze GPGPU pracuje s diskem/siti, protoze data pochazela odtud .. LOL teda vyvracet machinovy bludy byvalo slozitejsi :D

+1
-5
-1
Je komentář přínosný?

Já bych jenom podotkl jednu věc a to význam AMD v serverových řešeních - nedávno tu v Praze byl kamion s kompletním serverovým portfoliem IBM (pro redaktory Diit - to je taková ta obskurní bezvýznamná americká firma), byl jsem tam asi hodinu a světe div se, od AMD tam nebylo zhola nic. Když jsem zeptal proč tomu tak je, zástupce IBM mi s úsměvem odpověděl, že servery na platformě AMD jsou spíše taková kuriozita. Proto mi přijde směšné, když tu redaktor, který nedávno světu oznámil, že AMD končí s x86, tasí svoje rozumy o tom, že když AMD zahodí plány pro segment, ve kterém neznamená vůbec nic, měl by se Intel honem rychle vzpamatovat a začít uvažovat stejně jako AMD. Nechci se tu dohadovat o tom, jak konkrétně to Intel myslí a jak konkrétně to bude řešit, já v tom vidím jenom tu vizi (kterou jsem již nastínil výše), která podle mě smysluplná je a jak to Intel vyřeší, to se nechme překvapit.

+1
-5
-1
Je komentář přínosný?

souhlas. nejak neverim, ze vubec amd bude schopne s tim podilem trhu nejak pohnout, i s bulldozerem

+1
-3
-1
Je komentář přínosný?

happymaster23: Pokud tě redakce DIIT irituje takovým způsobem, že se do ní musíš navážet v každém ze svých postů, pak mi není jasné, proč sem chodíš. Pokud máš potřebu své názory a sdělení vyzdvihovat narážkami na mě nebo redakci, pokračuj v tom prosím tam, kde tvůj osobitý přístup ocení více. Ostatně tady vidím, že nemáš problém jen s DIIT; ona je pro tebe diskuse ve slušnosti asi dost zásadní problém... http://goo.gl/BYluA

+1
-1
-1
Je komentář přínosný?

Týjo, když jsem uviděl ten odkaz, začal jsem se těšit jak malej kluk, co mi ten ježíšek jménem no-X nadělí za dárek. A musím se přiznat, že mě to hodně zklamalo, pět let stará záležitost, příště se snaž víc (na internetu je dokonce jeden post pod mým občanským jménem, kde mi fakt ujely nervy a zpětně se za něj stydím). Na tomhle mě zpětně mrzí snad jenom ty gramatické chyby a ten neohrabaný styl, jinak to že se ten slovák do mě začal mylně a zbytečně navážet je holý fakt, který platí i teď po pěti letech. Nicméně tvoje články, to je teprve ostuda, vršíš jeden omyl za druhým, sděluješ svoje nepodložené názory (které by se hodili maximálně tak na blog), stylistika je oproti ostatním redaktorům taky slabá a tak dále. Vždycky bezpečně poznám, kdo to píše. Koneckonců o tvém vyčnívání z řady (samozřejmě směrem dolů) svědčí i ten fakt, že se nikdo jiný z redakce diit nesnížil tak hluboko, aby na moji narážku reagoval takovým agresivním způsobem jako ty ;).

+1
-4
-1
Je komentář přínosný?

btw. ten slovák se do nikoho nenavažel, zcela slušně a korektně se zeptal/informoval o tom že bylo zbytečné zakládat nové vlákno...
Nic pobuřujícího na tom nevidím...
Vaše reakce měla být "OK. sorry, přehlédl jsem to." nebo "chtěl jsem to odlišit z toho a toho důvodu".

K tomu vyčníváni směrem dolu, bych se raději zaměřil na vlastní práh být vámi

+1
-6
-1
Je komentář přínosný?

V tom se asi neshodneme, v jeho odpovědi byla přehnaně velká dávka sarkasmu, která neměla žádné opodstatnění a ani na tom fóru neměl takové postavení, aby si mohl dovolit psát takovým stylem.
Zajímavým aspektem celé této anabáze je, že obyčejně když tu začne někdo pořvávat, ostatní ho nechají být a příspěvek díky mínusům zapadne. Ale teď je to jiné, díky tobě a kolegovi no-X se začíná rozjíždět hezká flamewar a to jenom kvůli jedné (počáteční) větě v jinak normálním názoru, na který mám jistě právo a který jistě může být i subjektivní, na rozdíl od článku, ve kterém by žádný subjektivní názor být neměl. Takže bych si být tebou dal pozor, aby někdo nenasadil filtr na hlupáky a spammery, mohlo by vás to oba dva zablokovat...

+1
-6
-1
Je komentář přínosný?

Nezlob se na mě, ale když svůj příspěvek začneš slovy "Njn, expert co vydal poplašnou zprávu o konci světa..." a následně z tvého příspěvku vyplyne, že zrovna tahle problematika není tvoje "parketa" (slušně řečeno), nesmíš se pak moc divit negativní odezvě. Sorry, vypadáš pak jako nějaký terrorist (také slušně řečeno).

+1
-3
-1
Je komentář přínosný?

nezlob se na me, ale do toho noxova clanku o x86 se opreli i zdejsi stali a respektovani diskuteri. a nox se v diskuzi k nemu i k tomu naslednemu opravujicimu clanku neustale jen vymlouval a vykrucoval. to se nedivim, ze chtel happymaster pouzit velmi stiplavy sarkasmus

+1
+2
-1
Je komentář přínosný?

Sorry, štiplavý sarkasmus je na místě jen v případě, když víš o čem mluvíš. V opačném případě to zavání trapností.

+1
-1
-1
Je komentář přínosný?

No s vami sa asi malo kdo zhodne. Ja casto na fora nechodim, ale pri vasom nicku sa mi hned vybavy "expert co ma patent na rozum" a viem, ze je to zbytocne citat.

+1
-1
-1
Je komentář přínosný?

Spíš patent na názor... Ostatně, celkem by mě zajímalo, kdyby si někdo dal tu práci, prošel moje staré komentáře a zkusil tam najít něco, co se zpětně ukázalo jako totální blbost a šlápnutí vedle. Tím vůbec nevyjadřuji svoji víru ve svoji neomylnost, ba naopak se snažím povzbudit všechny zdejší "borce", aby se od hloupého anonymního mínusovaní komentářů, zaplevelování diskuse komentáři typu "co řekl Zdenda Pohlreich" a ničím nepodložených narážek typu "expert na rozum" přesunuli k věcným argumentům, protože jenom ty dokážou ve slušné společnosti protivníka odzbrojit. Ale já vím, strčit prst do krku je mnohem snazší. Ostatně já jsem se ve svém prvním komentáři odkázal na článek, kvůli kterému mám důvod si myslet, že no-X danému tématu moc nerozumí. Zatím mi to tu spíš připomíná nářek exkrementů v kanále na to, že to tu smrdí...

+1
0
-1
Je komentář přínosný?

No jak to tak vypadá, tak každé forum musí mít svého "Hulána". Zatím to na Vás pasuje...

+1
-5
-1
Je komentář přínosný?

Jsem si to přečetl celý a fakt sranda, všechno to v podstatě je pravda, akorát dneska bych byl o něco korektnější, to jo :D :D :D

+1
-3
-1
Je komentář přínosný?

Co k tvym textum dodat... snad jen že bych zauvažoval nad filtrem do diskuse ktery by filtroval náctileté? resp. vc mentálně náctiletých (fyzicky mohou být starší).

+1
-3
-1
Je komentář přínosný?

k1: takže vlastně AM2+/AM3/AM3+/FM1 jsou jeden a ten samý soket jo? hmm.... zajímavé ;-) tak proč FM1 CPU nestrčím do AM3+ a naopak? ;-)

+1
-6
-1
Je komentář přínosný?

Protože v FM1 je výstup na monitor což v AM* není.
V podstatě jak píše Dusíkatej, žádnou výhodu by to nepřineslo jen spoustu nevýhod. Intelu možná jo, by se Larrabee strkalo do desek spolu s jejich nejdražšími CPU což je rajcovní z pohledu zisku :-)

+1
-4
-1
Je komentář přínosný?

já bych spíš řekl protože ta patice je fyzicky jiná ;-) to že FM1 počítá s grafikou je už pro mě druhořadé, on napsal pouze že záleží na rozhraní kterým bude komunikovat- HT/QPI, tak jsem mu to poslal zpět ;-)

+1
-4
-1
Je komentář přínosný?

Mozno mal napisat (HT/QPI/....) aby to bolo zrozumitelnesie, vzdy sa vo vnutri da spravit take radenie dat aby to navonok do toho socketu pasovalo.

+1
-4
-1
Je komentář přínosný?

To bylo myšleno že rozhraní (HT/QPI/....) není jediná věc co sockety odlišuje....

+1
0
-1
Je komentář přínosný?

Nakonec jste mohli zminit opacnou variantu ktera se do budoucnosti zvazuje a to je dat na gafickou PCI kartu vlastni CPU to proto aby nemusela GPU behat na hlavni CPU v PC a zpatky. Tim by usetrila spousty casu a hlavne GPU by bylo nezavisle na parametrech PC.
Volne receno.

+1
-3
-1
Je komentář přínosný?

takže by si de facto žilo svým vlasntním životem, co? ;-) ale jooo zajímavá myšlenka... uvidíme jak dopadne ;-)

+1
-6
-1
Je komentář přínosný?

Vubec, proc by komunikace mezi grafickou kartou a pocitacem nemohla probihat po 10Gbit ethernetu? :-)

+1
-2
-1
Je komentář přínosný?

Pretoze ethernet je hrozne pomaly, lebo zo sebou nesie strasne moc balastu vid http://en.wikipedia.org/wiki/Ethernet_frame .
Naopak je velmi vhodny pre prenos na velke vzdialenosti, kvoli opravam a pod..

+1
-3
-1
Je komentář přínosný?

no, vzhledem k tomu jak to napsal bych řekl že on to (tu "rychlost") taky ví ;-)

+1
-7
-1
Je komentář přínosný?

Nejde o absolutni rychlost (mohl by to byt 100Gbit ethernet etc), jde o tu rezii. Pro pomalejsi: Ano, je naprosta pitomost aby informace z CPU sli pres ethernetovou kartu (i kdyby integrovanou), pak pres ethernet a pak znova pres ethernetovou kartu do GPU.

Stejne tak existuje duvod proc graficka karta potrebuje komunikovat ne jen s tak nejakym CPU, ale konkretne s hlavnim CPU pocitace a proto pridani libovolneho chipu na grafickou kartu GPU neosamostatni. Maximalne to muze resit neschopnost navrharu GPU v implementaci protokolu mezi CPU a GPU ve kterem maji pritom pomerne volnou ruku nebot pisou i ovladace.

+1
-4
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.