Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k ATI R700, CrossFireX a budoucnost - jaké to bude za rok či dva?

Nech take urobia do notebookov a nebude treba riesit prepinanie 2 grafik, ale bude zapnuty len jeden cip na 2D a ked bude treba viac, zapnu sa aj dalsie. Aj procesory by sa mohli vydat touto cestou + specializacia jadier. Potom snad nebude vynimocny notebook, co vydrzi 8hod na wifi internete/v skole ci kancli.

+1
-1
-1
Je komentář přínosný?

Ale v pripade takovehoto "ctyrjadra" by se predevsim musela zmenit koncepce spoluprace jednotlivych cipu, predevsim pamet by musela byt sdilena a ne samostatna pro kazde jadro jako dosud. To by ale zase znamenalo nutnost podstatne rychlejsi sbernice propojujici cipy nez je ted.

+1
+1
-1
Je komentář přínosný?

Jen chci upozornit, ze pokud by se delal grafika o 200 jadrech, tak by se ty jadra integrovali do jednoho, pac ten slepenec by asi moc dobre nefajcil. Vyhoda toho ze se udelaj 4 max 8 jader a spoji se je v tom, ze se na jednu generaci nemusi delat 3 ci 4 cipy, ale staci udelat jeden a poradne. Pak jej jen spojit. Silne pochybuji, ze nekdy dojde k tomu co bylo popsano na konci clanku. To ze casem budou vice jadrove grafiky je zrejme, ale bude to delany jako u zakladnich desek a procaku nejdriv, byli desky pro 2 jednojadrovy procaky, pak udelali dvoujadrove procaky a ty se zase dali dat do desky pro dva procaky, pak 4 atd.

+1
0
-1
Je komentář přínosný?

to menethor: Je vidět, že si nejsi vědomý toho, že vícejádrové jsou již dřívější grafiky včetně R600 a RV670, což m.j. také znamená, že komunikace mezi několika čipy by zdaleka nemusela být tolik problematická. Jednotlivá části grafických čipů totiž dokáží spolupracovat na komplexním "společném díle" a nevytvářejí tak úzké hrdlo.

+1
-2
-1
Je komentář přínosný?

Jak zdenek11 spravne pise, tohle bude chtit hlavne podstatne (radove!) rychlejsi sbernici a ne jen sbernici. Ale i RAMky. A jsme u korene problemu. Ramky nam nestihaji a brzdi vykon. Obavam se, ze tohle bude do budoucna podstatne vetsi problem, nez moznost naprasit na kartu x-GPU slozenych z x-jednotek.
Sice si vsichni pamatuji na VooDoo 5000, ale take si pamatuji, jak to s nim dopadlo. Neslavne. Stejne tak neslavne dopadnou tyhle experimenty. Reseni jak zvysit vykon je jedine - zvysit takt a rychlost pristupu k pametem, zavest kese atd. A vicejadrove rozskladat jen hlavni cip, treba na klustery shaderovych jednotek + main core :)

+1
-3
-1
Je komentář přínosný?

Proc porad vsichni potrebuji, aby se pamet sdilela mezi vsemi jadry ? Kazdy jadro bude mit svoji pamet a starat se o svuj 'pisecek'. Textury si localne nacachuje jak potrebuje, hadam ze by se to dalo nejak chytre rozsegmentovat - tezko bude kazdy jadro potrebovat rychly pristup do pulgiga pameti... NUMA architektura je u CPU dnes jiz pomerna znama vec...

+1
-2
-1
Je komentář přínosný?

ka: společnou sběrnici potřebuješ právě proto, aby každé jádro nemuselo mít zaplácnutý půl gigabajt paměti stejnými texturami. To zbytečně zvyšuje cenu, složitost PCB a spotřebu. Jakmile budou mít všechny čipy přes společnou sběrnici přístup do paměti ostatních čipů, tenhle problém odpadne a bude stačit, aby textury byly v paměti jen jednou.

Jinak k té opožděné výrobě ze strany TSMC - není to zdaleka tak žhavý, 90nm nebylo zpožděno vůbec, R520 se zpozdil kvůli chybě v návrhu čipu způsobené chybou v knihovně pro implementaci návrhu čipu do křemíku (ta nepocházela od TSMC, ale od třetí strany a souvisela se sběrnicí ring-bus - proto byly také zpožděny pouze čipy s ring-bus sběrnicí, zatímco ostatní vyšly dle plánu)

80nm HS zpoždění oproti původním plánům mělo (asi půl roku), ale další půlrok (pro R600) byl způsoben hlavně softwarem a nevydařeným obchodním tahem. Stačí se podívat na datum výroby prvních produkčních R600 - je tuším z ledna :-)

+1
-1
-1
Je komentář přínosný?

ka - predstav si, že budes mit 4 jádra. To budes ale potrebovat 4x 512MB rychle graficke pameti. To jsou 2G...! Chapes, jak vysoka bude kvuli tomu cena? A jak nekvalitni (pomale) ramky to budou muset byt, aby to bylo prodejne? Uz dneska hi-end grafiky skoro nikdo nekupuje, proto jsou tak drahe. Chces aby bylo hur?
A ted druha vec, jak to pomuze vykonu? Predstav si, a pri hrani Crysis to neni predstava, ale realita, ze se textura nenachazi v videoram. Vysledek? Je ji treba nahrat. Ale ne 1x, ale 4x. Vsechny procesory zastavi rendering a budou do svych pameti depakovat novou texturu... Uzasne zrychleni, vid? :)))
A ted spotreba. 2G ram na karte, to bude chtit 600W zdroj jen pro grafiku. To ale malo kdo chce, ze? Protoze to stoji opet hromadu penez... A jak to bude hrat! 40°C v kejsu jen kdyz to zapnes...

A ted si predstav jaky to bude s 16 ci 64 core na karte... :-)))

Osobne si myslim, ze je treba aby se zacalo inovovat a prislo se treba s RISC grafickym procikem s malo tranzistory a vykonavajicim shader instrukce a podobne ficury pres mikrokod. Nasledkem toho nebude problem, aby bezel na 2Ghz a mel spotrebu 1/4 dnesni hi-end grafiky s tim, ze ji porazi ;)
Kdo tohle implementuje (ci bude mit odvahu udelat ten radikalni krok), ten vyhraje.

+1
-1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.