Nech take urobia do notebookov a nebude treba riesit prepinanie 2 grafik, ale bude zapnuty len jeden cip na 2D a ked bude treba viac, zapnu sa aj dalsie. Aj procesory by sa mohli vydat touto cestou + specializacia jadier. Potom snad nebude vynimocny notebook, co vydrzi 8hod na wifi internete/v skole ci kancli.
+1
-1
-1
Je komentář přínosný?
Jurajko (neověřeno) https://diit.cz
22. 11. 2007 - 16:48https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseNech take urobia do notebookov a nebude treba riesit prepinanie 2 grafik, ale bude zapnuty len jeden cip na 2D a ked bude treba viac, zapnu sa aj dalsie. Aj procesory by sa mohli vydat touto cestou + specializacia jadier. Potom snad nebude vynimocny notebook, co vydrzi 8hod na wifi internete/v skole ci kancli.https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370597
+
Ale v pripade takovehoto "ctyrjadra" by se predevsim musela zmenit koncepce spoluprace jednotlivych cipu, predevsim pamet by musela byt sdilena a ne samostatna pro kazde jadro jako dosud. To by ale zase znamenalo nutnost podstatne rychlejsi sbernice propojujici cipy nez je ted.
+1
+1
-1
Je komentář přínosný?
zdenek11 (neověřeno) https://diit.cz
22. 11. 2007 - 16:52https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseAle v pripade takovehoto "ctyrjadra" by se predevsim musela zmenit koncepce spoluprace jednotlivych cipu, predevsim pamet by musela byt sdilena a ne samostatna pro kazde jadro jako dosud. To by ale zase znamenalo nutnost podstatne rychlejsi sbernice propojujici cipy nez je ted.https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370599
+
Jen chci upozornit, ze pokud by se delal grafika o 200 jadrech, tak by se ty jadra integrovali do jednoho, pac ten slepenec by asi moc dobre nefajcil. Vyhoda toho ze se udelaj 4 max 8 jader a spoji se je v tom, ze se na jednu generaci nemusi delat 3 ci 4 cipy, ale staci udelat jeden a poradne. Pak jej jen spojit. Silne pochybuji, ze nekdy dojde k tomu co bylo popsano na konci clanku. To ze casem budou vice jadrove grafiky je zrejme, ale bude to delany jako u zakladnich desek a procaku nejdriv, byli desky pro 2 jednojadrovy procaky, pak udelali dvoujadrove procaky a ty se zase dali dat do desky pro dva procaky, pak 4 atd.
+1
0
-1
Je komentář přínosný?
Martin Potucek https://diit.cz/profil/menethor
22. 11. 2007 - 16:57https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseJen chci upozornit, ze pokud by se delal grafika o 200 jadrech, tak by se ty jadra integrovali do jednoho, pac ten slepenec by asi moc dobre nefajcil. Vyhoda toho ze se udelaj 4 max 8 jader a spoji se je v tom, ze se na jednu generaci nemusi delat 3 ci 4 cipy, ale staci udelat jeden a poradne. Pak jej jen spojit. Silne pochybuji, ze nekdy dojde k tomu co bylo popsano na konci clanku. To ze casem budou vice jadrove grafiky je zrejme, ale bude to delany jako u zakladnich desek a procaku nejdriv, byli desky pro 2 jednojadrovy procaky, pak udelali dvoujadrove procaky a ty se zase dali dat do desky pro dva procaky, pak 4 atd.https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370602
+
to menethor: Je vidět, že si nejsi vědomý toho, že vícejádrové jsou již dřívější grafiky včetně R600 a RV670, což m.j. také znamená, že komunikace mezi několika čipy by zdaleka nemusela být tolik problematická. Jednotlivá části grafických čipů totiž dokáží spolupracovat na komplexním "společném díle" a nevytvářejí tak úzké hrdlo.
+1
-2
-1
Je komentář přínosný?
Jiří Hlávka https://diit.cz/profil/georgeek
22. 11. 2007 - 18:18https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseto menethor: Je vidět, že si nejsi vědomý toho, že vícejádrové jsou již dřívější grafiky včetně R600 a RV670, což m.j. také znamená, že komunikace mezi několika čipy by zdaleka nemusela být tolik problematická. Jednotlivá části grafických čipů totiž dokáží spolupracovat na komplexním "společném díle" a nevytvářejí tak úzké hrdlo.https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370615
+
Jak zdenek11 spravne pise, tohle bude chtit hlavne podstatne (radove!) rychlejsi sbernici a ne jen sbernici. Ale i RAMky. A jsme u korene problemu. Ramky nam nestihaji a brzdi vykon. Obavam se, ze tohle bude do budoucna podstatne vetsi problem, nez moznost naprasit na kartu x-GPU slozenych z x-jednotek.
Sice si vsichni pamatuji na VooDoo 5000, ale take si pamatuji, jak to s nim dopadlo. Neslavne. Stejne tak neslavne dopadnou tyhle experimenty. Reseni jak zvysit vykon je jedine - zvysit takt a rychlost pristupu k pametem, zavest kese atd. A vicejadrove rozskladat jen hlavni cip, treba na klustery shaderovych jednotek + main core :)
+1
-3
-1
Je komentář přínosný?
trodas https://diit.cz/profil/trodas
23. 11. 2007 - 20:58https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseJak zdenek11 spravne pise, tohle bude chtit hlavne podstatne (radove!) rychlejsi sbernici a ne jen sbernici. Ale i RAMky. A jsme u korene problemu. Ramky nam nestihaji a brzdi vykon. Obavam se, ze tohle bude do budoucna podstatne vetsi problem, nez moznost naprasit na kartu x-GPU slozenych z x-jednotek.
Sice si vsichni pamatuji na VooDoo 5000, ale take si pamatuji, jak to s nim dopadlo. Neslavne. Stejne tak neslavne dopadnou tyhle experimenty. Reseni jak zvysit vykon je jedine - zvysit takt a rychlost pristupu k pametem, zavest kese atd. A vicejadrove rozskladat jen hlavni cip, treba na klustery shaderovych jednotek + main core :)https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370839
+
Proc porad vsichni potrebuji, aby se pamet sdilela mezi vsemi jadry ? Kazdy jadro bude mit svoji pamet a starat se o svuj 'pisecek'. Textury si localne nacachuje jak potrebuje, hadam ze by se to dalo nejak chytre rozsegmentovat - tezko bude kazdy jadro potrebovat rychly pristup do pulgiga pameti... NUMA architektura je u CPU dnes jiz pomerna znama vec...
+1
-2
-1
Je komentář přínosný?
ka (neověřeno) https://diit.cz
23. 11. 2007 - 23:30https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseProc porad vsichni potrebuji, aby se pamet sdilela mezi vsemi jadry ? Kazdy jadro bude mit svoji pamet a starat se o svuj 'pisecek'. Textury si localne nacachuje jak potrebuje, hadam ze by se to dalo nejak chytre rozsegmentovat - tezko bude kazdy jadro potrebovat rychly pristup do pulgiga pameti... NUMA architektura je u CPU dnes jiz pomerna znama vec...https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370848
+
ka: společnou sběrnici potřebuješ právě proto, aby každé jádro nemuselo mít zaplácnutý půl gigabajt paměti stejnými texturami. To zbytečně zvyšuje cenu, složitost PCB a spotřebu. Jakmile budou mít všechny čipy přes společnou sběrnici přístup do paměti ostatních čipů, tenhle problém odpadne a bude stačit, aby textury byly v paměti jen jednou.
Jinak k té opožděné výrobě ze strany TSMC - není to zdaleka tak žhavý, 90nm nebylo zpožděno vůbec, R520 se zpozdil kvůli chybě v návrhu čipu způsobené chybou v knihovně pro implementaci návrhu čipu do křemíku (ta nepocházela od TSMC, ale od třetí strany a souvisela se sběrnicí ring-bus - proto byly také zpožděny pouze čipy s ring-bus sběrnicí, zatímco ostatní vyšly dle plánu)
80nm HS zpoždění oproti původním plánům mělo (asi půl roku), ale další půlrok (pro R600) byl způsoben hlavně softwarem a nevydařeným obchodním tahem. Stačí se podívat na datum výroby prvních produkčních R600 - je tuším z ledna :-)
+1
-1
-1
Je komentář přínosný?
no-X (neověřeno) https://diit.cz
24. 11. 2007 - 11:35https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseka: společnou sběrnici potřebuješ právě proto, aby každé jádro nemuselo mít zaplácnutý půl gigabajt paměti stejnými texturami. To zbytečně zvyšuje cenu, složitost PCB a spotřebu. Jakmile budou mít všechny čipy přes společnou sběrnici přístup do paměti ostatních čipů, tenhle problém odpadne a bude stačit, aby textury byly v paměti jen jednou.
Jinak k té opožděné výrobě ze strany TSMC - není to zdaleka tak žhavý, 90nm nebylo zpožděno vůbec, R520 se zpozdil kvůli chybě v návrhu čipu způsobené chybou v knihovně pro implementaci návrhu čipu do křemíku (ta nepocházela od TSMC, ale od třetí strany a souvisela se sběrnicí ring-bus - proto byly také zpožděny pouze čipy s ring-bus sběrnicí, zatímco ostatní vyšly dle plánu)
80nm HS zpoždění oproti původním plánům mělo (asi půl roku), ale další půlrok (pro R600) byl způsoben hlavně softwarem a nevydařeným obchodním tahem. Stačí se podívat na datum výroby prvních produkčních R600 - je tuším z ledna :-)https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-370864
+
ka - predstav si, že budes mit 4 jádra. To budes ale potrebovat 4x 512MB rychle graficke pameti. To jsou 2G...! Chapes, jak vysoka bude kvuli tomu cena? A jak nekvalitni (pomale) ramky to budou muset byt, aby to bylo prodejne? Uz dneska hi-end grafiky skoro nikdo nekupuje, proto jsou tak drahe. Chces aby bylo hur?
A ted druha vec, jak to pomuze vykonu? Predstav si, a pri hrani Crysis to neni predstava, ale realita, ze se textura nenachazi v videoram. Vysledek? Je ji treba nahrat. Ale ne 1x, ale 4x. Vsechny procesory zastavi rendering a budou do svych pameti depakovat novou texturu... Uzasne zrychleni, vid? :)))
A ted spotreba. 2G ram na karte, to bude chtit 600W zdroj jen pro grafiku. To ale malo kdo chce, ze? Protoze to stoji opet hromadu penez... A jak to bude hrat! 40°C v kejsu jen kdyz to zapnes...
A ted si predstav jaky to bude s 16 ci 64 core na karte... :-)))
Osobne si myslim, ze je treba aby se zacalo inovovat a prislo se treba s RISC grafickym procikem s malo tranzistory a vykonavajicim shader instrukce a podobne ficury pres mikrokod. Nasledkem toho nebude problem, aby bezel na 2Ghz a mel spotrebu 1/4 dnesni hi-end grafiky s tim, ze ji porazi ;)
Kdo tohle implementuje (ci bude mit odvahu udelat ten radikalni krok), ten vyhraje.
+1
-1
-1
Je komentář přínosný?
trodas https://diit.cz/profil/trodas
27. 11. 2007 - 21:05https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuseka - predstav si, že budes mit 4 jádra. To budes ale potrebovat 4x 512MB rychle graficke pameti. To jsou 2G...! Chapes, jak vysoka bude kvuli tomu cena? A jak nekvalitni (pomale) ramky to budou muset byt, aby to bylo prodejne? Uz dneska hi-end grafiky skoro nikdo nekupuje, proto jsou tak drahe. Chces aby bylo hur?
A ted druha vec, jak to pomuze vykonu? Predstav si, a pri hrani Crysis to neni predstava, ale realita, ze se textura nenachazi v videoram. Vysledek? Je ji treba nahrat. Ale ne 1x, ale 4x. Vsechny procesory zastavi rendering a budou do svych pameti depakovat novou texturu... Uzasne zrychleni, vid? :)))
A ted spotreba. 2G ram na karte, to bude chtit 600W zdroj jen pro grafiku. To ale malo kdo chce, ze? Protoze to stoji opet hromadu penez... A jak to bude hrat! 40°C v kejsu jen kdyz to zapnes...
A ted si predstav jaky to bude s 16 ci 64 core na karte... :-)))
Osobne si myslim, ze je treba aby se zacalo inovovat a prislo se treba s RISC grafickym procikem s malo tranzistory a vykonavajicim shader instrukce a podobne ficury pres mikrokod. Nasledkem toho nebude problem, aby bezel na 2Ghz a mel spotrebu 1/4 dnesni hi-end grafiky s tim, ze ji porazi ;)
Kdo tohle implementuje (ci bude mit odvahu udelat ten radikalni krok), ten vyhraje.https://diit.cz/clanek/ati-r700-crossfirex-a-budoucnost-jake-to-bude-za-rok-ci-dva/diskuse#comment-371550
+
Nech take urobia do notebookov a nebude treba riesit prepinanie 2 grafik, ale bude zapnuty len jeden cip na 2D a ked bude treba viac, zapnu sa aj dalsie. Aj procesory by sa mohli vydat touto cestou + specializacia jadier. Potom snad nebude vynimocny notebook, co vydrzi 8hod na wifi internete/v skole ci kancli.
Ale v pripade takovehoto "ctyrjadra" by se predevsim musela zmenit koncepce spoluprace jednotlivych cipu, predevsim pamet by musela byt sdilena a ne samostatna pro kazde jadro jako dosud. To by ale zase znamenalo nutnost podstatne rychlejsi sbernice propojujici cipy nez je ted.
Jen chci upozornit, ze pokud by se delal grafika o 200 jadrech, tak by se ty jadra integrovali do jednoho, pac ten slepenec by asi moc dobre nefajcil. Vyhoda toho ze se udelaj 4 max 8 jader a spoji se je v tom, ze se na jednu generaci nemusi delat 3 ci 4 cipy, ale staci udelat jeden a poradne. Pak jej jen spojit. Silne pochybuji, ze nekdy dojde k tomu co bylo popsano na konci clanku. To ze casem budou vice jadrove grafiky je zrejme, ale bude to delany jako u zakladnich desek a procaku nejdriv, byli desky pro 2 jednojadrovy procaky, pak udelali dvoujadrove procaky a ty se zase dali dat do desky pro dva procaky, pak 4 atd.
to menethor: Je vidět, že si nejsi vědomý toho, že vícejádrové jsou již dřívější grafiky včetně R600 a RV670, což m.j. také znamená, že komunikace mezi několika čipy by zdaleka nemusela být tolik problematická. Jednotlivá části grafických čipů totiž dokáží spolupracovat na komplexním "společném díle" a nevytvářejí tak úzké hrdlo.
Jak zdenek11 spravne pise, tohle bude chtit hlavne podstatne (radove!) rychlejsi sbernici a ne jen sbernici. Ale i RAMky. A jsme u korene problemu. Ramky nam nestihaji a brzdi vykon. Obavam se, ze tohle bude do budoucna podstatne vetsi problem, nez moznost naprasit na kartu x-GPU slozenych z x-jednotek.
Sice si vsichni pamatuji na VooDoo 5000, ale take si pamatuji, jak to s nim dopadlo. Neslavne. Stejne tak neslavne dopadnou tyhle experimenty. Reseni jak zvysit vykon je jedine - zvysit takt a rychlost pristupu k pametem, zavest kese atd. A vicejadrove rozskladat jen hlavni cip, treba na klustery shaderovych jednotek + main core :)
Proc porad vsichni potrebuji, aby se pamet sdilela mezi vsemi jadry ? Kazdy jadro bude mit svoji pamet a starat se o svuj 'pisecek'. Textury si localne nacachuje jak potrebuje, hadam ze by se to dalo nejak chytre rozsegmentovat - tezko bude kazdy jadro potrebovat rychly pristup do pulgiga pameti... NUMA architektura je u CPU dnes jiz pomerna znama vec...
ka: společnou sběrnici potřebuješ právě proto, aby každé jádro nemuselo mít zaplácnutý půl gigabajt paměti stejnými texturami. To zbytečně zvyšuje cenu, složitost PCB a spotřebu. Jakmile budou mít všechny čipy přes společnou sběrnici přístup do paměti ostatních čipů, tenhle problém odpadne a bude stačit, aby textury byly v paměti jen jednou.
Jinak k té opožděné výrobě ze strany TSMC - není to zdaleka tak žhavý, 90nm nebylo zpožděno vůbec, R520 se zpozdil kvůli chybě v návrhu čipu způsobené chybou v knihovně pro implementaci návrhu čipu do křemíku (ta nepocházela od TSMC, ale od třetí strany a souvisela se sběrnicí ring-bus - proto byly také zpožděny pouze čipy s ring-bus sběrnicí, zatímco ostatní vyšly dle plánu)
80nm HS zpoždění oproti původním plánům mělo (asi půl roku), ale další půlrok (pro R600) byl způsoben hlavně softwarem a nevydařeným obchodním tahem. Stačí se podívat na datum výroby prvních produkčních R600 - je tuším z ledna :-)
ka - predstav si, že budes mit 4 jádra. To budes ale potrebovat 4x 512MB rychle graficke pameti. To jsou 2G...! Chapes, jak vysoka bude kvuli tomu cena? A jak nekvalitni (pomale) ramky to budou muset byt, aby to bylo prodejne? Uz dneska hi-end grafiky skoro nikdo nekupuje, proto jsou tak drahe. Chces aby bylo hur?
A ted druha vec, jak to pomuze vykonu? Predstav si, a pri hrani Crysis to neni predstava, ale realita, ze se textura nenachazi v videoram. Vysledek? Je ji treba nahrat. Ale ne 1x, ale 4x. Vsechny procesory zastavi rendering a budou do svych pameti depakovat novou texturu... Uzasne zrychleni, vid? :)))
A ted spotreba. 2G ram na karte, to bude chtit 600W zdroj jen pro grafiku. To ale malo kdo chce, ze? Protoze to stoji opet hromadu penez... A jak to bude hrat! 40°C v kejsu jen kdyz to zapnes...
A ted si predstav jaky to bude s 16 ci 64 core na karte... :-)))
Osobne si myslim, ze je treba aby se zacalo inovovat a prislo se treba s RISC grafickym procikem s malo tranzistory a vykonavajicim shader instrukce a podobne ficury pres mikrokod. Nasledkem toho nebude problem, aby bezel na 2Ghz a mel spotrebu 1/4 dnesni hi-end grafiky s tim, ze ji porazi ;)
Kdo tohle implementuje (ci bude mit odvahu udelat ten radikalni krok), ten vyhraje.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.