Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Fury Nano má plných 4096 stream procesorů, nižší TDP řeší jinak

Jaká záhada, prostě oproti Fury X shodí limit na PowerTune a tím sníží takty (a napětí). Nějaké velké ořezávání GPU v kombinaci s vysokými takty by bylo poněkud kontraproduktivní.

A že by někdo přebíral čipy a ty lepší dával do pomalejší karty...

+1
-26
-1
Je komentář přínosný?

''shodí limit na PowerTune a tím sníží takty (a napětí).''

a taky vykon :) takze vykon:watt zustane stejnej.. teorie je to teda super jen ma jednu achilovku - nic nevysvetluje :)

+1
+8
-1
Je komentář přínosný?

není tam lineární závislost, spotřeba klesne víc než výko.

+1
+5
-1
Je komentář přínosný?

Právě, že to je jen teorie. V praxi to na R9 290X takto nefunguje:

http://abload.de/img/clipboard0172r3f.png

U GPU Hawaii to nefungovalo, níže taktované modely nevykazovaly vyšší energetickou efektivitu. Proč by to mělo z ničeho nic fungovat na Fiji a to ještě do té míry, že by podtaktování samo o sobě posunulo energetickou efektivitu o celou třetinu?

Myslím, že při pohledu na ten graf je zjevné, že šachování s takty samo o sobě zázraky nedělá.

+1
+6
-1
Je komentář přínosný?

Ne, ale funguje to opačně, totiž že přetaktované R9 290X vykazují výrazně horší energetickou efektivitu a výrazný nárůst příkonu. A Fury X má podobné rezervy jako přetaktované R9 290X, jede skoro nadoraz.

+1
-3
-1
Je komentář přínosný?

I kdybys měl pravdu, tak ten rozdíl nebude 40% :-)

+1
-1
-1
Je komentář přínosný?

A měnili tam i napětí, nebo jen frekvenci? Si pamatuju, že na napětí by měla spotřeba záviset víc, než na napětí.
Tepelný výkon je součin proudu a napětí. Proud polovodičovým přechodem je ovšem kvadraticky závislý na napětí. Tedy tepelný výkon jádra roste s třetí mocninou napětí a pouze s první mocninou frekvence. - Pokud to ovšem stále platí u dnešní technologie. :)

+1
-6
-1
Je komentář přínosný?

Tam jde o to, že aby ušetřili 35% příkonu, tak výkon grafiky by musel být nižší minimálně o takových 25% a tam už by nedávalo smysl snižovat takt, ale omezit SPs. Předpoklad je, že bude výkon Fury Nano mezi Fury a Fury X s tím, že bude mít vše aktivní jak FuryX.

Když si to všechno sečteš, tak ta grafika bude muset mít minimálně 900mhz - o cca 12% nižší takt jak Fury X a přitom bude mí spotřebu nižší o víc jak 35%, takže tam budou muset být použitý technologie, které má Fury X deaktivované :-P

+1
-6
-1
Je komentář přínosný?

Teoreticky by jim mohlo stačit snížit frekvenci o cca 13%. Pokud sníží s frekvencí o 13% i napětí a tedy klesne zároveň proud můžou se dostat na 0,87^3=0,65 tj. o 35% níž.

+1
-4
-1
Je komentář přínosný?

Žil jsem v omylu, že má Fury Nano přinést výkon vyšší jak Fury :-D no, podle toho, co teď čtu, tak má být mezi 290X a Fury... Každopádně, to co ty píšeš, tak by byli patrně idealní podmínky :-)

+1
-5
-1
Je komentář přínosný?

Tak vážení, jen rychlovka, v HALoví Fury X (tuším 5820K oc na 4 GHz) v Crysis 2560×1440, za celou sestavu:

s default powertune: příkon ~408 W, ~1050 MHz, 69 fps,
při powertune -50 %: příkon padá na 261 W, framerate 59,5 fps, takt kolem 850 MHz.

A všichni mínuskáři mi můžou vlézt na hrb (a no-x se svýma rozumama taky. ;-)

+1
+8
-1
Je komentář přínosný?

ano je to tak kdyz sundam a R9 290X vcore -200mV a zaroven takt z 1000 na 900mhz tak karta bude zrat misto 250W treba jen 120W!!! ale vykon klesne jen o 10%

tech poslednich 100mhz je brutalne neefektivnich nejaky obrazky z testovani :)
http://postimg.org/image/gk39w9m41/full/

+1
+3
-1
Je komentář přínosný?

<i>že by někdo přebíral čipy a ty lepší dával do pomalejší karty...</i>

Lepší čipy? Já tedy nevím, ale typicky se za "lepší čipy" považují ty s vyšším taktem. Takže to máte nějaké popletené... ne?

A čipy zcela jistě nikdo "nepřebírá", lze to totiž udělat při výstupní kontrole automaticky - prostým změřením provozních parametrů. Následné třídění čipů je opět zcela automatické...

...anebo máte za to, že výrobce nezná parametry a tolerance vyráběných čipů a neumí je měřit, nebo co? Jak by pak podle Vás taková výroba vůbec fungovala...?

+1
+10
-1
Je komentář přínosný?

Za lepší čipy jsou obvykle označovány ty, které při daném taktu zvládnou nižší napětí (nebo naopak při daném napětí vyšší takt). Takový čip se dá využít buď pro vyšší výkon, nebo lepší spotřebu. Není na tom nic divného.
Jinými slovy třeba u intelu budou lepší čipy využívány do highendových notebookových procesorů, i když běhají na výrazně nižších taktech, než ty desktopové.
Potom si už jen hraješ se slovíčky. "Přebírat" v tomto kontextu samozřejmě znamená klasický binning (jehož součástí je měření).

+1
+7
-1
Je komentář přínosný?

„Za lepší čipy jsou obvykle označovány ty, které při daném taktu zvládnou nižší napětí (nebo naopak při daném napětí vyšší takt). Takový čip se dá využít buď pro vyšší výkon, nebo lepší spotřebu.“

To je trochu nepřesná představa zažitá na diskusních fórech. Reálně to funguje jinak:
- nižší leakage = nižší spotřeba a nižší maximální takty
- vyšší leakage = vyšší spotřeba a vyšší maximální takty (při zajištění dostatečného chlazení)

V obou skupinách samozřejmě existuje určitá variabilita, kterou lze vhodně využít, ale základní princip funguje takto. Není to o tom, že by výrobce měl jednu hromádku čipů, které zvládají vysoké takty a málo žerou a druhou, která zvládá nízké takty a žere hodně. V ostatním souhlas.

+1
+7
-1
Je komentář přínosný?

A nepletes si to nahodou s ohledem na jednotlive procesy ?
Low power vetsinou maji nizsi leakage oproti high power procesum a take nizsi takty.
V ramci konkretniho procesu je current leak problem a cim nizsi je tim vyzsi vykon lze dosahnout.

Stejny vliv jako leakage ma i teplota uvnitr cipu protoze s rostouci telpotou se exponencialne zvysuje i leakage takze pouzitim lepsiho chlazeni se da usetrit i par desitek watu spotreby na GPU.

+1
-8
-1
Je komentář přínosný?

No tak či tak, pokud se to povede, jak se píše v článku a časem klesne cena o proti úvodně nasazené, bude to ideální karta pro mě ;-) jako náhrada za HD 7950...
Ps: přijde mi zcela logické co píše no-x tj. ty "povedenější" dosáhnou vyších taktů za udržení "zdravého" TDP nebo naopak čipy na o něco nižších taktech o dost lepší TDP/spotřebu záleží na preferencích viz např. CPU od Intelu řady K a U apod.

+1
-7
-1
Je komentář přínosný?

Fury Nano by byl idealni graficky procesor/koncept pro Sony Playstation 5, zvladne 4K nativne, je male a jeho energeticke naroky sou v akceptovatelne rovine, kdyby se Sony ted dohodla s AMD a vydala PS5 s tim ze by tahle konzola rucila i za kompatibilitu 5 generaci her vydanych pro Playstation, za 700€ jak stala pri uvedeni Playstation 3 by jim zakaznici utrhli ruce.

+1
0
-1
Je komentář přínosný?

podle mě nextgen konzole HBM mít budou téměř určitě. Ale čip samotný bude IMHO něco na bázi APU, samozřejmě s navýšeným výkonem.

+1
-8
-1
Je komentář přínosný?

PS4 drti konkurenciu celkom solidne, takze casu na PS5 je este dost. O rok tu mame 14nm grafiky, o 2 roky i 14nm APU a o take 3-4 roky mozno i PS5 s novou architekturou na 14 ci 10nm.

+1
-6
-1
Je komentář přínosný?

uz to tu padlo. Snizeni napeti ma obrovsky vliv na snizeni spotreby a ne tak vyrazny vliv na snizeni maximalni frekvence.

Naposledy jsem tento fenomen testoval na starickem core i7 920

mereno v cpu zatezi vsech vlaken pres hyper pi
low end pasiv grafika - myslim ze to byla nejaka nv6200gt
zdroj fortron bluestorm II 500W
pouzil jsem na to levny zasuvkovy wattmetr od fk electronics

standartni napeti 1,375V pro 2,66GHz - spotreba cca 140W
zvednuti napeti na 1,45V @3,2GHz - spotreba 390W !!
snizeni napeti na 1,25V @ 2,4GHz - spotreba 80W

vykon skaloval naprosto presne s frekvenci...

prepocteno...

20% vykonu navic = 270% puvodni spotreby

nebo taky

10% vykonu mene = 57% puvodni spotreby

(realne to bude jeste mene, protoze se da cekat ze zbytek pc ma nejakou konstantni spotrebu a tady vychazime z myslenky ze cela spotreba = procesor, taky je treba pocitat s tim ze u nizke spotreby ma i zdroj mizernou ucinnost)

Netvrdim, ze to bude s fury nano presne takhle a ze tato cisla jde cekat (core i7 920 je uz dost historicky kousek cpu), ale myslim ze jsem to nastinil celkem dobre. Otazka zni kde se v teto krivce pohybuje aktualne fury x - jak moc to muze byt vyhnano diky vodnimu chladici...

+1
+11
-1
Je komentář přínosný?

Však to úsporné módy se aktivují automaticky pokud to má člověk zapnuté v BIOSu nebo je nějaký důvod ubírat napětí manuálně ?

+1
+3
-1
Je komentář přínosný?

ano... usporne mody v klidu se aktivuji, ale jen v klidu to bude bastit stejne. Efektivita (vypocetni vykon ku spotrebe) v zatezi je uplne jina kdyz to clovek podvoltuje a podtaktuje.

Kdyz vyjdu z predesleho prikladu, tak dejme tomu ze mam na zpracovani ulohu, ktera na 2,66GHz zabere 10 hodin casu. Za onech 10 hodin to spocitam a spotrebuju na to 1,4kWh (10h x 140W)

Pokud stejny ukol zadam na podtaktovany a podvoltovany procesor, tak jelikoz mam o 10% vykonu mene, tak to bude pocitat o 10% dele -> tj 11 hodin. Spotreba bude ale jen 0,88kWh (11h x 80W)

Krom toho... nizsi spotreba -> nizsi teplota -> delsi zivotnost

+1
+5
-1
Je komentář přínosný?

Ano. Havárii takového uvažování bych viděl ve zcela rozdílných výrobních procesech, jakými se vyrábějí CPU a GPU. (CPU = málo rychlých tranzistorů na vysokých frekvencích, GPU = mocinky moc pomalých tranzistorů na frekvencích jen do cca 1GHz).

Ne že by mezi frekvencí, napětím a spotřebou nebyl vztah, ale to konkrétní srovnání kulhá.

+1
+1
-1
Je komentář přínosný?

podvoltovani grafickych karet jsem zkousel naposled u R9 280x a to u OC verze od gigabyte. Podvoltoval jsem o 0,1V a kdyz jsem kartu vratil na jeji referencni frekvenci (OC mela 1,1GHz, reference 1GHz) tak jela v pohode. V tezbe LTC to melo positivni dopad, protoze karty mely nejaky problem s vykonem pokud tam bylo vyssi napeti a s nizsim napetim to jelo proste lepe. Bohuzel vysledky mereni spotreby nemam.

Zmena powertune s tim nesouvisi, protoze powertune pokud vim nemeni napeti, ale jen maximalni proud v zavislosti na frekvenci - nebo se pletu? Ja jsem powertune stazeny pouzival jen kdyz jsem hral nejakou starsi hru, ktera bezela pres 100fps v pohode a nepotreboval jsem takovy vykon karty. Bylo to hlavne z duvodu absence adaptive vsync - to jsem majitelum nvidii zavidel.

+1
+5
-1
Je komentář přínosný?

To je přece úplně jasné že z části gpu bude vypnuté. Jeto běžná praxe jak pro GPU tak pro CPU. Na waferu jsou nejkvalitnější čipi v středu a směrem ke kraji roste riziko chyby. Pokud nějaké části vykazují chybu prostě se vypnou. Počítá se stím už v návrhu aby se kůly chybě části nemusel celý vyhodit. Výrobce ho pak rád prodá jako nižší variantu.

+1
-7
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.