Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Gigabyte potvrzuje 5GHz procesor od AMD, má pro něj desku

A herní výkon horší jak stará I5 2500K na defaultu.... nedej bože kdyby si jí člověk přetaktoval.

Pokud se AMD chce vyšvihnout, ať udělá consumer level socket G34 desku a pořádnej overkill CPU do ní, ten by něco vyhrál, tohle ne.

+1
-7
-1
Je komentář přínosný?

třesky plesky - herní výkon je v praxi úplně stejnej - protože hlavní porci výkonu táhne grafika ;)

+1
-3
-1
Je komentář přínosný?

Jak píše nagger. Podívej se někdy na kapitolky "vliv procesoru na hru" u recenzí her, a pak tady prskej. Od Phenomu 965 nemá smysl prakticky vůbec koukat, nárůst FPS kromě několika pár her rozhodně neodpovídá nárůstu ceny. Zato s lepší grafikou zaznamená takový Phenom daleko větší nárůst FPS, s daleko lepším poměrem fps/cena...

+1
-1
-1
Je komentář přínosný?

Tak napriklad civilizace 5, anno 2070, flight simulator, GTA IV to jsou vsechno hry kde velmi zalezi na vykonu CPU . Ten rozdil ve vykonu na mhz je proste dost velky pro intel a nic s tim nikdo nenadela. Jasne do prumerne sestavy strcim nejake to amd, ale do herni rozhodne intel.
To same u notebooku mam sluzebni dva HP stredni rady 6535 tusim jeden s AMD druhy intel sandy bridge a ten rozdil je proste markantni takze radsi pouzivam ten s intelem.

+1
-4
-1
Je komentář přínosný?

Ano, některé hry jsou více závislé na procesoru než jiné, ale poukázáním na čtyři extrémní případy (když lze jmenovat dvacet s opačnou závislostí) se nic nemění na tom, že v průměru vždy výrazněji vylepší FPS, pokud člověk vrazí o pár tisíc víc do grafiky než do procesoru. Tím samozřejmě neobhajuju smysluplnost hypotetického 5GHz FXka s TDP přes 200 wattů.

+1
-1
-1
Je komentář přínosný?

Ano, investice do grafiky většinou přináší víc výkonu navíc. Já sám má obavu z toho že u mého Sandy i7 @ 5GHz dříve zapracuje RoHS kurvítko na základní desce než že by CPU nezvládalo živit i budoucí GPU, ale i přes to všechno se s limitací CPU setkávám už dnes.
Já k těm případům co tu byly jmenovány přidám třeba skvělý příklad: střílečku Serious Sam 3. Na GPU velice náročná hra (v ní sem i porovnával chování PowerTune vs GPU Boost), ale jakmile se najednou vyspavnuje tuna nepřátel (pokud chcete přesný příklad, tak začátek levelu vykopávka slunce), karta se obrací a pád pod 60fps na třeba 30-40 není způsoben nedostatkem GPU výkonu (na GTX670), ale CPU limitací. A to se bavíme o 5GHz core i7! Takže ano v benchmarcích sice na limitaci moc nenarazíš, ale pak v reálu ano... Globálně tedy sice koupí grafiky ti ve všech hrách stoupne výkon ale také ve spoustě her se některé náročné úseky ani nehnou.

+1
-3
-1
Je komentář přínosný?

To já když procházím Skyrim, tam na mě za každým pařezem spawnuje minimálně 150 skřetů a občas i nějaký ten drak k tomu :o))

+1
-4
-1
Je komentář přínosný?

Jsou hry, kde je vliv CPU vetsi ci velky a jsou hry, kde je vliv temer nulovy. Asi nejlepsi je si projit ty zanry ci tituly, ktere hraji a i podle toho se da zaridit, jestli mi levnejsi AMD bude stacit nebo ne. Viz. napr. PCT, kde se vlivu CPU na hru venuje dost prostoru.

Nicmene si myslim, ze hry, ktere potrebuji velky vykon na jadro nejsou uplne dobre napsane (naprogramovane). Pravdepodobne je potreba velkeho vykonu na jedno jadro, na ktere pak mohou cekat i ostatni, tudiz jedno nestiha a pripadne ostatni se flakaji.

Evidentne je velke mnozstvi her, kde to nehraje roli, takze naprogramovat se to lepe da.

Kazdopadne s i5-2500,2600,3470 atd. se neni treba bat zadne hry. S 8350kou to taky neni tak zle, ale najdou se pripady, kde to nemusi stacit..

+1
-4
-1
Je komentář přínosný?

Problém bude spíše v tom že takové hry mívají optimalizaci na úrovni nula a nebo jsou psané tak že využijí pořádně jen jedno jádro. V horším případě trpí obojím. Musíme doufat že vývojáři se díky novým konzolím naučí psát hry tak aby dostupné železo využili co nejlépe.

+1
-3
-1
Je komentář přínosný?

Myslím, že si to všichni představujete moc jednoduše. Vývojář má určeno čemu, jak dlouho a jak intenzivně se má věnovat.
Nemůže si přijít za šéfem a říct, "hele boss, ten beta-testing odložíme, ještě se chci tak měsíc rejpat v kódu a optimalizovat".

Další věc je, že když hra má vysoké CPU nároky, tak to ještě automaticky neznamená, že je blbě optimalizovaná. Co vy víte, co se tam provádí.
Když by měl být procesor při hraní nevyužitý, proč ho nepotrápit něčím užitečný (fyzika, lepší AI). Ale to už je věc vývojářů.

+1
-7
-1
Je komentář přínosný?

Tak zrovna většina těch Docentem zmiňovaných MMO her opravdu běží na dost zprasenejch enginech, většinou to běží jen na jednom jádru, a využívá prehistorické x87 instrukce. Je potom celekm logické, že na takové hry potřebuješ pretaktovanou i7, aby sis zahrál.... Takže souhlasím s uživatelem nad tebou. Navíc tyto hry opravdu nehraje každý.

+1
-3
-1
Je komentář přínosný?

OK, já neříkám, že ty hry jsou bezproblémově optimalizované (i když to s jistotou ani nemůžeme vědět). Já jen říkám, že to není vina programátorů. Programátor pracuje podle zadání, které bylo sestaveno tak, aby se vyvážil poměr mezi kvalitou, cenou a časem.

Pokud by to měl být výborně optimalizovaný kód, tak by se také mohlo stát, že vývoj hry by se vlekl roky a neúměrně by se prodražil. Je třeba najít kompromis.

A jak jste to myslel s tou instrukční sadou x87? A kde jste zjistil, že hry používají zrovna tuto?

+1
-3
-1
Je komentář přínosný?

Pokud narážíte na to, že místo x87 lze použít SSE2, tak OK. V této oblasti se příliš neorientuji, ale nutí mě to k zamyšlení:
1) Na určité situace může být nasazení x87 výhodnější (ale to asi nebude případ her)
2) Jak často potřebuji x87 instrukci vykonat (u her vůbec netuším)

+1
-3
-1
Je komentář přínosný?

protože hodně z nich je postavena na velmi starých open source enginech, které ve své době běžely na úplně jiných CPU a grafikách a dodatečně dobastlené internetovou komunitou pro online hraní.

Ty hry většinou nejsou vůbec postaveny na míru moderním procesorům a grafikám a díky své neoptimalizaci jsou tak náročné, protože vše se počítá pouze "hrubou silou" na jednom jádru.

+1
-6
-1
Je komentář přínosný?

Tak v tomto případě to asi je pravda.

Pokud je to ale starý engine, tak by neměl být graficky náročný a hra tak bude běhat na "hafo" FPS, takže nějaké optimalizace pro vícejádrová CPU a "nové" instrukční sady budou irelevantní.

Těžko také srovnávat možnosti velkých studií a party nadšenců.

+1
-5
-1
Je komentář přínosný?

x87 je nečastěji spojován s počítáním fyziky (PhysX), 3D lighting
and transform., geometrické výpočty prováděné pomocí CPU (zastaralý engine neumí využít počítání geometrie přes GPU), vertex shader/geometry shader, některé výpočty jsou prováděny přes SSE/MMX.

Právě proto, že to může dělat (skoro) každý,tak to podle toho vypadá...

http://www.dimensionex.net/welcome/

+1
-5
-1
Je komentář přínosný?

tady je celkem rozsáhlý přehled : http://en.wikipedia.org/wiki/List_of_game_engines

+1
-2
-1
Je komentář přínosný?

A co emulátory? Třeba Gran Turismo 4 přes ePSXe, který hodně využívá SSE3/4 o GPU nemluvě. Narazil jsem na to náhodou, ale rozdíl mezi Phenomem 955 a i7 950 je znát na první pohled

+1
-6
-1
Je komentář přínosný?

Jo, testy kde se schválně nasadí 2560x1600 16x AA aby se to zozdilo GPU limitem to znám. Ale pak si člověk chce zahrát MMO, RTS a pod hry hodně rychle zjistí " hele ono to jde mizerně i když vypnu AA a snížim rozlišení" a GPU load pod 50%. Pak to člověk zkusí na overclocknuté I5, kde jsou dvojnásoná min. fps a je jasno.

5GHZ FX je total ujetina kor když FX jako takové blbě škáluje frekvence nad 1,3v (raketovně roste nutná voltáž a spotřeba k dosažení taktů).

Mam tu čest i se serverovym G34 (kterej jde taktovat ačkoliv o tom moc lidí neví) a tam kdyby AMD vydalo 4GHz 12 jádro což by se do tohodle TDP vešlo, tak by si udělala dobrou pověst protože to stačí na předehnání všech i7 a dorovnání 8 jádrového Xeonu (toho nejvyššího), mělo by to quad channel paměti, šlo by do toho narvat až 64GB normal nebo 256GB registered ECC. G34 je dobrá platforma, zralá na high end, ale AMD raději vydá ocnutej FX a lidi budou ještě mít radost. OK, fajn.

+1
-4
-1
Je komentář přínosný?

5GHz FX také neobhajuju, ale ukaž mi RTS, kde se s doujádrovým Pentiem G2020 jako snad nejslabším normálním procesorem nedostaneš nad 30 FPS? Zaprvně každý chce hrát na nejvyšší detaily a zadruhé v RTS ani MMO jaksi nemá smysl nějakých 280FPS jako v CSku, kde díky tomu běháš mikroskopicky rychleji. 30 a víc FPS, reálně tě snad nikde takový Phenom x4 nebrzdí, že by ti nedovolil dostat se na 60 FPS... Nebo uveď příklad.

+1
-2
-1
Je komentář přínosný?

Starcraft 2 ve velkejch bitvách, Civilizace, většina her z TotalWar série, toť příklad z RTS.

U MMO: GW2, Tera, i stará Lineage2 když je fakt hodně lidí, atd, atd.

Z takovejch těch non MMO třeba Skyrim, kterej jede planule na ledasčem, ale když si člověk modne FOV + LOD celé scény a pod tak jdou CPU nároky hodně nahoru.

Tyhle hry maj ale společné jedno a to že jsou bottlenecked tím jednim geometrickym x87 threadem což je bohužel přesně to co FXkům nesedne. To jsou ty hry kde FX8350 je rádo že drží krok s nejlevnější I3kou. Takže 5Ghz FX tam bude vzhledem k ceně a vlastnostem vypadat tragicky.

Ono bude ihmo vypadat tragicky všude. 5Ghz bude stále horší jak ocnutej Sandy bridge. A cena bude větší jak 6 jádrová I7 která to rozdrtí i v multithreadu s mnohem lepší platformou a provozními vlastnostmi. Nevim kam tim AMD míří, nikdo neví, logického kupce to nemá.

Takže asi jen jak prohlásil Flanker, nelogického, ala nejtvrdší fanoušky AMD co si to koupěj do sbírek.

+1
-5
-1
Je komentář přínosný?

V Rome/Medieval/Empire TW jsme hráli s kamarády - On Athlon 64 x2 5400+, druhý FX-6100, já i7-3610QM, až 10 000 jednotek na poli, a nikdo si nestěžoval, že by bylo nehratelné, že by tedy CPU kdovíjak bottleneckovalo. Asi tu mluvíš o opravdových extrémech, masivních číslech. No pokud jde člověk do něčeho takového, tak by měl sestavu přizpůsobit, jak zde bylo zmíněno. Pro klasické SP hraní je cokoliv od 2000 korun dostatečné..

+1
-5
-1
Je komentář přínosný?

To mas marny Docente, tohle je AMD&linux server. Nic jinyho tady nema sanci...

+1
-3
-1
Je komentář přínosný?

ale výdrž má, to se musí uznat :o)

+1
-2
-1
Je komentář přínosný?

S těmahle žvástama je nejlepší jít na novinky případně pctuning :) Najdete tam spřízněné duše.
Tady jsou ještě stále schopni normálně uvažovat, a klidně se zeptejte co má redakce za procesory, myslim ze budete překvapený.

+1
-4
-1
Je komentář přínosný?

Me nezajima, jaky ma redakce CPU. Uplne mi staci precist si par clanku (v pripade nekterych i komentare) a smer tohoto serveru je nad slunce jasny. A to normalni uvazovani je mnohdy ponekud zastineno zeleno-linuxacky-antiApple brylemi. :-)

+1
-5
-1
Je komentář přínosný?

Každý ať si čte to, co mu vyhovuje. :-)

Já tedy radši chodím sem, kde se (přiznejme si to) občas projevuje lehká náklonnost na stranu AMD/Linux/antiApple, než na PCT, kde to bylo do extrémů na druhou stranu - zvláště známá to figurka (OBR), kterýžto na AMD kydal hnuj za všech okolností. Nechápu, že někdo tak zaujatého jedince mohl vůbec zaměstnat či platit. Tedy pokud ho neplatila NV. To je jediné vysvětlení. Jinak ten člověk musí mít nějakou psychickou poruchu..

O druhém extrému ani nemluvě, tam jsem byl jen jednou a to je ještě větší děs. Případ pro Chocholouška.

DIITko je tedy pro mě stále nej(objektivnější). :-)

+1
-4
-1
Je komentář přínosný?

Taky by se mi líbíla deska se socketem G34 a 2ma šestnáctijádry, akorát cena by asi vůbec nebyla lidová, minimálně 40000 za desku+procesory, zájemců by asi bylo tak málo, že by se nevyplatilo něco podobného uvádět na trh.

+1
-6
-1
Je komentář přínosný?

40k je snesitelna cena, to by dalo spousta lidi, otázkou je spis jak by to dopadlo vykonostne v ruznych segmentech SW kde se vyuziji "jadra"

+1
-4
-1
Je komentář přínosný?

Kdyby to mělo třeba osm PCIe ×16, tak se o to těžaři poperou…

+1
-2
-1
Je komentář přínosný?

čau, shodou okolností jsem měl 2x 6272 na testy a není to špatné, pokud mohu shrnu. Ale podstatně zajímavější je nejslabší 16jádro na Pilledriveru, protože má vyšší multiplikaci (efektivitu) jader a také vyšší výkonnost per jedno jádro. Celkově je nárůst z cca CB 13,7 na CB okolo 16 ři stejné spotřebě, což je podle mého dost dobré. A cena je také dost slušná. Ve výsledku je to lepší výpočetní řešení než nejvyšší high end i7 při víceméně podobné ceně... Xeony jsou cenově už mimo...

Ale, spotřeba při max. zátěži (unbias výpočet) 330 W celého stroje při ne úplně vhodné case (serverové supermicro) po cca 2 hodinách.

Vyloženě to sluší v oblasti unbias, kde se využije potenciál více jader, docela slušně to funguje v non unbias typu CINEMA 4D standard, ale lépe to funguje třebas ve fyzikálním engine pro vyšší efektivitu výpočtů (napůl unbias, některé věci jsou, jiné ne). Ve smyslu výkonnosti v unbias se mi jeví relevantnější test na frybench než CB.

Problém jsou některé typy předvýpočtů na jednom jádře, v C4D typicky SaT modul, kde se projeví opravdu nízký výkon na jednom jádře (CB okolo 0,7, nová generace okolo 0,8). Konzultoval jsem výkon v VRay se Stefanem Laubem (VrayforC4D) a i zde to funguje na úrovni někde mezi CB a unbias (fry), při správném nastavení (zejména počtu jader v light cache)

Další limit pro běžné užití je v jendom jádře u editoru, kdy CPU zpracovává data animace, modifikátory, deformátory a většinou na jednom jádře...

Podle mého je Opteron vhodný pro čistě výpočetní stroje, tam je podle mého ve smyslu poměru výkon/cena při dobře naladěném workflow opravdu výhodný/výkonný.

Zajímal by mne výkon opteronů s menším počtem jader, protože mají vyšší frekvence a lze tak anticipovat vyšší výkon na jedno jádro. Navíc míra multplikace se s počtem jader na non unbias postupně snižuje, ale bohužel jsem je nikdy neměl v ruce.

Mé doporučení, kdy určitě ano: Arion/Fry, Indigo, Maxwell etc
+-: Iray (nikoliv nový, myslím starší řadu 2.x), C4D, Vray a pod (netestoval jsem mentalray)
-: efekty per jedno jádro - SaT C4D například, editor a podobně.

+1
-3
-1
Je komentář přínosný?

Supermicro H8DGi-F (2xG34) 9964,-
2xAMD 6272 (2x16 cores) 2x 10512 = 21024,-

Celkem: 30988,- bez DPH (37185 s DPH)
-----------
Jestli ten 5 GHz procak bude mit vice jak 140W, tak to tedy bude pekna haluz...

+1
-1
-1
Je komentář přínosný?

To určitě bude

+1
-3
-1
Je komentář přínosný?

Otázkou je, jak moc limitovaná edice to je. První TWKR Phenomy pokud vím také měly TDP přes 150 W a nemám dojem, že by jim někdo vyčítal příkon. Ty procesory jsou o něčem trochu jiném…

+1
-5
-1
Je komentář přínosný?

Ale phenomy se ve svém TDP také udržely, FXka ne, ty jej přesahují a v plné zátěži throtlí pokud nevypneš C6E a APM master mode.

+1
-3
-1
Je komentář přínosný?

Není to trochu o chlazení?

+1
-3
-1
Je komentář přínosný?

spíš o (ze začátku) zmršeném výrobním procesu a vysokým leakage....

+1
-4
-1
Je komentář přínosný?

Pletete jabka a hrušky. Throttling nemá nic společného s nějakým výrobním procesem, frekvence se snižuje protože teplo. Odkud se teplo bere je podružné. Stačí ho vyndat a je to.

+1
-5
-1
Je komentář přínosný?

a to vyšší odpadní teplo se tam bere z čeho ? :o)))

+1
-4
-1
Je komentář přínosný?

To je snad úplně jedno. I kdybych to nahříval hořákem, pokud to dokážu ochladit, tak to bude fungovat naprosto bez problémů.

+1
-4
-1
Je komentář přínosný?

takže ještě jednou:

původní Bulldozery throtlovaly už na základní frekvenci 3,6 GHz

Vishera na frekvenci 4.0GHz nethrotluje

Totéž platí pro srovnání Iterlagos/Abu Dhabi....

a je to všechno jen díky tomu, že AMD od teď přibaluje lepší chladiče :o)))

+1
-5
-1
Je komentář přínosný?

Myslím, že Behemot nic nenamítá proti tomu, že byl výrobní proces ze začátku zmršený, v důsledku čehož to víc topilo a potom kvůli vysoké teplotě throttlovalo.
Jde o to, že pokud budu procesor dostatečně chladit (vodní chlazení, tekutý dusík, co já vím), tak k žádnému throttlingu nedojde, ať je příkon vyšší nebo ne.

+1
-5
-1
Je komentář přínosný?

Souhlasím, ale chladit prodejní verze Bulldozeru tekutym dusikem asi AMD nikdy nezamyslelo nebo ? To je jako říct, že když do motoru škody oktavia pustím rajsky plyn, tak taky pojede jako formule 1, takže problem vlastne není v motoru, ale v palivu....

+1
-4
-1
Je komentář přínosný?

Jo a dát na TWKR Phenom II box z Athlonu 3000+ aby to začlo throttlovat je vlastně také chyba výrobního procesu, že?

+1
-1
-1
Je komentář přínosný?

potom kdo míchá hrušky s jablky.... Já jsem ještě neviděl žádného soudného uživatele, který není totalní BFU, aby si na OC edice nejvýkonnějších CPU dával box chladič. Pak je asi problém mezi klávesnicí a židlí....

+1
-6
-1
Je komentář přínosný?

Behemot
| 05.06.2013 - 19:36

Otázkou je, jak moc limitovaná edice to je. První TWKR Phenomy pokud vím také měly TDP přes 150 W a nemám dojem, že by jim někdo vyčítal příkon. Ty procesory jsou o něčem trochu jiném…

Neumítě číst, či jste hlupák nebo demagog? Pokud 2. či 3., doporučil bych zkusit to jinde. (tímto vás neposílám do rekta, abyste to špatně nepochopil, ačkoli vám nemůžu bránit, klidně tam běžte jestli chcete, ale na hlupáky ani demagogy si tu lidi moc nepotrpí, tak se tu nebudete mít dobře)

+1
-5
-1
Je komentář přínosný?

moc pěkný pokus jak zamaskovat vlastní hloupost.Jedinou demagogii vidím ve vašem absurdním přirovnání a do rekta si běžte klidně sám i s těmi svými názory !

+1
-1
-1
Je komentář přínosný?

Hm, tak hlupák a demagog v jednom, že já měl zase pravdu…

+1
-6
-1
Je komentář přínosný?

Já jsem tady ale nemluvil o thermal throtlingu z důvodu přehřejvání. FX throttluje bez ohledu na teplotu. Dělá to by default jeho APM master mode kterej dle loadu CPU odhaduje TDP a když by bylo moc začnou jednotlivá jádra throtlovat (chaoticky, jádro 1 a 4 na 4Ghz 2 a 3 třeba na 3,3, atd). Zkuste si to, dělá to jakejkoliv FX na jakékoliv desce když tam spustíte prime 95 small fft třeba. Ty lepší desky uměj ten APM master mode přes bios vyřadit. Ale by default je vždy ON, takže by default FXka throtlujou, a to i ty serverová ( proto tato architektura v serverech failnula ještě více jak v desktopu ).

+1
-1
-1
Je komentář přínosný?

Nebrávalo to v potaz i tu teplotu? Pokud je teplota dost nízká, nemá TDP čemu vadit i kdyby to lezlo na kilowatt. Dále, není to spíš o špatném nastavení Turbo Core nebo jak se ten krám jmenuje? Jelikož 4 GHz nemá v základu žádný BD krom FX-4170 (kde je to ovšem zas 3,8 GHz), scénář co je popisován mi sedí tak na přetaktování dvou jader a podtaktování dvou jiných, což je ovšem celkem propagovaná funkce. Že zrovna na všech jádrech běží stejně náročná vlákna holt způsobí akorát to, že na venek to bude mít stejnou propustnost jak kdyby jela všechna 4 třeba na 3,75 GHz.

+1
-4
-1
Je komentář přínosný?

Ne nebralo, takty padly ihned jak přišla zátěž ještě než se to vůbec zahřálo. Testováno na FX8350 pořád stejné jak za dob zambezi. Já jsem si vždy myslel že je to bug biosu atd. Ale ne, poté co jsem to viděl u serverovejch Opteronů G34 mi teprve došlo že ona je to vlastnost, že ten CPU prostě by default throtluje.

Ono se to děje až při extrémním loadu. Když třeba člověk enkóduje video na všech threadech držej se takty OK, ale prime (i ten starej bez AVX) to vythrotlí hned a to by se ihmo nemělo dít. A nebo by CPU měli dát pravé TDP a nebo pravou frekvenci co nepřekročí TDP. A ne fake 4Ghz a ono to ve full loadu padá na 3,3 eghm...

+1
-4
-1
Je komentář přínosný?

To o čem mluví Zenith jde na vrub biosu, který korektně fungoval snad jen na dražších Asusech (CROSSHAIR V FORMULA,SABERTOOTH), na všech ostatních deskách to CPU throtlovalo a to i přes ruční vypnutí AMP v biosu a ostatních doporučených funkcí. Nefungovalo to na deskách MSI,Gigabyte a na ostatních také ne. Tenhle bug,dá-li se to tak nazvat, postihoval při uvedení Bulldozeru bez vyjímky téměř všechny výrobce motherboardů, kromě zmíněného Asusu.

+1
-3
-1
Je komentář přínosný?

Docente ve full loadu to ani nemohlo jet na 4GHz, protože maximální Turbo jede pouze při single thread operacích a za předpokladu, že jsou ostatní moduly v C6. (tedy za předpokladu, že to nemáš nastaveno natvrdo v biosu). Jinak frekvence většinou osciluje mezi 3,5 -3,7 GHz Bylo to několikrát vysvětleno ....

+1
-3
-1
Je komentář přínosný?

FX8350 má default 4Ghz, nad 4Ghz jsou turba.

Ale jak jsem řekl dělá to i serverová dual socket G34 deska co mám, takže evidentně featura celé architektury.

Musí se to obcházet pře turion power control změnou powerstate případně forcnutím konkrétního na úkor ztráty úspornejch funkcí CPU.

Pokud si to AMD neohlídalo ani v serverech tak je to featura, ne bug. (ona taky BD architektura v serverech zatím failnula ze všech AMD architektur nejvíc) Navíc když jsem to vyřadil tak jsme v loadu pokaždé naměři odběr daleko nad TDP CPU, i s odpočítáním odběru desky.

+1
-10
-1
Je komentář přínosný?

já vím, ale ty mluvíš už o další generaci Piledriveru, Behemot i já se bavíme o Bulldozeru.

Vishera ani AbuDhabi už tímhle netrpí co vím.

+1
-4
-1
Je komentář přínosný?

Ano trpí. To čemu ty říkáš "bug biosu" je featura. Trpí tím i některé FM2 ihmo. Jen early desky s rannými bioy (a ono i dost těch dnešních) neuměly vyřadit APM master / C6E takže to tam nijak nešlo obejít a bylo to na vrácení peněz.

Zkus si to, Pilediver je na tom naprosto stejně jako BD, téměř jakákoliv deska to bude dělat. Jak jsem řekl odvíjí se to od loadu CPU, bez ohledu na takty či voltáže či teploty či reálnej odběr. Toto je jakejsi BD TDP throttling, neni to thermal throttling jakej se děje třeba na GB deskách s jejich mizernou napájecí kaskádou, to je něco jiného a taky se to chová jinak.

+1
-4
-1
Je komentář přínosný?

Tak mám Trinity půl roku na Asrock Xtreme 6 v kombinaci DDR 2400 a tak jak to popsujes se to nechová. Možná se to děje na nějakých levných deskách, nevím nezkousel jsem tudíž nemůžu hodnotit. Je jasné že se zapnutým AMP bude vždy frekvence ocilovat mezi nějakými hodnotami, ale to je naprosto v pořádku. Pokud chceš staly takt, tak si ho musíš nastavit růčo...

+1
-4
-1
Je komentář přínosný?

Neni to v pořádku protože za A - je to klamavá reklama prodávat CPU s 4Ghz base a up to 4,4 turbo když v praxi při full loadu padá až k 3,3Ghz. Za B: By default je to on a jen u menšiny desek to jde úspěšně vyřadit.

Na Intelu tohle neexistuje tam i ve full loadu CPU jede vždy o 1 turbo bin naopak nad svou base frekvencí, u Haswellu dokonce 2 biny.

U AMD to začalo s FX architekturou, Phenomy byly OK.

+1
-4
-1
Je komentář přínosný?

Nechci Vás chytat za slovo, ale to by asi trochu problém byl, jelikož Šáde nebyla na tento druh PHM navržena. Bulldozer bude pracovat pod dusíkem v pohodě.

Netvrdím, že někdo bude provozovat tento procesor stále pod tekutým dusíkem. To jsem zmínil jen jako příklad.

Pokud bych si 5 GHz Bulldozer koupil a on throttloval, tak bych tam dal na procesor nějakou pořadnou Noctuu, případně udělal v case lepší průvan.
Pokud by ani to nepomohlo, musel by přijít na řadu vodník, pokud bych chtěl, aby CPU nethrottloval.

Tím chci říct, že kdo si takovou 220W obludu koupí, ten bude muset počítat s pořádným chladičem a ne s nějakým půlkilovým chcípáčkem.

+1
-4
-1
Je komentář přínosný?

Jo protože na takové CPU jako je Centurion si dá box chladič jedině totální trotl...

+1
-6
-1
Je komentář přínosný?

Vsichni tady zminujete hry, ale jaksi se vytratily zminky o serverech... a v tomto pripade nabizi AMD lepsi reseni uz jenom diky ECC radici v techto desktopovych CPU; nebo diky opravdu vicejadrovemu zpracovani (zadny hypershitting).
Intel ECC nabizi az u Xeonu, a takovou kombinaci predrazenych CPU+desek odmitam.

+1
-6
-1
Je komentář přínosný?

Takovy lidi jsou nejlepsi... ohaneji se ECC, nizkou efektivitou HT, predrazenosti ale pro jistotu (v ramci boje za oblibenou znacku) uz neuvazuji dalsi fakty:

1. intel ctyrjadra s HT jsou stejne rychly/lepsi, nez AMD s 8 "skoro jadry"
2. neni problem koupit 4c/8t xeon do socket 1155 (1150) za dokonce nizsi cenu, nez bezny i7
3. xeon ma polovicni spotrebu

+1
-5
-1
Je komentář přínosný?

Nechce se mi to zase hledat, ale nejake servery jsme staveli a AMDcka vychazela pri srovnatelnych parametrech vyrazne levnejsi nez Xeony. A dat za jeden server (placnu) 50 nebo 100 tisic je proste rozdil a ani tech par desitek wattu, co zerou Xeony mene ten rozdil nedorovna. Zvlast kdyz v serverhousech platite za elektriku v takovych malych diferencich to same.

Uplne bych netvrdil, ze Inteli 4+4HT je vykonejsi nez skoro AMD 8core. VMWare napr. doporucuje vypinat HT, protoze to nekdy dokonce muze zpomalovat. Takze pak jede plne 4 core proti skoro 8 core a to je velky rozdil ve prospech AMD. Zalezi samozrejme na konkretnim pouziti.

V serverech se nehraje na nejvyssi frekvenci nebo vykon na jadro, spis na celkovy vykon a cenu a oboji ma zde AMD (na rozdil od desktopu) dost konkurenceschopne.

+1
-3
-1
Je komentář přínosný?

Roxx: Záleží kolik toho odebíráte a jak moc jste pro dodavatele významný partner.

Kdyby byl ten nepoměr cen tak razantní, jak říkáte, asi by většina serverů jela na AMD. Kdo si objednává server/servery, ten si to dokáže dobře propočítat.

Zkuste se po tom podívat, protože střílení od boku toho moc neřekne.

-----------
Samozřejmě pro některé úkoly může být AMD CPU výrazně vhodnější. Ale to už má kupec zjištěné.

+1
-7
-1
Je komentář přínosný?

Servery nejsou moje parketa, takze o tom se prit nebudu. Tady bylo spis mysleno pouziti do "domaci" workstation. Cena vychazi dost podobne - Xeon E3-1230V2 (5568,-) + ASUS P8C WS (4636,-) vs FX-8350 (4685,-) + ASUS SABERTOOTH 990FX R2.0 (3825,-).

HT zalezi od aplikace, nektere z nej tezi, jine ne. Intel ma jadra o hodne silnejsi, takze i bez HT neni moc pozadu. V domacich aplikacich je FX8350 (8c/4GHz) zhruba nastejno s i5 3350P(4c/3,1GHz). Takze na takove to "domaci serverovani" nemusi byt maly xeon vubec spatny.

+1
-5
-1
Je komentář přínosný?

HT? To je dobry vtipek hned po ranu :-)))))

+1
-4
-1
Je komentář přínosný?

Serverový procesor s 220W TDP by bylo trochu moc, ne?

Chápu, že je lepší, mít nějakou funkcionalitu a nepotřebovat ji a nic za to nepřiplácet, ale opravdu ECC potřebujete? Při domácím používání si takovou situaci nedokážu představit.

Řekl bych, že kdo potřebuje ECC, tomu se i ten Xeon zaplatí. Když by chtěl ušetřit a koupil by desktopový procesor (byť s ECC), tak by stejné musel počítat s řadou omezení (počty SATA portů, žádné SAS porty, pouze jeden socket).

Pro to mizivé procento těch, kteří ECC skutečně potřebují, ale zároveň nevyžadují některé funkcionality serverových CPU a chipsetů, tak to může skutečně přinést zajímavé úspory.

Kdo si staví/objednává server a nebo pracovní stanici, tak asi nebude blbý a zvolí si to, co potřebuje.

Být Vámi, tak bych se tak kategoricky nevyjadřoval k HT. Minimálně z toho důvodů, že také předpokládám, že u Intelu nepracují idioti a HT tedy má smysl.

+1
-6
-1
Je komentář přínosný?

EDIT: ECC musí podporovat také základní deska. U Intel platformy to jsou desky s chipsetem X79, X58, atd... A možná, tím si ale nejsem jistý, to podporuje Asus u všech Intel desek.
Takže si uživatel může koupit standardní desku s X79 chipsetem a k tomu Xeon (za který si už ale bohužel připlatí). Ale stejně musí počítat s omezením desktopového chipsetu. Pokud potřebuje uživatel čtyřkanálový paměťový řadič, tak z desktopu mu zbývá pouze zvolit X79.

V připadě Xeonů do socketu 1156, 1155 a 1150 a Opteronů do socketu C32 není rozdíl mezi cenou jejich desktopových protějšků a cenami základních desek tak brutální.

U AMD platformy má podporu ECC (pokud vím) pouze ASUS (a občas se objeví i několik málo jiných desek), což někomu nemusí vyhovovat.

----------------

Pokud budu využívat velké množství paměťových modulů, tak budu muset zřejmě mít registered nebo fully-buffered moduly, na což jsou úplně jiné RAM-sloty a to podporují pouze Xeony E5 a E7 a Opterony do socketu G34.

+1
-5
-1
Je komentář přínosný?

U Intelu je nabidka desek s cipsetem Cxxx velmi omezena, dalsi "desktop" desky pro Intel nepodporuji ECC. AMD podporuje ECC v patici AM2 a vyssi (mozna i nizsi).

Zapomnel jsem pri mem prvnim dotazu zminit to, ze ne kazdy stavi nebo resi server pro "cloud" a jine monstrozni sluzby, ale obcas (casto) resim male servery, kde je vhodna efektivita a spolehlivost, v neposledni rade(az na prvnim miste) cena!

A mimochodem, proc velka vetsina kupuje servery Intel? Ja jsem se setkal s tim, ze to proste kupuji proto, protoze to je "in". Marketing ma Intel zvladnuty opravdu dobre.

+1
-3
-1
Je komentář přínosný?

Co Vám konkrétně u těchto desek chybí? Ale OK, pokud by Vám to nevyhovovalo, můžete vzít něco na platformě X79, které ECC také podporují. Ale tím se samozřejmě připravím o možnost připojení pomocí SAS.

Pokud to má být server na nenáročné použití, tak nechápu proč je tam potřeba ECC. Doma mi běží starý PC jako datové uložiště, download server a RADIUS server pro WiFI. Jede na Intel i5 650, na GIGABYTE desce a se standardními 2 × 2 GB 1333 HMz RAM Kingston, OS Debian (bez GUI) 6.4.9 64 bit (plánuji přejít na verzi 7) Uptime 138 dní, jede bez problému, zatím žádný pád.

Pokud potřebuji z nějakého důvodu mít větší záruku spolehlivosti, tak raději sáhnu po Opteronech nebo Xeonech.

Nepředpokládám, že by větší prodeje Intelu byly dány marketingem. Kdo kupuje server, ten to má asi dobře rozmyšlené. Nebude to laik, který by se nechal zblbnout pár pěknými grafy a líbivou prezentací.

Firmy by asi jen tak bezdůvodně ty dražší servery s Xeony nekupovaly. Vím jak jsem musel ve firmě bojovat, aby koupili switche Catalyst místo Small Bussiness. Když se vybíral nový server (doména, exchange, RADIUS server, interní web, ...), tak se vzal dražší server s Xeony bez větších námitek.

+1
-6
-1
Je komentář přínosný?

ECC nepredchazi jenom padum systemu ale take vzniku chyby, kterou nebudete schopny zaregistrovat. A to v prikladu maleho databazoveho serveru muze mit fatalni nasledky pro uzivatele. Napr. jsem resil server pro vetsi mestskou tiskarnu s databazi tiskovych predloh, ktera nevyzaduje extra vykon ale prave tu provozni a datovou spolehlivost..... Statisticky chyba pri praci nad urcitou mnozinou dat v pameti proste jednou za cas vznikne, tomu ze nevyhnete.

Ucastnil jsem se jako clen komise nekolika vyberovych rizeni prostredku/serveru pro urady nebo jine instituce. V komisich sedi lidi, kteri nevi co to je zkratka CPU atd, nabidky posilaji firmy i jednotlivci, kteri sroubuji cenu na maximalni strop a v tomto je reseni "Intel" pozehnanim.

+1
-2
-1
Je komentář přínosný?

Tak jistě. Pouhou detekci chyby zvládne i parity RAM.

Já jsem zastáncem toho názoru, že pokud to firma potřebuje pro podnikání, tak se ji to zaplatí. A ta jistota, že to opravdu pojede za ty prachy stojí.

Něco jiného je veřejný sektor a něco jiného je firma.

+1
-5
-1
Je komentář přínosný?

U Gigabyte je podpora ECC a IOMMU u vsetkych AMD9xx "UD" dosiek pricom plati, ze aj 970-UD3 ma nastavenia ECC ako Sabertooth+ od Asus-u. Rovnako je u GB aj oficialna podpora Opteron 32xx (Kto by ich vsak kupoval...). Asus ma u lacnejsich dosiek (M5A97/99x) len magicke "Auto" nastavenie.
U starsich dosiek od Gigabyte to nie je pravidlom (aj ked v kazdej serii sa nejake podporou ecc nasli). Dovodom je podla mna nelukrativnost AMD v "small server", takze vyrobcovia umoznili serverove nastavenia +pridali BIOS support aj doskam, ktore by ho za inej situacie nemali.

U intelu nie je problem, ze by ziadne desktopove CPU nepodporovali ECC > i3(dokonca Pentia) v doskach s Cxxx podporuju unbuffered ECC RAM (az na nejake vynimky), takze za "nefunkcnostou" ecc v desktopovych doskach by som hladal cosi ine :)

+1
-3
-1
Je komentář přínosný?

G34 má úplně normální sloty a jdou v něm normální DDR3, ECC unbuffered a také ECC registered. FB-dimm moduly ne. Vim to protože ho mám.

+1
-6
-1
Je komentář přínosný?

Cele mi to zacina pripominat legendarni posledni kartu od 3DFX - Voodoo 5 6000. Ctyri GPU, jejichz vykon stal za pendrek, na jedne karte s neuveritelnou spotrebou a jeste neuveritelnejsi cenou. 3DFX o nekolik mesicu pozdeji zbankrotovalo.

+1
-5
-1
Je komentář přínosný?

No comment...

+1
-4
-1
Je komentář přínosný?

Měl jsi jí že můžeš říci že stála zapendrek? :)

Já jo a můžu říct že ve své době to byla jednoznačně nejvýkonější a nejvyužitelnější karta. Nejvyšší hrubej výkon, podpora glide, jediná karta s dostatkem výkonu pro 4x AA, atd.

+1
-5
-1
Je komentář přínosný?

Glide bylo opravdu super, je škoda, že ho v nepředělali na nativní 32bit color rendering ještě v dobách kdy to rozhraní mělo nějaký jméno a velkou rozšířenost napříč herním světem.... To mohl být velký trumf 3dfx.

+1
-6
-1
Je komentář přínosný?

Těžko, 32-bit rendering uměla až Voodoo5. A tam Glide3x 32-bit umělo. Starší verze glide2x neuměla ale zase tam byla ta zpětná kompatibilita. Nicméně, 3DFX byla death než se 32-bit rendering začal používat, protože GF3 byla tak první karta kde měl smysl, předtim to byl moc velkej performance hit. Voodoo5 sice měla menší propady výkonu v 32-bit než Geforce, ale stále tam byly.

Zajímavější byly spíš DOF, motion blur, atd. Realizované Tbufferem, 4 roky předtim než s tim přišli jiní. Ale podporoval to co vím jen Quake 3A předprodukční verze, z finální to bylo odstraněno protože si to Nvidia zaplatila.

To samé první Halo. Je vzadu na krabici Voodoo5, pro koho bylo asi vyvíjeno. No, nakonec to shrábnul MS pro svou konzoli.

On crash 3DFX byl celkem fast a nečekanej, měsíc předtim, možná i tejden by nikdo neřekl že se to stane.

+1
-4
-1
Je komentář přínosný?

interně zpracovávaly obraz v 32-bit hloubce všechna Voodoo karty, už od Voodoo 1, ale výstup mělly pouze 16-bit (případně 22-bit)

+1
-5
-1
Je komentář přínosný?

Eh takhle se to říci nedá. Voodoo1 o 32-bit ani nezavadila. Rovněž komplet celá scéna se dávala dohromady v16-bit, protože kdyby ne, nestačil by fixní framebuffer. Kterej velikostně odpovídal pro 16-bit. Největší výhoda voodooček byla v tom že jejich TMU nezpůsobovaly zelenavej nádech a měly mnohem kvalitnější ditehring než konkurence. Takže jejich 16-bit vypadalo prostě mnohem lépe. Interně 32-bit nerendervoaly protože kdyby jo tak proč ne i 32-bit out že? + Ten výkonnostní propad mezi 32 a 16 bit.

22-bit out šel vynutit u Voodoo2, problém ale byl že to zase pak nezvládal ramdac a při vyšších rozlišeních a obnovovačkách to nedával.

+1
-7
-1
Je komentář přínosný?

Much was made of Voodoo3 (as Avenger was christened) and its 16-bit color rendering limitation. This was in fact quite complex, as Voodoo3 operated to full 32-bit precision (8 bits per channel, 16.7M colours) in its texture mappers and pixel pipeline as opposed to previous products from 3dfx and other vendors, which had only worked in 16-bit precision.

To save framebuffer space, the Voodoo3's rendering output was dithered to 16 bit. This offered better quality than running in pure 16-bit mode. However, a controversy arose over what happened next.

Voodoo 3 spec: Cutting Edge 3D Feature Set
Optimized Direct 3D accleration
Optimized OpenGL Support
Designed for Glide 3.0 acceleration
Complete DirectX 5.0 and DirectX 6.0 support
100% hardware triangle setup
32-bit internal graphics pipline
2 texture-mapped, lit pixels per clock
Single pass multi-texturing support (DirectX 6.0 and OpenGL)
Square and non-square texture support
TextureBlend support
Point-Sampled, Bilinear, Trilinear Mip-mapping
Multi-texture
Bump Map
Texture modulation
Light maps
Reflection maps
Detail textures
Environment maps
Procedural textures
Per-pixel perspective-correct texture mapping
Fog: Exponential Fog Table
16-bit floating point depth buffer
8-bit palletized textures

Někde o tom mluvil přímo i Scott Sellers, když se poukazovalo na pouze 16bit barevný výstup u 3dfx karet...

+1
-3
-1
Je komentář přínosný?

Voodoo graphic a Voodoo 2 ale uměly jen 16-bit :

6.12. Does the Voodoo Graphics (tm) do 24 or 32 bit color?

No. The Voodoo Graphics (tm) architecture uses 16bpp internally. This
is true for Voodoo Graphics (tm), Voodoo Rush (tm) and Voodoo 2 (tm)
alike. Quantum3D claims to implement 22-bpp effective color depth with
an enhanced 16-bpp frame buffer, though.

6.13. Does the Voodoo Graphics (tm) store 24 or 32 bit z-buffer per
pixel?

No. The Voodoo Graphics (tm) architecture uses 16bpp internally for
the depth buffer, too. This again is true for Voodoo Graphics (tm),
Voodoo Rush (tm) and Voodoo 2 (tm) alike. Again, Quantum3D claims that
using the floating point 16-bits per pixel (bpp) depth buffering
provides 22-bpp effective Z-buffer precision.

+1
-4
-1
Je komentář přínosný?

Na voodoo2 se fakt dá zapnout ten 22-bit out. A jhe to vidět, třeba menu v UT má pak téměř dokonalé přechody barev. Ale když máš 2 karty v SLI tak už to pak ramdac nedává. Při 16 bit dává 1024x768 85hz max. Ale když dáš ten 22 bit out tak jen 60hz, nebo 800x600 85hz.

U voodooček se to taky těžko srovnává jedna proti druhé, protože všechny měly jinej obraz, citelně jinej. Voodoo2 ho měla nejvíc plochej, nesaturovanej. Voodoo1 takovej průměr, banshee ho měla nádhernej, Voodoo3 podobnej banshee. Voodoo5 zase jinej. Takže se těžko dá říci která byla lepší. Na voodoo2 šel vynutit ten 22 bit out ale ačkoliv tam byly plynulejší přechody tak Voodoo1 měla stále lepší obraz kvůli větší saturaci (která u žádné z těchto karet nešla SW ovládat).

Takže uuughm, ono na tom vlastně nesejde. Sejde na tom jak to ve finále vypadá.

+1
-6
-1
Je komentář přínosný?

vtip je v tom, Voodoo 3 klidně mohlo podporovat 32bit barevnou hloubku, kdyby to 3dfx považovalo za důležité. Vnitřně na to byla renderovací pipeline připravená. V té době přece jenom ještě Glide pořád mělo velmi dobrý zvuk a pokud by už tehdy umělo 32-bit nativně, mohlo to jeho životnost o dost prodloužit imho a možná pomoct 3dfx....

+1
-5
-1
Je komentář přínosný?

Jistě že to nebylo důležité, byla to jen marketingová feature. Hlavně u rivy TNT 32 bit barva a up to 2048x2048 textury.... která se tam vešla 1 do celé Vram protože ten čip nepodporoval jakoukoliv kompresi textur a ani paletized textures.

32-bit začalo bejt podstatné až když na něj byl výkon, a to bylo 2- 3 generace po Voodoo3. Kor kdy byl 16-bit kvalitou OK. To že na Radeonech byl superhumus a na Nvidiích docela humus nneznamená žese muselo jít rovnou do 32-bit, spíš měli zapracovat na kvalitě. Nehledě na to že kvůli tomu jak byly slow tak Nvidie prováděly binilear dithering v Q3A i když lověk zapnul trinilear.. ale hey podporujem 32-bit že.... ach jo. To samé AGP trexturing, atd. 3DFX měla herní featury co k něčemu byly, Nvidia tunu prolhaného marketingu a zazobanců co jim věřili (včetně uplacenejch magazínů, 3Dmarků, atd.). Nvidii se prostě nedá odpustit že vyrostla na podvodech lžích a marketing-only featurách.

3DFX si za svůj konec ale stejně mohlo samo. Nikdy nebyli v situaci kdyby prodávali málo, vždy na tom byly lépe jak dnes třeba AMD. Vždy byly jednička (několik let po sobě) nebo těsně dvojka a to neprodávali low end takže co prodali něco stálo a něco vydělalo. Jedinej defakto fail byla až Voodoo4 ale ta už byla jen hřebíčkem do rakve. 3DFX peníze prošustrovalo a promrhalo. Defakto se zlikvidovali sami a jak blesk z čistého nebe. Tam je jen škoda že dělali nejlepší HW a je vždy špatně když na trhu zbyde někdo kdo fakt nemá nejlepší HW ale přežije kvůli marketingu. Ihmo ten kapitalizmus co nám přináší pokrok že....

+1
-5
-1
Je komentář přínosný?

Uvadet neco tak neefektivniho na architekture ktera je v porovnani s predchozi slabsi(na jadro) o 15-20% je naprosta volovina. Kdyby doted prodavali 2, 4 a 6 jaderne Phenomy II na 32nm procesu lepe by udelali jak delaji prave dnes!, dokonce se odvazim tvrdit ze mohli vydat klidne i 8 jaderne verze a stale by to bylo lepsi jako tohle 5GHz hovado ktere je pro trh nicim, prodat par set kousku firmu z cernych cisel nevytrhne a klidne se muze stat ze to bude posledny klinec do rakve, meji ale stesti ze 3 divize hracich konzol budou uzivat prave cipy Radeon, prave ta ATI zachrani divizi AMD jejich holy krk. Chce to uplne zamest architekturu Bulldozer pod prach a zacit vylepsovat/vyvyjet na predchozi K10.5, presne tak i Intel vytvoril svou slavnou Core, zobral architekturu PIII Tualatin, pripojil P6, pridal instrukce z Pentii 4 a k tomu nove technologie a ola mame tu spolenost jejiz procesory valcuji AMD uz od roku 2006. Ja nevim bud sou tak tupi v AMD ze nevidi realitu nebo nema skutecne lidi ktere by ji pomohli, inu kdyz vidim jak vyprodavaj sve budovy a vyrebni komplexy ani se nemuzu divit ze nevidim vyrazne vylepseni, moloch AMD saje vsechny zisky sve graficke divize Radeon a jenom to ho drzi od toho aby ho nakonec nekoupila NVIDIA nebo treba nekto dalsi kto chce hrat tez housle na poli x86.

+1
-4
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.