Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Haswellová socka

Kolik to papalo s tou kartou v beznem provozu?

+1 +1-1 Je komentář přínosný?
Obrázek uživatele David Ježek

kolem 40W...

+1 +1-1 Je komentář přínosný?

A pane Ježek bral jste v úvahu i účinnost zdroje? 23W a 40W totiž může být účinnost 0,6PF a 0,80-0,85PF (nevím co máte za zdroj). Na měřácích se pak skutečná spotřeba občas objevuje jako hodnota VA. Stačí se podívat i na odběr A ze zásuvky a spočítat V*A. Rázem zjistíte, že i s tou ext.grafikou to bere ze zásuvky stejné Ampéry jako bez ní.. Jak to?? Že?

+3 +1-1 Je komentář přínosný?

Takže ten pokles příkonu na polovinu je podle vás čistě fiktivní? Nebo tvrdíte, že když ručně změříte proud před zdrojem a vynásobíte ho napětím před zdrojem, dospějete k lepšímu (nebo vůbec jinému) výsledku než měřicí přístroj přímo k tomu navržený nebo počítající ještě lépe? Nebo co se vlastně snažíte říci, abyste nebyl sám se sebou v rozporu?

-2 +1-1 Je komentář přínosný?

Jestli jsem to pochopil správně, snaží se naznačit, že zdroj při tak malé spotřebě má tak zoufalou účinnost, že nakonec žere víc, než kdyby tam ta karta byla.

To je samozřejmě smysluplná úvaha, pokud o zdrojím víte kulové, a vycházíte jen z toho, že účinnost se zhoršuje směrem od doporučovaného výkonu. Jenže to se neděje lineárně, dokonce ne nutně ani monotónně, takže zdroj může mít při 40W dodávaného výkonu horší účinnost, než při 23W.
Pokud trochu tušíte, jak ty zdroje fungujou, tak se takovými nesmysly zaobírat nemusíte :)

+2 +1-1 Je komentář přínosný?

No ale problém je v tom, že pan Ježek zřejmě měřil spotřebu *před* zdrojem (mnohem více lidí má vybavení, schopnost a/nebo ochotu měřit tuto spotřebu než její alternativu). Vaše interpretace problému by dávala smysl v případě, že by měření proběhlo *za* zdrojem, jehož neznámá účinnost při daných provozních podmínkách by zneplatnila aplikovatelnost tohoto měření na skutečně účtovanou spotřebu.

Zdroje spínané i lineární jsme měli na FELu myslím v předmětu Teorie obvodů 2. Je to už dlouho, přiznávám. Tehdy jsem měl ale za jedna.

Jinak ta hypotetická situace, že by se při snížení spotřeby *zvýšila* spotřeba zdroje, se mi jeví jako patologická. Nenapadá mě mechanismus, který by funkci spotřeby v závislosti na odběru učinil nemonotónní.

+1 +1-1 Je komentář přínosný?

PF = PowerFactor nema s ucinnostou nic spolocne. Predpokladam, ze ked meria Watty, ma na to vybavenie. Presnost beznych consumer meracov je zrejme biedna, ale na ucely porovnia uplne dostatocna, no nie?
Neprehanajme to s presnostou, toto nie je vedecka praca. Bezneho usera aj tak zaujima to co zaplati - a to je prave to "PRED" zdrojom. A myslim ze to co odmeral plne zodpoveda realite

+2 +1-1 Je komentář přínosný?

Ano, já samozřejmě vím, že účiník a účinnost jsou dvě různé věci. A pokud si to přečtete znovu, tak si jistě také všimnete, že já je do juxtapozice nedal.

+1 +1-1 Je komentář přínosný?

sry - reagoval som aj na "Libor Míšek" - co sa tyka PF a ucinnosti

+1 +1-1 Je komentář přínosný?

Tak snad se jednou dockame toho, ze vyrobci zdroju nabidnou bronze a silver varianty i pro vykony do 250W. Zatim mam pocit, ze to vse smeruji do 800+W.
Sam stavim spise usporna PC a neni z ceho vybirat (picoPSU nepocitam).
Muzete mi neco doporucit? A ma vubec smysl to resit?

BTW, vlastne me mrzi, ze se nevratily "AT style" zdroje. Tedy (pro nepametniky) zdroje, ktere posilaly elektrinu jeste do monitoru. Na celou sestavu byl jeden privodni kabel do zasuvky. Nikdo uz prece doma nema CRT (pouze zanedbatelne procento). Na kancl-PC by to prece smysl melo: cele PC ma nizkou spotrebu, HDD jsou nahrazovany SSD, mame usporne CPU, grafika je integrovana, LCD monitor take ma mensi spotrebu nez CRT, atd. Nebo mi neco unika?

A pro stouraly, proc chci nejaky supr-dupr zdroj pro blby kancl-PC? Protoze to, ze uzivatel nema extra pozadavky na vykon neznamena, ze nema pozadavky na klid a ticho pri praci. A nechci to resit to hlucnymi komponentami nacpanymi v (dost drahe) kvalitni skrini a odhlucnovat to v ni. Vodnik je samozrejme overkill.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Heron

Tak existují průmyslové zdroje (pasivní), ale zase nemají potřebné konektory.

<em>BTW, vlastne me mrzi, ze se nevratily "AT style" zdroje. Tedy (pro nepametniky) zdroje, ktere posilaly elektrinu jeste do monitoru.</em>

Do dnešních panelů by se ani nemuselo posílat 230V, ale rovnou 12V nebo kolik. Některé monitory se stejně napájí externím zdrojem a i ty s interním 230V konektorem tam mají vlastní DC zdroj (většinou poměrně křáp). Ostatně i další komponenty jsou většinou napájené (dneska už třeba i z USB) 5V nebo 12V, takže by stačil jeden zdroj (ten v PC) pro napájení všech věcí na typickém kancelářském stole.

+1 +1-1 Je komentář přínosný?

Co si to udělat ještě zajímavější a přestat používat monitor? Všichni ho používají a vy přece kráčíte opačným směrem. Jsou to další ušetřené desítky wattů! Jako ostřílený redaktor přece zvládnete napsat, zkontrolivat a vypublikovat článek i po slepu ne? A kdyby náhodou ne, bude tu přinejlepším o pár sockoidnich článku méně.. :)

+5 +1-1 Je komentář přínosný?
Obrázek uživatele Hrdina

Bude jaro, Dava upgraduje směrem do krabice )))

0 +1-1 Je komentář přínosný?
Obrázek uživatele Hrdina

Bude nějaký videjko?
"Vítejte u dnešního boxingu, dnes si zabalíme.... aaaa, copak to tu máme, krásná voňavá jen rok stará kartička, ještě se jí mrskají větráčky ))) šup s ní do igelitu ))) Tvl. fakt, Lukáš Pavlásek - Řidič Ávie )))

+1 +1-1 Je komentář přínosný?

V práci mám notebook s 2 jádrem i5 Skylake (nepamatuji si přesně model), kterému dávam docela dost zabrat, a dovedl bych si představit mít něco rychlejšího. Doma mám obstarožní FX-8300, který plánuji vyměnit za Ryzen 7. Ani u jednoho z těchto případů si nedovedu představit jet na nějakém Pentiu/Celeronu apod.

Ač s autorem naprosto nesouhlasím a jsem zastánce rychlejších PC (částečně také proto, že občas si ještě něco zahraju), nejde jinak než ho chápat.
Každý má jiné potřeby. A ano, pokud autor píše články, nějaká dedikovaná grafika je mu k ničemu. Pokud děla jinou kancelářskou práci, ta grafika je opět k ničemu, atd.
K čemu by mu byl 500$ R7 1800X s třeba tou 1080Ti, které sice v klidu nežerou tolik, ale stále více než velmi nevýkonné CPU s velmi slabou grafikou? Už jen pořizovací náklady jsou oproti tomu levnému celeronu astronomické.
Díky za jiný pohled na způsob používání PC, pane Ježku, se kterým se však naprosto nedokáži ztotožnit. :-)

+6 +1-1 Je komentář přínosný?

tak jmenovaná Pentia ušla pořádný kus cesty - a tehdejším dodnes hodně oblíbeným i5 Sandy Bridge poslední generace na Kaby Lake hodně dýchá za krk.

+2 +1-1 Je komentář přínosný?

Tento článek by potřeboval jazykového korektora.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele TyNyT

Tento "článek" by potřeboval smazat. To už není ani blog o nějakém názoru, to je prostý plynný výměšek trávení.

Davidovi doporučuju psát o fototechnice, nebo začít překládat zahraniční newsky, protože tohle je už fakt monotematická (socka-grafika-skyrim) ostuda i na blogýsek. Příště budeme rozcházet Skyrim na papírovém počítači z ABC?

+12 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

Náhodou, papírový počítač z ABC byl bomba dělo, na který byl každý benchmark krátký ;))) Takový výkon jako si jeho majitelé představovali že má, by nedal ani Ryzen 17 Ultra Black Gaming Edition ;))

+2 +1-1 Je komentář přínosný?

Ja pamatuju prvni ABC pocitac..byl to algorytmus "pristani na mesici" ;)

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Hrdina

Já jsem zjistil, že nejvíc ušetřím, když se nebudu umývat )))

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Ryzen nedává Intel ani v Quake2: https://www.youtube.com/watch?v=oMNFoNtKCR8

-2 +1-1 Je komentář přínosný?

@TyNyT

Řekl bych, že článek splnil účel výborně. Kolik pak tu nakonec bude komentářů? Kolik diskutéři zobrazí reklam?

+3 +1-1 Je komentář přínosný?

Kéž by pouze plynný, to by za chvíli rozplynulo a rozfoukal to vítr, ale tohle se nerozplyne...
Jediná utěcha je, že za ty výměšky nechtěj platit...

+2 +1-1 Je komentář přínosný?

Tolik extrémů v dnešním světě. Jednomu nestačí 60fps@fullhd a druhému je líto i trocha té elektřiny navíc, která je spojena s mnohem lepší hratelností. Když už hraju, tak chci určitou minimální technickou úroveň. Když už jím maso, tak nechci hnusný, podřadný, rozemletý hnus, to raději snížím spotřebu masa nebo budu vegetarián. Taky mě fascinuje, jaký jsi fajnšmekr v oblasti optiky fotoaparátů, ale hrát oblíbenou hru v shit kvalitě ze zcela iracionálních důvodů ti vůbec nepřijde divný, přitom je to tak trochu příbuzné. I kdybych hrál jenom Half Life 2, tak bych tam tu geforce nechal...

Petice za to, aby Urchin nepoužíval slovo „socka". Kdo souhlasí, dejte mínus.

+3 +1-1 Je komentář přínosný?

> ale hrát oblíbenou hru v shit kvalitě ze zcela iracionálních důvodů ti vůbec nepřijde divný,

Dle mych zkusenosti, je to tak nejak vlastnost spousty lidi (vseobecne, ne jen hry vs foto).

+1 +1-1 Je komentář přínosný?

Většinou z finančních důvodů, ale když už tu kartu mám?! Perfektní příklad jak se může z extrémního asketismu stát plýtvání. Je to jako odmítnutí dobrého jídla (i když mám hlad), které kvůli tomu skončí v koši.

+7 +1-1 Je komentář přínosný?
Obrázek uživatele Jan Forman

Uvažoval autor vůbec nad spotřebou té GeForce 750 TI v režimu bez zátěže? Při normální práci se totiž bude pohybovat mezi 2-5 watty. Fakt to má smysl? Autor zjevně vypouští to, že většina dnešních komponent se prostě podtaktuje a běží tak většinu času dokud nespustí třeba 3D hru apod. Proto jsou také kladeny dneska takové nároky třeba na zdroj, protože pracuje ve velikém rozsahu odběru od 50W po 400W například a to ve zlomku sekundy. Asi nechci počítač, na kterém se všechno plazí... Přitom rozdíl ve spotřebě bude skoro nulový! Použití intel grafiky sice chápu - kancelářské PC, ale pokud člověk chce občas pustit něco "náročnějšího" nedává to už smysl.

+1 +1-1 Je komentář přínosný?

Pokud se negamesí, tak integrovaná grafika stačí skoro na všechno. Na té v i5 Skylake klidně stříhám video v Premiéře, HDMI+DVi výstup to taky má.

+2 +1-1 Je komentář přínosný?

tohle by me celkem zajimalo, jaky presne mate procesor? zkousel sem na notase i5 strihat, ale je to bolest :-) nove Ryzeny se mi hodne libi a chtel bych po dlouhe dobe zase podporit AMD, ale uprimne, ja tu grafiku taky nepotrebuji. hry nehraju vubec a novy procesor chci jen kvuli amaterskemu strihani videa. kdyz si k ryzenu prictu nejakou rozumnou grafiku za 4000, kterou stejnak nevyuziji, tak jde cenova vyhoda Ryzenu nekam a mohl bych rovnou koupit drazsi intel.

+1 +1-1 Je komentář přínosný?

i5-6400. Stříhám v tom ale na starší CS4. Třeba mají novější verze větší požadavky. Stříhám v tom navíc v podstatě "zpravodajsky", tedy bez mnoha efektových vrstev. Dřív jsem používal Nvidia karty, i když nějakou nižší verzi typu _50.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Step

To je spíš otázka software, protože některé "klenoty" se sotva naučily vyhledat a použít 2. jádro. Lepší nástroje využijí s přehledem 18 jader i grafickou kartu (OpenCL, Cuda nebo Intel Quick Sync Video) pro renderování náhledů, exporty, konverze apod. Značně se zvýší uživatelský komfort a celkový výkon.

+3 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Jenže když použijete věci jako OpenCL na GPU, CUDA, NVENC či QuickSync, prasíte tím kvalitu, což se u CPU renderingu/encodingu neděje. Záleží samozřejmě na use case.

GPU > chci to hodně rychle nevadí mi malá ztráta kvality
CPU > chci to kvalitně, počkám si

-1 +1-1 Je komentář přínosný?
Obrázek uživatele Step

Nikoliv, jde pouze o chápání významu použití grafické karty. Na výslednou kvalitu výstupu se dopad grafické karty neprojeví, protože je v plné režii (kvalitě - render & encoding) procesoru. Grafickou kartu a její výkon se využívá během produkce, např.: renderování náhledů při provádění změn a aplikaci efektů. Značně se ušetří čas. Od náhledu opravdu neočekáváte špičkovou kvalitu výstupu.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

V takovém případě je to OK.

-2 +1-1 Je komentář přínosný?
Obrázek uživatele Jan Forman

Bacha na to, každý si "amatérské střihání" představuje trošku jinak pro jednoho stačí notebook, druhý potřebuje 16 core Xeon + nvidia Titan X a pořád má dost málo a nadává, že to musí běžet přes noc.

+1 +1-1 Je komentář přínosný?

Asi bude problém ten notebook. Zatiaľ čo on má i5-6400, tak vy nejaký i5-6200U, ak nie niečo staršie. A tam je už rozdiel v celkovom výkone (všetky jadrá) skoro dvojnásobný. Ono totiž i5 v notebookoch má 2 fyzické jadrá (+ HT) a desktopovcé i5 4 fyzické jadrá a tiež beží na vyšších frekvenciách, keďže nemusí tak šetriť energiu ako ten notebookový procesor.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Step

Za předpokladu, že notebook dokáže udržet alespoň základní frekvence procesorů (ULV) v delším časovém úseku. Mobilní 4 jádrové procesory (Core/Xeon) jsou téměř výhradně záležitostí pracovních stanic, běžné se osazují chcípáci i7-6600U (2C/4T) u kterých se výkonem, resp. dlouhodobým výkonem, příliš nepočítá. Koneckonců i starší i7-3540M (2C/4T) vykoná zadanou práci za podstatně kratší čas (bez snížení taktu). Render se chová lineárně a virtuální vlákna (HT) logicky nejsou stejně silná, naneštěstí jen opravdu malá část uživatelů skutečně renderuje surové video.

+2 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Velmi často mají notebooky či "ultrabooky" jak tomu hipsteři říkají smutné low-voltage dual-core CPU jako třeba i5-6200U, chlazení je špatné a tak se atakují teploty někde mezi 90-100°C, CPU masivně throttluje, ale hlavn že je to jako tenký a lehký ne asi.

Zlatý ThinkPad W530 s i7-3720QM co se uchladí i v max zátěži a bez throttlingu.

0 +1-1 Je komentář přínosný?

Dal jsem ti plusko ;)
Ultrabooky maji svoji krasu..hlavne, pokud je mas tahat s sebou. On ten rozdil 1kg a velikosti je dost znat, pokud clovek lita cely den nekde. CLovek od toho nesmi ocekavat "pracovni" stanici, ale i to se dneska uz docela dat, treba s Dell XP 15 a vahou 1,80kg se 4Corem + dedikovanou grafikou.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Jenže XPS 15 má naprosto hroznou klávesnici, touchpad, špatné chlazení, špatnou portovou výbavu a nemá trackpoint, dokovací ethernet a tak podobně.

To budu raději tahat něco jako ThinkPad X220/X230, který má nějakou výbavu a dá se na tom něco dělat.

Vlastně i maličký ThinkPad 13 je ergonomičtější než XPS 15. Navíc tu máme nespolehlivé bazmekoidní USB-C/USB3.0 doky, které jsou dražší než legacy doky.

0 +1-1 Je komentář přínosný?

> Při normální práci se totiž bude pohybovat mezi 2-5 watty

4 Watty : https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/23.html

..a celych 6 wattu pri prehravani videa! A to se panecku oplati! Usetrite asi 2Kc rocne... Moje HD7950 zere v idlu 12 wattu, zacinam premyslet ze ji vyhodim... /s

+4 +1-1 Je komentář přínosný?
Obrázek uživatele David Ježek

Jak píšu výše, ono je to ~23W s intel IGP a ~40W s gtx750ti. A jelikož mi PC běží prakticky nepřetržitě, tak ano - chvilka sockoidního počítání - je to nějakých řekněme 700kč ročně navíc za elektřinu :-).

+4 +1-1 Je komentář přínosný?

Tak! Halíře dělají talíře!
Dodneška vzpomínám jak jsem přecházel z externí GeForce4 MX 440 AGP 8X na grafiku integrovanou v Sandy Bridge a jestli vůbec bude stačit mým kancelářským nárokům. Přece jen extra grafika je extra grafika ;-) a intelí integrované grafiky byly ostouzeny na kdejakém webu jako zcela nedostačující pro jakýkoliv účel.

+3 +1-1 Je komentář přínosný?
Obrázek uživatele Jan Forman

On ten segment dost postupuje, rozhodně to není na běžnou práci zlé (mám v několika strojích). Na druhé straně pokud ten výkon nárazově potřebuji - to šetření nedává, smysl čas je vzácný a máme ho vymezený svojí smrtí => je tedy natolik drahý, že nechápu proč bych se měl zlobit s pomalým strojem, jehož spotřeba je na úrovni žárovky.

+3 +1-1 Je komentář přínosný?

Od dob GMA3600 a 4500MHD jsou intelí grafická jádra plně postačující na všechno z běžné práce i na hraní leckterých starších her. Spotřeba samozřejmě také rozhoduje, ta je naprosto relevantní argument. Osobně jsem to vyřešil tak, že mám dva počítače - jeden levný na práci, s intel grafikou a malou spotřebou, na něm trávím 95 procent času (samozřejmě myšleno z času stráveného u počítačů, ne absolutně), na hry které občas hraji a na které nestačí ten levný, opráším (tak jednou za půl roku) ten druhý a pár hodin odehraji. Tento druhý počítač zároveň slouží částečně i jako zálohovací, vzhledem k tomu že běží opravdu jen minimálně je to ideální.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Tak určitě, jakože nepodporou DX/OpenGL standardů, hrozným výkonem i ovladači? Pamatujete třeba na HD3000 z generace Sandy Bridge? DX11 podpora na papíře, OpenGL 3.3 nepodporováno, nekonzistentní výkon a hrozné ovladače.

Až Intel HD4000 v Ivy Bridge je použitelné Intel GPU, ale i tam Intel prasí ovladače, s latest ovladačem např. přestanou fungovat tři monitory.

0 +1-1 Je komentář přínosný?
Obrázek uživatele Jan Forman

700 korun je např. hodina práce, pokud by to PC zdržovalo, začne se extrémně prodražovat... např. za rok by to mohlo dělat naprosto nechutné peníze.

+4 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

...a pro jiné je 700Kč (v čistém) např. taky den práce, že ? Ale je fakt, že odpojovat kvůli tomu grafiku kterou už vlastním, když si chci občas trošku zahrát, mi nepřijde už ani jako ježkárna, to je prostě békárna ;)

+5 +1-1 Je komentář přínosný?
Obrázek uživatele Jan Forman

Bojím se dalšího článku, v kterém bude zmínka o tom, že ta integrovaná grafika občas v něčem drhne, ale jelikož se nebojí si počkat, není to problém.
Sám používám kdejaký šrot, ale vždycky je to spíš "když už se to koupilo a neomezuje mě dojedu ho".
Pokud ještě tu 750TI dá do šuplíku, tak je to vlastně strašně neekologické.

+3 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

A já se naopak těším na další článek, ve kterém David zjistí, že je ta integrovaná grafika pro jeho potřeby příliš výkonná a bude zvažovat, zda to řešit pilkou, pájkou, nebo kleštěma na stříhání drátu ;)))

+3 +1-1 Je komentář přínosný?

Mozna ty, ale nekvalifikovana pracovni sila (novinar na volne noze, nemam na mysli zadneho konkretniho :-D) dostane za hodinu brigady co by manual leckde i 50Kc, takze na 700Kc uz se docela nadre. Nicmene i tak je fakticky usetreni na spotrebe elektriny za rok 700Kc opravdu pakatel, ktery by nikdo normalni neresil.

0 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

Děkuju náčelníku, že si se mě zastal :)))))))))))

+1 +1-1 Je komentář přínosný?

17W rozdíl? To je v Linuxu?

-1 +1-1 Je komentář přínosný?

Nič v zlom. Ale fakt by ma zaujímalo o rok vaše vyúčtovanie elektriny a či budete mať ten preplatok 700 czk. Mimochodom, po predchádzajúcich šetriacich kúrach by ste už v tohtoročnom vyúčtovaní mali mať slušný preplatok. Nepochválite sa prosím?

+1 +1-1 Je komentář přínosný?

A to este Jezek zrejme ani netusi, ze ked by odmontoval genericku sprchovu hlavu v kupelke a nahradil vysokotlakovu, moze usetrit pri sprchovani az 40% vody, co moze robit rocne 2 az 5 tisic za celu domacnost. ;)

+1 +1-1 Je komentář přínosný?

2-5W? Naměřený rozdíl je 17W - spotřeba klesla takřka o polovinu ;)

+1 +1-1 Je komentář přínosný?

Aaaaano, a mame tu dalsi clanek na tema "ja neco nepotrebuju, tak to nemam / tak jsem se toho zbavil"
TVL!!!
To jako fakt? Nejde mi o to, ze o tom napises clanek - ale napsat na toto same uz asi DESATEJ clanek, PORAD TEN SAMEJ?
WTF ? :-O
Tohle uz mi prijde vazne jako nejaka forma "psychickeho problemu" a ted to nemyslim nijak hanlive.
Ok, tak jsi nam to rekl jednou, pak pro jistotu podruhe...ze kdyz neco nepotrebujes, tak to nechces....no ok, tak uz to vime.Ale proc nam to proboha cpes 2x mesicne stale dokola?
V tom jako spatrujes nejakou pridanou hodnotu, ktera nas ma nejak obohatit?

+7 +1-1 Je komentář přínosný?

Když ti to dere nervy, tak Ježka nečti.
Naopak si na něm cením, že když vlastní pílí zbohatl na burze, tak se z něho nestal konzumní rozežranec, ale pořád má na paměti, z jakých chudých poměrů vzešel a počítá s tím, že večer jde spát jako milionář, ale po nočním krachu na burze se probudí jako žebrák. Takže případný pád zpět do chudoby ho nebude tak bolet a nehodí si to jako ostatní burziáni, kteří nevystačí s málem.
Potažmo jeho články na tyto téma jsou velmi poučné do života a rád ho čtu.

0 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

On jen rád provokuje a přesně takové reakce, kterou jsi teď například předvedl ty, mu dělají velkou radost.
Přímo ho vidím, jak s nadšením v neděli odpoledne popíjí zlevněnou Jihlavanku z Tesca a projíždí přes mobil s Firefox OS sloužící jako USB modem jeho JežkoDesktopu(C) rychlostí 32kbit/s (no co, má po FUPu a data si přece jako správný ježek přikupovat nebude) tuhle diskuzi a náramně se baví.

Tak mu to přejme. Já mu to přeju ;)

+3 +1-1 Je komentář přínosný?
Obrázek uživatele Jabba

Davide až tu GF 750Ti ponesete do sběrného dvora k řádné recyklaci, dejte vědět do kterého přesně a na kolikátého to plánujete. Přibližná hodina by se taky hodila, ať tam zbytečně netvrdnu ;))

+2 +1-1 Je komentář přínosný?

Hodně málokdy se vyplatí vzít to nejlevnější. A ten Celer vzhledem k vydání Pentium Kaby Lake s 4T bych si nekoupil ani za pětistovku. To je nejlepší počin v lowendu který se Intelu povedl a prakticky vydrtil prodeje AMD čipů dříve tak oblíbených v tomto segmentu. Co jsem koukal tak je vyprodáno jen na ALze byly poslední dva kusy, tak jsem hned jeden objednal do rekonstruovaného sekundárního počítače. Za ty prachy nemá konkurenci.
Grafiku si nechám starou (730GT s 1GB DDR5) ale příští měsíc na ní taky dojde, asi za 470 tku za 5Kk. Tu starou snad ještě za litr prodám, jde o hodnotnější LP verzi. A tenhle stroj s 8GB RAM musí vydržet minimálně další tři roky, max se přidá další modul s RAM.
P.S: nestačil by panu Ježkovi třeba mobil do docku s výstupem na monitor? To by žralo ještě méně :-))

+2 +1-1 Je komentář přínosný?

"A ten Celer vzhledem k vydání Pentium Kaby Lake s 4T bych si nekoupil ani za pětistovku."

Jasně, a nám, co jsme nějaký ten stroj kupovali minulý rok, skvěle pomohla při výběru křišťálová koule. ;)

+1 +1-1 Je komentář přínosný?

nj, chce to mít štěstí na čekání... Já jsem doteď vydržel v druhém pc s Q6600 na stock. Pořád jsem váhal dokud se neobjevilo tohle Pentium, protože ceny za i3 jsou přestřelené a tolik peněz se mi do pc co slouží vlastně víceméně jen o víkendech dávat nechtělo. A necelých 1600Kč za dvoujádro s HT už je dobře akceptovatelné. Ty Celery jsou podle mě vhodné tak do terminálů nebo striktně jednoúčelových strojů. Do normálního domácího pc, byť pro nenáročného člověka je to pořádná brzda.

+1 +1-1 Je komentář přínosný?

Tak jsem si to taky precetl. Proti gustu zadny disput ;)
Intelovske grafiky jsou fakt dobry jako zakladni zobrazovadla + video akcelerace. Pokud to nekomu staci, tak super. Jinak hrat bych na tom fakt nechtel ;)

+1 +1-1 Je komentář přínosný?
Obrázek uživatele He3lix

Poslední odstavec je z celého článku asi nejlepší (Intel má velmi dobré procesory, navíc v poslední generaci doprovázené kvalitními GPU), to je prostě pravda. To musí uznat snad každý, komentáře ohledně ceny si odpuste, je to prostě tak, AMD je v tuto chvíli šípková růženka, po pěti letech se probudí a princ jí hned dá do ruky švihadlo a říká "skákej mrcho", to asi jen tak hned nepůjde, ale až se tu objeví nové APU (skyrim na full) a RYZEN 5 (ty 6-jádra se budou jinak krmit a chovat, o tom žádná), tak pak bychom se teprve mohli bavit o nějakém konkurenčním boji.

+2 +1-1 Je komentář přínosný?

S GPU částí v procesoru si dovoluji nesouhlasit v kontextu Haswell - v APU A10 je značně kvalitní a výkonná. No a protože jsem si chtěl pořídit takovou malou vývojovou stanici (v prosinci 2016) s příležitostným hraním(kvalitní GPU v procesoru podmínka), tak jsem porovnával A10 se Skylakem i5 a pořád APU v GPU části vyhrálo(při srovnatelné ceně sestavy, ač jsem musel oželet Mini ITX formát desky, to pro AMD vyšlo nějak draho).

+1 +1-1 Je komentář přínosný?

> při srovnatelné ceně sestavy

Asi tak... Intel ma GPU schopna konkurovat AMD A10, jen je furt cpe do nesmyslnych CPU jako i7 kde je nikdo v zivote nepouzije, a do i3 / i5 kde by se to prave hodilo, cpe ty pomalejsi GPUcka. I kdyz se mi zda ze uz im zacina dochazet co za kolosalni blbost to je...

+3 +1-1 Je komentář přínosný?

Ono i v těch i7 je to takový nepoměr - výkon GPU k výkonu celého kusu. Ale celkově souhlasím a doufám, že licencování ze strany AMD místo NVIDIE tomu pomůže.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele TyNyT

s kvalitou Intel GPU hluboce nesouhlasím. Stačí mít vícero displejů a blikání, glitche apod. jsou na denním pořádku. Já od kancelářského zobrazovadla čekám velmi málo, ale tuhle vlastnost odpustit nedokážu.

+3 +1-1 Je komentář přínosný?

Konecne!!!
Konecne nekdo rozumnej, kdo ten Intel opravdu nekdy na tom pocitaci mel.

Podle me bud Jezek zase chlastal a celej tenhle clanek je vyplod choreho mozku z opilosti nebo tu za tyden je clanek, jak se ta Intel grafika neosvedcila.

Ne, neni pravda, ze je Intel grafika sama o sobe nekvalitni, problem je v ovladacich, ty Intel nedava a nic horsiho asi na PC nikdo, kdo to kdy musel pouzivat, nespatril. Ale je to jedno, jestli za to muze hardware nebo na hovno ovladace, vysledek je stejny, neda se to pouzivat.
Jel jsem na Intel GPU ze Skylaku pod Windows a neco opravdu strasneho, to nerozchodilo ani rychle zmeny obrazku v XnView, nastesti uz mam GeForcku, takze ted uz je to OK.
Ale Intel GPU z Ivy Bridge jsem pouzival i na linuxu, nakonec jsem se celeho pocitace radeji zbavil, sice pravda hlavni duvod bylo systemd, ale intelacke vymastene ovladace grafiky k tomu take prispely!

+2 +1-1 Je komentář přínosný?
Obrázek uživatele Much Doge

Jak jsem psal výše, Intel GPU jsou často dost hrozná, jak HW tak SW. Vlastně ta SW podpora je hrozná i v enterprise segmentu, jen BTJ si myslí, že je to jinak.

+1 +1-1 Je komentář přínosný?

kto nema aspon 8 jader ako by nezil, informacny bezdomovec

+2 +1-1 Je komentář přínosný?

Když to berete tahle, PC vůbec nepotřebujete. Na psaní textů a koukání na internet, přehrávání videa, prohlížení fotek ... stačí androidí/linuxová krabička s odběrem 3-5W. Výkonnější věci můžete dělat někde v cloudu a na terminál dostávat jen obrázky. Za výpočetní výkon platit on-demand, jen když to používáte.

+6 +1-1 Je komentář přínosný?

Používam pretaktovali i7 kaby Lake, na druhom PC Ivy bridge.

Integrovaná grafika by bola ok, keby zvládala 2k rozlíšenie cez dvi. Žiaľ MB mam bez dp.

Tak používam radeon 4350 a 5450 za cenu obeda. Su výborne, lebo sú pasívne chladené.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Heron

Hned na počátku přiznám, že pojem socka je mi dost proti srsti. Ale asi v obecnosti chápu, co má označovat.

Co ale nechápu je smysl těchto cvičení. Pokud má někdo hluboko do kapsy, ok, nechť používá starý HW a rád si přečtu o tom, jak pro takový stroj optimalizovat různé úkony, které člověk dělá. Znám pár takových lidí, kteří z minima vytěží překvapivě hodně a vlastně je to baví. Proč ne. Je to ekologické a ekonomické chování.

Čemu ale nerozumím je cvičení s vyměňováním hw (low end za low end) s cílem "ušetřit" za elektřině. Sám jsi napsal 700Kč ročně, ok, kolik stála ta výměna hw a za jak dlouho se to tedy vyplatí? Toto mi v článku trochu chybí. A nepřipadá ti jako konzumentismus neustále vyměňovat hw? I tady by mi připadalo logičtější využít stávající hw tak dlouho, jak to jen bude možné a "nekonzumovat" neustále nový a nový.

A nebylo by rozumnější, pokud to má být například komp pro kancelářskou práci a psaní textů, si pořídit třeba něco jako RPi? (Nebo Orange, to by mělo být levnější a výkonnější.) Je to ještě levnější, žere to ještě méně a pro kancl práci to má výkonu dostatek. (Jen s tím Skyrimem by to bylo, pravda, horší.)

+4 +1-1 Je komentář přínosný?

Nebo postarší zachovalý notebook.

On si prostě chtěl jen zkusit, jaké to je fungovat s integrovanou grafikou. Ale proč to nezkusil ještě před tim, než koupil dedikovanou, je mi záhadou...

+2 +1-1 Je komentář přínosný?

Tento "článek" je důkazem toho, že pan Ježek si prostě sepisuje během dne své myšlenkové pochody a pak s tim ze záhadného důvodu oblažuje internetovou veřejnost.

+2 +1-1 Je komentář přínosný?
Obrázek uživatele WIFT

Chtěl jsem napsat, že jsem se svým Core i3-550 Clarkdalová socka, ale uvědomil jsem si, že to jedu v desce, která má P- čipset, takže k tomu mám Radeon HD 6670.
Ale už na tom pracuju, hodím to jednou do virtualizace na serveru, který jede na Celeronu 1037U a ušetřím spotřebu celého PC ;-).

+1 +1-1 Je komentář přínosný?

Tak a od Jezka je klid, uvidime kdy prizna, ze Intel grafika byl hluboky omyl, ale pocitam, ze se par dni neda a bude "opravovat" PC, protoze intelacke ovladace na grafiku dokazou jednomu radne zamotat hlavu. Clovek proste neveri, ze je neco takoveho mozne a ze si to Intel dovoli, ale je tomu opravdu tak, ovladace na Intel GPU jsou smejd. Zlaty AMD, chtelo by se rict, zlaty AMD a jejich APU!

+1 +1-1 Je komentář přínosný?

Právě jsem si říkal jestli se nezbláznil, Intel grafiky jsou totální shit a ovladače to ještě násobí.

+1 +1-1 Je komentář přínosný?

Tak trochu si lže sám sobě. Lepší Intely i7,i5 jsou pro něj zbytečně moc, gf750ti má pro něj taky moc výkonu. Z toho mě plyne, že nejlepší by bylo nějaké to AMD APU. A10 má určo výkon nejrychlejších i3jek a Skyrim jsem viděl, že na tom jede tak akorát i ve fullHD na vysoké detaily nebo na střední s hodně fps. Asi nějaká zaujatost vůči AMD, jinak by si koupil tu 65W A10ku s konfigurovatelným TDP na 45W (switch v BIOSu) a parádně by mu to pokrylo potřeby, přitom by se mohl cítit stále sockoidně i green, přesně jak to má rád. Ale to ne, musí mít Intel, pozér to je, nic jiného :-). Je to jako Iphone. Socky, manageři, prostitutky, hipsteři - každý se tváří že je něco jiného, ale ten samý telefon mají všichni. Intel a Nv je v PC to samé. Ježek je mainstreamovější než si myslí

+3 +1-1 Je komentář přínosný?

Mám tento kousek: AMD A10-7860K Black Edition(bez taktování a boost mám vyplý, paměti 2133) a jedu na tučňákovi, jak jinak. Skyrim jsem ještě na tom sice nezkoušel, ale otestuju(Mesa 17 + OS driver AMDGPU + wine staging 2.3) :)

+1 +1-1 Je komentář přínosný?

Podle detekce skyrimu se to škubalo - né moc, ale mě to vadí - FullHD, 8xAA, 8xAF mix středních a vyskových nastavení, vypnutý odraz oblohy. Upravil jsem to na FullHD, 0xAA, 4xAF, sřední detaily a zapnutý odraz oblohy a jede to OK.

+1 +1-1 Je komentář přínosný?

To je fakt síla.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Xspy

Nejede Ježek v Linuxu ? ....Já jen že drivery jsou AΩ v podobných DODO systémech a to co platí v tomhle buildu , může být příště přesně naopak :/ .....

+1 +1-1 Je komentář přínosný?

Jo, Jezku hod si to.

Predkompilovany do balicku mas trochu funkcni ovladace jen pro Fedoru a Ubuntu.

https://01.org/linuxgraphics/downloads/update-tool

Jinak hezky zdrojak a jedes ... :-D

+1 +1-1 Je komentář přínosný?

Moje PC s 35W i7 6700T a Nano baští ve hrách 154W a hraju v 3440x1440, zdroj je 500W gold. Kdybych měl 14nm geforce, bylo by to ještě méně. Jde o to, že si můžu stále kvalitně zahrát i s malou spotřebou a nemusím se omezovat na hloupý skyrim ve mizerném rozlišení jak tu píšete.
Pokud přeci jen občas zapínáte byť jen hloupý Skyrim, není haswell grafika pro Vás. Počkal bych na nějaké entry level Ryzen APU se sníženou spotřebou kde dostanete jak solidní CPU, tak GPU výkon a GPU ponese nejnovější featureset na videa atd

+1 +1-1 Je komentář přínosný?

Ono ani neni potreba to APU od AMD, ikdyz osobne se na ty nove RyZen Mobile tesim kvuli notebooku. Jezek mel nechat toho Celera G1840 co ma a nechat tam tu GTX 750Ti. Spousta lidi to tak ma a je to levne, ma to nizkou spotrebu a je to pouzitelne, neni duvod nic vymejslet. Jenze to by nebyl Jezek, aby do toho nezacal stourat a nevymyslel tu nejhorsi variantu, kterou mohl.

+1 +1-1 Je komentář přínosný?

Já teda nevím, co v tom blogu čtete. Podle mě na tom David Skarim nehraje, jen prostě otestoval, jestli to půjde nebo ne a konstatoval, že ne. Stejně tak i s tou 750 kou mohl najít hru, která na tom není hratelná. Jestli už moc nehraje (graficky náročné hry) , tak mu Intelí grafika v pohodě stačí, zvláště, když fotky upravuje v temné komoře.

+1 +1-1 Je komentář přínosný?

A kvuli tomu, že se nedá na Intel grafarnach hrát ve vyšším rozlišení, což tak nějak víme asi všichni, bylo treba dělat humbuk.

+1 +1-1 Je komentář přínosný?

Ne, ja tento nazor naprosto odmitam, zil jsem jak pod Windows tak pod linuxem nejakou dobu s Intel grafikou a bylo to peklo. Tak trochu prehanim, dalo se s tim zit, sice dost problemu, ale zase ze by to nebehalo vubec to ne. Jenze tady ten ... (nevim jak ho nazvat, abych neurazil), ma doma GTX750Ti a jde ji dat do krabice s tim, ze Intel staci. To je nesmysl a sam to pozna. Intel se da pouzivat, pokud nejsou penize na nic jineho nebo jako nouzovka, ale pokud mam kartu od NVidie nebo AMD, tak je nesmysl ji nepouzivat!

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Step

Neposoudím váš problém, ale nemohu se ztotožnit s první částí. Monitory doma i v kanceláři připojuji přes dokovací stanici - port replicator a žádný z popsaných problémů nemohu potvrdit. Ať to by starý Lifebook E743 s HD4000 (Core i7-3540M), tak i nový Lifebook E746 s HD520 (tragédie i7-6600U). Doma navíc využívám sdílení monitoru (Nec Display Sync Pro) mezi notebookem a stolním počítačem. Divil byste se, kolik problémů s DSP vyprodukují dedikované karty (např.: shodí prováděné úlohy a přejdou do úsporného režimu po přepnutí). Naštěstí používám Quadro M2000 (dříve Firepro W5000), které těmito problémy netrpí. Problémy nepotvrdím ani v případě P530, které obsahují stanice Celsius W550 (Intel Xeon E3-1245v5) a několik jich tady je i v 3 monitorových konfiguracích (panely Fujitsu P).

S druhou souhlasím v plném rozsahu

+1 +1-1 Je komentář přínosný?

skyrim hraju na core2 duo

+1 +1-1 Je komentář přínosný?
Obrázek uživatele 0xB800

Pane Ježek opatrně s takovými šoky. Po ránu se koukám na diit rss kanál. Nadšeně klikám, říkám si že jste začal konečně hrát nějaké "lepší" hry a pak se dozvím, že jste se zbavil výkonné grafiky a začal používat integrovanou. Chcete mě mít pak na svědomí ;-) ?

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Martin Kukač

O čem že je celá tahle diskuse? V PC novějším než cca 2005 jsem nikdy neměl dedikovanou grafiku a vždycky ty počítače naprosto bezproblémově fungovaly, takže zač přesně se tu teď Davidovi spílá?

+2 +1-1 Je komentář přínosný?

Také nechápu tuto diskuzi. Ať si ti chlapečci opruzují na článcích o herních počítačích ... tam se můžou bít v prsa. Byly doby, kdy jsem stavěl obrovské a nadupané herní mašiny ... samozřejmě nataktované co se dalo. Ale jak jsem dostával rozum, ubíral jsem na plynu. Nyní přátelům stavím malá PC s APU procesory nebo s procesory přímo na ITX deskách. A kupodivu to stačí ... žere to málo a svojí práci to udělá.

0 +1-1 Je komentář přínosný?
Obrázek uživatele Step

Měl bych to chápat jako další generalizaci? V kontextu dění vyznívá reakce dost neseriózně. Nemusím být hráč, abych si našel věcný důvod pro nákup dospělého šesti jádrového Intelu, výkonných disků a relativně drahé karty (Firepro/Quadro), ačkoliv se jedná o domácí počítač, který nevydělává. Vašim přátelům si stavte co chcete, ale nemoralizujte a necpěte nám "jak jste dostal rozum", protože nikdy nevíte, co ten či onen dělá.

+3 +1-1 Je komentář přínosný?

Ja osobne za to, ze nas pravidelne zasobuje clanky na jedno a to same tema, a to zni: Ja neco nepotrebuju, tak jsem si to nekoupil.
Pravda, ted pribyl clanek na tema : Ja neco nepotrebuju, tak jsem to vyndal z PC

Oooo, jak objevne ...

Prirovnal bych to k tomu, kdybych psal co 14 dni na automobilovy web clanek na tema : Ja nepotrebuju Mercedes, tak jsem si koupil Skodovku.
A po 10 clankach bych to inovoval na : Tak jsem zjistil, ze nepotrebuju ani Skodovku, staci mi elektricky skutr.

Ano, to je mozne...a? Fakt mi na tom neprijde nic objevneho, proste nekdo nepotrebuje grafickou kartu, pac nehraje hry, tak si ji nekoupi...

+1 +1-1 Je komentář přínosný?
Obrázek uživatele John Doe

Pokud David Ježek preferuje Intel před AMD, kokain nebyl příliš kvalitní.

+1 +1-1 Je komentář přínosný?
Obrázek uživatele ados

To ja jsem se ted placnul pres kapsu a udelal si rados s 4k Samsung 40KU6400 semi-hdr VA telkou s 8bit panelem a nativnim kontrastem 3000+:1 na misto monitoru s podobnym 1080p panelem a zitra dorazi GTX 1070 nahrazujici moji 3 letou GTX 760, a k vykonu jim dopomahej Haswell i5 4670k na 4GHz 8GB ram a 1TB ssd.. :-D Btw stary dobry Battlefied 2 z roku 2005, ktery nedavno vstal z mrtvych a servery jsou opet plne je ve 4k na 40 palcu hracka orgie, si pripadam ze podvadim, neuveritela klarita, vsecky ty typky s full HD a 24-28 palcu vidim drive a je to killfest a to jsem zacinal hrat na 15" CRT pred vice nez 12ti lety! Skoda ze GTX 760 neumi 4:4:4 ve 4k 60hz. Jenom 4:2:0 pres HDMI. Nejdrive jsem chtel Polarise 480, ale taky 150W GTX 1070 je vesmes o 1/3 vykonejsi a tech 64 Rop, no uz slintam. :D

+2 +1-1 Je komentář přínosný?

tych 8GB RAM je dufam preklep :D inak fail

0 +1-1 Je komentář přínosný?
Obrázek uživatele ados

Není a zatím ani nehodlám upgradovat, věci které na kompu dělám a jejich náročnost na ram, se za poslední tři roky nezměnily. Hry které hraju taky ne, takže nevidím pro moje amaterské použití žádný benefit. SSD nějaké ty peaky s přehledem zamaskuje. Možná až začnu více editovat 4k video, ale to možná bude chtít i PCI-E SSD a aspoň 8. vlákno - upgrade na zcela nový systém s DDR4. U Dota 2, Battlefield 2, Battlefield Bad Company 2 a mojich amatérských editací fotek žádný benefit z 8 na 16 GB nezaznamenám. Grafika ma 8GB Vram, ta si se 4k v tom co hraji a dělám poradí. Od dob příchodu SSD a jejich masovějšímu rozšíření se množství potřebné ram pro běžné uživatele hodně přeceňuje. Nejedu žádné virtualní mašiny a nemám v Chrome otevřeno 50 tabů, max tak 10-15 když něco zkoumám. Nemám puštěcných více 3D her najednou, no někdy jo, když zapomenu jednu zavřit a stéjně nevidím rozdil. Já mám otestováno strašně moc kombonací hardwaru a dokonce i před zhruba 4.5 lety, kdy jsem s SSD začínal - OCZ Agility 3, tak jsem byl velmi překvapený jak mi šlapala a rychle se loadovala DOTA 2 na core 2 duo 7400 taktnutém na 3.5 GHz s 1GB ram a 2GB HD6950 odemknutou na HD6970. :D Takovou zvláštní kombinaci hardwaru jsem měl tehdy proto, prože jsem tehdy jako chudý student musel prodat můj základ s i750@3.8GHz kde sem měl paradoxně 16GB ram, protože tehdy byla ramka cenově fakt hodně dole.

Každý má ty potřeby jiné, já 16 natož 32GB ram zatím určitě nepotřebuji, neviděl bych benefit, spíše si myslím, že ani 4GB by mě nijak neomezovalo co se svižnosti PC u mého modelu použití týka. Za to ve 4k "monitoru" a už mi přišla i GTX 1070 benefit vidím. Dota 2 i Battlefield Bad Company 2 mi jedou teď skvělě na max. detaily ve 4k, Battlefield 2 jel už slušně i na GTX 760 ve 4k, jen jsem na GTX 760 díky "starší technologi" nemohl jet nativní chroma subsamplig moji TV ve 4k na 60Hz, který je 4:4:4 a musel jsem mít 4:2:0 což, pokuď se nepletu, tak je 4x méně barevné informace a způsobuje to různe artefakty díky větší kompresi.

+2 +1-1 Je komentář přínosný?
Obrázek uživatele 0xB800

Reakce od Ano Ano byla sice trochu jednoduší, ale se 4GB bych tomu už moc nevěřil.
Na ty hry které popisujete bych u 8GB RAM věřil, že je to na pohodu. Pokud ale bude te chtít nějaké hry, které jsou ekvivalentní výzvou pro GTX 1070, tak to k zaplnění 8GB bude již velmi blízko.

Např Star Wars Battlefront má jako minimální požadavky 8GB RAM. Viz https://www.rockpapershotgun.com/2016/01/28/pc-hardware-ram-memory/

Pak už by bylo komfortních 12GB RAM případně 16GB.

Add DDR4:
Myslím, že moc benefitů z DDR4 mít nebudete. Odhaduju tak 5% na rychlosti a bude záležet na tom co bude počítač vypočítávat.

+1 +1-1 Je komentář přínosný?

ja som strasny bordelar a 8GB mi nestaci ani na kancelarsku pracu. 2 webbrowsery + office + "malovani" na fotky

+1 +1-1 Je komentář přínosný?
Obrázek uživatele Heron

Trochu se zapomíná na použití RAM jako io cache. RAM má rychlost přes 10GB/s, zatímco SSD do saty kolem 500MB/s a ten rozdíl už docela poznat (M2 je o něco rychlejší, tak 4x, ale ani tohle nemá na rychlost paměti).

Takže na 32GB RAM mi to sice nezblajznou programy, ale pokud pracuju třeba s 20GB dat, tak je celkem fajn, že se to nemusí pokaždé načítat znovu z disku.

Nehledě na to, že když člověk dělá něco náročného na zápisy, tak si to může odbýt v /dev/shm a potom jen výsledek jednou syncnout na disk.

+1 +1-1 Je komentář přínosný?

u větších rozlišení jsou nároky na textury někde jinde a tam s 8GB nepochodíte. Já měl druhý stroj s c2q 2,4Ghz a 6GB RAM a při spuštěných Win10+Firefox s cca 15 taby a hrou Sins of a Solar Empire tak mi to už po pár minutách řvalo že není dostatek paměti.

+1 +1-1 Je komentář přínosný?

Zrovna gtx750ti byla vychvalová ve svojí době pro nízkou spotřebu, myslím 60W max.

+1 +1-1 Je komentář přínosný?

Nějak vzdáleně, autisticky mi to připomíná situaci, kdy jsem před 4 mi lety zkoušel těžit kryptoměnu na Samsung galaxy Note GT-N7000.

0 +1-1 Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.