Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k GeForce RTX 3080, 3080 Ti či 3090 na 7, 8 nebo 10nm se spotřebou 260 nebo 350 W

Stejně se mi pořád nezdá ten tvar pcb...

+1
+2
-1
Je komentář přínosný?

Mne se zase nezda tak mamuti spotreba. Tim nerikam, ze to neni pravda, ale tohle na NV nepasuje. Ta je uz roky v roli "efektivnich" provoznich vlastnosti a ted vydaji tohle monstrum, kde se da cekat, ze custom modely polezou k 400W..za tim musi byt nejaky duvod. Treba tim duvodem je RDNA2...

+1
+5
-1
Je komentář přínosný?

No, právěže turing úplně efektivní není, ale řekněme, že se to drží pořád v rozumných mezích. Právě proto mi to na to taky nesedí.

+1
+3
-1
Je komentář přínosný?

Hmm to byl Intel taky...

+1
+4
-1
Je komentář přínosný?

Tak stávající Turingy nejsou nijak závratně efektivní co se týče výpočetní výkon / spotřeba. Jsou na tom hůře, nežli Veky de facto. Celej zelenej power/watt hype je postavenej na brutální optimalizaci her na zelné a brutální neoptimalizaci na červené (obje vynucené/zaplacené nvidiou, jako typické nekalé tržní chování, za které dostal od EU pojeb už intel před dekádou). Ovšem stále ty 2080 Super a Ti žerou 260-300W (a dalších až 50W v případě nereferencí). A v případě Ampérů k žádnému posunu efektivity nedošlo, to lze vidět právě z výpočetních karet Tesla. Jen se prostě navýšil počet výpočetních jednotek. Což samozřejmě přinese výkonnostní posun vpřed, ovšem taky to bude znamenat značnou nominální žravost. Je otázkou co RDNA2. Pokud opravdu došlo ke zvýšení efektivity, jak hypuje AMD, tak budeme svědky hodně zajímavého mindtwistu nvidiotů, kteří se nově budou muset vypořádat s faktem, že jejich zelení miláčci žerou podstatně více na FPS, nežli ten fujky červený mor. I když, vypořádali se s tím už u Fermiho, takže to zvládnou i teď.

+1
-2
-1
Je komentář přínosný?

RTX3090 bude pravděpodobně karta typu Titan RTX, tzn na pomezí top entusiast a pro segmentu. Tam to nehraje roli.

Nižší modely už mají spotřebu umírněnější, pokud by se potvrdil výkon až o 50% vyšší než Turing, tak 320W = lepší efektivita než u Turingu s 260W

+1
0
-1
Je komentář přínosný?

Situace je jako před vydáním Ryzenu. Nový proces a nová architektura po delší době jen mírného tempa vývoje nemůže v normální firmě skončit něčím, co nebude opravdu dobré. AMD by mělo začít přemýšlet, kam až může jít dolů s cenou.

+1
-2
-1
Je komentář přínosný?

Výpočetní karty ukázaly, že Ampere = Turing s více proužky. Jen se jim podařilo nacpat více tranzistorů na plochu, ale architektura žádný posun nemá. Tj. ty už začni přemýšlet, jak si obhájíš, že nvidia žere podstatně více na snímek, nežli rudý mor ;-)

+1
-1
-1
Je komentář přínosný?

Ty už si to měl doma a testoval?

Pokud to bude žrát o 30% víc než Turing a bude mít 50% výkonu navíc, tak se asi musí zamyslet ten rudý mor, který zmiňuješ. Nížší proces mohla NV obětovat výkonu a ne spotřebě. AMD muselo novým procesem dohnat spotřebu NV, nezbylo tak na další vylepšení

+1
0
-1
Je komentář přínosný?

Mě se to prostě s tímhle chladičem na 350W nezdá. A že by to navrhli tak, aby to těch 350W papalo jen v boostu po vzoru intelu a pak to spadlo na nějakých 250W. No, nechme se překvapit, ale v tomhle případě jsem spíš ten optimista. Výrobní proces čipu a paměti, to už je fakt velká věštírna a moje křišťálová koule v tomhle případě jen šumí.

Napadá mne ale, jestli se nenchávají po vzoru AMD rezervu, ale to by to museli vydat podstatně později, takže i to padá.

+1
0
-1
Je komentář přínosný?

Grafiky mají už dlouho takový boost. Daleko precizněji řídí boost podle teploty i power limitu, škáluje to po pár MHz

+1
0
-1
Je komentář přínosný?

To sice ano, ale obvykle to nelítá o 100W, pokud to ručně nepřetočíme přes power limit a podobně.

+1
0
-1
Je komentář přínosný?

HBM2 můžeme na herní Nv kartě vyloučit. Jsou drahé a Nvidia si nebude snižovat profit. Wattáž je masakrózní pokud je to pravda. Nicméně po těch spotřebnostních šílenostech co vytváří Intel CPU, tak jsou to skvělí parťáci k sobě... a k vlastní elektrárně. Tak snad AMD vydá něco normálního, abychom zas nebyli odkázáni na NV celou jednu generaci

+1
+2
-1
Je komentář přínosný?

10900k + 3090 se rovna s nejakou rezervou cca 1KW zdroj :)

+1
+5
-1
Je komentář přínosný?

no právě, nejsem sice ekoterorista, ale pálit na hraní her kilowatt mě už přijde jako zhovadilost. Před několika lety jsem se těšil na to, že budoucnost budou výkonná APU, mini-ITX a pod. a spotřeba (i cena) půjde díky novým výrobním procesům dolů. A mezitím nám Intel/NV servírují tohle a většině to přijde normální

+1
+3
-1
Je komentář přínosný?

_

+1
0
-1
Je komentář přínosný?

Nepřijde. Jasná většina má CPU co se vejde do 180W a GPU jakbysmet.

Mini-ITX nekupuju, protože je dražší než mATX, tak nevidím důvod platit víc za méně materiálu. Výkonná APU zatím nekupuju, protože existuje RX 550 640SP za 1500 Kč a moje stará R9 390X ještě fachčí.

+1
0
-1
Je komentář přínosný?

Tak pro lidi v grónsku či na aljašce to není marný...

+1
+4
-1
Je komentář přínosný?

1 kW zdroj predsa nezožerie 1 kW. Ak by sme brali max, t.j. 250 + 350 W + 50 W (USB, doska, HDD, RAM, ventilátory), tak to vychádza na 650 W bez rezervy a kto nechce ísť úplne na doraz, vezme 0,8 - 1 kW zdroj.

+1
-1
-1
Je komentář přínosný?

250+400+100 = 750W x 1,25 = 937W
350W je zakladni model..custom nebo peak muze byt cca 400W
Ja za zbytek komponent, pokud se jedna o top vykonovy stroj davam pro sicher 100W, ale i kdyby jsi dal jen 50W tak to nic moc nezmeni.

+1
0
-1
Je komentář přínosný?

100 W na zbytku nedostaneš v bežnom PC. HDD do 10 W, doska do 10 W (chipset X570 15 W) USB do 10 W (aj to pri max odbere dvoch USB 3.0 zariadení), ventilátory nejaký Watt, RAM tiež a si na 50 W (ak nepoužiješ profi PCIe diskový radič s 9 HDD ako Prušak). 1,25 je čo? Hádam nie účinnosť. Ja rátam len koľko vezme HW, nie koľko vezme zdroj zo zásuvky.

+1
-2
-1
Je komentář přínosný?

Ja se ale nebavim o bezne sestave. Vezmi si 2xHDD + 2xSSD = 25W. Deska urcite sezere vic jak 10W. udava se nekde 25-80W podle toho, co v tom sedi. Pak mas to USB a ventilatory + Ram .. 25+60+10+10+10 -> 100W je malo :D Tech tvych 50W sedi na nejakou beznou sestavu domaciho usera, ktery sudla 3600, 8GB RAM a 256SSD +1TB HDD.
Aby jsi si nemyslel, ze si to cucam z prstu..
http://www.buildcomputers.net/power-consumption-of-pc-components.html

+1
+1
-1
Je komentář přínosný?

Dnesni vykonne RAM si vezmou i 25W bohuzel v XMP modech. Ale celkem souhlasim. 50W bych bral na zbytek.
Tim padem se dostaneme na 700 W v pripade uvazovani nejake pretaktovane karty.
Je dobrou praxi dimenzovat silneji, nez je rated zatez. Nevim, odkud se vzala bulharska konstanta 1,25.

Vyrobci GPU bezne doporucuji 1,5 az 2x. 1,5 u kvalitniho zdroje je v poradku, protoze se prakticky nikdy nestanou vsechny proudove prechodove deje najednou. V techto pripadech ale uz ztraty zdroje udelaji hodne tepla a bylo by vhodne se podivat po nejakych platinum zdrojich s cca 1kW aby to neodletelo.

+1
0
-1
Je komentář přínosný?

Desky berou urcite vic jak 10W...

+1
-1
-1
Je komentář přínosný?

prvne jsem se chtel nadechnout a hadat se, ale tady vazne bavime o TOP PC a i deska nebude low end. B450 bere typicky 7W a na tom jsem chtel stavet.
Je pravda ale, ze kdyz se jde do top modelu, tak uz je to vic (15W X570) a jsou tam i nezapocitane ztraty na VRM ap.

Na techhle vykonech uz vazne bude par desitek W. Ztraty na Fetech a civkach uz jsou nezanedbatelne a rostou s kvadratem proudu. Proud bude ohromny, protoze CPU potrebuje 250W / 1.3V = 190A. Driv to bylo treba 100A a tim padem uz i ty spinaci ztraty jsou takrka 4x vetsi.

Davam ti za pravdu.

+1
+1
-1
Je komentář přínosný?

Ty DDR4 jsou nějaký nenažraný. 8GB modul DDR3 1333MHz (KVR1333D3N9HK4/32G), žere dle datasheetu kingstonu cca 1,2 W.

+1
0
-1
Je komentář přínosný?

DDR4 na základních taktech nenažrané nejsou. Hodně žerou akorát ty vysoce taktované. Jinak já u toho DDR3 Kingstona vidím v datasheetu 2,5W per module a stejně tolik žerou i obyčejné DDR4.

+1
0
-1
Je komentář přínosný?

Tak ty výkonné APU dostaneme v konzolích ale ani tam se úplně šetřit nebude. Já šel cestou mATX v malé kostce, proti itx rozumná cena, rozšiřitelnost. I tak jsem dost omezen výběrem karty, aby to šlo rozumně uchladit a hlavně si "chci udělat tichoučko"
Proto u mě dostal přednost Pascal před Polarisem i za mírnou ztrátu výkonu (při podobné ceně), ač jsou mé sympatie spíše na straně AMD.

+1
0
-1
Je komentář přínosný?

Tak pokud karta s 350W spotřeby bude mít 150% výkonu karty s 260W spotřebou, tak je ve finále úspornější

+1
+1
-1
Je komentář přínosný?

Ale ani Nvidia nemusí být úsporná, v podstatě jim stačí být s podobným výkonem 50–100 W pod AMD. :D

+1
-3
-1
Je komentář přínosný?

Výkřik lůzra odvedle do tmy...

+1
-2
-1
Je komentář přínosný?

Lůzra. Ahm.

RX 5700 XT má na 7 nm něco kolem 220–245 W. Big Navi je dvakrát tak velký čip, který by měl mít 1,5–2násobný výkon. Nebo by ho aspoň měl mít, pokud nemá jen dorovnat RTX 2080 Ti, ale překonat ji. Čekáte, že to bude žrát 250 W? Nebo čekáte, že AMD dokáže na stejném výrobním procesu tak výrazně zlepšit efektivitu, že při stejné spotřebě jako RX 5700 XT nabídne 1,5–2násobný výkon?

+1
0
-1
Je komentář přínosný?

Well, to záleží kam poženou frekvenci. Mám zrovna RX 5700 XT doma a když podvoltuji a podtaktuji, tak se dostanu na 80W při 66% původního výkonu. Přičemž při původním nastavení s omezeným wattmanem žrala přes 220 W (na 250 W leda tak v nějakých debilních benchmarcích jako je Furmark). Samozřejmě, že když má AMD 2500 výpočetních jednotek, tak to musí tlačit frekvencí, i když GCN je vyloženě háklivá na frekvence za sweet potem. Ale pokud v rámci RDNA2 vytlučou při 7-5 nm 8192 jednotek, tak to budou moci držet na nějakých 1000-1250 MHz a stále budou mít hrubý výpočetní výkon rovný nebo vyšší RTX 3080 Ti (nebo 3090 záleží, jak Nvidia svůj herní top model pojmenuje). A při takhle střídmé frekvenci a pokud přenesou know-how z biningu Ryzenů do oddělení grafik, tak se spolehlivě vejdou do 300 W a to bude znatelně méně, než budou mít top nVidie.

Ty samozřejmě můžou machrovat tensory, ale to bude asi jediné.

+1
0
-1
Je komentář přínosný?

Zbožné přání. Jediná výkonnější karta AMD za posledních x let (R.I.P. R9 Nano), která měla mít rozumnou spotřebu, byl Radeon RX 5600 XT. Na poslední chvíli si to před vydáním rozmysleli a zase zvedli takty a power limit a oroštovali to.
Proč by to proboha u highendového modelu měli najednou hrát na dobrý poměr výkon/watt.
Vždycky to poženou na krev, aby z toho vyrazili každé procento výkonu navíc. Než by udělali kartu s příkonem 250 W, radši na to prdnou AiO vodníka a tři osmipiny. Vždycky, dokud nebudou mít pár let v řadě v highendu takovou převahu jako Nvidia.

+1
-2
-1
Je komentář přínosný?

Protože tam bude dost výkonu na to, aby zaútočili na jedinej hype, kterej nvidii zbývá, "efektivita".

Všimni si co zlomilo Intelu pomyslný vaz. Efektivita. Proč? Protože Intel na to frčel tak dlouho (v poměru výkon cena byl žalostný vždy) až to vykoval do podmíněných reflexů tupejch stád a pak přišlo AMD, které obezličkou (stackování vyladěných malých jader) donutilo intel k bezprecedentnímu kroku, kterým bylo vyhnání frekvencí hodně nad sweet pot architektury skylake. A výsledek? Naprostá eliminace intelu v non-OEM prostoru a už i ten OEM začíná měknout, protože lid si to přece žádá...

Ale samozřejmě je možné, že půjdou cestou, co říkáš ty. Problém je, že mít nejvýkonnější kartu AMD nijak nepomůže. Ati/AMD vládla v absolutním výkonu od roku 2005 do roku 2015 a k čemu jí to bylo, k prdu. Nejprve jí omlacovali o hlavu horší ovladače a když to dorovnali, tak se zrovna nvidii zadařilo a získala lepší efektivitu. Důsledek byl prakticky výmaz AMD v dGPU a následně pomocí proti-tržních triků výmaz v OEM (což je pro AMD průser). Kdyby AMD nemělo konzole a APU, tak by skončilo, protože by hry lenivých a tupých vývojářů na Radeonech ani nechodily.

No uvidíme jak to bude. Poslední roky ale AMD kosmicky vylepšilo marketing, což byla vždycky jejich slabá stránka. Takže bych nebyl překvapen, kdyby se vydali mnou uvažovanou cestou (pokud to RDNA2 umožní), což by mohli, protože Arcturus je má a přitom žere jen 200W, zatímco Ampere s o něco nižším výkonem žere takřka dvakrát tolik. Samozřejmě Ampere má tensory, které si taky o něco řeknou, ale více jak 100W to nebude. Tedy v porovnání aktuálních architektur má AMD dost navrch co se efektivity týče. Bylo by škoda toho nevyužít.

+1
0
-1
Je komentář přínosný?

Přidám jen zkušenost a pak to můžeme po vydání karet znovu probrat. AMD mělo většinou super hype jak Nvidia zakopou a co vytěží ze 7nm a oni nyní nemají ani na starý proces. Nyní se vydala spekulace o spotřebě nejvýkonnější karty Nvidia a už zase skáčou AMD fans do vzduchu. Přitom ani nevědí co opravdu chystá červený tým. A nakonec to dopadne dle mých odhadů podobně. Velké očekávání u AMD, hanění Nvidia a pak opak. Ale pojďme se o tom znovu pobavit po uvedení. Bylo to tak již vícekrát..

+1
+1
-1
Je komentář přínosný?

Jseš docela mladík, mlíčňáku. Protože až do roku 2015 sliby nenaplňovala nvidia. To o čem mluvíš, je víceméně období roku 2017/2018 a Vegy. Polaris zelenej mor sfoukla poměrem výkon cena a dtto Navi 10. Teprve v tom roce 2015 se Nvidii podařilo přebrat AMDčku(ATIně) trůn protože prostě Fiji byla blbě navržená a nedokázala využít svůj potenciál v nízkých rozlišení (DX11 overhead) a ve vysokých jí prostě chyběla VRAM. A tak si to vcelku sračkózní GTX980Ti konečně utrhla pro sebe.
Právě ta zoufalost nvidiotů, kdy po dekádu měla ATI/AMD nejen výkonnostní top, ale i značný náskok v poměru cena výkon (kterou si udržela dodnes mimochodem), vedla k hypování poměru výkon/spotřeba. A to přes fakt, že v tom obě firmy chvilku tahaly svou pilku.
Prostě fakta jsou nekompromisní, RX 5700 (XT) má znatelně vyšší výkon nežli cenově ekvivalentní RTXka a o chlup lepší efektivitu. A nevím o tom, že by AMD nebo fanATIci slibovali, že se tahle karta posadí na celkový výkonnostní trůn. Prostě VEGA byla FIJI roku 2018. Těžce nevyužitý potenciál, kdy přestože má výpočetní výkon RTX 2080 Ti, tak nedokázala dorovnat ani GTX 1080 Ti. Tudíž tam predikce na základě hrubého výpočetního výkonu moc nefungovaly.
Ovšem z NAVI vidíme, že to už to funguje dobře a tudíž už můžeme opět porovnávat podle hrubého výpočetního výkonu. A je zcela bez debat, že big navi drtí big ampere v efektivitě. Co s tím nvidia vymyslí se uvidí. Samozřejmě muže zatopit pod kotlem, aby více prosadila to svoji rozmazávací technologii (DLSS nebo tak nějak se to jmenuje). Ostatně historickou zkušenost s ojebávaním zákazníků v kvalitě obrazu už má několikanásobnou, že ano ;-)

+1
0
-1
Je komentář přínosný?

"Prostě fakta jsou nekompromisní, RX 5700 (XT) má znatelně vyšší výkon nežli cenově ekvivalentní RTXka a o chlup lepší efektivitu"

Výkon není vše. Featury jsou další věc. Umíš mi filtrovat třeba zvuk mikrofonu, když vedle něj začnu bušit vařečkou do hrnce? Uděláš mi na kameře zelené plátno aniž bych použil zelené plátno, bez výrazných artefaktů? Kvalitní HW encodér, luxus pro hráče-streamery, ušetří za CPU a SW nebo různých "rekvizit" jako je to zelené plátno.

Pro hráče vysžadující vizuální kvalitu je tu funkční RT a díky DLSS je tu navíc extra výkon bez pozorovatelné ztráty kvality, v některých případech DLSS generuje lepší obraz než nativní zobrazení.

Krásný přiklad je Wofenstein:YB, RTX2060 to zvládá v 4k na high 60 v průměru a low 60 v 1% low, včetně RT. Kolik dá podobně drahý Radeon? Nedá ani 60 průměr, a to bez RT, s RT dává krásnou 0 :D

+1
-2
-1
Je komentář přínosný?

Jo tak komprimační upscaling generuje lepší obraz než nativní rozlišení? Ok, tak tady jsme skončili. Ostatně, moje chyba, že jsem se nepodíval s jakým individuem si píši. Ideologický fanatik v politice, ideologický fanatik ve všem.

+1
+1
-1
Je komentář přínosný?

Ale on má pravdu, DLSS 2.0 ve 4D generuje lepší obraz.

+1
0
-1
Je komentář přínosný?

Psal jsem o posledních letech, nemusíme zacházet do temné minulosti. Mlíčňák asi nebudu, začínal jsem na Atari 800XE. Střídal jsem AMD i Nvidia grafiky, ovšem nyní prostě AMD konkurovat moc nedokáže a to je fakt. Jediná 5700XT za něco nyní stojí, když už po roce dokázali opravit ovladače. Ovšem její výkon je jednou pod 2060S, jindy u 2070S. Takže bych nemluvil o nějaké extra výhodnosti. Navíc Nvidia má stále do plusu RT, což u grafiky takového výkonu může být fain bonus.

O DLSS 2.0 jste asi moc nenačetl, redakce vychvalují obraz a opravdu tam není zhoršení. Stačí si přečíst něco obsáhlejšího, např - https://www.techspot.com/article/1992-nvidia-dlss-2020/

Na vašem místě bych přestal urážet ostatní a hrát si na toho nejlepšího. Hype u AMD byl téměř vždy, je to jejich marketing a podobná fórá tomu pomáhají, případně náš rudý web DD. A ten hype vždy splasknul. Už ani cenově to AMD nechce tlačit, RX 280 byla ještě oproti GTX 770 cenově super. Takže si počkejme a pak to můžeme znovu zhodnotit. AMD již něco extra úspěšného u grafik potřebuje. U procesorů jsou na koni, ale GPU zatím nedávají, poměr prodaných grafik na trhu mluví celkem jasně.

+1
+1
-1
Je komentář přínosný?

"začínal jsem na Atari 800XE"
.. ja zacinal na Atari 800XL, XE verze byla novejsi model s lepsim designem .. i ty jeden :)
To byli casy..

Hele jinak k tomu Hype..AMD samo moc velky hype nedelala, spis delala dost podivne ulitle marketingove vystrelky typu "poor volta", ale jako firma nikdy netvrdila, ze bude v necem lepsi nez treba NV. Myslim, ze s Navi2 jsou taky celkem opatrni. Jedine co rekli, ze chteji "disrupt" soucasny high-end (4K), coz by se jim mohlo podarit. Tim neni receno, ze budou mit nejvykonejsi kartu oproti Amperu.

+1
+1
-1
Je komentář přínosný?

me v superposition benchmarku v extreme profilu zere RX5700 mezi 115-128W. Je teda podvoltovana ale drzi 1700MHz+. Takze to je uroven spotreby cca jako GTX 1660S ale ma mensi vykon o kolik? 30-40% mene? v Battlefieldu 5 napr drtila RX5700 nvidii i skoro o 50% pri fullHD na fps.
RX5700 ma vybornou efektivitu imho

Na VRAM jsem nesahal.

+1
-1
-1
Je komentář přínosný?

Já mám 1060 a tam s lehkým podvoltovánim a omezením tdp na 50% jsem utrpěl ztrátu výkonu asi 10%(fps) v herním nasazení.
U obou značek se dá dostat na pěknou efektivitu, když si s tím člověk pohraje. Bohužel v základu to jede všechno na krev aby byl pěkný poměr cena/výkon. Nejhůř to ale dnes vypadá u Intelu...

+1
0
-1
Je komentář přínosný?

A ta 1660S podvoltovat nejde?

Nevím, ale drtivá většina majitelů nacpe kartu do kompu, nebo lépe si ji tam nechá nacpat nebo koupí celký komp a v životě je nenapadne šáhnout na nějaká nastavení, natož aby ladili kdy je to ještě stabilní v kterém titulu či další zátěži pokud to není jen herní.

+1
-1
-1
Je komentář přínosný?

Ja bych s tím osočováním ještě počkal. V Nvidia nejsou hlupáci, to si pohlídají. U top modelu věřím ze by takový příkon mohl být ale pokud k tomu bude i odpovídající výkon tak to bude přijatelné. Pokud by to mělo výkon jako dvojnásob co má nynější hiend tak by to problém nebyl. Ač odvézt tolik vyprudokovaneho tepla ze skříně bude problém (grafika z cpu by si měly přihodit pozici ať gpu zbytečně neohriva cpu)
Karty střední třídy budou určitě nastaveny ve slušnému výkonu ke spotřebě.

+1
+1
-1
Je komentář přínosný?

To jo, ale Nvidia MUSÍ být lepší než RDNA2 a proto to možná v TOP modelu vyženou do extrémů

+1
+1
-1
Je komentář přínosný?

Pokud top model bude stát 1200 dolarů (2000 pokud 3090 = RTX Titan) a koupíš ty karty třeba dvě, nebudeš mít pár stováků na bednu, která si s něčím jako 1kW odpadního tepla poradí? Mám obyč starší skříň se špatným airflow - Fractal Design Define S. Je tam CPU a jedna grafika, ale nebál bych se do toho dát tam druhou, ta bedna si s tím poradí a to je levný case pro tichý provoz ne účinné chlazení. Jen už bych nemohl mít jeden exhaust na 600 a druhý na 400 otáčkách v plném loadu (i7-8700k a RTX2070S), takže když by ty otáčky šly na 8-9-10 kil s druhou grafikou, tak by to už byl jekot

+1
0
-1
Je komentář přínosný?

S 1kw odpadního tepla si poradí třeba výkonná digestoř co? A nebo to rovnou člověk napojí na trubku a pustí z vokna ne... A v nejhorším si do pokoje pořídí ještě klimatizaci.

+1
0
-1
Je komentář přínosný?

Takže, vynikající diskuze s odbornými závěry se vede na téma JPP. )) Jen tak dál ))

+1
-1
-1
Je komentář přínosný?

Ja myslim, ze tvuj 'odborny' komentar je daleko zajimavejsi..komentovat komentare o JPP, to je ten spravny level. Ty musis byt hlavicka..
A jinak existuje jednoducha pomucka pro nekoho jako jsi ty.. proste to necti a nebudes mit potrebu pak blinkat :)

+1
+2
-1
Je komentář přínosný?

Prostě úniky informací, je to tu už desetiletí, že se z útržků skládá možná podoba budoucího produktu.
Chápu, že se ti to nehodí do krámu, když se "tepe" do Nvidie, ale kdyby to bylo do AMD, tak si ještě přihodíš polínko, že?

+1
-2
-1
Je komentář přínosný?

Já myslím, že všichni tu máme funkční klávesnici ;)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.