Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Test: Gigabyte Radeon R9 280X WindForce 3X OC 3GB po devíti letech

dneska bych jako minimum co se vyplati jeste koupit z bazaru povazoval polaris nebo pascal, ale uz bych byl hodne na pozoru, protoze tyhle karty mohli tezit i 5 let v kuse
jinak je hodne smutny ze 9 let stara karta neni zadupana do zeme nejakym low endem za par supu pri smesny spotrebe a spis doplaci na malou pamet

to chci videt 3070 za 5 let

+1
+1
-1
Je komentář přínosný?

Dnešní svět už naštěstí malinko zvolnil, myslím že 3070 na tom bude úplně v klidu. (samozřejmě v rozumném nastavení a rozlišení)... Koukni na (pro některé) prehistorickou 1060 dnes, ta karta je fenomén. Ovladače vycházejí, VRAM furt v klidu. A karta má 6let.

+1
+2
-1
Je komentář přínosný?

Máte na mysli 1060 3GB?

+1
-1
-1
Je komentář přínosný?

VRAM v klidu je 6GB, 3GB verze ani nesplňuje specifikace původní 1060, takže ji za 1060 ani nepovažujme.

+1
0
-1
Je komentář přínosný?

Ale je to GTX 1060, NVIDIA tu kartu tak nazývá, stejně tak GTX 1060 s 160-bit sběrnicí a 5GB VRAM.

+1
-1
-1
Je komentář přínosný?

Dobře pánové, tak myslel jsem GTX 1060 6GB VRAM, 1280SP, 192bit, vydanou jako první v pořadí a ne jen pro Čínský trh. Je to tak v pořádku??? :)

+1
+2
-1
Je komentář přínosný?

A když upravím VBIOS na Quadru P2200 5GB GDDR5X (1280 SP, 160-bit) na GTX 1060, bude to GTX 1060? ;D

Ale jasně chápu, primárně se u nás na GTX 1060 dívá jako na 6GB a 3GB verze, ty 5GB varianty se zde oficiálně neprodávaly, vyjma profi variant ála P2000/P2200.

+1
-1
-1
Je komentář přínosný?

Paradoxně je ta karta ještě starší, protože je to jen novější revize Radeonu HD 7970 a 7970 GHz Edition :D

Zestárla vlastně docela dobře, nicméně ten low-end ve formě RX 460 je z roku 2016, 2GB verze té RX 460 by dopadla mnohem hůře, nehledě na nižší taktovací frekvence GPU a VRAM.

Také by mně zajímalo, jak by si vedla HD 7970 / R9 280X s 6GB VRAM, jde je pořídit třeba na eBay, ale jsou hrozně drahé.

+1
+1
-1
Je komentář přínosný?

Mám rád tyhle retro testy, už jen proto, aby člověk zjistil jak se moderní hře chová velmi stará vs nová architektura.
R9 280X není na její architektuře zdaleka první karta, je to již "přeznačená" půlgenerace a tento chip si start odbyl už v tuším roce 2012 v kartách HD79xx..
Až dnes v takovém testu je možné vidět, jak přelomová tahle architektura byla. V konfiguraci blízké k Radeonu HD7850/R7-370 ji dodnes vesele používá Playstation4.

Je jasné, že R9280x už dnes v SoTR nebo Cyberpunku silně klopýtá a tak nějak funí při velké spotřebě a plněplněné VRAM, ale věřte, normálně se dají podobné hry s touto kartou bez újmy odehrát.

Podobné výjimky mohou bát i u CPU. Můj synátor provozuje Fortnite a Forzu_H5 na Xeonu X3470, což je vlastně i7-870 - první generace - rok tuším 2009. A 60fps to normálně dá - s 70-80% vytížením... :) Ale na to tam ty jádra jsou ne?

+1
0
-1
Je komentář přínosný?

O té historii karty a předchůdcích HD 7970 (2011) / 7970 GHz Edition (2012) píšu na začátku článku včetně odkazů na články z dob vydání.

+1
+1
-1
Je komentář přínosný?

Jóóóó, HD 7970 je moje oblíbená historická vzpomínka. Jedna ze skokově nejlepších karet historie, která doslova měnila svět. Věřím, že ji řada lidí používá spokojeně dodnes, ač i já bych dnes spíš doporučil upgrade na cokoli (včetně RX 6400 / RX 6500 XT, pokud výkon HD 7970 dostačuje) kvůli spotřebě. Málokterá karta své doby byla takhle povedená, snad Voodoo 1 / Rush, snad Radeon 9700, snad HD 4850 atd atd atd (GeForcek taky řada, včetně třeba GTX 750 Ti).

+1
+2
-1
Je komentář přínosný?

Přelomová karta byla určo 6800Ultra (na ní poprvé ukázali UE3 v podobě ukázek z prvního Gears) a taky samozřejmě 8800GTX, to byl opravdu technologický skok srovnatelný snad jen s 3Dfx.

+1
0
-1
Je komentář přínosný?

A co takový Radeon 9700 Pro a pak i 9800? :)

+1
-1
-1
Je komentář přínosný?

jj taky dělo, osobně jsem měl R8500, ale myslím že v té době ještě ATi neměla takové jméno, hlavně se řešily ovladače které nedosahovaly na nV. Ale R9700PRO byla karta se kterou ATi vykoukla nad ostatní. Pak už jen stačilo zapnout 3DM03 poslední test co běžel jen na ní a byla to láska na první pohled. :)

+1
+1
-1
Je komentář přínosný?

„dnes spíš doporučil upgrade na cokoli (včetně RX 6400 / RX 6500 XT, pokud výkon HD 7970 dostačuje) kvůli spotřebě.“

Nevím jestli to kvůli spotřebě má smysl. Z toho co je v grafech je asi nejbližší ± aktuální náhrada GeForce 1650 Super a rozdíly jsou ~20 W v klidu, ~80 W v YouTube a ~120 W ve FurMarku.
Vážený průměr 90 % klid a 10 % zátěž (tak starý počítač nebude sloužit na nonstop zátěž) vyjde kolem 30 W, při (dneska už) 6 Kč/kWh to dělá 0,18 Kč na hodinu provozu.

Tak si spočítejte, za jak dlouho se vrátí investice okolo 4000 Kč na výměnu té karty (při provozu 8 hodin každý den to bude 7-8 let).

+1
+1
-1
Je komentář přínosný?

A co trochu novější kousek, ten byste na testování nesehnali? :-D

https://www.gigabyte.com/Graphics-Card/GV-N980X3WA-4GD#ov

+1
+1
-1
Je komentář přínosný?

Krása, hlavně proto, že by tam dvě karty řinčely a topily nahouby, protože žádná moderní hra nemá SLI profily. :)

+1
0
-1
Je komentář přínosný?

Tak sa použije Blender či ako sa ten SW volá, ktorý vie využiť aj 4 GK. Alebo sa použije výpočet Pi určený pre GK (Prušak ho spustil na PC s 10 GK a urobil svetový rekord).

+1
0
-1
Je komentář přínosný?

Ježišmarjá to je obludnost... to chci! :)

+1
+1
-1
Je komentář přínosný?

To nejspíš nikdo mít nebude a problém bude SLI.

Asi by bylo zajímavější tohle: https://www.gigabyte.com/Graphics-Card/GV-N680SO-2GD#ov

Ano má to pět 40x40 mm ventilátorů pro maximální airflow :D

+1
0
-1
Je komentář přínosný?

Ty větráčky, z těch mám kopřivku, jen je vidím...

+1
0
-1
Je komentář přínosný?

RE: Karáš Svorka - Tak to hle vypadá opravdu prapodivně :) Jinak Keplery byly jestli se nepletu přímými konkurenty právě k HD79xx a něco mi říká, že v nových hrách by proti AMD vyhořely, ta architektura nebyla tak nadčasová.

PS: Historii karty jsem přehlédnul, soráč.

+1
-1
-1
Je komentář přínosný?

Ony vyhořely už na portech her z (base) PS 4, protože při portování se nikdo s laděním shader programů nedělal (zůstaly původní na míru optimalizované pro ~Radeon 7850).

+1
0
-1
Je komentář přínosný?

nuz stale obstojna karta.
v podstate hravam veci typu DragonAge, Shadow run ci Divinity a tato karta to dava s prehladom.
az na to ze hravam na amd apu :-)

+1
+1
-1
Je komentář přínosný?

U těchto karet je problém že už se nedělají nové ovladače, nejvíc to zamrzí u Grenada jádra s 8 GB.
Jako nejnižší co má smysl kupovat je u AMD RX570. Tuhle recenzovanou max za poštovné do retro Win7 PC.

+1
+1
-1
Je komentář přínosný?

Ono to zamrzí i u Radeonů založených na jádře Fiji, tam by podle mně šlo získat optimalizacemi nějaký ten výkon navíc, ale je možné, že je tam prostě problém v návrhu těch GPU a nelze rozumně těch 4096 SP řídit.

+1
0
-1
Je komentář přínosný?

Ovladače nevidím jako zas takový problém. Mimochodem na tuto architekturu se ovladače dělaly rekordně dlouho. Do 5/2021, což je u karet z roku 2012 nevídané.

Momentálně je to tak, že máš ovladač z 5/2021 označený jako "legacy" a jede na něm vše i nové hry. Časem to bude samo horší a horší. Nikdo na tom nové hry už netestuje.

+1
+3
-1
Je komentář přínosný?

problém to je - pokud chci starší kartu za peníze a plně funkční tak chci podporu od výrobce. Tudíž všechny od Polaris - a i tam je to hodně na vodě - starší nemá smysl. RX 4/5xx už jsou prakticky v legacy režimu taky a ani přechodná generace 5000 na tom není dobře. Směřuje to k unifikaci kdy vše potřebné technologie na dlouhodobou podporu má až RDNA2, tedy RX 6000.
NV naopak podporuje ještě starý Maxwell, tedy karty GTX 960/970/980, zvlášť ty poslední dvě jsou pořád slušné. Na rovinu, vybrat si mezi GTX 970 nebo RX 280/380X tak není co řešit. I mnohem mladší Hawaii/Grenada s bočním Fiji byla odstřelena - přitom zmíněné Fiji s sice jen 4GB ale HBM byl luxusní kousek který by si podporu zasloužil. Vega zapadla ještě hůř, dnes po tom neštěkne pes, zato GTX 970 nebo 1060 jsou pořád slušně použitelné na fHD a stále výrobcem podporované.... Hlavní průser GCN stejně jako VLIW 5/4 byla nutnost výrazné optimalizace. Takže kde se optimalizovalo byly výsledky skvostné, dál už to je podstatně horší. Viz jak třeba skončila AMD fans vychvalovaná featura v Ashes of Singularity kde se dokazovalo že výpočetní výkon je vyšší než u konkurence. Ale to byla jedna hra a zbytek by se dal spočítat na prstech jedné ruky co by měla takové nároky na výpočetní GPU. Koho dnes zajímá AoS....

+1
+1
-1
Je komentář přínosný?

Z toho příspěvku to zní jako že pod RDNA2 je všechno vlastně nepoužitelné. To pak nemůžeme mluvit o staré kartě. Ano, HD7970 je dnes nesmysl kupovat, ale jen proto, že Polarisů je na bazoši halda. A tam nikdo podporu nevynul, VRAM mají taky haldu pokud budeš chtít. Takže nevidím problém.

Já mám v pracovním kompu R7260X, což je takový starší ekvivalent k RX460 a je to furt normálně cajk. Měsíc staré hry na tom nejedu, ale mlaďoch hraje Fortnite, což je furt upgradovaná UE4 hra a není nejmenší problém.
Pokud instaluješ furt dokola nové ovladače hned jak vyjdou, tak ber jako starou kartu i RDNA1.

+1
-1
-1
Je komentář přínosný?

spíš mi jde o to že jde o ukončené grafiky narozdíl od GTX 9tkové řady. HW byl a je jak Grenada/Fiji/Vega zajímavý, ale skončil v kolonce "opuštěné". A bohuže to hrozí a vlastně nastává i u Polarisek. Podle posledních zpráv nové funkce a posílení výkonu v DX11 a OpenGL mají jen RX 5000/6000. AMD provedli dost brutální čistku. Jistě někdy se to udělat musí, ale takové odstřižení poměrně výkonného hw je nevídané.
Já právě preferuji hw NV kvůli kontinuitě a předvidatelnosti kdy hlavně starší hry mají rozdělení na Nvidia a Others. Zvlášť hry ze studií směrem na východ byly na GeForce dost zatížené a byl problém je na Radeonkách vůbec kloudně rozběhat ikdyž šlo o skvělé hry. Např na Radeonu už tehdy (R 1950Pro) jsem nerozběhal na pozdějších ovladačích hru StarshipTroopers, zvuk šel ale obraz černý. Parkan od Nikita software - mimořádná hra a tak nějak předchůdce Star Citizen také vyloženě preferuje NV jak v jedničce tak ve dvojce.

+1
0
-1
Je komentář přínosný?

Ten Parkan jednička je 20 let starý, dvojka ne o moc novější - tak to AMD grafiky ani neexistovaly ;-) Když se pro mě řekne staré, tak si představím maximálně base PS 4 (2013), a když se řekne na východ, tak Japonsko - a tam naopak pro portované hry z konzolí grafiky od AMD válí, protože při portování nikdo optimalizaci pro NVidia GPU nedělá (portování často dělá i jiná /externí/ firma). Např. v Nier: Automata mi to na Radeon 7850 jede na dvojnásobné rozlišení než lidem s tehdejším GeForce.

+1
0
-1
Je komentář přínosný?

Počas lockdownu bez prístupu k domácemu PC som prehrabal starý "šrot" a vybral best of na výrobu "retro dela", voľba GPU padla práve na 280X, v kombinácii s 965 BE na 4GHz, 16GB RAM a nejakého SSD. V rámci internetového bádania som zistil, že existujú novšie neoficiálne upravené ovládače "Amernime" aj na túto kartu ( https://forums.guru3d.com/threads/3rd-party-driver-amernime-zone-radeon-... ) a sám som bol prekvapený ako je tá mašina svižná. Spolu s elektromerom (ale to sa dalo upraviť K10statom). Rozbehal som na tom dokonca Cyberpunk vďaka komunitnému SSE4 patchu, ktorý túto inštrukciu odstránil a hra bežala cca na 30FPS (všetko na low, samozrejme). Popravde ma fascinuje, že keby sa toto stalo 10 rokov nazad a teda staviam takúto mašinu "best of" z roku 2000, tak si s novými hrami ani neškrtnem.

+1
0
-1
Je komentář přínosný?

Sám jsem jel jen na AMD a samozřejmě Phenomy II u mne střídaly Athlony 64.....a musím říct s absencí SSE4 , kdy ke kdejaké novější hře potřebujete nutně komunitní patch jsem nad AMD zlomil hůl ....Tedy skoro A6600 na 3.9Ghz totiž už SSE4 má a díky frekvenci má i výkon srovnatelný s X4 Phenomem .

+1
0
-1
Je komentář přínosný?

Jop, Phenom II masivně zastaral i díky absenci SSE 4.2.. To IPC je dnes katastrofa.
Ale i na tomhle se dá rozjet Cyberpunk, 10-15let zpátky bys novou hru na 15 starém CPU nezahrál..

vývoj zvolnil, už není nutné překopávat celé architektury každé 3 roky.
trochfám si tvrdit, DX12Ultimate tu s náma bude zcela jistě do 2030, je tam vše co je třeba k vytvoření prakticky fotorealistické grafiky v reálném čase.

+1
0
-1
Je komentář přínosný?

Neironicky je lepší na AM3/AM3+ desku osadit nějaké osmivláknové FXko a případně ho lehce přetaktovat.

+1
+1
-1
Je komentář přínosný?

Když už jsme diskuzi ke staré kartě tak to snad nebude OT...
Já těm Bulldozerům nějak nemohl přijít na jméno. V dobách A64 jsem nadšeně míval jen AMD, ale s tím co udělali s FX mě to přišlo skoro jako zrada.. Nebudu rozebírat do podrobna počet FPU vs avizovaný počet jader... a blabla, dnes se na to dívám tak, že to pro AMD byly těžký časy a cpali na trh to, co měli.
Co si budem říkat, stejnou mizérií prošel Intel s RocketLake. .

Ale chápu, dnes do takovéto patice a do retro PC nějaká FX6xxx asi v klidu. Práci odvede.

+1
-1
-1
Je komentář přínosný?

Docela jsem o R9 280X (ale od Sapphire - Tri-X) uvažoval, ale zatím nemám odpovídající veteránský CPU. Phenom X6 1100 na ni asi moc nestačí... :)

+1
0
-1
Je komentář přínosný?

Phenom je vůbec historicky zajímavý kousek HW :)
6 jader by teoreticky mohlo hýbat s jakoukoli dnešní hrou, ale IPC (absence nových SSE) je děs.
Historicky z toho vítězně i7 první generace, které lze i dnes používat lépe.

+1
+3
-1
Je komentář přínosný?

Phenom II X6 1100T jsem "nedávno" taky testoval: https://diit.cz/clanek/test-amd-phenom-ii-x6-1100t-phenom-ii-x4-965-be-v...

Stejně tak Nehalem a pak i Westmere:

Nehalem: https://diit.cz/clanek/test-intel-core-i7-950-4ghz-aneb-nehalem-po-deset...

Westmere: https://diit.cz/clanek/test-intel-xeon-x5650-416ghz-aneb-lga1366-32nm-we...

Asi budu muset některé ty sestavy oživit a projet to přes BeamNG.

+1
0
-1
Je komentář přínosný?

Tam je to zrovna docela CPU-limited. V rodině loni proběhl jeden upgrade stroje na beamNG, kde zůstala GTX1050Ti, ale vyměnilo se C2Q9550 za i5-10400F a je to prej nebe a dudy (v 1920×1080).

+1
+1
-1
Je komentář přínosný?

BeamNG na C2Q musí být docela maso, ale časem se k tomu prokoušu. BeamNG teď nově testuju i pro testy/recenze procesorů, zatím s RTX 2080 Ti a zdá se, že skoro vždy je bottleneck CPU, s více AI i počet jader.

Jen musím testnout i nějaké další Intely kromě té kupy Ryzenů, ve frontě tu mám ještě i5-9400f, i7-9700K a i3-9350K.

+1
0
-1
Je komentář přínosný?

AMD Phenom X4 960T (Zosma) šlo odemknout v BIOSu na šesti jádro ? ....Tak myslím, že kvůli tomuhle kousku jsem si ve své době kupoval další sestavu a .....chybějící SSE instrukce nakonec moje plány na využití levné X6 docela zabily .Nicméně odemčení X4 na X6 u mne fungovalo a sestava byla stabilní , ale v permanenci mi zůstala X4 920 následovaná chytrým šitgradem na A6600 ...už s podporou SSE 4.1.

+1
0
-1
Je komentář přínosný?

Njn, nechal jsem si ho na památku, ale ten výkon je dneska už celkem naprd... :)

+1
0
-1
Je komentář přínosný?

Tenhle test mě opravdu potěšil. Vlastním totiž ještě HD7950, ale už před třemi roky ji vystřídala RX 5700XT. Ani ta sice na opravdové grafické orgie nestačí (díky absenci raytracingu), ale na většinu her je v pohodě.
Ten výkon téhle starší karty v třetím zaklínači byl vlastně i můj důvod k výměně.

+1
+1
-1
Je komentář přínosný?

HD 7950 tu mám taky, v podstatě stejnou Gigabyte variantu se stejným chladičem, ale nakonec jsem se rozhodl ji neotestovat, výkonnostně je to velmi podobné, byť trochu horší.

+1
0
-1
Je komentář přínosný?

Ja mam doma R290X (GV-R929XOC-4GD), kdyby kratce po skonceni zaruky nezacala kostickovat, tak mi na FullHD asi staci dodnes (mozna ta mala pamet).

Pokud by ji nekdo chtel kvuli chladici (vetraky se reklamovaly hned po zakoupeni) nebo si rad pohral se zprovoznenim, tak mi dejte vedet. Nebo klidne i do "archivu", mam i neposkozenou krabici etc. Jizni Morava.

+1
+1
-1
Je komentář přínosný?

Přesně tuhle kartu tu mám jako nefunkční kus taky :DDD

+1
0
-1
Je komentář přínosný?

Tyhle 7970 a její deriváty se GA celkem povedli. Jo, ty tři vrtule na 3k+ otáčkách byly slyšet, ale odměnou byla nízká teplota a proto se podle mě dožilo spoustu exemplářů. Sám jsem totiž jednu 7970 od GA pořídil, ale myslím že revize 2 (s údajně ojebanými pamětmi, myslím). Karta sloužila zhruba 3 roky, stála mě někdy v roce 2014 3kkč. Dosloužila kvůli ventilátoru, jeden zjevně měl vymleté "ložisko" a nechtělo se mi riskovat, že by to byl zrovna ten, co honí vzduch u VRM (které je jednoznačně velmi horké a potřebuje ofuk přímo od ventilátoru, jež se nachází u něj). Nepovedlo se mi lokalizovat, který to dělá a protože se berou otáčky jen z jednoho z nich... :)

Nahradila to do teď používaná V64 LC od sapphire, koupená za cca 19k někdy v roce 2017, to už nám najížděla kryptohorečka, ale problém nebyly ceny, jako spíš dostupnost. Původně jsem chtěl "obyčejnou" vzduchem chlazenou, ale ty nebyly.

Zpět ale k 7970. Už někdy v roce 2015 jsem začal pociťovat, že je VRAM malá, protože všelijaké launchery a web se akcelerují skrze GPU a tedy užívají VRAM též. Když se do toho pustila hra (hrával jsem nejvíc wowko, ale i Witcher 2 a já nevím co ještě), tak byl citelný microstuttering, nelahodilo to oku. Samotný výkon karty bych řekl, byl stále dostačující. Kartu jsem provozoval s přepínačem na "normal/performance" bios, takže otáčky byly agresivnější, ale karta nešla přes 70°C, nikdy, ani v létě, kdy bylo v místnosti 30°C+, motalo se to kolem 60-65°C. Režim silent fungoval, ale rozčilovala mě častější změna otáček, než u toho druhého, kde to ve směs v zátěži najelo na ty 3k otáček a tam se to drželo, s minimální změnou charakteru zvuku.

Můj kousek navíc měl tak "přilepenej" chladič, že jsem ji nepřepastoval, protože jsem se bál, abych neurval paměť nebo GPU samotné. Pasta tam byla asi původní, bílá, stále kašovitá. Až po letech se mi povedlo chladič sundat, v nějaké starší sestavě poslouží dál.

Používal jsem ji s i7-940 a později s 5930K.

+1
0
-1
Je komentář přínosný?

> ...všelijaké launchery a web se akcelerují skrze GPU a tedy užívají VRAM ...

Na ty electronové launchery funguje vypnout GPU akceleraci - pak ti zůstane všechna VRAM pro hru. Např. ve Steam je to teď koukám v menu Zobrazit / Nastavení, vlevo karta Rozhraní, checkbox "Povolit pro renderování webových stránek grafickou akceleraci (vyžaduje restart)". Podobně Teams. V některých programech to bohužel odstranili, ale možná furt funguje parametr příkazového řádku.

+1
+1
-1
Je komentář přínosný?

Nic nehraju a koukám, že veškerý ten electron bordel a další věci berou 4,9GB VRAM na mé W5500 Pro. Prostě budoucnost.

Problém je, že bez té akcelerace některé programy běží dost mizerně.

+1
+1
-1
Je komentář přínosný?

No já na svém starém desktopu vypínám GPU akceleraci ve všem postaveným na Chrome/Chromium/Electron (tj webové prohlížeče /mimo Firefox/ a electronové aplikace), protože na mém old-PC Radeon 7850 2GB GDDR5 to způsobuje občas zamrznutí PC (ne jen restart GPU - zamrzne celé PC). Tuhle sestavu si nechávám, protože tam mám nativně trippleboot ještě Win 7 a Win XP - pro hry, co nejedou ve Win 10. Ve FullHD stařičký 6core Xeon utáhne Youtube aspol. i bez GPU akcelerace (2.5K rozlišení to ale už nedává - ale to nedává ta GPU ani ve hrách, protože je optimalizovaná pro FullHD gaming).

+1
0
-1
Je komentář přínosný?

To je jen částečné řešení. Totiž, i ten FF si něco ukrají a jestliže hra vyžaduje, řekněme 2,5GB VRAM, tak nám zbývá celkem prd. Něco si vezme OS (cca 70-100MB), zbytek hravě požere FF. Pokud většinu toho electron/chrome bordelu hodíme do SW akcelerace, tak to bude zase zaměstnávat CPU a pokud se to trefí na to jedno vlákno, na kterém (tehdy) běželo wowko, tak zase letí frame dolů. Navíc jsou ty programy línější a u onlinovek má člověk obvykle zapnutej browser a další "komunikační" kanály, protože přes něco si povídá v týmu, v browseru řeší a hledá informace.

Jo, není to typický příklad "singleplayer" hráče, ale dneska podobné móresy chytají i ti. Dalo se tomu částečně vyhnout tehdy, dneska už moc ne.

+1
0
-1
Je komentář přínosný?

ja v tom nevidim vobec ziaden problem. na to tam ta video ram je. a v dobe, ked graficky akcelerator zvlada blitovat o niekolko radov rychlejsie ako procesor, je uplna volovina drzat veci ako vyrenderovane fonty a pixmapy v hlavnej ram a obraz tam cely softwareovo zostavovat. grafika to zvladne rychlejsie po stranke casu aj energetickej efektivity.

+1
0
-1
Je komentář přínosný?

Tak on to není vyloženě problém, spíš mně překvapilo, že najednou mám cca o 3GB VRAM vyšší spotřebu, než v roce 2018-19 kdy jsem v pracovním PC používal Radeon Fury Nano.

+1
0
-1
Je komentář přínosný?

Rostou no ;)
Taky jsem to právě na té 7970 pozoroval, hlavně když jsem pátral po tom, proč mi ta hra jede pocitově někdy plynule a někdy byla "líná". Většinou stačilo vypnout FF a najednou to bylo hned o něčem jiném, bohužel to bez něj moc nešlo. Proto si myslím, že dneska je 8GB takové zdravé optimum pro FHD hraní moderních her, 6GB karty by měly dávno pomřít a 4GB kousky jsou spíš pro "retro gaming", protože viz výše, bohužel (mám hezké quadra, stejně jako jsem ulovil levno Fury X).

+1
0
-1
Je komentář přínosný?

Zas takové drama to nebude, na své 8GB kartě se mi skoro nikdy nepodařilo zasekat víc než 6.5GB, když v jakékoli hře jen malinko upravíš nastavení, 6GB je furt zcela použitelné.
A až u 4GB si s tím musíš pohrát více do hloubky. Ale s jistým omezením lze odehrát prakticky cokoli co do teď vyšlo i s 4GB...

Celý dojem z toho, že lidi mají pocit, že bez 8GB VRAM se nedá žít je tom, že hra si vezme více pokud "vidí" že má možnost, když detekne 4GB VRAM, engine se "uskromní" a vystačí si i s tímhle. Milióny videí v miliónech her s různým nastavením s a zobrazenou telemetrií - youtube.

+1
0
-1
Je komentář přínosný?

Jenže vy řešíte jen to, co zkonzumuje hra samotná. Vtip je ten, že na moderních počítačích málokdy běží jen samotná hra, víme?

+1
0
-1
Je komentář přínosný?

A co ti brání ty ostatní věci na chvíli povypínat?

+1
0
-1
Je komentář přínosný?

Některé hry nemají rády, když se sejme launcher, je jich těžké minimum, ale jsou. Stejně jako u těch onlinovek je browser skoro nutnost. Když se pak vypne, někdy se neuklidí VRAM úplně. Ideální řešení neexistuje.

+1
0
-1
Je komentář přínosný?

Nebo to jen neumíš.

+1
0
-1
Je komentář přínosný?

Těžko říct, já bych takový suterén nebyl. Mě jen děsí, že z téhle diskuze skoro vyplývá, že pro svižné kancl PC s electronovými programy je třeba dedikovaná karta se 4 GB VRAM. Dřív jsem myslel, že stačí iGPU:).

+1
0
-1
Je komentář přínosný?

To zase ne, ono když tomu dojde paměť, tak to něco odmaže. Blbý je, když do té paměti šahá zároveň 3D aplikace, pak prostě může nastat stuttering. Proto u kancl stroje, kde se nepředpokládá hraní her, je tohle úplně šumák. Stejně jako CAD kreslič stuttering řešit nebude, navíc si nejsem jistej, jestli to OpenGL programům způsobuje nějaké nevolno, tohle jsem nezkoušel.

+1
+1
-1
Je komentář přínosný?

Ano i ne. Systém by měl dle mého nějak inteligentně vyzjistit, jestli máme puštěnou nějakou "3D akcelerace vyžadující aplikaci" a pokud je přítomna GK, která má nouzi o VRAM, tak ji vyklidit prostor a naházet to do systémové paměti. Protože pak to vede k microstutteringu a propadům (aka to wowko, tehdy mi sice běželo na 60FPS dle ingame frame měřidla, ale reálně mi to přišlo poloviční a celkově takové líné).

Něco jiného je plesnivej kanclstroj v socialistické firmě, kde do teď dožívají C2D a podobné, kdy jen moderní systém a některé "moderní" aplikace zblaznou celou VRAM, obvykle starého mainstreamu, který plní roli zobrazovadla (pokud to nebylo necháno na pospas IGP v chipsetu). Na takovém stroji se 3D akcelerace moc neočekává a pak by systém mohl celou VRAM v klidu požrat a uživatel by si ničeho nevšiml.

+1
0
-1
Je komentář přínosný?

Ja som to asi nenapisal dost jasne.

Velka cast dnesnych GUI, aj ked sa cloveku javia ako stare, dobre obycajne 2D, je v skutocnosti "3D akceleraciu vyzadujuca aplikacia". Rozdiel medzi 2D a 3D scenou je v podstate len v pouzitej transformacnej matici, ale ak sa ma GUI s priehladnymi elementami a specialitami ako paralaxy vykreslovat rozumne rychlo, na blitting sa musi pouzit "3D akceleracia". To znamena buffery vo VRAM, pixel buffery, textury, casto aj custom shadery a nejaka scena. Ta scena moze byt aj setsakra komplikovana.

Napriklad taky Mac OS X uz niekedy od verzie snad 10.2 (rok 2002?) je schopny renderovat kazde jedno pismenko ako separatny polygon. To ma potom clovek vo videoram hafo textur (co font nejakej velkosti, to textura) a na scene hafo^2 polygonov.

Celkom "paradoxne" aplikacia, ktora z toho bude celkom dobre profitovat je napriklad textovy editor.

+1
0
-1
Je komentář přínosný?

Ale to není tak, že musíš mít dostatek VRAM pro všechny spuštěné GUI aplikace - OS a ovladač si s tím umí poradit. Hlavní je jen mít dostatek VRAM pro aplikaci v popředí - pro ty v pozadí stačí přesunout do System RAM (Windows to dělá už od Visty - ve starších poslal zprávu Device Lost, ale většina aplikací ji ignorovala a blbla). A jak jsem psal v jiných komentářích, u většiny aplikací jde GPU akcelerace zakázat (Steam, Teams, Visual Studio, webové a email klienti, ...).

> Celkom "paradoxne" aplikacia, ktora z toho bude celkom dobre profitovat je napriklad textovy editor.

Pokud tam ale není nějaký problém. Např první verze Windows 10 měly problém s WPF aplikacemi jako např Visual Studio 2010 (chyby v zobrazení zdrojového kódu). Z tohohle důvodu každá slušná aplikace má nabízet možnost GPU akceleraci vypnout (jako to VS 2010).

PS: Pak to opravili, takže člověk využije GPU akceleraci na HighDPI displejích, kde to CPU už plynule nedává (skrolování v kódu).

PPS: MacOS X 10.0 byl taková beta, která přinesla to nové rozhraní Aqua (na NextStepu založený MacOS už byl totiž předtím Server s GUI MacOS 9). 10.1 byla první finální verze - a tam už byla přidána akcelerace Aqua přes OpenGL.

+1
0
-1
Je komentář přínosný?

Ja pisem o 10.2, nie 10.1. Na tom prvom priesvitnom cukrikovom iMacu (233 alebo 266MHz PPC G3) bezala 10.2 sakra brutalne rychlejsie a menej lagovala, nez 10.1. 10.1 mala implementovanu HW akceleraciu niektorych GUI veci na urovni celych okien. Takze sli robit efekty, ale vnutro okna sa stale renderovalo "offline" v aplikacii. 10.2 uz umoznovala rendering obsahu aplikacneho okna cez graficku kartu. Skor to asi ani moc nebolo mozne, pretoze to sa pohybujeme niekedy pred OpenGL 1.5, kde aj NPOT textury boli len ako extension a grafiky mali LTT tolko VRAM, co stacilo na framebuffer pre display.

+1
0
-1
Je komentář přínosný?

Ok, MacOS X 10.0 - celé softwarově, 10.1 - GPU akcelerovaná kompozice plochy, 10.2 - GPU akcelerovaný GUI toolkit (aspoň část funkcí). Třeba Windows má od Visty taky akceleraci kompozice plochy, ale GUI toolkity dodnes (!) ne. WPF byl akcelerovaný, ale krok vedle - už se nevyvíjí, chybí mu podpora aktuálních mnoha features. Aplikace si to nakonec řeší ručně (Direct2D, Direct3D, OpenGL, ...).

EDIT: O staré OpenGL a GPU bych se nebál. Na S3 Savage 8 MB mi v Linuxu jel Compiz pěkně. A Apple si dělal ovladače sám na míru volání OS a aplikací už tehdy. Stará GPU uměla věci, které byly ve standardních ovladačích skryté. Např ty ATI měly přídavné speciální formáty pro texturovou cache a S3 Virge uměla 3D i v okně a v TrueColor.

+1
0
-1
Je komentář přínosný?

Tohle já ale nerozporuji. Widle akcelerujou desktop už od jehovisty (v 3D režimu, kvůli efektům, aeru a dalším věcem, co přibyly. U WinXP a starších samozřejmě HW akcelerace byla též, ale nešlo o 3D režim a VRAM to požíralo totální minimum). Jenže tenhle 3D režim není tak náročný, jako render složité scény ve hře, kde se hýbou lístky na stromech a podobně, tam je ten stuttering sakra znát. U desktopu jsem si toho nevšiml, maximálně pokud jsem na tom pustil miner - pak se celkově odezva systému zhoršila a celkově to bylo takové "gumové". Proto si dovolím tvrdit, že zaplněná VRAM systém tolik nebolí, jako právě hry.

A jestliže akcelerujeme přes GPU kdejakej pred, kterej si ukrojí, řekněme přes 1GB po spuštění všeho moderního bordelu, včetně prohlížeče, tak u 3GB karty už nastává problém. U 4GB nastat může také. To je to, na co upozorňuji. Ano, dá se kde co povypínat a pokud poběží jen samotnej OS (u W7 si s aerem OS alokuje něco kolem 100MB z VRAM), tak těch 100MB tvoří naprosto minoritní režii. Jenže (a teď "neútočím" jen vůči Ladisovi), dnešní hraní je jiné než před léty a spousta hráčů mimo hru, má puštěnej nějakej kecálek (a nemusí jít nutně o multiplayer hry), stejně jako má vícero monitorů, kouká u toho na nějaké streamy nebo jiné hovadiny (já takovej exemplář zrovna nejsem), čili má obvykle puštěnej primární internetový prohlížedlo a sekundárně mu tam běží hromada instancí chromýho (Twitch "appka", steam myslím i další) a k tomu ještě electron. To je scénář typického hráče v roce 2022. A i kdyby jsme se omezili a řekli, dobře, je to totální asociál co nemá přátele a soustředí se na onlinovky... a nebo vůbec, hraje jen singlovky, tak stejně u toho má obvykle puštěnej nějakej "klient", ať už je to steam, GOG galaxy, Ubisoft, Epic a další. Tihle hráči obvykle netuší, co je to HW akcelerace a ani neví, že se to dá vypnout a může to způsobovat problémy. A kdyby náhodou byl poctivec a sejmul toho klienta, tak má obvykle spuštěné internetové browsidlo, protože se občas ve hře dostane do problému a hledá paralelně řešení. U onlinovek je to prakticky nutnost, protože každou chvilkou nějakej patch upraví parametry hry a hráč tak hledá optimální řešení pro nejvyšší DPS. Stejně jako sleduje taktiky, dění v guildě/clanu a podobné.

Přijde vám tohle jako málo důvodů k tomu, aby se vynechalo "standardní" obsazení VRAM tímhle bordelem co jsem zmínil? Dobré 3 roky už prakticky nehraju, naposledy jsem zapnul hru někdy v prosinci, na možná? dvě hodiny. S tou komunitou jsem ale stále v kontaktu a už v roce 2015 vypadal průměrný hráč přesně tak, jak to popisuju, dneska naprosto nevyjímaje. A i když ten člověk hrál na šunce a padal mu framerate, nic z toho výše zmíněného rozhodně nehodlal obětovat, doslova nikdo. Pohyboval jsem se ve vzorku minimálně 300 lidí z celého koutu ČR, včetně několika desítek zahraničních.

A přímo pro Ladise: to že jsem to zjistil a občas povypínal nutné, když mě ten stuttering vyloženě vadil, ze mě dělalo vyjímku. Drtivá většina to řešila tím, že prostě koupila novější železo a nazdar. Pro ně byla ta karta z toho důvodu obvykle nepoužitelná, "nevýkonná". Já sám to nevypínal, protože u onlinovky si prostě potřebujete povídat a i když existuje (ještě stále) TS3, tak nikdo kvůli vám nebude z discordu přecházet na TS3, protože máte starej HW. Stejně jako vás pošlou do pr..yč, když budete tvrdit, že se na to teď nepodíváte, protože když zapnete internetové browsidlo, zpomalí vám to hru/způsobí stuttering. Že vám to přijde absurdní? To nikoho (mezi nima) nezajímá, takhle to funguje.

+1
0
-1
Je komentář přínosný?

Ty jsi absurdní. Pokud někdo dělá náročný multitasking, včetně multimonitoringu, tak si koupí odpovídající HW a hotovo. Sám píšeš, že to lidi z tvé komunity takhle vyřešili. Pak je tu i ten zbytek v ČR miliony minus těch tvých 300, který hrajou jen pro odreagování, na budget sestavách. No tak jim to neběží 120 fps, občas to škubne, stejně se za chvíli postřílej a jede se nanovo. Mimochodem tyhle onlineovky jsou dělaný tak, aby je mohl hrát každý, takže fungují i na lepších iGPU - a tam není žádná VRAM ;-)

+1
0
-1
Je komentář přínosný?

Nejsou to jen totální casualové, někdo to i pushuje a hraje to na plečce. Na novej HW nemá, je nezaměstnanej, má akorát nějaké šmeliny a hraje to pořád na 4GB tonze. Já tehdy jako student taky neměl na lepší železo, proto jsem to oddaloval co to šlo. Myslete na to, že poslední dva roky lidé grafiky prakticky nekupovali, protože to stálo totální nesmysl, nebo šli do mainstreamu, kterej byl taky mimo, ale když už museli, tak nebyl tak moc mimo.

Ano, onlinovky jsou dělané aby je mohl hrát každej, jenže stejně, když vám začne něco kecat do VRAM, stuttering minimálně u toho wowka nastal.

K iGPU, novější kousky jsem tu neměl, ale pustil jsem to na mobilním haswellu s nejvyšší iGPU (ale ne tou s embedded dram). Na 1280×800 to při nízkých detailech dělalo něco mezi 10-20fps, nějakej microstuttering by člověk ani nepostřehl, protože se to trhalo celkově.

PS: málem bych zapomněl, ten exemplář zmíněný nahoře, není jedinej. Jsou tam nějací invalidní důchodci a podobně. Ono totiž dneska člověk, který chodí do práce na 8h "směny", nemá na aktuální MMO hry čas. A proč se k tomu vracím, zrovna on měl totiž multimonitoring. Přesněji, nevybavuji si moc lidí, co by mělo pouze jeden, jako jsem měl já (a to jsem oproti nim na to prachy měl). Nejsou to vzácné vyjímky a ač to zní absurdně, nějaké vyjímky to nejsou. V té hře jsem potkal víc osudů, ale zmiňuju jen to, co jsem znal déle než jeden večer.

+1
0
-1
Je komentář přínosný?

Tak pokud je v Česku nezaměstnaný jako styl života, tak proč ne. Třeba ho minimalistický způsob života i baví (využívat věci do maxima). Mám kolegu v práci (taky programátor), který většinu peněz (mimo nájmu apod) utratil za alkohol a cigarety. Půl roku mi tehdy splácel PS4 + 3 hry (hlavně Zaklínač), LED televizi dostal od kamaráda za odvoz (do té doby měl CRT TV!). Od mámy si půjčit nechtěl, protože ta by za to chtěla změnu jeho života.

PS: Pobavilo mě tvoje PS, že MMO dnes hrají hlavně invalidní důchodci - minimálně duševně ;-)

PPS: Na hraní si ten druhý monitor můžeš vypnout.

+1
0
-1
Je komentář přínosný?

No, řekněme, že je to něco podobného, jen práci nemá několik let, protože ho tohle nebaví, támhleto nechce a tak. Vyhovuje mu to. Znám takových víc, stejně jako jsem potkal několik invalidních důchodců a spoustu lidí, kteří mají nějak podezřele moc času na to, kolik toho dělají. Kdyby to byli dohromady dva, tři, tak budiž, ale je jich podstatně víc. Těch co pracují a stále hrají, už moc neznám. Tím netvrdím, že jich je nula, ale přijde mi, že je jich tak do 20%, většinu tvoří studenti a "nemakačenka". A právě tahle skupina má obvykle horší železo. Jo, málokdo z nich bude asi provozovat 3GB 7970. Studenti co takovou kartu měli, tak už obvykle dostudovali a mají něco lepšího (pokud ještě hrají), ti co začali hrát nedávno, 7970 asi přešli... i když, doba relativně nedávno byla zlá a lidé byli schopni dávat opravdu velké částky i za bazar (pořád byl dostupnější jak aktuální železo). Ale to bych do toho asi úplně netahal :)
Cíl bylo to, že se ještě na starém železu hraje, stejně jako hráči tyhle věci neřeší a pořizující si lepší HW, ale zároveň jsou hráči ve větší množině studenti, kteří na hi-end obvykle nemají (raději to vrazí do hader, telefonu a krávovin). Stejně jako to, že dneska málokdo zapne jen samotno hru, protože se vše distribuuje skrze nějaké "klienty", které vypíná minimum hráčů, stejně jako se "vyvinula" herní subkultura v pravidelné sledování streamů při hraní a tak.

To PS jsi pochopil špatně, je to o tom, že dneska mimo "casual" úroveň málo kdo najde čas ;) (teď řekněme jede dost LA, sice tam ten "daily" grind lze omezit na desítky minut/den, je tam přítomný zase jiný grind/rutina a stejně v tom ten člověk spálí. Pravda, zapomněl bych na hry typu MOBA a battleroyale, tam toho času tolik pálit nemusí... ale spousta z nich ho tam stejně spálí).

+1
0
-1
Je komentář přínosný?

Za mých časů si ti studenti - a i nemálo těch důchodců - radili, jak věci poladit (příkazy v konzoli Quake, modování Morrowindu, aby jel na prvním Asus Eee PC, ...). Pokud mu dneska nevadí, že se mu seká kvůli bordelu, co mu tam souběžně běží - jeho věc. Nebudu ho litovat (možná to po čase ani nevnímá). A pro ty, co potřebují 4K 120 fps pro grinding, tak si to zařídí (např ten nový mobil oželí).

+1
0
-1
Je komentář přínosný?

Tady je problém, že se dneska vypěstovala taková neochota. Naštěstí není takovej každej, ale spousta mých vrstevníků a mladší neakceptuje rady, protože oni sami ví nejlíp a pokud náhodou ne, tak franta, jeho nejlepší kamarád, ví všechno nejlíp. S tímhle jsem bojoval, asi to byla moje blbost se do toho míchat, ale nějak mi vadilo, když se vybíralo podle dizajnu a podle franty. Ti starší se obvykle radili se mnou a (teď se fakt nechci chlubit), neměli s mými poznatky a radami nikdy problém. Někoho jsem i nasměroval a je schopen si informace dohledat sám, někdo jen očekává hotové řešení, protože to prostě nechce studovat.

Ostatně, dneska mi přijde, že převládá hlavně ta neochota si něco nastudovat, dohledat. Vede zkrátka co největší přímočarost k odpovědi. Není to nic nového, ale tím jak se dneska na všechno točí video, tak je ochota číst a zkoumat omáčku okolo ještě horší. Stejně jako spousta lidí např. řeší parametry, jako je framerate, ale neřeší kvalitu zpracování. Zajímá je, aby to přežilo záruku a někdy ani to ne, kdyžtak to prostě vyreklamují. U "herního" HW je to řekněme pomíjivé, ale třeba výběr televize řeším i s ohledem na kvalitu provedení. Pak se eliminuje to, že u samsungů nebo LG (teď z hlavy nevím) po letech začaly odpadávat čočky z LED podsvitu, nebo se přehříval SoC a tak. Mě osobně by to vadilo a jiným to taky doporučuju (pokud se mě někdo zeptá). Naštěstí už nikdo moc neotravuje, tak mám od tohohle klid. Maximálně mě trochu vnitřně vadí, když umře hezká technologie, která byla lepší, ale dražší a běžnej franta to neviděl, neocení.

A ano, podobnej přístup mám právě k těm posledním větám, co jsi zmínil. Těm lidem to vadí, ale řešením pro ně není zabít ty programy, stejně jako pro ně není řešení chodit do práce. Místo toho na to raději budou nadávat a přemýšlet, jak s tím nějak vyjebat bez námahy, bez práce. Je to stejné, jako když jsem tvrdil, že Win10 je neustálá beta a ty nucené updaty jsou zlo. Dokud to uživateli funguje, je spokojenej. Když mu to začalo předhazovat reklamy, zanadával si, ale už je na všudypřítomné reklamy zvyklej (na mobilu, televizi, webu, ...). Když se mu to pak ale posere kvůli updatu, tak je to najednou ošklivý, zlý systém a "ty ajťáku, mi pomoz". Když problém vyřešiš, stále je to ještě ošklivý a zlý systém, ale za měsíc už není, za měsíc je to nejlepší systém na planetě. Po nějakém měsíci se to posere znova a celé se to opakuje. Obdobné mi to přijde mimochodem i v politice, ale tu sem tahat nebudu (myšleno tím koloběhem, kdy se zapomene, co kdo kde kdy udělal nebo vypustil z úst). Ale to já ovlivnit nedokážu, neumím a po tom všem, co jsem si od lidí vyslechl, vlastně už ani nechci.

+1
0
-1
Je komentář přínosný?

Ta generace na to dojede. Ta starší se aspoň nebála práce, takže třeba zmenšení ikon v taskbaru nebo jeho přesunutí na bok vyřešili koupí externího monitoru.

PS: Taky mi vadí, když umře hezká technologie. V mém případě 3D TV. Skoro každý, kdo má 2 oči, ten rozdíl vidí (narozdíl např od 4K). Tak snad mi LG 3D TV neumře a budu si moct užívat filmy ve 3D i doma. Hodně jich je v kině nabízeno ve 3D a každý takový je pak i na BluRay 3D - v Česku sice skoro nic, ale řeším to spojením anglického torrentu a českého dabingu z 2D verze. 3D TV v pasivním provedení ani není drahé: TV akorát potřebuje navíc jeden polarizační filtr (sudé řádky polarizovat jinak než liché) a pasivní brýle (oficiální od LG) jsou 4 za 600 Kč (a fungují i brýle z kina, takže máme zásobu, když přijede širší rodina).

+1
0
-1
Je komentář přínosný?

Je to možné, ale možná se mýlím(e). Jejich přístup je jinej. Jsou místa, kde je "stařecký" konzervativní přístup na škodu, někde je naopak nutností. Vidím to ve firmě, vidím to i na svých rodičích, mezi mnou a jimi je totiž přes 40 let. Když jsem byl na fakultě, tak jsem díky předchozímu studiu měl problém s matematikou - něco reálně vypočítat. Rozuměl jsem té teorii, uměl jsem ji aplikovat, ale když došlo na některé věci ze střední, tak problém. Bralo se to všechno z rychlíku a celé se to šilo na míru maturitě. A když jsem navštěvoval technické předměty, říkal jsem si, proč vlastně bojujeme proti kalkulačkám, kdy se stejně všichni po studiu úzce specializuje na něco konkrétního a opravdu v práci nebude na papíře počítat velké matice, nebo dvojné integrály, ale nasype to do matlabu nebo ještě lépe, do hotového nástroje, ze kterého mu vypadne výsledek, se kterým dále pracuje.

Tím teď nechci narážet na bídnou úroveň našich škol, ale na to, že se razí stále cesta mechanického opakování věcí, které později využije naprosté minimum, zpravidla ti, co pokračují dál jako doktorandi. Zbytek si odnese sebou pouze základní znalosti a princip, počítat to už nikdy nebude. Stejně jako tam byla spousta předmětů, které byly z mého pohledu naprosto k ničemu, protože rychlost ISDN linky, pokud to někdy budu potřebovat, si dokážu najít během pár vteřin na telefonu. Dneska má telefon prakticky každý a přístup k internetu též. A když náhodou ten telefon ani internet nebude, myslím si, vědomí o rychlosti ISDN linky nám bude v ten okamžik naprosto k ničemu a budou nás trápit zásadnější problémy.

K té technologii, narážel jsem tím třeba na plazmové televize. LCD je kvalitativně horší, plazma vymřela kvůli nákladům na výrobu a zájem lidí. Ani OLED plazmu v některých parametrech nepřekonal. Navíc, a to si moc lidí neuvědomuje, plazmy byly právě díky své "náročnosti" udělané opravdu robustně a kvalitně (pokud se pořídil "japonskej" panasonic, a to platí stále). Stejně jako se zabily kvalitní SSD disky s MLC flashkama, sice se u TLC povedlo zvednout přepisy díky vrstvení a použití hrubší struktury, ale pořád je to v jistém smyslu downgrade proti mechanickým diskům. MLC s 1000 a více přepisy na buňku překonávali. Navíc se to všechno honí přes cache, ty TLC flashky jsou neskutečně pomalé, pokud dojde na ně samotné. Optane, tedy 3Dxpoint vypadal skvěle, řešil bolístku flashky - přístup po 4k blocích, ale tady chápu, že málokdo ocení tenhle přístup. BFU řeší jen cenu, marketingem uváděnou sekvenční rychlost a občas někdo koukne na údaj "TBW", protože DWPD by vypadal trapně.

A nejhorší je ten ekoterorismus, který je vyjímečně opravdu zlepšením kvůli ekologii, ale většinou jen dobrej byznys. Řekne se solár, ale nikdo tam nevidí tu baterii, která je tam nutná. Stejně jako si strašně málo lidí uvědomí, že naprosto všechno co se vyrobí, stálo energii, suroviny, čas. Pak tu nemají být ty slavné "mystery boxy" a podobné hovadiny, což není nic jiného, než skvělej byznys s plastovým a elektronickým odpadem, a ti lidé za to ještě platí :)

No, nebudu to tapetovat. Já to nezměním, mohl bych se opakovat jako kafomlejnek a mnohdy mi nezbývá nic jiného, než to prostě akceptovat, protože schůdné řešení by stálo hrozné peníze, které potřebuji na přežití, nebo by stálo hromadu času, který mám taky shora omezený.

+1
0
-1
Je komentář přínosný?

Hm, to by chcelo skúsiť na tej karte Anermine modded driver. :-)

+1
0
-1
Je komentář přínosný?

To je prdel ....Kupoval jsem si někdy kolem roku 2013 7870 OC 2GB , od kamaráda dostal 280X 3GB a v roce 2019 v rozladění z přehřívající se 7870 zase RX580 8GB ...ani za jednu jsem nedal víc než 5000Kč a koukám jak podobně výkonově na tom celou dobu ty karty jsou ... přitom dneska pro mne PC trh stále nic výkonnějšího ve srovnání s nákupní cenou nenabízí ...
Je to pultová bída ,ale vlastně na co žehrat, když stále je výkonu dost .

+1
+1
-1
Je komentář přínosný?

Tuhle kartu od Sapphire (dual-x myslím) jsem kdysi kupoval od těžaře. Byl to nový kus z reklamace a já ji koupil za krásné 3000.
Bohužel jí začaly hučet větráky asi po 4 nebo 5 letech, tak jsem zkusil ebay a... ty vydržely asi tři měsíce. Originál samozřejmě nesehnatelný a i kdyby, tak by stály víc než celá karta.

+1
0
-1
Je komentář přínosný?

Já měl jeden kus ze dvou (CF) od nějakého aukraře, za 3k, byla zjevně používána, ale dostávalo se ji péče (podle prachu v hůře dostupných částech, jinde ho bylo jen málo). Jeden ventilátor pak po letech začal zlobit a dál... viz můj první post. Blbé je, že tam jsou sračkový čínský ventilátory s "kluzným ložiskem" (jak to honosně nazývají, já to za ložisko nepovažuju). I když jsem to jako vždy vyčistil lihem a posléze dokonale promazal, stejně to bylo načnuté a vracelo se to. Když interval rozborky a mazání dosáhl hodnoty pro mne neúnosné a z čajny se mi fakt nechtělo kupovat náhradní za pětibábu (s tím, že to můžou cestou rozlámat), tak i vzhledem k té VRAM a zastarání došlo k nákupu V64.

Osobně jsem z těch ventilátorů a všeobecně konstrukcí od GA neměl velké očekávání. Na první pohled takové levné plasty, všude otřepy, působilo to "čínsky" (takovej ten jejich styl výroby, návrh, mentalita). Přesto ta karta patřila mezi ty lepší, právě díky tomu chladiči, který až vypadal z mého pohledu hrozně, fungoval. Předtím jsem měl 6870 referenci, ale po roce a něco mi "chcípla" při teplotním cyklu. Tzn. opravitelné to bude, ale já ji odložil a upgradnul. Ta chodila k cca 80°C, VRM o něco výše, nejdřív byla v "otevřené sračkové kysně bez průvanu", později v uzavřené s průvanem, kde byla před mojí koupí, to nevím.

+1
0
-1
Je komentář přínosný?

Děkuji za test. Zrovna před 14 dny jsem Sapphire 280x musel vyndat z PC kvůli vyběhaným ventilátorům. Co teď? Shánět nové nebo jít do současného lowendu? Nebylo by možné test o současný lowend (6400,1630) doplnit? Třeba 6400 s osekanou podporu kodeků by nemusela proti 280x být kromě spotřeby zlepšením. Zajímavé by bylo i nějaké současné AP (5600G/5700G).

+1
0
-1
Je komentář přínosný?

Radeony RX 6400 a RX 6500 XT chci otestovat taky, stejně tak novou GeForce GTX 1630. Ale je otázka, zda mi to někdo zapůjčí.

+1
+1
-1
Je komentář přínosný?

Pokud mohu poprosit, lowend karty změřit taky na MEDIUM detaily a ne jako ostatní, že tam naperou ULTRA preset a pak se chechtají jak to ta karta nedává - BO plná VRAM.
Na RX6400 na ultra nikdo hrát nebude.

A těším se, mám rád testy slabších komponent, protože mají velkou hodnotu ve smyslu koupit či nekoupit?
Když někdo testuje GF3090 tak mě to nezajímá, protože prostě vim že to pojede v klidu jestli má SoTR 265, 170 nebo 110 fps je mi přeci úplně šumák. Tak na co to vlastně testovat. Možná tak pro 4k.

+1
+1
-1
Je komentář přínosný?

Ano, já jsem schválně na tyhle slabší karty detaily ponížil oproti kartám co jsou RX 6650 XT a výkonnější. Nicméně jsem původně nepočítal s ještě staršíma grafikama, takže ještě přidám Zaklínače 3 na nějaký preset Medium bez AA a bez Hairworks a taky na nižší detaily otestuju ještě DOOM Eternal na nějaké nízké detaily, aby to šlo pustit na kartách co mají méně jak 4GB VRAM.

Tenhle týden vydám recenzi RX 6600 a mám slíbenou na test RX 6500 XT, snad seženu i RX 6400, GTX 1630 a nějaké další věci. Starých grafik tu mám dost + jsem dneska zúdržboval a oživil jednu GTX 1080 Ti, takže na tu také přijde někdy řada.

+1
+2
-1
Je komentář přínosný?

Tak se soudobýma kartama půjčení na test nemůže být problém. Prostě ji kup a potom vrať zpátky do obchodu. Akorát to chce opatrně rozbalit nebo ideálně rovnou koupit výrobek s nápisem "rozbaleno"..

+1
0
-1
Je komentář přínosný?

Kupování a vracení se mi nelíbí.

Každopádně problém vyřešen, Softcom je ochotný zapůjčit RX 6500 XT i RX 6400 :)

GTX 1630 asi až bude dostupná v ČR.

+1
+1
-1
Je komentář přínosný?

Karáš nemá nic jiného na práci než 150x upravovat vydané recenze kvůli požadavkům z diskuzí. Současná nabídka je k smíchu (zmíněná 1630 spíše k poblití), tudíž vyčkat na novou generaci a pokud i ta bude urážkou inteligence, tak APU nebo konzole nebo kniha.

+1
-2
-1
Je komentář přínosný?

Lidi mají krátkou paměť a krom tebe nevidím že by to někomu vadilo.

+1
+2
-1
Je komentář přínosný?

Jé to já mám R9 290
Ale půjde pryč, potřebuju něco, na čem jde editovat video a tohle je zoufalství

+1
0
-1
Je komentář přínosný?

Test R9 290 bude taky, mám tu referenci od Gigabyte s nasazeným Arctic Accelerem eXtreme IV :)

Ale je to karta z roku 2013, takže nějaká OpenCL podpora v moderním SW asi nebude dnes nejlepší.

+1
0
-1
Je komentář přínosný?

Podpora výpočtů je na AMD grafikách mizerná i na aktuálních (ovladače).

+1
+2
-1
Je komentář přínosný?

Bohužel je to tak,
podpora komprese/dekomprese, zvukovejch filtrů a podobně je u konkurenci o neskutečnej kus dál
Takže asi skončím u něčeho jako 1650

+1
+1
-1
Je komentář přínosný?

Ono to není ani tolik ze strany ovladačů, jako spíš horší podpora ze strany výrobců softwaru, tam se NVIDIA dobře zaháčkovala a je v podstatě standard a pokud zákazníci kupují primárně NVIDIA grafiky, kde to funguje, proč se zaobírat s nějakým jiným produktem, který skoro nikdo nekupuje?

+1
0
-1
Je komentář přínosný?

Mohu potvrdit z univerzitního prostředí (není to až tak pradávno, co jsem byl ještě studentem). Zaháčkováno jako do fakulty, tak v povědomí uživatelů/studentů (NVIDIA: The way it's meant to be owned) ;)

+1
-1
-1
Je komentář přínosný?

No ne tak úplně. AMD spolupracovala s vývojáři Blenderu, aby ukázali, že "to jde". Ale výsledek "mysleli jsme to dobře, ale dopadlo to jako vždycky". Původní dlouhé OpenCL programy ovladače AMD nedávaly vůbec. Musely se tedy ručně rozkouskovat na mnoho menších, aby to na AMD ovladačích _vůbec doběhlo_. Něco takového je v reálném nasazení nesmysl (firmy nebudou přepisovat programy jen kvůli jednomu z mnoha výrobců GPU). Mno nakonec to samo AMD vzdalo (OpenCL kód) a šlo cestou podpory 3rd-party ovladače ROCm - i za cenu, že zahodili podporu všech GPU před RDNA/RDNA 2:
https://www.phoronix.com/news/Blender-3.2-Released

+1
+1
-1
Je komentář přínosný?

On ten problém bude na straně AMD i v tom, že mají méně peněz a lidí, než konkurence, nejvíce prostředků má z té velké trojice nadále Intel.

+1
-1
-1
Je komentář přínosný?

Ale vzhledem k tomu, jak se daří Intelu, to není jen o lidech a penězích. Obzvláště když se AMD nakonec rozhodlo pro ovladač od OSS komunity.

+1
+1
-1
Je komentář přínosný?

spíš NV na tom pracovali systematicky od začátku co začli prosazovat CUDA - a tlačili to fest a dnes jen sbírají výsledky tehdejší usilovné práce. Takže ve finále si mohli dovolit i mít o něco horší hw než konkurence ale díky vyladěné optimalizaci na svůj hw to stejně dopadlo dobře.
A ani tehdejší propadák - PhysX dnes v době mnohojader už taky jako propadák moc nevypadá - jednoduše se dovedli spočítat co se vyplatí udržet, tedy cpu verzi.

+1
+1
-1
Je komentář přínosný?

Těch OpenCL příkladů bylo víc, hlavně v FPGA aplikací. Asi to nějak chodilo, často to bylo zmiňováno u různých AI/compute aplikacích, tahle věc šla mimo moji dráhu, já na FPGA psal přímo v HDL a s počítačem jsem si povídat nemusel - vyloženě embedded.

Teď má AMD Xilinx a jak se k tomu postavili, to netuším. V reklamním bordelu od Xilinxu mi chodí občas vtipné spojení ještě s intelem nebo nV, když je přímo v úvodu logo AMD, ale tak to hold u akvizicí chodí.

Nechápu, co je na mém předchozím tvrzením "nesouhlasného". Na každé fakultě co jsem byl, tak měli nějaké stroje v nV kartama, protože CUDA. CUDA se tlačí ve spoustě "vědeckého" SW a když se v tom student náhodou pohyboval, automaticky chtěl nV kartu, protože CUDA. Nic jiného ho nezajímalo. Zkuste se schálně podívat na podporu Matlabu v cudě a v souvislostí s AMD (nikoliv jen OpenCL, všeobecně). Našel jsem hned dvě jasné odpovědi a nemusel jsem se namáhat. Sám děkan fakulty mi tehdy říkal (někdy v době pascalu): "Jó, teď tyhle velký matice naprosto s přehledem vypočítáme, máme tu nové výpočetní karty od nV, ty mají kopec paměti a jde to jedna báseň. Zaslali nám jich několik" (neslo se to v tomhle duchu, nekupovali to, dostali to). A to se nebavím o SW firmách jako Oracle a M$.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.