Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD chystá Navi 48 na steroidech?! 3,7GHz Radeon RX 9080 XT s 32 GB GDDR7

A nemalo by vacsi zmysel vydat dual GPU kartu? Dajme tomu nejake mierne podtaktovane RX 9070 (non XT) cipy.

Kde je problem? V ovladacoch pre dual GPU kartu? No tak by museli na SW sakra zapracovat.
V TDP? No tak by to museli nakonfigutovat aby to nepresiahjlo dajme tomu 500W. Preto by boli GPUcka mierne podtaktovane. V chladeni? Suvisi s predchadzajucicm.
V dlzke PCB ci cejej karty? No tak by sa museli snazit, aby to bolo pod 34-35 cm a hrubka 3,5-3,75 slotu.

A vykon by imho presiahol GTX 5090.

Len neviem ci by sa system na taketo monstrum pozeral ako na single GPU, alebo dve samostatne grafiky v dvoch slotoch.

Pr. pustim MfaktO na hladanie delitelov mersennovych prvosisel, alebo GPUowl na hladanie mersennovych prvocisel na grafike (najdenie hocijakeho dalsieho odmena 3 000 $, najdenie prveho 100 000 000 - ciferneho az 150 000 $), vsetko cez CLI a tam si cez switch vyberam GPU 0 ci 1 ci 2 ... podla toho kolko grafik sa detekuje v systeme ........... bohuzial sance su ako v sportke: 1 ku mnoho milionov.

Alebo jeden z dvoch-troch tuctov projektov v BOINC... (GUI klient)

+1
-3
-1
Je komentář přínosný?

Dvě GPU na jedné kartě nedovedu posoudit. Z hlediska SW by v tom zase neměl být velký rozdíl oproti (výhledově očekávané) multi GPU poskládanému z čipletů. Tedy i ta 2 GPU by mohla být řešení. A rovněž by to byla schůdnější cesta, než 2 samostatné karty, kde zase byly další "issues" k řešení navíc.

+1
0
-1
Je komentář přínosný?

je to velkej rozdil proti chipletum.. dve gpu jsou proste dve gpu.. ekonomicky to dava smysl jen kdyz se ve vykreslovani stridaj po snimku, jenze to zhorsuje latence, stuttering, naroky na drivery.. nikdy to nemelo uspech.. kdezto chiplety kremik-kremik se daj propojit rychlou sbernici a celek se muze chovat jako jedno gpu, kde tyhle problemy nejsou.. dual-gpu karty jsou minulost..

+1
+7
-1
Je komentář přínosný?

tak potom chipletova karta z dvoch GPU
tam je aj ovela realnejsia sanca, ze by to system bral ako jedno jedine GPU
(podobne ako pri chipletovych CPU)

+1
-1
-1
Je komentář přínosný?

Čiplety se AMD nedaří použít pro jádro GPU a dvojité GPU je nesmysl. V žádné hře to nebude fungovat. Protože v moderních API je to práce ne na ovladačích, ale na každé jedné aplikaci (hře). Spojení dvou GPU umí v DirectX 12 snad jen 3 hry a spojení 2 různých GPU snad jen jedna.

EDIT: Apple zkoušel čiplety a vzdal to. A to má narozdíl od PC pod plnou kontrolou GPU, ovladače, OS, API a velký vliv na vývojáře.

+1
0
-1
Je komentář přínosný?

Tom Buri - Úspěch to mělo možná na začátku ještě u 3Dfx.

+1
+1
-1
Je komentář přínosný?

3Dfx nepoužívala AFR (střídání jader po snímku).

+1
+1
-1
Je komentář přínosný?

no-X - To sice ne, ale multi GPU ano, je to jeden z důvodů, proč ji Nvidia koupila.

+1
+1
-1
Je komentář přínosný?

Nejsou dualGPU už trochu přežitek, toto tu už bylo před lety a spíš to způsobilo víc problémů než užitku, udělat to tak, aby to dobře škálovalo bylo peklo a efektivita takového řešení byla většinou dost tristní, navíc to trpělo na microstuttering a vysoké latence, takže to stejně bylo na dvě věci, i když to výkon zvýšilo, absolutně se to nevyplácelo, bylo to akorát šíleně předražený, takže se od toho už dávno opustilo, raději bych se k tomu už moc nevracel, buď zprovozní to chipletové řešení, jinak to moc nemá smysl, min. ne jako herní řešení.

+1
+2
-1
Je komentář přínosný?

AFAIK to byl problém z hlediska her. Jelikož sfázování výpočtu a bezešvé vykreslení jednotlivých kousků obrazu na různých GPU nebylo zrovna snadné. Pro čistě výpočetní využití by více GPU nijak nevadilo, leda u výpočtů (AI?), kde je potřeba sdílet data v jedné paměti (což se týkalo právě i těch her).

+1
0
-1
Je komentář přínosný?

peca007 - Některé hry na tom chodily líp a jiné hůř, obecně s počtem GPU už to byl problém, dvě GPU ještě celkem šly. Jenže tehdy bylo zpracování obrazu jednodušší, prakticky žádný post-processing. Dnes už by to bylo horší. Na obecné výpočty nebo AI muti GPU funguje dobře, ale kvůli tomu asi duální karty moc nebudou. I když ntel to zkouší, ale to je čistě výpočetní řešení.

+1
0
-1
Je komentář přínosný?

Neměla by spíše smysl 16GB DDR7 varianta?

+1
-2
-1
Je komentář přínosný?

16 GB ought to be enough for everybody? Dnes v době AI?

+1
+2
-1
Je komentář přínosný?

Stacilo by 24gb, 32 mi moc zmysel nedava. Ziadna hra nevyuzije ani 20, nie to 24 a duplom 32. Zbytocne to kartu predrazi a zdvihne TDP.

Uviidme ci realne neieco bude, MLID toho tiez nakeca vela. Ale ak by aj vysla a konkurovala by 5080, nemam problem svoju 4080 predat.

+1
-12
-1
Je komentář přínosný?

Takhle se někteří smáli RX480/580 8GB, že to je k ničemu. Dnes tyhle karty jako lowend stále fungují bez škobrtání, na rozdíl od jejich 3-6GB současníků. Ano, pro ty, kdo karty pravidelně mění co 2-3 roky, to asi není téma, ale jsou lidé, co si grafiku kupují "nafurt" a používají ji, dokud funguje.

+1
+9
-1
Je komentář přínosný?

To je krasne, ale skor ta gpu odide alebo bude vykonom zaostavat, nez pride limit vram. To iste aj rx480/580

24 je sweet spot, ale vidim, ze minuskarom staci malo 😂

+1
-9
-1
Je komentář přínosný?

Porad mas velikosti textur, ktere se ti do teVRAM potrebuji vecpat. Takze i kdyz budes mit slabsi kartu ale budes moc zapnout max textury, budes na tom v mnoha pripadech lip, nez se silnejsi kartou, kde se ty textury nevlezou. Mysleno ve smyslu vizualu.
Krome toho vsechny RT obezclicky jso zrouti VRAM..

+1
+7
-1
Je komentář přínosný?

To je pravda o tych texturach. Ale pokial viem, nv uviedla / uvedie / uz implementovala (?) nejaku AI compress featurku, ktora znizi zatazenie vram, taktiez aj dlss 4 s novym algoritmom ma nizsie zatazenie vram.

Ale ako som pisal, skor tu kartu vymenis za novsi model s novsimi features a vyssim vykonom nez naplnis 24gb vram. 32 si mohli nechat na top model (udna ?). Argumentacia, ze kartu chces na dlhe roky neberiem. Kedze v 4k to nebude stihat uz za 2r a clovek, co ma peniaze na kartu za 1000+ nebude mat problem vymenit aj rocne. Jedine ak by si hral v 1440p alebo FHD, ale tam tie textury uz duplom nevyuziju ani 16gb

+1
-8
-1
Je komentář přínosný?

Doba obměny se zpomalila. A AI komprese je jen vymýšlení něčeho, co tam není. Zatím to snad nepodporuje žádná hra.

+1
-1
-1
Je komentář přínosný?

LadIQe - Nějaká forma komprese textur je tady už dlouho, spíš ji zkouší vylepšit.

+1
0
-1
Je komentář přínosný?

to viem, len pisem, ze nieco s AI priniesli, co zredukuje vytazenost este viac. Preto mi pride divne, ze 32gb chcu pchat

+1
-1
-1
Je komentář přínosný?

LadIQe - To bude poloprofi na AI podobně jako 5090. Navíc si myslím, že když si hráč u Top modelu nastaví vše na maximum, 32 GB využije. Nehledě na to, že rezerva je vždy lepší, než mít paměť na 100% využitou.

+1
0
-1
Je komentář přínosný?

pravda, ale vies, 5090 je velka krava a momentalne najvykonnejsia karta, preto sa jej tych 32gb hodi: vykonna karta s dostatok vram

tato hypoteticka karta s vykonom 25% nad 9070xt je vykonom mozno okolo 5080. Proste ten pomer mi moc nesedi. Ale zbytocne sa rozplyvame nad niecim, co moze byt len fake news

+1
-1
-1
Je komentář přínosný?

Lidé neustále hledají přímý vztah mezi výkonem GPU a množstvím VRAM.
No tak "9080XT" ve hře nevyužije nikdy 32GB VRAM, ale jen 26....
Co budeš dělat? Hledat způsob jak kvůli tomu narvat na kartu jen 26GB???
Respektive máš dojem že to jde?
Musí být vždy VRAM nacpaná komplet do mrtě?

+1
+2
-1
Je komentář přínosný?

problem je, ze ta karta nikdy nevyuzije ani tych 24, naco ma mat 32? len zbytocne to predrazuje kartu a zvysuje tdp. A zaroven, ked 25% navyse uz musi mat 32gb, preco teda 9070xt nema 24? absolutny nezmysel

+1
-1
-1
Je komentář přínosný?

LadIQe - Pokud vím, tak pro AI modelů je často důležitější velikost VRAM než samotný výkon GPU. Bavit se o tom, zda na hry to ta karta využije, je zbytečné. Jak jsem psal, je to věc nastavení v té hře a rezerva nevadí.

+1
+1
-1
Je komentář přínosný?

no idealne mat balans, ak mas vela vram ale slabe gpu, tak to tiez pobezi vselijako

+1
-2
-1
Je komentář přínosný?

Když máš vela VRAM a slabší GPU tak je všechno cajk, prostě tu VRAM nebudeš mít furt totálně přecpanou jako 4060/3070…
To je blbě?
Pokud ti vadí peníze tak si kup kartu s nedostatkem VRAM, abys náhodou neměl pár MB volných

+1
+1
-1
Je komentář přínosný?

vela vram je fajn, ak hras na 4k, ak to jadro nema ani na 4k, naco ti tolko vram? AI? opat, naco ti je napchat cely model do vram, ak opat, to jadro nestiha? na AI mas bud specializovane gpu alebo kupis nieco, co ten model aj dokaze natrenovat, rozhodne nepojdes do xx60/70 serie

ale ved kludne plat za nieco, co nevyuzijes a co bude za 2r obsolete :D evidentne mas na rozhadzovanie

+1
-2
-1
Je komentář přínosný?

Někteří mají Diit premium a zmínění 24 GB zaznamenali i v textu článku. :)

+1
-1
-1
Je komentář přínosný?

Tak to ani není třeba zmiňovat :-)

+1
+1
-1
Je komentář přínosný?

""""To je krasne, ale skor ta gpu odide alebo bude vykonom zaostavat, nez pride limit vram. To iste aj rx480/580""""

Opět hrubá teorie bez reálné znalosti situace. I RX480 dnes běžně až na pár výjimek zvládá nové hry na medium v 60fps (FSR3.1-Q), VRAM je samozřejmě využitá typicky na 6-8GB.
4GB verze té karty nemá šanci něco podobného zvládnout.

+1
+1
-1
Je komentář přínosný?

no vidis, cize vram sice ma, ale vykonovo uz zaostava, len potvrdzujes moje slova

+1
-2
-1
Je komentář přínosný?

Výkonovo zaostává jak???
Za 5090?
To asi jo...

Ty nemáš správnou představu o slovním spojení "výkonovo zaostává"...
Dnešní hru si na RX480-8G zahraješ v 60fps v grafice, která odpovídá presetu "3X ULTRA" u her, které byly aktuální když karta vyšla. (2016)...
Díky 8GB karta pořád žije dovoluje hrát dnešní hry, výkonovo poněkud zaostává 4GB verze :)

+1
-1
-1
Je komentář přínosný?

ako vykonovo zaostava? presne takto

I RX480 dnes běžně až na pár výjimek zvládá nové hry na medium v 60fps (FSR3.1-Q)

https://www.youtube.com/watch?v=t4SpERfm6NE

+1
-1
-1
Je komentář přínosný?

Máš tam tu 4GB verzi (sleduj Warzone, to je tou VRAM) :) a místy limit na procesoru..
Pokud chceš měřit výkon karty, nemůžes v hrách v roce 25 měřit na 10400f

+1
0
-1
Je komentář přínosný?

Sleduj kolik VRAM pápá Warzone tady na 8GB verzi..

https://youtu.be/GXWkw5hUMqo?si=0Tv3dXPrHhVEYwV3

A tam těch 20fps na 4GB verzi ve tvém videu opravdu není malým výkonem GPU…Ale klidně chlapí bijte hlavou o betonovou zeď dál :)

+1
0
-1
Je komentář přínosný?

nepochopil si, ta karta dnes ma vykon max na FHD low/med, vynimocne na High ak ide o multak

je krasne, ze ma 8gb vram, ale su ti zbytocne, ak chces nieco nove hrat na lepsie detaily a k tomu s RT (taky doom je len RT)

+1
-1
-1
Je komentář přínosný?

Pro zajímavost, Doom (2016) má RT přes CPU (např global illumination, možná i stíny). Už tehdy měly CPU dost jader "navíc" a na takové efekty stačí "řídká" hustota paprsků.

+1
0
-1
Je komentář přínosný?

mozno, neviem, doom 2016 som nehral, videl max yt

ale novy Doom ma novy engine cisto len RT s tym, ze neskor ma prist PT. Na toto ti 8gb vram je na 2 veci, ak samotne jadro je slabe

+1
-1
-1
Je komentář přínosný?

Ano 8GB ti bude v PT na 2 věci i se silným jádrem :))
Potřebuješ 12GB

+1
+1
-1
Je komentář přínosný?

8GB na kartě fakt není zbytečné, koukal jsi na ty dva odkazy? 4GB verze 20fps ve Warzone, 8GB 3x tolik.
Jaký RT?? Je to karta z roku 2016! Bav se o hrách co nejsou DX12ultimate když to ta karta neumí !!

S tebou fakt debata jak s tou drtičkou na šutry..

+1
0
-1
Je komentář přínosný?

To, ze ty nechapes kontext nie je moj problem. Cely cas ti pisem, ze 8gb vram ti je na 2 veci, ak jadro je slabe a stare. Ze to da warzone 3x lepsie ako 4gb je krasne, ale nove hry na tom nezahras a toboz nie tie, kde je vyzadovane RT, ako novy doom

Ale evidentne takto daleko premyslat nevies

+1
-2
-1
Je komentář přínosný?

Tak jak do drtičky na šutry...
8GB u RX480/580 má už roky obrovský přínos, protože už roky si na tom GPU zahraješ hry mnohem lépe než na 4GB verzi.
Ty samozřejmě schválně uvádíš tu hrstku her, co prostě vyžadují DX12u, který karta nemá, aby jsou mohutně demonstroval, že je tím pádem k ničemu.
Ale fakt, že kromě těch dvou.. možná tří? her si na 480-8GB zahraješ stovky když ne nových, tak novějších her, ve kterých se 4GB nechytá záměrně ignoruješ - řekl bych až trollíš...

Prostě nechceš aby historie názorně ukazovala, že dostatek VRAM je k něčemu dobrý, tak meleš pantem jak debil furt to svoje.

+1
+1
-1
Je komentář přínosný?

Ok debil, evidentne zijes minulostou, lebo nieco fungovalo pred tym, urcite bude i teraz 😂

Tak si kupuj 8gb vram, ved i amd ti to potvrdilo, 8gb staci kazdemu 🤷‍♂️

+1
-3
-1
Je komentář přínosný?

Ty jsi ale úplně mimo.... :))))

My tady řešíme u staré karty 4 !!!! vs 8GB....
TY tvrdíš, že 4 stačí....
Já tvrdím že bez 8 si už roky ani neuprdeš, - ani na RX480...
A ty tady teď začněš blábolit ať si koupím (novou) 8GB že to nestačíí..

ANO nestačí woe... U nové karty opravdu NE. Proto mám 16GB VRAM.
Ale neplantej o koze a voze zároveň.

+1
-1
-1
Je komentář přínosný?

😀😀😂 kde tvrdim, ze 4 staci?

+1
-1
-1
Je komentář přínosný?

sorry, tohle neni low-end ani mainstream.. kdo kupuje grafiku za 1000 usd+, ten fakt neresi jesli usetri 30 nebo 60 usd.. ale predpoklada ze mu ta karta vydrzi.. a hlavne karta s 32gb nebude zajimat jenom hrace, viz rtx5090.. mimochodem ja v premiu vidim ze se chysta i levnejsi verze co mozna bude mit prave tech 24gb..

+1
+9
-1
Je komentář přínosný?

Tak ale 5090 na to ma aspon vykon, tato hypoteticka 9080xt na to nebude mat. Jedine ak by to jadro bolo nakoniec ine a prinieslo by vacsi vykon nez 25% nad 9070xt. Ale fakt sparovat 32gb vram s takym vykonom moc zmysel nedava

+1
-10
-1
Je komentář přínosný?

sorry, tohle je jak rozhovor s drtickou kamene.. muzes ji rikat co chces, ona si dal pomele svy..

smysl to dava, kdyz vykon pro ai je u rady modelu vic limitovanej kapacitou pameti jak vykonem gpu.. takze je celkem dost lidi co vybiraj podle kapacity pameti.. prodeje to klidne muze zvysit o nizky desitky procent.. amd fakt nema duvod se pripravovat o ksefty jenom proto, ze ji to v diskusi na diit poradil LadIQe..

+1
+7
-1
Je komentář přínosný?

Lol tak ty taras. Ani nv nechyba 32gb vram, 5070ti staci 16 a 5080S 24. Preco? Lebo optimalizuju. Aj dlss4 je voci fsr4 “lahsi” algoritmus, staci pozriet testy. Pri nich by si zistil, ze nv ma aj nizsie vyuzitie vram.

Ale ocividne vam staci viac pasikov, viac adidas 🤷‍♂️

+1
-7
-1
Je komentář přínosný?

Nedostatek VRAM pro plné RT je ale u půlky prodaných NV známá věc.

+1
+2
-1
Je komentář přínosný?

Pre plne RT na to nema ani 5090 vykon 😀 PT je hudba buducnosti

+1
-2
-1
Je komentář přínosný?

S DLSS má. Stejně se mluvilo o RTX 20 řadě, ale s DLSS Quality mi tam Cyberpunk 2077 jel hezky na 1440p.

+1
+1
-1
Je komentář přínosný?

ano performance, karta za 3k

myslim si, ze stale hudba buducnosti, ty mas aku kartu?

+1
-1
-1
Je komentář přínosný?

""""Pre plne RT na to nema ani 5090 vykon 😀 PT je hudba buducnosti""""

Ty to evidentně akorát neumíš - nebo nechceš nastavit tak, aby ten výkon byl..
Mám Dohráno GreatCircle na 4060ti-16G (Rastr naplno / PT medium - stíny)...

+1
0
-1
Je komentář přínosný?

mam 4080 a ani ta neda cyberpunk na PT

a zaroven, dost zalezi ake RT dana hra pouziva, ake rozlisenie a pod

+1
-2
-1
Je komentář přínosný?

Tak znovu ::: Ty to evidentně akorát neumíš - nebo nechceš nastavit tak, aby ten výkon byl…

+1
-2
-1
Je komentář přínosný?

lol :D to si mam dat vsetko naokolo na low / medium na 4k, aby som mal PT? :D akoze vazne?

+1
-1
-1
Je komentář přínosný?

Můžeš si dát 1440p30 s DLSS na 4K60 s PT. Stejně je to single player hra, takže počítá s input lagem 1/30 sekundy kvůli konzolím. Ale uvidíš to plynule a hires.

+1
0
-1
Je komentář přínosný?

musel by som ist performance mode, aby na 4k/60 dala 4080 PT, mozno dokonca nizsie

to som este neskusal ani Phantom Liberty, ktore je vraj narocnejsie

+1
-1
-1
Je komentář přínosný?

V nativním 4k ti opravdu PT nedá nic, ale PROČ bys dnes používal nativní 4k, když máš TransformerModel???
Dej tam DLSS performance a máš 60fps, dej tam FG a máš kilo+…
Ti říkám že schválně nastavuješ tak, aby to nejelo a pak můžeš říkat že to nejede :)

+1
0
-1
Je komentář přínosný?

Lebo naco mam hrat v horsom obraze s PT? Performance mode na 4k? Ale no tak

A ano, dam tam FG, aby som mal latencie. 😂 jeez netusis co pises

+1
-1
-1
Je komentář přínosný?

Hrej si to jak chceš, jen nevytrubuj, že PT neběží na ničem..
Pak působíš jak dement.
Pokud máš potřebu hrát bez DLSS, hrej v citelně horší grafice (presetu) a ještě plať 2-3x víc..
np.

+1
0
-1
Je komentář přínosný?

Nie dam si ultra performance a 4x fg so 80ms latenciami, hlavne, ze mam PT a 200fps 😂😂

Uff to mi je zazrak toto. Base resolution pod FHD na 4k monitore na karte za
2k. To se vyplati podle dementa 🤷‍♂️

+1
-1
-1
Je komentář přínosný?

Teď zase záměrně nesmyslně přeháníš - trollíš...
Nedávej si jak debil ultra perfomance, ale zkus jen performance.... (1080p)..
Pohlídej si, aby to byl TransformerModel - dokážeš to?
A FG si zapni v režimu 2x, ne víc (stejně víc tvoje karta neumí génie) a dbej na to, aby reálné snímky byly na úrovní 60-70....
S tvojí kartou nebude problém..
A nechovej se jako dítě.

+1
0
-1
Je komentář přínosný?

Este raz, kedze evidentne sarkazmu a ironii nechapes. Ja nebudem platit za kartu 2k a za cely pc 3-4k, aby som na 4k monitore mal base resolution fhd a s fg mal trojciferne cislo so sialenymi latenciami 😂 kvoli blbemu PT, ktory si nevsimnes bez toho, aby na to clovek poukazal a ktore prestanes vnimat 5min po tom, co nad tym pohonis

+1
-1
-1
Je komentář přínosný?

A to je právě na tom světě krásné..
Každý si vybere dle svých priorit.
Trojčlenka "peníze", "počet fps", "kvalita obrazu" funguje dokonale už od 3Dfx.
Buď ušetříš, a nemáš milión fps a PT, nebo zaplatíš jak pes a chceš PT...
ALE Spokojíš se s 60fps nebo víc s FG..
Nebo zaplatíš jak pes a chceš mít 4k a milión fps a budeš tvrdit, že PT nic neutáhne :))

A nebo zvolíš něco mezi.... Ale nemysli si, že jen ta tvá preference je ta správná..
Mě třeba 4k + milión fps naprosto netankuje.

+1
+1
-1
Je komentář přínosný?

O jak moc je horší obraz na DLSS? Bez upscalingu stejně máš pravděpodobně Temporal AA.

+1
0
-1
Je komentář přínosný?

Na 4k monitore vidis performance mode. To uz radsej to TAA

+1
-1
-1
Je komentář přínosný?

Předpokládám na 4K monitoru vidíš jednotlivé pixely 😉

+1
0
-1
Je komentář přínosný?

Lebo 4K je zaruka ostrosti, som zabudol 😂 ale hej, sub-fhd obraz na 4K je ostry ako britva, som zabudol

+1
-1
-1
Je komentář přínosný?

No ty jsi tak nějak zabudol na daleko víc věcí..

+1
0
-1
Je komentář přínosný?

Jaj taze 4k 27 je rovnako ostry ako 4k 38 👍 dobre ty

+1
-1
-1
Je komentář přínosný?

Ostrý :)) to je dosti relativní pojem.
záleží jak daleko od toho sedíš, ty evidentně 30cm...
Já mám regulérně 1080p na 49" a projektor je rovněž 1080p a dobrých 90" :)
No a z 30cm opravdu vidím pixely, ale ze 3m už fakt ne.
zázrak

+1
0
-1
Je komentář přínosný?

Ja mam 4k 55 asi 2.5-3m a nevidim pixely. Ale na monitore to vidiet. Mozno to bude tym, ze mam lepsi zrak ako ty? 🧐

+1
-1
-1
Je komentář přínosný?

Na monitore to vidiet, ale já monitor 3m daleko, takže 1080p pixely nevidiet.
Jinak na dálku mám brýle, takže svět ve 4k zaručen.

+1
0
-1
Je komentář přínosný?

Tak ako mozes porovnat to co vidim a vnimam ja s tebou? 😂

+1
-1
-1
Je komentář přínosný?

Inu možná jsi opravdu nadčlověk....
A nebo jsme si taky možná všichni dost podobní.
Na tom se dá stavět.

+1
0
-1
Je komentář přínosný?

Hah to nie, to su rozdiely, ktore by videl kazdy, najma, ak mas monitor tak blizko. Ak by si programoval a musel cumiet na maly text, ver, ze by si videl kazdy jeden detail a nedokonalost

Preto zvazujem studio display, kedze tam som v istores nevidel nedokonalosti aj ked som nan cumil blizko

+1
-1
-1
Je komentář přínosný?

Jestli tě prostě nevyjde levněji mít ty monitory dva, jeden na hraní druhý na práci.
Jinak to své libido hardwarově stejně neukrmíš :))

+1
0
-1
Je komentář přínosný?

Nad tym premyslam dlhodobo. Ale priestor v 2i na take nemas. Az bude dom, potom take bude. Dovtedy budem penit 😀

+1
-1
-1
Je komentář přínosný?

,

+1
0
-1
Je komentář přínosný?

Když už sis koupil takový monitor, tak si spíše zvykni na TM perfomance než na nízké detaily - ten přínos je citelně vyšší :)

+1
0
-1
Je komentář přínosný?

Kupil som ho kvoli praci a kvoli tomu, ze 5k by ta gpu uz nedala 🤷‍♂️

+1
-1
-1
Je komentář přínosný?

"GPU nedala"....
V jaké hře nedala??
Nebo myslíš, že jsou všechny stejně náročné?
Dyť nejde jen o vztah grafika --- rozlišení.. Nekonečně zobecňuješ..
Tak já budu pokračovat.
Rozlišení dnes už moc neřeš.
Stejně si ho "nadefinuješ" dle nastavení DLSS.
4k DLSS perfomance = 1080p render - ale mnohem vyšší kvalita obrazu..
Quality je 1440p render atd atd.
Nativ je v tak vysokém rozlišení plýtvání výkonem. - Pak ti nejede PT :)

+1
0
-1
Je komentář přínosný?

😂😂 ty dnes ides. Ja nebudem hrat v performance mode 😀 si to zapamataj. Ty si kludne takto hraj ked chces, ja nebudem

+1
-1
-1
Je komentář přínosný?

V tom případě plať jak pes a k tomu hrej o 3 presety níž.
A takové GTA6 už LOW.

+1
0
-1
Je komentář přínosný?

To mozno budes ty, ja pod quality nepojdem. To radsej vymenim gpu

+1
-1
-1
Je komentář přínosný?

Já si myslím, že na chvíli odhoď ego a zkus "balanced" když ne performance..
Rozdíl na 4k nepoznáš.
Zatímco 3 presety grafiky dolů poznáš rozhodně.

Já taky používám jen Quality, ale na 1080p TV. :)

+1
0
-1
Je komentář přínosný?

Tam neje ego, tam je to co ja vidim a vnimam 😀 vsetko pod quality mi pride pixelovane alebo blurry.

Myslis, ze preco som chcel 5k monitor? Na 4k ja tie nedokonalosti vidim. Preto ma sere kazda jedna hra na UE5. Preto nemozem vystat nic pod quality, idealne DLAA. Ale dnesne gpu su proste slabe na to. A ty chces, aby som siel nizsie 😂

+1
-1
-1
Je komentář přínosný?

GPU jsou holt slabé, a ty jsi příliš dokonalý.
Smrtící kombinace.
Ale ne pro mě.

Jinak já nechci abys šel níž, já jsem jen říkal ať to vyzkoušíš..
Podle mě jsi to ani nezkusil.

+1
0
-1
Je komentář přínosný?

Na cb som to skusal hned v prvy den co som dostal gpu a ptom co vysiel transformer model, meh

+1
-1
-1
Je komentář přínosný?

Ty karty nemusí primárně mířit na herní trh, ale na tvorbu obsahu. Tipnul bych si, že RTX 5090 se také prodává více na AI/CC, než na hraní. Nakonec je to pár dní co generace RX 90x0 dostala podporu RoCm.
https://www.amd.com/en/resources/support-articles/release-notes/RN-AMDGP...

+1
+4
-1
Je komentář přínosný?

Na tvorbu obsahu si zvolis nv kvoli radovo lepsej podpore ich cuda, rychlejsiemu renderingu a pod. V tomto profi svete ma bohuzial nv lepsiu podporu v programoch. Staci, ze si das amd vs nv content creation a vsetko su odporucania pre nv, AI nehovoriac

+1
-6
-1
Je komentář přínosný?

Jenže NV tě omezí na VRAM a když se to to do ní nevejde, tak máš prostě smůlu.

+1
0
-1
Je komentář přínosný?

Zaujimave, ze zatial nik na take nenarazil a i ked narazil, stale preferuje nv kvoli podpore 🤷‍♂️

+1
-1
-1
Je komentář přínosný?

Nik nenarazil :-D

+1
-1
-1
Je komentář přínosný?

Tak když budeš jak ovce přeplácet NV, která má ve skutečnosti horší karty (žádná AMD karta nehoří, žádná nemá problémy s ovladači, zatímco RTX 50 jo *mrk*) a bez financí ta podpora AMD karet prostě lepší nebude. Nemůžeš chtít zázraky, ale přitom jak pokrytec dotovat někoho, kdo si nezaslouží ani cent.

+1
+5
-1
Je komentář přínosný?

hori 4090/5090 kvoli blbemu 16 pinu, ktory ide na krv. Ja mam 4080 tiez 16 pin a zatim ok.

>> žádná nemá problémy s ovladači

lol ale maju, v25.5.1 a teraz po novom .2 su otrasne ovladace co citam, black screen, padanie hier a pod smakociny

>> a bez financí ta podpora AMD karet prostě lepší nebude

suhlasim, ale ak mam dat 900e za 9070xt alebo 950e za 5070ti, ver, ze vezmem radsej nv uz len kvoli dlss podpore

+1
-2
-1
Je komentář přínosný?

Klasika, hádka o tom, kdo toho víc podělal než udělal :D

+1
+3
-1
Je komentář přínosný?

To že dostala podporu v reči AMD znamená, že "dá sa to spustiť" ale výkon je otrasný. Pomaly týždeň (v hodinách) od vydania 9070XT som zabil rozpohybovaním ROCm aby to aspoň niečo robilo. CUDA je monopol a vládne tejto sfére, žiaľ, ale to som vedel. Čo som však nečakal že to bude až taká bieda. ZLUDA začína nanovo, HIPS vo Win / cez WSL2 je rakovina.
Jediná funkčná vec je Amuse a aj to AFAIK používa DirectML/ONNX modely, tam je ten výkon ako tak vidieť. Ale ten istý model v tom istom(+-) nastavení cez SD.next na *buntu(6.11, ROCm 6.4.1) je pomaly o 300% pomalší. A to cez "oficiálne" forky pytorch/torchvision ktoré má AMD v repozitároch.

To je ten smutný príbeh AMD - roztrieštená (ne)podpora ROCm, CUDA je de facto plug and play. A to ani nehovorím že ROCm je pomaly 40GB moloch a nesie si so sebou všetko.

+1
+2
-1
Je komentář přínosný?

To máš docela nervy. Já vzdal výpočty na AMD GPU po dvou dnech.

+1
0
-1
Je komentář přínosný?

Zaujímavé že mne tých 24 hra obsadí a k tomu vyše 20 ram....

+1
+1
-1
Je komentář přínosný?

ktora?

+1
0
-1
Je komentář přínosný?

LMU rF2

+1
0
-1
Je komentář přínosný?

LMU ma bug podla toho, co ludia pisu, hlavne zasiahnute su AMD karty

rf2, tam neviem najst nic ohladom vram problemu alebo vysokej usage

celkovo, 2 naprd optimalizovane a nie mainstreamove hry nie su nejaka vzorka toho, ako to bude do buducna

+1
0
-1
Je komentář přínosný?

Jasne všetko má bug....a je mi u prdele čo je majnstrím keď hrajem toto..... . Písal si že neobsadí žiadna hra. Mám 3x 1440 viditeĺných 40 aut.....preto som kupoval tú kartu
Daj odkaz na tie bugy čo píšu...

+1
0
-1
Je komentář přínosný?

https://www.reddit.com/r/LeMansUltimateWEC/comments/1hbbwd5/whats_up_wit...

mozes studovat

>> Písal si že neobsadí žiadna hra

uz sa rataju aj bugnute hry? 1 hra z miliona, vzorka ti poviem :D ale ked tebe robi radost tato neznama karta, len dobre

+1
-2
-1
Je komentář přínosný?

úplne vážne problémy hry.....fakt. LMU je postavená na ISI GMotor 2.5 engine. Toto je jej najväčšie + pre fyziku ale - pre hranie, kedy výkon pc - fps drvivo závisia na výkone CPU. Samo GPU potrebuješ mať výkonné, ale ani 4x 5090 výkon ti bude k ničomu ak ti fyziku najprv nespočíta CPU a pošle rasterizovať. To je dedičstvo ISI - výrobcu profesionálnych simulátorov rFactor PRO s pred 20 rokov. S rF robím a jazdím od r. 2007, málinko o tom viem. A práve preto sa vyrába také množstvo hw aby si každý podľa svojich potrieb kúpil čo mu urobí radosť. Samo u top produktov musíš to aj zaplatiť.
Problém u hráčov LMU + rF2 je že investujú do GPU a nedajú k nej adekvátne CPU. Starý engine potrebuje výkon a fq na 2 jadrá, max 4. Zvyšok ak máš viac je skôr kontraproduktívne. Ja používam Process Lasso k tomu aby som pre hru natvrdo priradil 4 jadrá , dal im najvyššie priority......zvyšok posielam na zvyšné 4. Samo, pre tieto hry je nezmysel HT.

+1
+1
-1
Je komentář přínosný?

ok, pekne litanie, ale opat, co to ma spolocne s tym, ze je to niche produkt pre este viac niche skupinu? to, ze je to neoptimalizovany des je pravda, stale to neukazuje tu podstatu: 24gb vram je na 4k uplne dostatok

+1
-2
-1
Je komentář přínosný?

ešte raz, napísal si že žiadna hra nenaplní 24 GB VRAM. OK?

+1
+1
-1
Je komentář přínosný?

Este raz, bugy v hrach, kde je memory leak sa nerata. To by som mohol ja pisat, ze 128gb ram je malo lebo v macos som mal vyuzitie dockerom 96gb + system + zvysne appky a swapoval som

Ani indiana jones nema take vyuzitie a to sa berie momentalne ako jedna z najnarocnejsich hier na vram

+1
-1
-1
Je komentář přínosný?

Na lokálne AI modely by to malo veľký zmysel. Ak sa celý model zmestí do grafickej pamäti, tak to funguje dobre. Ak sa musí kopírovať časť modelu medzi RAM a grafickou pamäťou, tak výkon klesá o desiatky percent.

+1
+3
-1
Je komentář přínosný?

Furt poloviční výkon je lepší, než když to nepojede vůbec.

+1
-1
-1
Je komentář přínosný?

Na AMD grafikách fungujú lokálne modely, ale nedostatok grafickej pamäti znižuje výkon aj o 90%

+1
+1
-1
Je komentář přínosný?

Proto má tahle AMD 32 GB.

+1
0
-1
Je komentář přínosný?

Mě zajímá jiná věc, protože jí nerozumim.

Hlavně hraju multiplayer Battlefield, ve hře je hodně cheaterů, proto nechci koupit novej "Battlefield 2025/2026" za plnou cenu.
Battlefield V jsem koupil za 39,-Kč a Battlefield 2042 jsem pro jistotu nekoupil vůbec.
------
"EA aktualizuje anti-cheat v Battlefield 2042 tak, aby vyžadoval Secure Boot systému Windows".
https://gamepress.cz/ea-aktualizuje-anti-cheat-v-battlefield-2042/

Rozumíte tomu někdo ?
Nebo je to další pohádka od EA, že bude konec cheaterů ? Protože zatim jsou Battefieldy "cheaters multiplayer party".

+1
+1
-1
Je komentář přínosný?

Prostě chtějí zabezpečený systém. Myšleno zabezpečený od uživatele, aby tam nemohl nic měnit pod pokličkou. Z Windows se stal macOS ;-)

+1
0
-1
Je komentář přínosný?

EA má dojem, že aktivací Secure Bootu (včetně virtualizace (VBS) apod.) zajistí to, že systém nepůjde hacknout pomocí nepodepsaných nebo změněných jaderných driverů, což je jeden ze způsobů jak se dá hra "odpojit a zase napojit" od serverů hry.
Vzhledem k tomu, že u EA mají programátory více než lamerské, bych velkou víru v bezcheatovací hraní nevkládal. Ale zatím co u konkurence s cheatery bojují, např. častými aktualizacemi kódu, u EA se jen kecá.

+1
+1
-1
Je komentář přínosný?

Pravda je, že EA nakecala toho dost, za těch 11let co hraju Battlefieldy.

+1
+1
-1
Je komentář přínosný?

Nebo tvrdili, že nebudou zavírat studia :D

+1
+1
-1
Je komentář přínosný?

RX 9070 XT SUPER :-D

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.