Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeon Software nabídne dynamické rozlišení pod názvem Radeon Boost

Dynamicke rozliseni nechci. Dalsi vec co budu ve hrach vypinat. Zrovna ted jsem zacal hrat Dishonored 2 a taky tech zbytecnosti, co ve vysledku nic neprinasi.

+1
-7
-1
Je komentář přínosný?

Ikdyz teda jedna vec jeste. Casem se bude hodit dynamicke rozliseni v jednom "obrazku". Totiz tohle bude dobry ve VR az budou mit 180 stupnu, tak nejakych 130 stupnu potrebujete mit rozliseni vysoky, ale zbytek se muze nacitat v rozliseni mnohem nizsim. Chce to ale taky, aby ty VRka umely sledovat oci.
Proste technologie VR je stale na uplnem pocatku a implementace, aby to za neco stalo bude trvat roky.

+1
-5
-1
Je komentář přínosný?

Ale zase na druhou stranu, ty VRka jsou pořád zastaralá technologie, chtělo by to implantát přímo do mozku. To na ještě úplnějšíém počátku, než ty VRka.

O čem že je ten článek? Zapomněl jsem...

+1
+4
-1
Je komentář přínosný?

Jo, s čipem v mozku by si mohl mít super rozlišení v celym zornym poli, klidně 360° nebo mnohem vetší barevnej rozsah, HDR+++ včetně ultra fialový a infra červený. To by bylo hustý!! :O

+1
+1
-1
Je komentář přínosný?

hele, to se nikdy nechytne.. nemuze.. je tam dost problem.. vyzaduje to, aby uzivatel mel mozek.. tam je veskery cekani marny.. ):

+1
+9
-1
Je komentář přínosný?
+1
0
-1
Je komentář přínosný?

Nesmysl, chce to přesně to, co vymysleli už dávno ve Star Treku a říká se tomu "holopaluba" (holodeck) ;)))

+1
0
-1
Je komentář přínosný?

veď ty si amd gpu nikdy nekúpiš, tak prečo ťa to zaujíma a pindáš že to nechceš. Nikto to ešte nevidel, neskúsil, ale ty si znalec znalcov a v amd sú kokoti.....
ps. tvoja vysnená zelená má tiež fičúru RTX a je ako tak použiteľná na jednej top karte za 34 k, na ostatných je to paškvil, ale tam je to ok...

+1
+8
-1
Je komentář přínosný?

Dynamicke rozliseni nebude davat smysl nikdy, zatimco raytracing je validni technologie, ktera jen ceka az budou grafiky dostatecne vykonne. Zatim to umi jen jedna za 35K, za par let to budou zvladat i karty za 10K.

+1
-7
-1
Je komentář přínosný?

No a jak by se dalo grafikám pomoct, aby měly na RayTracking dostatek výkonu.. hmmm... co takhle dynamickým rozlišením?? ;)

+1
+5
-1
Je komentář přínosný?

Jako myslis, ze si budeme dobrovolne nechavat zhorsovat grafiku, aby bylo dost vykonu na zlepseni grafiky raytracingem? Dava ti to smysl?

+1
-4
-1
Je komentář přínosný?

a co je DLSS?

+1
+6
-1
Je komentář přínosný?

omg, to je technologia nv, to nemôže byť zlé a poškodiť obraz....Si sa....

+1
+5
-1
Je komentář přínosný?

DebiLni SuperSampling
tam to vyplyva z nazvu.
Ale dostal jsi me, fakt existuji idioti, kteri si nechaji zhorsovat grafiku, aby si ji zlepsili. :-)

+1
-4
-1
Je komentář přínosný?

Já si amdgpu nekupuji, já si ten balíček instaluji :)

+1
+1
-1
Je komentář přínosný?

Je to len klasické dynamické rozlíšenie. Nič prevratné.

+1
+1
-1
Je komentář přínosný?

super doplneni clanku, miluju tyhle informacema nabity posty v diskusich..

nadpis: ''Radeon Software nabídne dynamické rozlišení''
v diskusi: ''Je to len klasické dynamické rozlíšenie''

(:

+1
+7
-1
Je komentář přínosný?

Podobné techniky už jsou nějakou dobu implementované přímo ve hrách a fungují jak na amd tak na nvidii. Jako třeba tady v Apex Legends -

https://photos.app.goo.gl/dt2CiFAFy9Fpk8Ju9

+1
+3
-1
Je komentář přínosný?

Nevím jak AMD ale u NV je další feature, že lze generovat různé části obrazu v různém rozlišení, takže tam kde je focus scény lze přitlačit, tam kde není lze ubrat

+1
+1
-1
Je komentář přínosný?

hm, takže nvidia je genitálna, ona predsa vie kde sa na scénu pozerám ja. Hm fičúra....

+1
+2
-1
Je komentář přínosný?

No a kdy se vrátí do her softwarový renderer? Threadripper by to mohl zvládnout celkem obstojně :-)

+1
+3
-1
Je komentář přínosný?

Tak možná už ten Threadripper ve vyšší konfiguraci by mohl konkurovat Intelí grafice v archaickém rozlišení :D

+1
+1
-1
Je komentář přínosný?

To musí podporovat i engine a naposledy to měl snad engine Unrealu 1/Tournament 1 , ne?

+1
+2
-1
Je komentář přínosný?

Na Youtube jsem koukal na nějaký video s AMD procesorem, na kterém běžel SW render hry Crysis.
V rychosti jsem teď našel pouze Intel https://www.youtube.com/watch?v=VR345X6qO_g

+1
0
-1
Je komentář přínosný?

jediné smysluplné využití mě napadá 8K rozlišení, tohle tady mělo bejt 5-7let zpátky, kdy fullhd dávalo zabrat i vyššímu mainstreamu, dneska, když se prodává radeon rx570 za 3500,- který zládne fullhd rozlišení levou zadní a hrát se s ním dá i na 1440p tak nevidím moc důvod proč to používat. Další generace G. K. 4K rozlišení dostane taky do mainstreamu, takže taky nic,
ještě mě napadají nové konzole, kde se to bude používat jistojistě

+1
+3
-1
Je komentář přínosný?

"terý zládne fullhd rozlišení levou zadní"

Definujme tu levou zadní... maximální detaily v aspoň 60FPS minimech? Ne na to sotva mají karty ani za 3-4 násobek ceny

Takže ano na nějaké redukované detaily, v nestálých FPS RX570 na FHD stačí. Ale aby to zvládala levou zadní, natož v 1440p, ne ...

+1
-2
-1
Je komentář přínosný?

ano poslední AAA tituly v čele s RDR2 asi na ultra ne, ale většinu dnešních her úplně v pohodě, svět není jenom far cry, asasin a battlefield a tyhle náročný hry stejně jedou na high 60fps https://www.youtube.com/watch?v=y3hMgFHVMik já osobně si dokonce cíleně vypínám některé efekty jako je blur a když mi to nejede přes 100fps tak si radši snížím detaily třeba na high a 1440p 8gb rx570 taky zvládne samozřejmě s většíma kompromisama, on je často velmi malý vizuální rozdíl mezi ultra a high, ale velký rozdíl ve fps svět není jenom ultra jako v testech :)

+1
0
-1
Je komentář přínosný?

Tak svět je i Shadow of the Tomb Raider (2018) a ten RX570 taky na full/60 v FHD nedá ;)

+1
0
-1
Je komentář přínosný?
+1
+1
-1
Je komentář přínosný?

Ne - odpověď zní ne. Nedá. Moje GTX 1060/6 je dnes pořád (po všech těch letech a i přes -uznávám- zlepšující AMD drivery) *minimálně* o cca 10-15% výkonnější než RX570. A na full to v FHD nedá ani ona. Takže RX570 nemá šanci. Zase buďme objektivní, ju? ;) ...

+1
0
-1
Je komentář přínosný?

Integer Scaling tedy jen pod 10 ? Jako pod Windows 10 ? :( .....ale tam už softwarové řešení mám :/ . Doufal jsem v podporu už pod Win7 ....Škoda ani tohle mne nedonutí ten beta systém používat jako primární .

+1
0
-1
Je komentář přínosný?

Mňa by skôr zaujímalo, ako na tú zmenu rozlíšenia zareaguje zobrazovacia jednotka = monitor? Mne sa totiž zdá, že odozva monitoru pri zmene rozlíšenia vstupného signálu trvala relatívne dlho, možno aj stovky ms. Alebo to pre Freesync monitory nerobí žiaden problém?

+1
+1
-1
Je komentář přínosný?

Monitor na to nemusí reagovat nijak. GPU může měnit rozlišení, ve kterém renderuje, ale rozlišení na výstupu může zůstat beze změny. Například do 4k monitoru půjde stále 3840×2160, ale chvíli se bude renderovat ve 3840×2160, chvíli ve 3200×1800, chvíli třeba ve 2560×1400, ale na výstupu to může být stále převáděno na 3840×2160, takže monitor nepozná rozdíl.

+1
+9
-1
Je komentář přínosný?

Vďaka za vysvetlenie. Tie output scalery na GPU asi pracujú nezávisle od renderovacích shaderov, je tak?

+1
0
-1
Je komentář přínosný?

Popravdě si nejsem jistý, jak jsou nyní display pipelines po hardwarové stránce řešené. Před dvaceti lety tam byl BES - Back End Scaler - což byl skutečně zcela nezávislý obvod s vlastní pamětí, který se používal především na zvětšování videa. Dnes, když se od display pipeline očekává, že bude schopná zvětšovat či zmenšovat video, zvětšovat či zmenšovat vyrenderovaný obraz na rozlišení monitoru, tak bych se skutečně nedivil, kdyby to bylo delegováno na stream-procesory. Pro ně je to naprosto zanedbatelná zátěž, která se na celkovém výkonu neprojeví a nejsou potřeba další tranzistory a další cache v čipu.

+1
+3
-1
Je komentář přínosný?

Rozlišení monitoru se nemění, mění se rozlišení ve kterém se obraz renderuje a následně převádí na nastavené rozlišení monitoru.

Dnes to už hry dělají, dokonce jen na část scény

+1
+2
-1
Je komentář přínosný?

Nedělají, používá se renderování do textury a podobný věci a to se do žádného rozlišení monitoru nepřevádí.

+1
0
-1
Je komentář přínosný?

AMD prichadza opet s vybornou vecou :) uz to malo byt davno

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.