Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeon RX 5600 XT vydán: Levnější, tišší a úspornější než GeForce RTX 2060

Žiaľ, mínusom sú vadné ovládače. Black screenov sú plné všetky fóra - platí pre všetky Navi karty.

+1
-1
-1
Je komentář přínosný?

Na poslední chvíli to trošku poladili, jde vidět že ten "OC" potenciál o kterém se mluvilo je minimální a na úkor výrazně zvýšené spotřeby.

K dokonalosti tomu chybí HW akcelerace RT a kvalitní HW encodér, za těch pár korun navíc je RTX jasná volba.

AMD má ale problém, kdo bude kupovat extrémně drahou RX5700, 7% výkonu za 25% příplatku

+1
-25
-1
Je komentář přínosný?

Ty jsi případ pro Chocholouška :)

+1
+18
-1
Je komentář přínosný?

..to on uz je dlouho ;)
ps: v ramci Jirkovych "meritek", je to tak karta mozna na 900p, spis 720p a tam ten RT vykon 2060 staci ;)

+1
+14
-1
Je komentář přínosný?

Před půl rokem jsem podobně výkonnou kartu prodal a koupil silnější, takže pro mě to vážně není. Ale pro mnohé ten výkon bude OK.

A ano pro mnohé bude i výkon s RT ok, ne každý potřebuje 60FPS, stejně jako ne každý potřebuje RT nebo max detaily. Každý má jiné požadavky.

+1
-21
-1
Je komentář přínosný?

Ale to platí jen pro tým zelených, že ano? :-)
Pro červené karty se naopak vždy najde důvod, proč je nekupovat, nyní například domnělý malý OC potenciál... :-D

+1
+21
-1
Je komentář přínosný?

OC potenciál fakt není selling point protože většina lidí to koupí strčí do kompu a tím končí. S dnešním HW je to normální, od výroby je to nastaveno v podstatě na maxima a OC už reálně přináší velice málo výkonu navíc.

OC potenciálu využilo samotné AMD tím že to posunulo vysoko jak jen mohli aby drželi krok a konkurenceschopnost se slevněnou RTX2060, což právě invaliduje RX5700, která se stává dost nevýhodnou. AMD sice prodá víc RX5600 ale o to méně prodá RX5700 ze které je určitě lepší vývar. Je to stejné u zelených, lidi dnes hojně kupují 2070 Super místo 2080 Super, rozdíl výkonu není velký oproti cenovému rozdílu kdy 2080/S je díky tomu nejhorší produkt v celé RTX řadě.

Pro zákazníky je to samozřejmě dobře, stejně jako pro výrobce. Zákazník dostane víc výkonu za stejnou cenu aniž by se v tom musel hrabat, výrobce nabízí výkonnější produkt. Pro enthusiasty tu pak ještě skulinka prostoru zbude, i když praktický přínos už bude v podstatě nulový, ale můžou si s tím pohrát. Win pro všechny.

A ano důvody se vždy najdou, už jen NVENC turingu je pro mě důvod si připlatit pár set navíc, je to dokonce featura kterou využívám víc než RT akceleraci nebo DLSS.

+1
-6
-1
Je komentář přínosný?

Už jsem se bál, že tu nezazní argument o RT - zrovna na nejslabší RTX 2060, která ho "akceleruje" je to vysloveně labůžo! Za ty peníze co karta stojí navštívím raději dominu, ta mě zbičuje a na závěr nakope do rozkroku, jedině tak dostanu za své peníze více utrpení! Cokoliv slabšího by totiž bylo stejně útrpné jako hrát na RTX 2060 s RT on

+1
+26
-1
Je komentář přínosný?

:-D :-D :-D

+1
+16
-1
Je komentář přínosný?

Konzole tvoří minimálně polovinu herního trhu a ti všichni trpí s 30FPS a leckdy i propady pod, dobrovolně. Takže proč by lidi nemohli dobrovolně trpět s 30FPS i na PC, když na konzolích mohou. S 2060 na těch 30FPS není problém ani RT, když jde navíc použít i DLSS, může to být daleko veselejší.

+1
-12
-1
Je komentář přínosný?

Äsi proto, že ty hry na těch 30 FPS jsou designované a i tak je to dnes již problém.

+1
0
-1
Je komentář přínosný?

Na co HW encoder, když kvůli tomu jsme si všichni už dávno koupili Intel procesory a zatratily Ryzeny? ;)

+1
+14
-1
Je komentář přínosný?

Kapitán inhell QuickSync? Někdo ho volal? :)

+1
+8
-1
Je komentář přínosný?

NVENC je třeba hojně oblíbený pro streamování u těch, kteří nechtějí double PC setup a nechtějí kupovat nový procesor který by zvládal encoding i činnost co vysílají, přidat pár set do grafiky na vcelku dostatečně kvalitní HW encodér je daleko lepší volba.

+1
-11
-1
Je komentář přínosný?

AMD nema VCE a nema uz od Polarisu dvojity pruchod ?

+1
+8
-1
Je komentář přínosný?

To reaguješ na vetu:
"K dokonalosti tomu chybí HW akcelerace RT a kvalitní HW encodér," ?

Nejak vám AMD fanatikom vypadáva zo zorného poľa slovo "kvalitní", ktoré zamieňate za význam hociaký, hlavne aby bol.

AMD má nejaký enkóder, možno aj trilionkrát prechodový.
Kým Nvidia má bezkonkurenčne najkvalitnejší 265/264 encoder na trhu.

Pokiaľ chcete nejaký encoder, AMD je skvelé! Výsledky mizerné, ale nejaký nie.
Pokiaľ chcete najlepší encoder na trhu, tak Nvidia.

+1
-5
-1
Je komentář přínosný?

HW encoder možná, ale za dekodér bych ruku do ohně nedal. Tuhle jsem si na Pascalu pouštěl 4K film v x265 a na dvou místech se tam obraz úplně rozpadnul. Říkal jsem si špatný zdroj, nebo chyba v síti, na disku nebo v paměti.. ale ono ne. Stačilo použít SW dekódování, nebo Polaris na druhém PC a oba záběry byly naprosto v pořádku.

+1
+1
-1
Je komentář přínosný?

Že jo! Já to říkám pořád!
Je dražší a méně výkonná, to je jasná volba!!!
A kdyby náhodou někomu výkon nestačil, může si zapnout RT a výkon mu klesne ještě o 50%!

... v zájmu vašeho okolí doufám, že neškodíte svými radami při výběru HW ...

+1
+11
-1
Je komentář přínosný?

:))

+1
+4
-1
Je komentář přínosný?

Osobne mam naprosto stejny vykon s i bez zapnuteho RT, vse mi beha konstantne 60 FPS. Zadny propad vykonu nemam.

+1
-10
-1
Je komentář přínosný?

U Tebe vsechno funguje jinak a skvele, na to jsem si uz zvykly a proto jsi jednim z maskotu te "spravne" diskuse ;)

+1
+4
-1
Je komentář přínosný?

Pokud vám to běží na stejných FPS s RTX ON i OFF, pak vám spíš to RTX na té kartě nefunguje.
https://www.guru3d.com/articles-pages/msi-geforce-rtx-2060-gaming-z-revi...

+1
+2
-1
Je komentář přínosný?

Já si své užil s vekou. Samozřejmě, pokud produkt funguje, tak se nic moc neděje, post na foru nevznikne, ale když je něco rozbité, post vznikne a nabalí se další. U veky to recenzentům fungovalo, ale na forech jsem našel různé trable, jen to tak nějak neodpovídalo mému problému. Po dni laborování jsem příčinu našel a rovnákem na ohejbáky "opravil" :)

A i po těch letech se to chová stejně, pořád je potřeba rovnat. Není to nějak zásadní bolístka, asi by to šlo narovnat i v biosu, ale zase, nechce se mi riskovat nějaký velký špatný (vlastně, ona už tu není, škoda), takže to řeším jen SW metodou v CP.

+1
0
-1
Je komentář přínosný?

Ano, je skvělé, že je ve všem o trochu lepší než RTX 2060 a že má člověk zase na výběr. Blbé je, že je to jen o trochu a až o rok později (a ještě na lepším výrobním procesu).

Ale lepší než drátem do oka.

+1
+1
-1
Je komentář přínosný?

ještě blbější to bude, až Nvidia vydá nástupce Turingů, to budou zase protáhlé a smutné obličeje a veškerá argumentace se pak smrskne na větu, že přece AMD je aspoň levnější než Nvidia :-D

+1
-6
-1
Je komentář přínosný?

To je otázka zda je levnější, v nejlevnější katerogii to AMDčku moc nejde.

+1
-9
-1
Je komentář přínosný?

Doplňte větší, nebo menší místo otazníku:
8000 ? 8600

+1
+5
-1
Je komentář přínosný?

Rx5600 neni nejlevnejsi grafika soucasne generace, tou je 5500 a tam ta cena AMD moc nepodarila. Pritom je to segment kde na cene zalezi nejvice.

A rozdil cen u 5600 a 2060 je v pripade oc edic radeonu jen 10 dolaru. To jsou dve piva v hospode v zemich s majoritnimi trhy. Bezpredmetny rozdil

+1
-6
-1
Je komentář přínosný?

To je prostě věčnej boj. Pokud dneska potřebuješ nějakou grafiku (ať už z jakéhokoli důvodu - "stará odešla", "stará je stará a už mi nestačí", "prostě chci novou mladou" ;)) a nehodláš za ní vypláznout letošní minimální mzdu (nebo víc) v čistém, pak co máš na vybranou? Pár měsíců zpět to byla 1660/Ti, dneska je to tahle za 8.200Kč na CZC skladem (a z minimálky už sice nájem nezaplatíš, ale na jídlo ti ještě zbude).

+1
0
-1
Je komentář přínosný?

'' Blbé je, že je to jen o trochu a až o rok později ''

blby je ze adams ma selektivni pamet a u nVidie ochotne zapomene ze rtx2060 stala 11litru a ne 8.. ((:

+1
+9
-1
Je komentář přínosný?

Stejnou pamet ma ale spousta dalsich. Treba rx570 stala 200 dolaru ale dnes se o ni bavime jako o karte za 130-140 a nikdo to neresi

+1
-4
-1
Je komentář přínosný?

todle myslis vazne? rx570 byla vydana za 169usd takze byla jeste levnejsi nez rx470 pri vydani.. a za tu cenu byla hned k mani.. kdyz uz chces lhat, nesmis tak okate.. ((:

+1
+5
-1
Je komentář přínosný?

8GB tak malo nestala a jak vime 4GB jsou na takovou kartu malo

+1
-5
-1
Je komentář přínosný?

4gb byly pred tremi lety malo? na levnou grafarnu pro 1080p? jeeej, proc si to nepsal tehdy, kdyz nVidie davala v tomdle segmentu 3gb.. (((:

+1
+3
-1
Je komentář přínosný?

Hele na nem jsou nejlepsi ty nazorove veletoce...
Kdyz si potrebuje obhajit vysoka FPS, tak jsou tady 144Hz, lepe 240Hz monitory..
Kdyz si potrebuje obhajit mizerna 30fps u RT, tak jsou tady konzole, ktere maji taky 30fps..
atd..
On neni troll..on je jen flexibilni ;)

+1
+5
-1
Je komentář přínosný?

Ty zase perlíš.

Nejseš to ty, kdo mi vyčítá že myslím jen na své požavavky? A teď mi vyčítáš že myslím i na požadavky jiných? Kdybych pořád koukal na sebe tak tu jedu pořád ohraných konstantních 60FPS, RT, max rasterizace, FHD

Každý hráč má jiné nároky

Někdo chce krmit 240Hz monitory (a teď už tu máme 360Hz, že)
Někdo chce mít 60+ a je jedno jak to vypadá
Někdo chce mít 60 a je jedno jak to vypadá
Někdo chce mít 60 a není jedno jak to vypadá
Někdo si vystačí s méně jak 60 FPS, hlavně že si to zahraje
Někdo si vystačí s méně jak 60 FPS, hlavně že to běží a vypadá to parádně
...

+1
-5
-1
Je komentář přínosný?

Hlavne ty troliku na to nezpaomen, az budes ten svuj "veletoc pravd" priste flexibilne pouzivat a delat ze sebe sasulu..stejne jako to delas i tady..
Takove flexibilni jedince ma nejradeji :D

+1
+2
-1
Je komentář přínosný?

To bude sarkasmus...

+1
-1
-1
Je komentář přínosný?

JirkaK a sarkasmus?
:))

+1
+2
-1
Je komentář přínosný?

Doporučil odlišovat to co jsem tvrdil já za sebe nebo kdy se odkazuji na to co tvrdili jiní. dával jsem tu určitě několikrát odkaz třeba na testy 1060 3G vs 6G, kde v podstatě nebyl rozdíl (ne větší než rozdíl v konfiguraci čipu, bohužel nejsou identické), stejně tak je tady spousta testů které to samé tvrdí o 570 4G a 8G, výkon je v drtivé většině případů identický.

našli se tu ale takoví, kteří tvrdili že i 8GB na FHD je málo, třeba když viděli že RotTR si na 1080Ti alokuje 9GB VRAM. To že to ta hra reálně nepotřebuje už ti lidi neřešili. A to že někdo zmiňoval třeba u RX5700 ve srovnání s ještě nedávno stejně drahou 2060 že je bez 8GB nepoužitelná... Staré RX měly podle některých zastánců jasnou výhodu proti 1060 právě kvůli 8GB

Pokud si vzpomeneš, tak v 1060 3G jsem ani nevěřil že vznikne, když se to potvrdilo, tak jsem se k tomu celkem jasně vyjádřil že tohle není dobré. Takže v době vydání jsem to určitě kritizoval, ale 1060 3G nebo 6G jsou pro mě obě irelevantní, ten výkon jsem nepovažoval za dostatečný 4 roky zpět, kdy jsem měl GTX980.

+1
-4
-1
Je komentář přínosný?

V první řadě - žádný 8GB Radeon RX 570 v době vydání RX 500 neexistoval, takže je pofidérní ohánět se nějakou cenou. Referenční návrh 8GB Radeonu RX 570 AMD vůbec nevydala a takovou konfiguraci ani neumožnila vyrábět. Nabídla jí snad až půl roku po vydání.

Mezi 4GB a 8GB verzí RX 580 byl rozdíl MSRP 10 dolarů. Takže je úplný nesmysl tvrdit, že 8GB Radeon RX 570 stál $200, tedy $30 nad 4GB verzí. To by příplatek za 4 GB navíc u RX 570 musel být 3× vyšší než příplatek za 4 GB navíc u RX 580. $200 stály možná nějaké luxusní OC modely, ne řadové karty.

+1
0
-1
Je komentář přínosný?

On je schopen tvrdit různé zvláštnosti.
Např., že je na místě u 32C cpu udávat v recenzi do nevýhod to, že "aplikace a hry neumí 32C využít". Asi si myslí, že workstejšny se kupují na Excel, nebo třeba LOLko. Když se to bude hodit, bude na praseti jezdit pozadu a tvrdit, že kůň je na nic. Celkově takový velmi pružný v názorech :D

+1
0
-1
Je komentář přínosný?

Pořád nechápu kde se to plácáme, jak nVidia tak AMD.
Když se podívám na GTX 1070 , která tu je od roku 2016 .....
Na full HD na ní jede všechno na plné detaily, max člověk něco sníží a stejně to na kvalitě při hraní nepozná, výborné provozní vlastnosti a dala se nedávno koupit na bazaru kolem 4k.
Připadá mi, že pokroky jsou především k ceně opravdu malé (preferuji vyloženě Full HD, cokoliv vyššího je pro mě naprosto zbytečné).

+1
+5
-1
Je komentář přínosný?

souhlas, jsem majitelem 1070 už rok a pul, koupena z bazaru za 7000,- https://www.czc.cz/zotac-geforce-gtx-1070-amp-extreme-8gb-gddr5/192800/p... a nemůžu si ji vynachválit, prakticky nejde slyšet má 8gb a spotřeba je na úrovni právě vydané 5600xt a výkon o 20%? nizžší tomu se říká pokrok, btw, kde jsou ty války o tom že 6gb je málo na 1060 :) a rx470 8gb je best, jsme o 3 roky dál o 50% vyšší výkon (1060vs5600xt) a 6gb je v pohodě? jsem zvědavej s čím přijde nvidia s 3000 řadou, jestli to bude ještě větší ojeb než celá 20ková řada.

+1
+3
-1
Je komentář přínosný?

Přesně, RTX uplně k ničemu, 8GB je málo apod. :) pokrok skoro žádný. Snad zase přijde něco trošku převratného.

+1
+2
-1
Je komentář přínosný?

Jenže máš microsuting(nevim jak se to píše) v DX12, Vulkan.
Si to musíš přepínat do DX11 nebo OpenGL.

+1
+1
-1
Je komentář přínosný?

můžeš bejt konkrétnější nic jsem nezporozoval, je pravda že moc dx12 hry nehraju, co jsem googlil tak něco bylo záležitost ovladačů, ale to se asi opravilo

+1
+2
-1
Je komentář přínosný?

20% vykonu navic a cena o tretinu nizssi, to mi prijde jako slusny posun. V pomeru cena/vykon je to cca 40-50% zlepseni

+1
-4
-1
Je komentář přínosný?

Kde přesně je ta cena o třetinu nizsi ?
GTX 1070 se dá koupit za 5 kkč.

+1
+4
-1
Je komentář přínosný?

Ony se 1070 vyrábí a prodávají nové? Za 5 tisíc? Kde prosím?

V době vydání stála 1070 379/449 (FE)
RX5600XT při vydání 279

1070 stála o zaokrouhleno o 36% více při uvedení (nepočítám FE), pokud má o 20% menší výkon jak karta za 279, tak se poměr cena/výkon vylepšil o 63%, mě osobně takový růst přijde OK.

Podobně s mojí kartou, měl jsem GTX1080, za krásných 699 (21400), FE edice. Po 3 letech 2 měsících upgradoval na RTX2070 Super za 499 (v mém případě prémiová edice, cca 590 - 16000), z mého testování v průměru 32% vyšší výkon, cena o 34% nižší, cena za 1% výkonu o 76% lepší, kdybych bral základní edici, tak je cena za 1% o 109% lepší.

Ano, možná má někdo vyšší očekávání, pro mě je to skvělý posun.

+1
-2
-1
Je komentář přínosný?

Dá se koupit v klidu na bazoši :)
Ten posun je prostě malý a plácáme se sem a tam bez rozumného výsledku. Celé RTX je k ničemu a je to jeden z největších failů nVidie v poslední době, to ví všichni.
Porovnávat cenu v době vydání je k ničemu, 16MB ram taky v roce 97 stálo 11 500 Kč a neonanuju tady nad tím, že máme 16 GB za 4 500 Kč. Vždy se jedná o posun za danou dobu a ten je u grafik v posledních 5 letech o ničem. To bylo moje sdělení.

Musím řict, že mě neskonale potěšilo jak zase lžeš ve svém příspěvku.
Výkon GTX 1080 a RTX 2070 Super se liší o 7 procent, tedy opravdu minimálně :)
To že porovnáváš FE edici s "normální" už je jenom taková perlička.
Prostě si vždycky vylžeš čísla, která se Ti hodí.
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070S-Super-vs-Nvidia-G...

+1
+2
-1
Je komentář přínosný?

AMD ovladače. Mám za ssebou HD7950, FuryX, 1080Ti, Vega64, RX5700 (BIOS XT). Pokud pominu v prvních měsících typicky neodladěné UI pokaždé když ho jednou za pár let překopali, nevzpomínám si na situaci, kdy by mi ovladače AMD umrtvili PC BSOD. Většina problémů vznikala ve spojení s FreeSync. Jeden monitor s ním nedokázal přejít ze spánku zpět do funkčního stavu, obraz se proměnil v duhu. Monitor jsem musel vypnout/zapnout tlačítkem na předním panelu. Dával jsem to za vinu spíš AOC a celkově jednomu z prvních FS 144Hz monitorů na trhu. Funguje do teď. Další FS monitor se mi občas(tak 1 z 10 se nezapne) nezapne při startu PC. Stačí ho stejně jako v předchozí situaci vypnout/zapnout. Na 3 monitoru, největším a nejmodernějším (2 roky starý), jsem problémy s AMD kartama nezaznamenal.
Jako největší softwarový fail jsem za tu dobu zaznamenal jen chybu v ovladačích, kde asi 3-4 měsíce chyběli dynamické stíny a další shadery v Kingdom Come. Nahrál jsem to na youtube, popsal kdy s čím a v jaké verzi a reportnul jsem to na AMD. Za měsíc a půl to bylo opravené.
Co se týče pádů při špatném OC. Řekl bych že je to tak 50/50. Někdy to ovladače udrží a restartujou se. Někdy zamrzne PC.

+1
+5
-1
Je komentář přínosný?

Skoda ze jsou ty karty tak drahe, radeji si za stejnou cenu koupim GeForce RTX 2060 a navic dostanu i raytracing na ozkouseni.
NVidia GeForce RTX 2060 - 1x HDMI, 3x DP, 1x DVI, 1x USB-C = 299 dolaru
AMD Radeon RX 5600XT - 1x HDMI, 3x DP = 279 dolaru + prevodnik DP na DVI = 15 dolaru.

RX5600XT je tak levnejsi o smesnych 5 dolaru.
P.S. Potrebuju nutne konektor DVI na druhy monitor.
P.S.2 Nic nekupuju, jen ukazka toho, jak je AMD ve skutecnosti levnejsi. Je, ale za cenu vykosteni vseho, co premiovy vyrobce jako NVidia nabizi ve standardnim baleni!!!

+1
-11
-1
Je komentář přínosný?

Já vzal na druhý monitor toto a funguje bez problému, je to taky jen pasivní součástka, tak není moc co zkazit. https://www.czc.cz/gembird-cablexpert-kabel-displayport-na-dvi-m-f-bila/...

+1
+3
-1
Je komentář přínosný?

U číňana seženeš i levněji, vážně bych za to nedal 15 dolarů...

+1
0
-1
Je komentář přínosný?

Jasně, ale když nechceš čekat.

Edit: I když pro Redmaxe je vlastně čekání výhra. https://www.aliexpress.com/item/4000571918948.html?spm=a2g0o.productlist...

+1
0
-1
Je komentář přínosný?

DVI má asi jen 10% modelů RTX 2060, zbylých má 3x DP a 1x HDMI (Popřípadě 2x DP + 2x HDMI + 1x DVI). Potřebuješ dnes opravdu DVI, aby to byl pro tebe dealbreaker v rozhodování o koupi grafické karty v cenové relaci 8-12k? Mě je třeba jasné, že "zkoušet" RT na RTX 2060 nemá absolutně smysl, když to ani 2080Ti nedává tak, jak bych si za ty peníze představoval - a dávat +20$ jen za jedno vyzkoušení se opravdu vyplatí.

+1
+5
-1
Je komentář přínosný?

Dve veci:
1. monitor jedna: 32" 1440p - DP, monitor dva: 24" 1200p - DVI, televize tri: 42" 1080p - HDMI.
Takze ja proste to DVI potrebuju. Navic dneska vsechno ma 3x DP + 1xHDMI + (1xDVI) a protoze mam doma jen jeden DP kabel, jeden HDMI kabel, jeden DVI kabel a jeden HDMI-DVI kabel, tak vsechno, kde bude 3x DP a jen jednou jine starsi digitalni rozhrani, je pro me o priplatku za redukci a kabely, coz vyssi cenu NVidie spolehlive pokryje.
A o to mi jde, ze proste je to AMD levnejsi, ale ve vysledku me levneji nevyjde.

2. Stve me vypinani monitoru na DP a HDMI, s cimz si OS Windows 10 (zadne Windows) neumi poradit a neustale to rozhazuje plochu, tudiz na fullHD je dobre pouzit konektor DVI, ktery usporny vypinaci rezim nema a plocha zustava nerozhozena.

+1
-7
-1
Je komentář přínosný?

Já to věděl, čeká na kabel ;)

+1
+9
-1
Je komentář přínosný?

Vždycky se najde něco na co může Redmarx čekat :)

+1
+4
-1
Je komentář přínosný?

Este si mozes pockat na pasivny kabel DP -> hdmi.

+1
0
-1
Je komentář přínosný?

Kupodivu moje 2070S zvlada rt vcetne max rasterizace na 60FPS, konzistentnich. To je naprosto stejne jako bez RT. Divil bych se kdyby to 2080ti nedavala. Mozna to chce koupit a vyzkouset

+1
-5
-1
Je komentář přínosný?

A takhle se přátelé lže :)

+1
+4
-1
Je komentář přínosný?

Neřekl bych že se lže, to samé je, jestli si někdo ty pomluvy ohledně RT a propadu fps cucá z prstu. Když vezmeme skvělý Control, kde je RT naprostá pecka, pak jsem jej hrál ve FHD na 2070S na max s DLSS a RT High v rozsahu 65-90fps dle scény. Takže naprostá pohoda.

+1
-1
-1
Je komentář přínosný?

2070S neni obecne povazovana za "FUll HD" kartu..teda pokud se nechces radit do skupiny "flexibilnich" jedincu jako je JirkaK.
Je celkem nesmyslne argumentovat u karet vykonem v 1080p, kdyz jsou obecne kupovany a brany jako 1440p, nekde i jako "levne" 4k karty. Druha vec je, ze DLSS je "de-facto" upscale, takze pokud je pouzity ve FullHD (pokud to chapu spravne), tak je to uz uplne mimo..

+1
-1
-1
Je komentář přínosný?

A to jsi stanovil ty ? Já vím co se prodává a nejvíce jdou 24" 144Hz FHD monitory a zde je 2070S výkonem zcela na místě. Nemusíš někomu říkat, na co si má danou kartu pořídit a jaký monitor má používat. Každý svéprávný člověk zná své požadavky a má své představy. Dle toho si pořídí grafiku.

Co se týče Control, vůbec nic o té hře nevíš, ale přesně se tady argumentuje jak je RT nepoužitelné. A tím lžete, protože to hrál kamarád v pohodě na RTX 2060, jen si přepnul RT na medium. Hrál to i další na 2070 s QHD rozlišením a také zcela bez problémů. Já mám hmatatelné odezvy, takže vím jak se věci mají. A DLSS se ladilo a právě v Control již nemaže jako dříve, narozdíl od tebe jsem to mohl porovnat. A k tomu si zapneš filtr vyostření a paráda.

Takže mě nemusíš opravdu poučovat, já vím o čem mluvím a narozdíl od tebe si to můžu sám vyzkoušet a otestovat. Předchozí argument byl pouze na pisatele, co píše o lžích. Tady měl Jirka pravdu ať už je jaký je.

+1
0
-1
Je komentář přínosný?

Hele, mi je tvuj Control uplne u zadku, stejne jako to, kdyz si nekdo koupi grafiku, kterou si vetsina lidi koupi na hrani ve vyssim rozliseni a argumentuje jako o zivot, ze preci 1080p je jeho volba a preci se prodavaji 144+Hz monitory. To je presne flexibilita ala JirkaK.
Myslim, ze vic k tomu nemam co dodat snad jen s tim, at si uzijes pekneho hrani :)

+1
0
-1
Je komentář přínosný?

Tak se příště nepleť do komentářů, které se vůbec netýkají tvého přesvědčení, ale reagují na jasnou věc. Jestli si musí uživatel kvůli výkonnější grafice pořídit i QHD monitor je nesmysl, vypouštíš ho zde dokola. Zkus si pustit Redemption 2, budeš rád za 60-80fps a to nebudeš mít vše na max. A 144Hz je pro hráče přínos, rozhodně větší než mít před obličejem plachtu. Takže asi tak.

Jinak díky, hraní si užiju a můžu si také vyzkoušet to co mě zajímá, což jsou nové technologie. Proto jsem dobrovolně připlatil za RTX kartu. Chápu že to zde plno lidí nerozdýchá, ale to se dá na zdejším fóru čekat.

+1
-2
-1
Je komentář přínosný?

Hele a nechces to pleteni nechat na osobnim rozhodovani? :D
To by jsi si preci jinak nesmel koupit inteligentne grafiku za prumernych 15k pro to, aby jsi si mohl zahrat ve fullHD ;)
Tomu se rika totiz jinak kup stoleti, obzvlaste u flexibilnich jedincu...ale uz jste tady takovy minimalne dva solus s JirkouK ;)

+1
0
-1
Je komentář přínosný?

To říkáš ty, který se do toho svobodného rozhodování začal motat ? Opravdu se někdy zarážím, jak chceš mít za každou cenu pravdu a všem ukázat. Já reagoval na článek ohledně RT, přidal k němu svoje poznatky a to je celé. Takže mě už prosím neunavuj tvými bláboly o ničem.

+1
-2
-1
Je komentář přínosný?

"To říkáš ty, který se do toho svobodného rozhodování začal motat ?"
.. zkus cist co je napsano v komentari, ne to co si domyslis. Ja nikomu nearizuji, co si ma nebo nema kupovat. Pouze rozporuji "obecne recena tvrzeni", ktere jsi tady udelal a obecne neni. To ze se najdou jedinci, kteri vysoli 15k za kartu jen proto, aby si spustili jednu povedenejsi (pry) hru s RT a jeste k tomu na FullHD..no ja nevim..kazdeho volba a u fandu tomu i rozumim.
Nicmene presto doufam, ze se lidstvo nebude v masovejsim meritku ubirat stejnym smerem :)

+1
+1
-1
Je komentář přínosný?

Opět trolíš poslední větou, kdy se snažíš dělat z lidí blbce, to je přesně to, čím to u tebe končí. Víš kulové jaké sestavy se prodávají, k tomu mám narozdíl od tebe zcela jiný přístup a vím jak se věci mají. Takže mě nepřipadne nic divné na kombinaci 2070S a FHD. A na příkladu jsem ti napsal, že to není jen o RT, jelikož Redemption 2 si jaksi ve vyšších rozlišeních nezahraješ dobře ani na této kartě. A těch RT her je oznámeno dost, takže si to užiju i u jiných, během toho ty budeš jen prášit po fórech, jak už je tvým zvykem.

+1
-1
-1
Je komentář přínosný?

Aha...takze ja vim kulove a ty mas jednu hru, kde 2070S nedava vysoke FPS..a to je mega argument? :D A jednu hru, ktera vypada s RTX o poznani lip, nez zbytek RTX implementaci ve hrach a to je taky mega argument :D
A ty vis jake sestavy se prodavaji a ja nevim..a to je dalsi mega argument :D
Mohl bych ti tady naskladat X ruzcych review 2070S, kde ji vetsina redakci (mozna vsechny nevim) uvadi jako 1440p kartu. Ale proc bych to delal..ty to preci vis lip...ty vis co se prodava...
Hele sorry, ale pokud chces pokracovat takto dale, tak ty jsi podobnej posuk, jako JirkaK, ze ktereho ma tady vetsina akorat tak srandu.. Jinak v pohode, ja jsem to pochopil, 2070S je 1080p karta ;)

+1
0
-1
Je komentář přínosný?

Zkusil jsi to svým stylem zahrát opět stejně a už se tomu jen směju. Takže se měj tombomino..

+1
-1
-1
Je komentář přínosný?

A proc bych to delal jinak..on si to kazdy precte a udela si obrazek sam. Ja jen tvoje argumenty davam "ad absurdum", protoze i takove jsou.
Mne prijde, ze nic jineho nez si utahovat z nekoho, kdo se pokousi o takovou argumentaci ani nejde..

+1
-1
-1
Je komentář přínosný?

"Mohl bych ti tady naskladat X ruzcych review 2070S, kde ji vetsina redakci (mozna vsechny nevim) uvadi jako 1440p kartu. "

To sa nijak nebije s RTX. Pokiaľ má Thomason s touto kartou 65 - 80 FPS vo FHD, tak bude mať v pohode okolo 40 aj v 1440p, čo je napríklad pre mňa bezproblémové na hranie. :-)

Tak isto o tej použitelnosti či nepoužitelnosti RT s RTX 2060. To je presne o tom, či potrebuješ mať 60 FPS alebo nie. S tou kartou s RT vo FHD budeš normálne nad 30. A vzhľadom na to, že ide o najslabšiu kartu z RTX rady, je to v pohode výsledok. Takže RT je oproti konkurencii výhoda. Nemusí byť výhoda pre teba, či pre iných, ktorých to nezaujíma, to ale neznamená, že by to tak mali vnímať aj iní.

+1
-1
-1
Je komentář přínosný?

Princip je v necem jinem preci Marku. Nikde jsem netvrdil, ze nekdo nemuze hrat s vykonyma kartama v nizsim rozliseni. Stejne jako jestli s kartou za 15k hraje fullHD se zapnutym RT. To je samozrejme kazdeho vec. Je ale rozdil, jestli pouziju argument 2070S + RT + 1080p, jako obecne tvrzeni a nebo jako specialni pripad. V prvnim pripade je to druh demagogie, v druhem pripade, vyjimka potvrzuje pravidlo. Podobne bych mohl treba prohlasovat, ze 16C je skvely na enkodovani Mpeg2 720p videa..ale nikdo si to k vuli tomu normalne nekoupi..a koupi si to nejspis pro 4k enkoding a H265/H264
2060 je kartou, ktera ma pro RT nejmensi smysl ze vsech. Muselo to byt jasne i NV, protoze v jejim refreshi ji dala slusny update a k tomu 2GB VRAM navic. Uz jen tech 6GB pro RT je malo. Muze to pak vez k castejsimu trhani, atd. Ve vetsine recenzi se jako negativum u 5600XT objevuje 6GB v pripade 1440p, ktere ta karta "dava" taky a rekl bych, ze lidi, kteri s nic budou tech 1440p zkouset a hrat bude vic, nez tech, kteri budou na 2060 pouzivat RT. Kdyz 5600XT muze byt jako levnejsi alternativa pro 1440p, kde tech 6GB zacina byt omezujici, jak chces do toho naroubovat jeste RT..
Argument 30fps fakt ne...to je uplne ten stejny pripad. Vyjimka, ktera potvrzuje pravdidlo a pokud se z toho dela obecny argument..je to demagogie. 30 fps je opravdu domena konzoli, oba konzoli mame a oba vime, ze je to "jiny styl hrani". Hrat na stroji s kartou, ktera stoji 9+tisic a hrat 30fps...

+1
0
-1
Je komentář přínosný?

Ja to vidím tak, že je to o tom, čo danému človeku vadí a čo nie a aké má priority. Ja to čo hovorím vzťahujem na seba a neberiem to ako všeobecný príklad. Nikdy mi nevadilo mať nižší počet FPS ak boli nad 30. Vždy som radšej uprednostnil lepšiu grafiku. A dnes v dobe Freesync a GSync monitorov to platí dvojnásobne. Preto nevidím problém ani v samotnom RT na dnešných Turing kartách. Kde napríklad RTX 2070 je u mňa karta, ktorá je aj s RT v pohode v 1440p. RTX 2060 je zasa s RT v pohode vo FHD. Niekto, kto má ale hranice stanovené inak, a trebárs potrebuje mať 60 FPS, tak sa posúva o rád nižšie a tam samozrejme už RTX 2060 nemá pre RT moc zmysel. Tých rozdielných aspektov je ešte viac. Záleží to napríklad aj od hry. Čo som čítal, tak vo Wolfenstein Young Blood má RTX 2060 s RT vo FHD 60 FPS. Takže z môjho pohľadu v pohode aj pre 1440p, kde by podľa tohto mala byť normálne nad 30. Aj nastavenia RT si môžeš upraviť. Viď Thomasov príklad s kamarátom čo hrá Control s RTX 2060 s RT na medium. Proste nie je to čiernobiele. V niektorých prípadoch je aj RTX 2060 pre RT použiteľná, v iných byť nemusí. Nedá sa ale vo všeobecnosti tvrdiť, že je na nej RT zbytočné alebo že to nie je oproti konkurencii výhoda.

+1
+1
-1
Je komentář přínosný?

Ano je to individualni :) ale i presto existuje nejaky vetsinovy konsensus. Kdyz to dam na prikladu vegetarianstvi. Ja muzu tvrdit ze jsem (byt nejsem) vegetarian a vsichni kolem mne (spratelena skupina) jsou vegetariani. Proc ne. Ale v momente, kdyz zacnu tvrdit, ze protoze ja jsem vegetarian a vsichni kolem mne jsou vegetariani, tak ze vegetarinstvi je bezne a vlastne "vsichni" jsou vegetariani, tak je to nesmysl a nebude to pravda. Stejne jako napr. asi velka cast lidi, co dela SW encoding encoding, tak si koupi co nejvetsi multijadro. Ale presto to bude mensina oproti tem, kterym staci 6C. Takze nebude obecne platit, ze si kazdy kupuje 'aspon' 8C, nejlepe 16C. A to je o cem mluvim.
Je to porad dokolecka..vzdycky je nejaky obecny konsenzus, ktery je platny, at jsem jeho soucasti nebo ne, at mi vyhovuje nebo ne.
Vic nevim co k tomu napsat, protoze jedno nevylucuje apriori druhe, ale zpusob podani z toho dela bud to "nesmysl" a nebo jednu z moznosti, ktera obecny konsensus doplnuje a nedela z neho dogma.

+1
0
-1
Je komentář přínosný?

To ale pani vsudyjirik a truhlmarx (pytlmarx) nikdy nepochopia rozdiel medzi typickym vseobecnym scenarom a ich domnelym okolim.

+1
0
-1
Je komentář přínosný?

Původní příspěvek Tomasona: "Neřekl bych že se lže, to samé je, jestli si někdo ty pomluvy ohledně RT a propadu fps cucá z prstu. Když vezmeme skvělý Control, kde je RT naprostá pecka, pak jsem jej hrál ve FHD na 2070S na max s DLSS a RT High v rozsahu 65-90fps dle scény. Takže naprostá pohoda."
Kde je to "2070S + RT + 1080p, jako obecne tvrzeni"? Já tedy v tom příspěvku nevidím, že by psal, že 2070S + RT + 1080p je obecný případ, jen píše o vlastní zkušenosti "pak jsem jej hrál", neříká, že to tak všichni hrajou.

+1
+1
-1
Je komentář přínosný?

Ano :) jenze to vlakno diskuse jde az nahoru k prispevku Villise, ktery rika, ze RT pro 2060 nedava smysl a od toho se to pak odviji dale...

+1
-1
-1
Je komentář přínosný?

Čtu to tady už dlouho sem tam něco napíšu ale Redmarxi ty si fakt super troll, když nemáš prachy na pořádný monitor raději drž ústa. Protože napsat sem takovou sracku fakt můžeš jen ty. K tomu RT, JE ABSOLUTNÍ HOVADINA zkus si to implementovat do projektu třeba v Unreal engine, nebo v Cryengine uvidíš ty extrémní propady výkonu.

+1
+5
-1
Je komentář přínosný?

Vždycky jsem přemýšlel, jestli je tak chudý duchem nebo je to troll. Do dnes jsem na to nepřišel :)
U JirkyK je to jasný, to je troll.

+1
+6
-1
Je komentář přínosný?

Nemuzu za to ze mi AMD nedokaze nabidnout tolik co konkurence. Kdyz bude mit neco zajimaveho, tak to rad koupim tak jako v minulosti. Kdybych dnes musel stavet PC tak bych si treba koupil R5 3600 misto i7. Rozdil vykonu se temer srovnal - pro muj use case - a rozdil ceny uz u me Intel neobhaji. Pred Zen2 tomu bylo jinak

+1
-6
-1
Je komentář přínosný?

Jirko nikdo nezpochybňuje to, že je pro tebe nVidia vhodnější, to je každého věc. Problém je, že tu pod každým článkem systematicky lžeš o výkonech, technických parametrech a cenách. Ohýbáš pravdu k obrazu svému a předkládáš to jako univerzální řešení pro každého. Vždy zapomeneš zmínit, že svými potřebami si exot (bez urážky, v pravém slova smyslu).

+1
+5
-1
Je komentář přínosný?

Lež je vědomá, vědomě rozhodně netvrdím něco co není pravda, naopak. Nicméně jako každý se mohu mýlit. Omyl není lež.

Kde dle tebe lžu o výkonech či technických parametrech nebo cenách?

A ano mé požadavky možná nepatří do mainstreamu, na druhou stranu lidi s podobnými požadavky existují, a je tady spousta lidí co tady odsuzují lidi za koupi HW, dělají z nich trouby nebo idioty.

Příklad, poslední upgrade CPU. Upgradoval jsem na 8700k stálo mě to 22,5 tisíce (CPU, Z370 deska, 32GB RAM) a pro use case pro který byl ten upgrade myšlený to přidalo 50% výkonu proti původní sestavě. Mohl jsem koupit Ryzen 5 2600, upgrade by stál cca 16,5 tisíce (CPU, B450 deska, 32GB RAM) a výkonu by to přidalo 30%. Což bylo méně výhodné, protože za 36% příplatku proti AMD ceně jsem získal 66% výkonu navíc, či jinak 1% výkonu navíc mě u Intel řešení stálo 450 korun, kdežto u AMD řešení 1% výkonu navíc vyšlo na 550 korun.

Podle někdeterých jsem debil,, trol, Intel fanboy a kupuju předražené věci, přitom Intel byl o 22% finančně výhodnější nabídka. Byl bych hloupý, kdybych nevzal Intel, který nabízel jak vyšší výkon, tak lepší poměr cena/výkon. Ale to tady někteří nikdy nepochopí.

+1
-3
-1
Je komentář přínosný?

Preco porovnavas R7 2600 a i7 8700k? To su 2 rozne triedy procesorov. Porovnavaj to s 2700(x). K cene toho Intelu si este prirataj poriadny chladic, to mas dalsich ~ 40 dolarov.

+1
+3
-1
Je komentář přínosný?

Přesně tak. JirkaK chtěl ve svém srovnání původně použít upgrade na Ryzen 1200 + desku + 32GB, čímž by mu vyšlo, že za 9000 Kč příplatek by získal -30% výkonu a tudíž je AMD nekonečněkrát nevýhodnější :-)))))

+1
-1
-1
Je komentář přínosný?

Tady bych se moc neoháněl procenty a nedělal z nich závěry...
Tvůj výpočet výhodnosti totiž trochu nesedí - bereš za základ výkonu těch 30 vs 50% které to přidalo a děláš z toho +66% výkonu, což sedí na zvýšení výkonu oproti původní sestavě.
Jenže když si vezmu obě sestavy jako nové a že obě sestavy zvednou výkon na 130 vs 150% původního pc, tak je ten rozdíl výkonu ve prospěch i7 oproti amd už jen cca 16% a to za tebou přesně spočítaný příplatek +36%.
A to se vyplatí.

P.S.: většinou na tebe či reda nereaguju ale tohle mi nedalo.

+1
+3
-1
Je komentář přínosný?

Vidíš, to je ten problém. Vycucáš si usecase o kterém nikdo nic neví a pak tu házíš přesná čísla o kolik sis polepšil,porovnáváš produkty z jiných tříd (8700k vs R5 2600 místo R7 2700X) apod :) Tak nám ten usecase vždycky sděl, ať si to každý může ověřit.

V tom, že lžeš Tě usvědčilo už několik lidí. Používáš logické chyby a manipulaci i ve svém posledním příspěvku (srovnávání jiných řad), na jejichž základě děláš závěr (22% výhodnější nabídka ....) Lžeš vědomě, cíleně a systematicky, to je na tom to nejsmutnější. Pokud si za to placený tak ok, asi jsou i horší věci jak si vydělávat. Pokud ne, tak je to opravdu smutné.

+1
+1
-1
Je komentář přínosný?

Pokud mas uzivatele co hraji se zamcenymi FPS tak ten rozdil muze byt i presne nula. Pripadne lidem ten propad za lepsi vizual stoji. Je to stejne jako s rasterizaci, vyssi detaily zadaji vyssi vykon nechapu lroc to je problem u rt a ne u rasterizace

+1
-6
-1
Je komentář přínosný?

Pokial by si urobil stojku na rukach a pozrel na svoje zamknute spf 09, tak ten pc rozmlat kladivom a vyhod z okna pre ultra slaby vykon.

+1
0
-1
Je komentář přínosný?

Už jsem se lekl, že nečekáš. ;) Je to drahé v současné fázi technologií. Full HD hraní za 8000 po 10ti+ letech FHD? To je směšné, když 4k zobrazovadlo stojí to samé. A že by ta grafika byla 2x hezčí než na konzoli za 4000? Na podzim (nebo za rok) bude situace úplně jiná - nové konzole + Ampere a 4k bude snad konečně mainstreamem. Tzn. tato kartička bude za 5500 - to by mě lákalo. Takže AMD to nakonec dokázalo - sic omylem (osekanej "high-end" čip) - vydat produkt se vzornými provozními vlastnostmi.

+1
+1
-1
Je komentář přínosný?

Dobrá, "potřebu" DVI i já stále beru jako relevantní, neb u mě a po okolí se válí spousta stále pohodových monitorů, které nic modernějšího nemají a i já raději vidím na kartě DVI nativně. Adaptér ale fakt žádnej problém není.
Na druhou stranu si tě dovolím upozornit, že i prémiový výrobce jako Nvidia v tomto ohledu vykostil každý vyšší model, než je právě 2060...

+1
-1
-1
Je komentář přínosný?

Na prd no, takze stejne u Ampery budu muset kupovat debilni prevodnik na DisplayPort, ach jo. :-/

Idioti, pritom snad zadna televize do 20K zadny DisplayPort nema. Vyrobci grafik jsou koukam idioti obe firmy, kdyz nedaji dostatek konektoru na pripojeni naprosto beznych televizi a nuti lidi kupovat idiotske prevodniky.

+1
-4
-1
Je komentář přínosný?

Buď v klidu, stejně si nic nekoupíš, nevim proč to řešíš :) Něco kupuješ už kolik, 5 let ? :)

+1
+4
-1
Je komentář přínosný?

Televize má HDMI 2.0, zaměř se na HDMI 2.0b (HDR HLG) nebo HDMI 2.1 (pokud ti jde o Freesync). Nebo co má DisplayPort co nemá HDMI? Nebo kvůli chybě v Desítkách čekáš ve špatné frontě?

+1
+1
-1
Je komentář přínosný?

ty vole, tos nikdy neslysel o redukci z hdmi na dvi? dyt je to elektricky to same, jen tam neni zvukovy okruh. radsi si koupim drahou kartu s 2 x HDMI nez aby tam byl 1xHDMI + 1DVI. dyt je to obstarozni konektor s vyhledem do budoucna rovno nula. Tohle se davno resi pasivni redukci HDMI -> DVI. klidne z aliexpressu za 1$, pokud ti jde o kazdou korunu. Chapes vubec co to meles za hovadiny a vymluvy? boze, kdyby mi mel nekdy vybirat komponenty nekdo jako ty, tak se nedivim, ze bych ho musel po par mesisich odstrelit. To je klasicka chyba zacatecniku, kdy kvuli tomu, ze lpi na nejake podruzne kravine tak si odselektuji z vyberu 90% produktu a pritom se spousta tech veci da resit jinak

+1
+6
-1
Je komentář přínosný?

přesně :) z HDMI/DP na DVI/VGA je tuna redukcí za pár korun a on má stále problém

+1
+1
-1
Je komentář přínosný?

..treba na ty problemy taky ceka ;)

+1
+2
-1
Je komentář přínosný?

taky si rikam, jestli treba u RTX 3xxx nebude zase spilat nad tim, ze tam nema jacky na kompozitni video :D
Ja jsem teda taky trochu hipster. Analog z playStation 2 cpu do HDMI. Ale uplne vyhra to neni.

+1
-1
-1
Je komentář přínosný?

Ty vole, a už jsi někdy slyšel o dual-link DVI? Ten z HDMI bez aktivní redukce nevyrobíš, ani kdyby ses rozkrájel. :D

+1
+2
-1
Je komentář přínosný?

On má pravděpodobně starej 1600x1200, čili single link by mu stačil.

+1
0
-1
Je komentář přínosný?

Ty vole, pocul... a to malo byt usmevne? Pan pctredaktor sa znizuje fakt k primitivnym tywole rekciam.

+1
0
-1
Je komentář přínosný?

Koukám že u RX5600XT bude třeba dávat bacha na specifikace konkrétních karet, například MSI bude 14Gbps bantwith nabízet jen u Gaming Z - https://videocardz.com/84466/msi-to-launch-radeon-rx-5600-xt-gaming-z-wi...

Tomu odpovídá i popis třeba na CZC, MSI Mech OC za 8600 a MSI Gaming X za 9800, obě mají jen 12Gbps, dle recenze HW unboxed, ty nižší takty na té kartě znamenají v průměru cca 10% nižší výkon

+1
-1
-1
Je komentář přínosný?

Si kup Sapphire Pulse 5600XT a nemusis lustit krizovky..
V 5xxx serii karet, je Pulse edice vzhledem ke sve cene jedna z nejpovedenejsich, kdyz ne rovnou nejpovedenejsi.

Jinak ta tvoje "jasna volba 2060"..zatim se obchodum/vydavatelum moc snizovat nechce...Silne prevladaji modely zacinajici na cca 330,- Eckach, kdyz neberu momentalni akci nejakeho Shopu.

+1
+1
-1
Je komentář přínosný?

Vidím fanatikov od AMD. Prisadím si aj ja. Síce to bolo spomenuté hneď hore a zaslúžil si všetky negatívne komentáre, i tak to zopakujem:

Nvidia má špičkový NVENC ako pre 264, tak pre 265 a kto streamuje, alebo len potrebuje reencodovať videá, iná možnosť ako Nvidia momentálne nie je, pokiaľ nechce xyz multijadrové PC so spotrebou stoviek W.

Preto nvidia karty kupujú aj nehráči.
To je napríklad aj dôvod, prečo sa oplatí GTX 1650 Super (nový NVENC), ale neoplatí sa GTX 1650 (starý NVENC) a už vôbec GT 1030 (ktorá sama o sebe stačí ako zobrazovadlo, ale nemá NVENC).
Ten NVENC je momentálne to najlepšie na trhu. Kto to nevyužije, má jedno či bude mať AMD ale Nvidia, ale ak príde na streaming, alebo prevody videí, Nvidia je kráľ!

Pokiaľ Nvidia poskytuje najlepší HW encoding, potom ju budú používať streameri. Keď ju budú používať streameri, tým ovplyvnia obrovské množstvo hráčov. AMD môže byť aj o 50% lepšia, ale streameri na nej hrať nebudú.

AMD bude konkurencieschopná až keď dorovná kvalitu NVENC.
Kto sa tvári že to nie je dôležité, nevie aké sú trendy. Ale tváriť sa, že streaming nie je dôležitý, môžte. Rovnako, že nikoho nezaujíma HEVC a 4K.

Či už streamujete hry alebo robíte vlogy, či len striháte rodinné videá, Nvidia s HW NVENC.
Mnoho ľudí by chcelo, potrebovalo len ten Nvidia HVENC. Nvidia to vie a vie že nemá konkurenciu.

+1
-7
-1
Je komentář přínosný?

..uplne jasny "ne-fanaticky" komentar, pranyrujici "fanatiky s "nefanatickym" pouzivanim "nefanatickeho" argumentu HW Encoderu...
:D
Ps: nazdar Vladarko ;)

+1
+4
-1
Je komentář přínosný?

Presne tak!
Fanatika poznáš podľa toho, že keď niekto napíše preukázaný, existujúci fakt ako:
"JirkaK | před 11 hodinami | *
Na poslední chvíli to trošku poladili, jde vidět že ten "OC" potenciál o kterém se mluvilo je minimální a na úkor výrazně zvýšené spotřeby.

K dokonalosti tomu chybí HW akcelerace RT a kvalitní HW encodér, za těch pár korun navíc je RTX jasná volba.

AMD má ale problém, kdo bude kupovat extrémně drahou RX5700, 7% výkonu za 25% příplatku"

Dostane negatívne hodnotenia, teraz -19.

Za samotné poukázanie na pravdu, dostať negatívne hodnotenie znamená, že fanatici neznesú pravdu. Preto sú fanatici, bez ohľadu na skutočnosť.

To že NVENC je špička na trhu, bez konkurencie, je fakt. Preukázaný testami aj reálnou prevádzkou. Ak budeš veľmi chcieť, nájdeš dosť podrobný test. Či už v písomnej forme, alebo niekoľko YT videí.
Ak budeš ešte viac chcieť, nájdeš aj diskusie profíkov, kde riešia túto vec, čo je najlepšie na trhu, ako sa čo cenovo najvýhodnejšie dostať ku NVENC a pod.
Kde riešia či soft enncoding, alebo HW a ktorý.

+1
-4
-1
Je komentář přínosný?

Tak mi ty trolle zkonvertuj tim tvojim fantastickym HW encoderem narocne sceny, typicky nejaky dynamicky kour, prulet mraky za sera, temne sceny obecne, mlha v nocnich scenach, jednolitejsi (presto v ruznych odstinech) barevna pozadi za tmy, mensi zdroje scetla (rychleji pohybujici) se za tmy, vodni trist ve vlnach, atd. v 1080p na par Mbitech. Chci videt ty tvoje mapy a dlazebni kostky, co ti to udela. To nemluvim o nizsich rozlisenich a ani 4k.
Je rozdil mit kvalitativne dobr/nejlepsi HW encoder (v GK) na trhu a nebo tvrdit, ze je to "non plus ultra" featura. ANo, kdo chce kvalitneji streamovat, je lepsi Turing NVENC, porad ale nedosahuje kvality SW encoderu, kdyz mam par jader navic. CO se tyce filmu (ty jsi preci ten filmar ne, ktery ma pocit, ze rozumi IT ? :)) ) tak nikdo pri smyslech nebude tenhle HW encoder pouzivat pro nizsi bitrate.
Vladar, vladar...

+1
+4
-1
Je komentář přínosný?

Keby si si ty fanatický tupý troll dal aspoň námahu nájsť si tie testy, vedel by si, že sa len tupo strápňuješ. Ale pokračuj!

+1
-5
-1
Je komentář přínosný?

No ja vim filmari..ja sice nemam Turinga, ale toho enkodovani jsem si za zivot vyzkousel opravdu hodne, ale to "specialni" lide s leteckymi sklony nechapou a radeji budou trousit ta sva moudra v ramci "svate valky proti fanatikum" dal...

+1
+1
-1
Je komentář přínosný?

Kedže vidím, že tupý troll tombomino nedokáže nájsť testy NVENC, našel som to za teba pre teba ty tupec, tu si zamasturbuj nad obrázkom:
https://unrealaussies.com/wp-content/uploads/2019/02/Showdown-NVENC-2.jpg

Ak tupec zvládneš english, potráp svoju tupú fanatickú hlavičku textom: https://unrealaussies.com/tech/nvenc-x264-quicksync-qsv-vp9-av1/7/#H265-...

Pevne verím, že sa budeš strápňovať a preukazovať svoju tuposť aj naďalej.

+1
-2
-1
Je komentář přínosný?

V poradku vladarko, sice nechapes nic z toho co jsem napsal o 2 prisevky vyse, ale to nevadi. Na to jsem si zvykl.
Ze jsi letadlo to o tebe vi kazdy, kdo s tebou kdy zkousel neco resit...
A uz se tim nemusis dale zabyvat ;)

+1
0
-1
Je komentář přínosný?

Tupý troll tombomino, stačilo aby si napísal, že sa v tom nevyznáš. Čo je síce každému normálnemu zrejmé, ale ukázal by si aspoň štipku sebareflexie, ktorej zjavne schopný nie si.

+1
0
-1
Je komentář přínosný?

V poradku Vladarko :)

+1
0
-1
Je komentář přínosný?

To nie je, ty by si mal byť zavretý na psychiatrií a nie na internete, keď tvoj tupý mozog nedokáže spracovať ani farebne aj graficky zvýraznené údaje.

+1
0
-1
Je komentář přínosný?

Ty a Slovak? Nemas madarske korene? Pretoze on sa pytal na kvalitu tmavych scen, na kvalitu zahmlenych scen, na kvalitu roztresknutej vody. A odpisujes mu len linkami na trapne priemerne testy. A este si pritom arogantny. Ani prarodicia z madarska?

Hw encoder v grafike je len pre bezne zobrazenie obrazu v dost priemernej kvalite. Ten kto sa streamovaniu viac venuje, tak pouziva SW encoder.

A je uplne jedno, ze HW enkoder v gpu je rychly a vo vacsine priemernych scen pozeratelny, pretoze staci, ze su sceny, v ktorych je totalne hnusny.

+1
0
-1
Je komentář přínosný?

To je alias MVladar proflaknuty "IT guru". Hovory s nim maji dlouhou historii. Tvrdi o sobe ze je "filmar" a v diskusich o video kodecich, nechapal, ze se bavime o video kodecich :)) Dalsi jeho oblibena temata jsou "OC Intelu, zejmene HEDT platformy..coz je ultimativni featura", "Intel se bude prodavat ako teple rozky" a podobne.
Vic myslim neni potreba psat. Jinak jeho stav se asi docela zhorsil, oproti drivejsku, podle tech jeho reakci :)

+1
0
-1
Je komentář přínosný?

Som za to, nech si kazdy povie svoj nazor, kazdy ma pravo na chybu, ale nemal by svoj nazor pretlacat "nasilne", nemal by byt arogantny, neslusny, mal by si supera v diskusii ctit a sucasne s nim vediet bojovat, mal by vediet kedy prestat, vediet uznat nazor druheho.

Toto, co tu niektori predvadzaju, je velmi smutne. Kde sme sa to dostali? My mame budovat krajinu pre svoje deti a svojich rodicov? My mame spolupracovat s inymi krajinami? Takymto spravanim? Hanbim sa za takych Slovakov ako Kozoroh.

+1
+1
-1
Je komentář přínosný?

To je právě jeden ze zdrojů ze kterých čerpám.

Tady třeba side by side X264 medium vs NVENC v různých bitratech: https://www.youtube.com/watch?v=VyzADv5pLdY

a jistě najdeme další
https://www.youtube.com/watch?v=95WIfd0iI7Q
https://www.youtube.com/watch?v=nX6QSEmmmG8
https://www.youtube.com/watch?v=-fi9o2NyPaY
...

Lidi co se živí stramováním či jako content creatoři NVENC používají ve velkém a je to pro ně výhodné, ale někteří zabedněnci to stejně budou brát jako názor jediného trolla v diskuzi. každému co jeho jest.

+1
-1
-1
Je komentář přínosný?

Tak si ty troubeline enkoduj nejaky scenove narocny film a porovnej si to s vysledky ktere dostanes pres CPU enkoding. To ze jsi si to ani jednou v zivote nevyzkousel, ale pindas dokola v diskusich to stejne dokola bez jakehokoliv kontextu, dela z tebe akorat vola..To nemluvim o tom, ze QuickSync, ktery tak rado davas k dobru, je jeste na mile horsi nez NVENC..
"Content creatori" ale youtube kanaly, maji vetsinou jednoduche sceny..tam neni v podstate co zkazit..

+1
+1
-1
Je komentář přínosný?

Ty si iný pacient psychiatrie. Tupému trollovi tombominovi ešte aj obrázoček, s farbičkami pošlem a tupec tombomino svoje bludy šíri ďalej, lebo chudáčik nedokáže interpretovať ani farebne zvýraznené údaje z obrázku.

+1
0
-1
Je komentář přínosný?

Proč se pořád a to nemyslím jen tady, snažíš vnutit use case a v kontextu naprosto nesouvisejícího s tématem.

Kolik lidí dělá něco takového? Možná lidí hrajících s RT bude víc než těch co encodují filmy. Tak jak tak nedokážu posoudit co je pro daný případ lepší.

I když připustím že to co tvrdíš je správně, tak to nijak nemění fakt, že NVENC je kvalitnější než HW encoding u AMD a proč si kupovat něco méně kvalitního když to stojí "stejně". 10-20 USD rozdíl je vzhledem k životnosti a celkové finanční nákladnosti na herní sestavu irelevantní, Za 10-20 dolarů je cena celkem obvyklá pro různé mikrotransakce ve hrách, člověk si koupí pěkný skin na zbraň, nějaký hadr na sebe a je v tom možná i za víc než co je rozdíl cen těch grafik.

NVENC je ale běžně užívaný a ceněný u content creatorů a streamerů, zvláště těch amatréských, kteří nechtějí dát do streamovací výbavy čtvrt milionu. Tohle ty zcela zabedněně přehlížíš a pořád točíš svou pohádku o filmech. Koukni na lidi co streamují a koukni jaký HW používají, ve spoustě případů jde právě o encoding grafikou a to i když mají dual PC. Nicméně s novým NVENC potřeba duálních setupů klesá, i9/R7 v kombinaci s RTX2080Ti a nemusíš řešit. GPU má dost prostoru poskytnout dost výkonu na hraní i encoding a 8c/16t CPU je víc než dostačující aby krmilo grafiku i další režije.

A tam je NVENC nejen že vhodný ale hojně užívaný.

A myslím že to jsi ty (ale možná se mýlím), který v kdejaké diskuzi kolem CPU v herních počítačích pořád zmiňuje "když bude chtít streamovat"...

Když bude člověk chtít streamovat, tak použije GPU encoding a má vystaráno bez nutnosti řešit co si ještě může jeho CPU dovolit a co ne. Za ten luxus paradoxně nemusí zaplatit nic navíc. Například u GTX1650Super dostane dokonce lepší výkon za stejné peníze a ještě má nový NVENC, takže ušetří ranec za, pro hraní zbytečný procesor.

+1
+1
-1
Je komentář přínosný?

Mozna by jsi mohl zkusit pochopit jednu jednoduchou vetu... NVENC je zajimavy pro nekoho, kdo jej vyuzije a komu na jeho ucely staci. To je diametralne rozdilne tvrzeni, nez kdyz reknu, ze NVENC je "mega" featura a HW, ktery ji nema, je v nevyhode. Ano u tech lidi, kteri ji budou vyuzivat je v nevyhode, tem vsem ostatnim je uplne u prdele a vzhledem k tomu, ze tech lidi co streamuje, bude asi podobne mnozstvi jako tech, co si kupuji 144+Hz monitor (v nadsazce k pomeru k tomu zbytku, ktery to nedela) tak to nelze povazovat za obecny argument. Krome toho, Navi ma pry vylepseny H265 taky..
Priklad kvality enkodingu je naopak velmi dobry, zvlaste pro Tebe. Je zajimave, ze tady vidis, ze to neni univerzalni priklad (a ja ani nikde netvrdim, ze univerzalni je, ale vzdycky pisu, ze min. pro nizsi bitraty), ale kdyz postujes svoje "zamerne ohnute argumenty" tak, at ti z toho vyjde co potrebujes, tak to nevidis.

+1
+1
-1
Je komentář přínosný?

- x265 beats Turing HEVC at 6Mbps and 4Mbps. But otherwise the best HEVC encoder is Turing. It is also 3x faster than even x265 SuperFast.

- Turing H.264/AVC encoding beats all other AVC encoders tested at all bitrates.

- Neither YouTube nor Twitch accept live-streams of H.265 HEVC at this time.

+1
+1
-1
Je komentář přínosný?

Tohle se bohuzel neda takhle zjednodusene rikat. Ja nemam zkusenosti z enkodingem hernich zaznamu, ale typicky oproti filmovemu materialu, bude daleko "jednodussi" na zpracovani. Problem u nej muze byt treba rychlost nekterych pohybu, ale jinak..
Druha vec je, ze zalezi, jak si pro dany test nadefinujete "vstupni scenu" a "vystupni parametry" podle kterych to hodnote. Tady se to muze diametralne odlisovat od toho, co rika nejaky test. Podobne treba, jako v jedne hre, muzete mit diametralne odlisne narocne lokace a obecne diamteralne odlisne narocne hry.

+1
-1
-1
Je komentář přínosný?

Ne ne, herní content je mnohem horší/náročnější, pak je sport, pak až film jako nejjednodušší. Testuje metodikou Netflixu. Není to nějakej kecal z diskuzí.

+1
+1
-1
Je komentář přínosný?

Vis kolik mas jenom barevnych prechodu v jedne scene filmu, oproti hre v jedne scene?
To by jsi musel mit ty hry kompletne renderovane RT, aby to bylo srovnatelne...
Vis co ti udela "zrno" nebo "snezeni" ve zdrojovem videu s enkodingem?
Se neda vubec srovnavat

+1
-1
-1
Je komentář přínosný?

- čtvrtina (4:2:0)
- RT co to meleš
- zrnění a sněžení je problém, to první v hlavě a druhý v létě

+1
0
-1
Je komentář přínosný?

4:2:0 .. uz ti tam chybela jen jednicka a mohl jsi mit z toho countdown :))
v me hlave je to celkem ok, ale ty nemas paru o cem mluvis. Pro blbe jako ty, kteri odpovidaji na neco, kde nechapou smysl a misto otazky na dovysvetleni maji jeste pocit, ze druhym "snezi".. kdyz budu mit jednobarevnou plochu, tak ta je taky.4:2:0 a je to neco uplne jineho nez barevna scena z vychodem slunce azurove plaze nebo nocni pohled na Prahu. Vsechno.to bude.4:2:0 a kazdou z tech scen prevede ten kodek jinak .. jen Hrdina bude letadlo ;)
Tim zbytkem co se ti nelibil, te nebudu zatezovat, to vis snezi mi v hlave, jeste by mohlo zacit snezit i tobe..;)

+1
-1
-1
Je komentář přínosný?

Dobře, četl jsi ty odkazy, co ti tu dávali, nebo jen tak tapetuješ diskuze sračkama? I kdyby to měřili na videu a záběru typicky třpytící se vodní hladiny během mlhy a sněžení, tak to pořadí kodeků platí. Takže nerozumím, o co ti jde. Bez nastudování podkladů se nemáme o čem bavit.

+1
+2
-1
Je komentář přínosný?

V poradku, mne je ale celkem jedno co plati u nejakeho testu, jeste k tomu u streamu. Kazdy kodek se chova trochu jinak v urcitych situacich. Zalezi taky na jeho nastaveni. Obecny test na jednom typu sceny je jedna vec. Test na jine scene bude druha vec. Jen pro priklad.. treba animovane kreslene filmy potrebuji daleko mensi "bitrate" pro urcity druh vizualni kvality, nez klasicke filmy a takhle se da pokracovat dal a dal.
Tohle se ale tezko vysvetluje nekomu, kdo si encoding poradne nezkusil a vic o tom podle mne nema smysl filozofovat.
Co se tyce Turingu..tady vychazim ze zkusenosti jinych, kteri tvrdi, ze to stale nestaci. Ja mam odzkouseny QuickSync v6 a AMD VCE 3.0. Z myho pohledu oba tyhle dva stoji za prd pro potreby pomeru velikost souboru/kvalita (bitrate).
Hezky den :)

+1
-2
-1
Je komentář přínosný?

Prodávám, jak jsem nakoupil (viz. odkazy). Jde o to, že abys o pár procent (za daného omezení - ceteris paribus bit rate) předběhl kvalitu Turingu, bude ti ten encoding trvat 3x nebo 6x déle pro poslední dva tři procentní body v H265. Nehledě na to, že v H264 je 5x rychlejší a přesto nejlepší. Tobě bych doporučil AV1 a dobrého dodavatele elektřiny.

P.S. Jaks přišel na to, že o tom nic nevím?

+1
0
-1
Je komentář přínosný?

To ze je HW enkoder podstatne rychlejsi, to nepopiram, to bych popiral fakta :)
To ze treba pro pouziti nekoho je vystup z tech to enkoderu dostacujici s tim taky nemam problem. Stejne jako nekdo je spokojeny se strednimi detaily pri hrani, nekdo potrebuje ultra a nekdo je RT fetisista. Kazdeho vec. S cim mam problem je tvrzeni typu, ze SW enkoding se nepouziva, je zbytecne pouzivat, protoze tady mame NVENC, VCE, QuickSync, potazmo ze je lepsi, srovnatelna kvalita, atd.
Mne opravdu jeden "normovany" test nepresvedci a vlastne mne ani nezajima. Je to podobne, jako testovat grafiky na jedne hre. Ve druhe to bude uplne jinak..ne rychlosti, ale vystupem. Takze kdyz tady pisete neco o kvalite, ze je to lepsi a bla bla..tak si myslim neco o nesmrtelnosti brouku...
AV1 jsem nezkousel, a nevim ani proc bych zatim mel. To ze s tim nemas zkusenosti pro mne vyplyva z toho, jak reagujes. jinak by jsi neodepisoval o 4:3:2:1:0 a neschovaval se za testy, protoze ty testy jsou ti na 2 prdy, kdyz mas nejakou scenu, ktera ti na konci vyprodukuje treba mapu a zkazi ti to cely enkodovany material. Pak si muzes celou rychlost strcit akorat za klobouk i s celym testem..
Co je pro mne naopak zajimave, je vzit nejakou tricky scenu kterou znam, a podivat se co z ni vyleze. To je u mne jediny test, ktery ma pro mne smysl.

+1
-1
-1
Je komentář přínosný?

Samozřejmě NVENC je featura kterou uvítají ti, kteří ji využijí... Ale tak je to se vším. Tys taky explicitně neuvedl že pro někoho to může být lepší.

mám v krámě dvě grafiky, stejná cena (ceny od 8 do cca 10 a to dokonce za verze se které nembudou mít ryhclejší paměti), stejný výkon, spotřeba ve prospěch AMD ale v řádu wattů, NVIDIA nabízí feature set, který AMD nemá a nemůže nabídnout, to je to DLSS, RT, NVENC... Pokud se na to člověk nezaujatě podívá, tak proč kupovat stejný výkon se stejnou cenou ale méně možnostmi, když ty možnosti mu neuškodí a má je zadarmo.

+1
0
-1
Je komentář přínosný?

No vidis.. a treba pro mne "nezaujate"
.. NVENC..stale nezajimavy po zkusenostech s VCE a QuickSync, streaming nevedu
.. RT u 2060? .. specielne u teto karty nuda maximalna :)
.. DLSS .. k cemu, abych cekal na profil generovany NV a to stejne udela rescale s filtrem?

K cemu si mam priplacet za neco, co ma nulove vyuziti...

Vsechno co jsi vypsal je bonus, RT dokonce podle mne zrovna u teto karty spis nepouzitelny. Pokud nekomu stoji "bonus" za vyssi cenu, ok. Pokud ne, nic z toho jej neoslovi.

+1
-1
-1
Je komentář přínosný?

Veď on ti napísal jeho typický scenár videí, ktoré má:

"nejaky dynamicky kour, prulet mraky za sera, temne sceny obecne, mlha v nocnich scenach, jednolitejsi (presto v ruznych odstinech) barevna pozadi za tmy, mensi zdroje scetla (rychleji pohybujici) se za tmy, vodni trist ve vlnach, atd. v 1080p na par Mbitech."

a preto je preňho AMD najlepšie, lebo je na tom kvalitou najhoršie. A Nvidia najhoršia, lebo je kvalitou najlepšia.

+1
0
-1
Je komentář přínosný?

Ako vlastníka 7970, RX580 a teraz Vega64 ti môžem povedať, že HW encoder prešiel riadnym zlepšením aj u AMD...v súčastnosti dosahuje u H.265(HEVC) zhruba 90% kvality toho softwarového (cez CPU), ale pomer kvalita/veľkosť súboru je stále na strane softwarového encoderu... a som presvedčený že ani u NvENC to nebude inak. HW encoder cez Handbrake (AMD VCE) používam ak potrebujem rýchlo pozrieť nejaké video a nechce sa mi čakať, alebo ho používam na zachytávanie obrazovky... ak niečo potrebujem archivovať, tak jednoznačne softwarový encoder cez Handbrake (x265, 10bit, medium preset, CQ20 pre UHD, CQ24 pre FullHD).

+1
0
-1
Je komentář přínosný?

Tak tak, nehrádzať vedomosti presvedčením. Znak skutočného fanatika!
Možno u teba je šanca, narozdiel od tombomino, že dokážeš prečítať tento obrázok
https://unrealaussies.com/wp-content/uploads/2019/02/Showdown-NVENC-2.jpg
Ak nie, prežijem to.

+1
0
-1
Je komentář přínosný?

Ok, přiznávám se, že ten postovaný link zajímavý je. NVENC při 8 mbps vypadá opravdu impozantně. Ale mám pár připomínek, které mi úplně nesedí:
- podle VMAF metriky má mít referenční video 100. Tak co je to originalcopy s jen 98.85?
- podle nejen mých zkušeností je rozdíl mezi x265 medium a slow překvapivě dost velký, tady jsou blizoučko u sebe
- podle velmi zevrubných testů HEVC kodeků http://www.compression.ru/video/codec_comparison/hevc_2019/ jsou velké rozdíly v nízkých bitratech a menší ve vysokých a oblíbené x265 zdaleka není na vrcholu ani jedné kategorie, kdežto tady žádný jiný SW HEVC není
- ve vaší tabulce jednoznačně vede kodek AV1. Já před půl rokem dělal testy se 2 implementacema a kromě zoufalé rychlosti byly i při kvalitním nastavení všechny výsledky jednoznačně viditelně horší než z x265, takže téhle metrice opravdu nevěřím

Ono kvalitní encode je dnes docela věda. Neexistuje žádné univerzální nastavení vhodné na vše. Je strašně moc různých zdrojů videa lišící se už třeba jen mírou a typem šumu. Je obrovský rozdíl enkódovat záznam z IP kamery s variabilním frameratem, kde vám jde o zachování "detailů při pohybu", roztřesený prokládaný obraz ze staré zdigitalizované VHS pásky, zdigitalizovaný film z IMAX pásu, nebo UltraHD Blu-ray nového filmu točeného čistě na digitál.

Už se mi dostkrát stalo, že jedna scéna vypadala jednoznačně líp na jednom nastavení a jiná scéna zas na druhém. Takže všechny metriky jsou hezké, ale nic nenahradí to, když si člověk vše prohlídne na kvalitním monitoru (a může začít encodovat znovu ;-))

+1
+3
-1
Je komentář přínosný?

Koukam, ze tady je konecne nekdo, kdo aspon trochu vi, co pise :) S tim sumem jste to dost presne klepl..Docela nedavno jsem delal prave komverze, kde byl puvodni material docela zasumeny (nataceny starsi technologii) a zasnul jsem, jak je tezke z toho dostat kvalitni H265, kde moje predchozi nastaveni davali mizerne vysledky. Ruzne sceny davaji ruzne vysledky..ano.

+1
0
-1
Je komentář přínosný?

Tak tady byla řeč v kontextu nahrávání plochy/hry a případné vysílání, kdy vysílání bude pro většinu amatérských streamerů max 6MBit/s, u partnerů 8MBit/s (twitch, nevím jak ostatní).

U toho vysílání je třeba komprimovat a v ideálním případě i hrát aniž by to ten vysílající pocítil, pomocí HW encodingu nepotřebuje žádné extra CPU 6c/12t bude dostačující snad pro vše, ale dost lidí hraje a vysílí i ze starších 4c/4t i5. A někteří lidi po vydání turingu místo dual PC setupu, jeden herní, jeden streamovací začali doporučovat single PC s nějakou silnější RTX grafikou, zároveň upřednostňují ho i v případě kdy mají dostatečný výkon CPU aby to upočítalo.

+1
0
-1
Je komentář přínosný?

- podle VMAF metriky má mít referenční video 100. Tak co je to originalcopy s jen 98.85?

How it works
At its core, VMAF provides a machine learning framework to tune a filter that assesses quality compared to an original. Basically, it detects differences, and predicts how people will rate the difference. You can access the source code for VMAF and train it specifically on videos of your choosing. I’ve used the release included in FFMPEG v4, although you still have to build it yourself with the flag enabled.

It’s not unusual for VMAF to give a score of 99 on an exact copy of a video. Technically, it should score 100. But due to the machine learning nature of the system, it is predicting people’s opinions. When showing a selection of people two identical videos, some of them will think they are NOT identical. Therefore, VMAF is correctly predicting that some people will rate the videos as different, even though those people are incorrect.

https://unrealaussies.com/tech/nvenc-x264-quicksync-qsv-vp9-av1/2/#How-i...

+1
+1
-1
Je komentář přínosný?

Díky, já vycházel z wikipedie, kde tuhle informaci vynechali. :) Potíž s touhle metrikou od Netflixu tedy je, že se zaměřuje pouze na to, jak se video líbí lidem. Nikoli jen na shodu s originálem. Která je právě lecky nesmírně důležitá. Třeba pro záznamy z IP kamer. Tam je nejdůležitější zachovat veškeré detaily když se děje pohyb a nejsou důležité detaily statické scény. Adaptivní kvantizace a rate-control u kodeků ale funguje spíš obráceně kvůli lidskému vnímání.

+1
+1
-1
Je komentář přínosný?

Ano, jedná se o simulaci subjektivního vnímání kvality videa. CCTV kamery nebo objektivní míra ztráty informace se neřeší. Lidé se dívají očima - tzn. jde o Netflix metriku komprese a ne nějaký master tape.

+1
0
-1
Je komentář přínosný?

Srovnávají RTX 2060 vs RX 5600 XT
To je močka ten Adam Vágner, ty se hledali s OBrem až se našli.
Vágner : "RT jádra na RTX 2060, Ona je to už teď podstatně větší výhoda než kdy byl Mantle"
---
(FX8150 + HD7850) Mě dalo Mantle v BF4 multiplayer + 30FPS navíc, ze 60 na 90FPS.
HD 7850 šlapala jako kdybych měl I7. Je jasný že na I7 rozdíl Mantle nepoznal.
Mantle jasně ukázalo jak hry špatně běhaj, je to pokrok ku předu.

+1
+1
-1
Je komentář přínosný?

Pokrok dopredu je aj RT a to aj vrátane súčasnej akcelerácie cez DXR. :-)

+1
-1
-1
Je komentář přínosný?

Ano. Super. Takže když měl člověk mizerný procesor, tak mu to v jedné hře zvedlo fps ze 60 na 90. Tak to je fakt killer feature, mnohem užitečnější než nějaká podpora ray tracingu pro zatím třicítku her s podporou nebo avizovanou podporou RT.

Mantle jasně ukázalo, že když se napíše hra přímo na hardware, tak to běhá líp. To není nic, co by nikdo nevěděl. Ale hry přímo na hardware se na PC nepíší už minimálně pětadvacet let, protože se s žádnou hrou nikdo takhle crcat nebude, pokud mu to někdo nezaplatí.

Jak moc musí být člověk zamilovaný, aby funkčnost, kterou po několika hrách i sezná i samotný výrobce za zbytečnou a zařízne ji, považoval za atraktivnější než něco, na co najíždí kvanta AAA titulů. :D

Močko.

+1
-1
-1
Je komentář přínosný?

1.lebo gro ludi/hracov ma ultra highend, nie priemerne/podpriemerne vykonne cpu.
2. na pctuningu sa mantle nikdy netestovalo, popripade sa vysledky nezverejnovali
3. AMD donated the Mantle API to the Khronos group, which developed it into the Vulkan API

+1
0
-1
Je komentář přínosný?

+bod 4. MS vytvořilo DX12. Ne před mantle ale po něm.

Z bodu 3 a 4 je tak jasné že z hlediska AMD Mantle splnilo účel - vznikla nová API lépe využívající hw nejen AMD ale i nVidie.

Ale proč to nezapomenout zmínit, že, Adamsi.

+1
0
-1
Je komentář přínosný?

...což nemění nic na tom, že podpora Mantle byla v podstatě k ničemu a teď už je totálně k ničemu.

A v okamžiku, kdy se to přetavilo do DX 12 a Vulkan API, už to přestala být výhoda AMD.

Jako kdybych nevěděl, že když napíšu „mantle bylo k ničemu“, tak se dozvím, že „ale přece DX12 a Vulkan“.

+1
-2
-1
Je komentář přínosný?

Jo takže mantle nemělo vlastně žádný smysl, nedonutilo nikoho k dalšímu vývoji...

ok, tomu říkám argumentace.

+1
0
-1
Je komentář přínosný?

Ano, Mantle jako funkce Radeonů bylo k ničemu, hodnota Mantle coby přidané hodnoty u grafické karty byla limitně blízká nule.

Nebylo velkou přidanou hodnotou u aktuálních her v době vydání, není žádnou přidanou hodnotou u her vydaných později.

Navzdory všem těm FUDům na téma „teď to bude ve všech hrách vyvíjených i pro konzole, Nvidia je vyřízená“.

+1
-1
-1
Je komentář přínosný?

preto po kazdej velkej AAA hre musi prist gameready driver, a boh chran testnut hru predtym na nvidii ten driver nez vyjde :)

+1
-1
-1
Je komentář přínosný?

no, pokud jde o tohle, tak při hraní bez game ready ovladačů má člověk daleko častější problémy u AMD než u Nvidie. U Nvidie je to možná nižší výkon, u AMD jsou to vypadávající textury, stíny, sekání, padání, black screeny.

A pokud jde o Mantle – ta technologie byla především workaround na problém, kterým GeForce tolik netrpěly. Radeony byly limitované procesorem výrazněji než GeForce. Čím slabší procesor, tím víc to bylo vidět a tím větší rozdíly byly mezi Radeony a GeForce.

Mantle udělalo především to, že tam, kde měly Radeony ve srovnání s GeForce mizerný výkon kvůli omezení ze strany procesoru, ten výkon Radeonů zvedlo.

Když to vyženu ad absurdum, aby bylo srozumitelnější, jak to myslím – Mantle u Radeonů řešilo problém, který GeForce neměly.

+1
-1
-1
Je komentář přínosný?

preto ste to testovanie svojho casu nezahrnovali do vysledkov?

+1
0
-1
Je komentář přínosný?

Ja uz neviem... prikaz slepemu aby videl a hluchy to vykona. Je tu niekde vyhlasena sutaz o parodiu myslenia?

Mantle nebolo prezentovane ako vyhoda grafik ATI/Radeon. Mantle vytvorene v spolupraci s firmou DICE (oni ho programovali) bolo zamerane:
a) na vylepsenie implementacie castych, alebo prioritnych volani HW, ktore na DX9-11 boli dlhodobo ignorovane (napriklad z dovodu, ze nVidia toto stihala obsluhovat silnym hrubym vykonom, kde inzinierom v AMD vadilo, ze sa toto robi strasne neefektivnym sposobom, plytvalo sa energiou aj vykonom).
Menia sa tu 100W ziarovky za ziarivky a ledky len pre par wattov (desiatky wattov), teoreticky sa tu plytva energiou politikov na znizovanie CO2 kvot, ale zbytocne spalene watty u milionov hracov/streamerov/grafikov ... je uz zbytocnost??

b) na odstranenie problemov vytvaranych samotnymi tvorcami hier a enginov. Bolo jednoznacne poukazane na vyvojarov hier, ktori svoje hry tak flakali, ze uz bolo povazovane za normalne, ze vsetky chyby hier odstrania vyvojari grafickych ovladacov (nVidie a ATI/AMD). Niektore do oci bijuce chyby boli prezentovane a dotknuti programatori mali cest sa aspon trochu zahanbit. Robime si srandu z Indov, ako nahovno vedu projekty, ale ked sa poukazuje na zapadnych flakacov programatorov, ktorych kryl marketing, tak to nam uz nevoni? Skutok sa nestal?

Vsetci si velmi dobre pamatame, ako na forach sa ludia hadali, ktory tim grafickej karty nezvlada tu a tu hru, pritom to boli chyby autorov hier. Rovnako ako nasa statna sprava za tazke peniaze doda projekt horsi ako od Indov a obcan si to musi vyzrat nie len financne, ale aj tym, ze to musi pouzivat. Toto v prostredi grafik uz neprekaza??

z WIKI:
- Reduction of command buffers submissions
- Explicit control of resource compression, expands and synchronizations
- Asynchronous DMA queue for data uploads independent from the graphics engine
- Asynchronous compute queue for overlapping of compute and graphics workloads
- Data formats optimizations via flexible buffer/image access
- Advanced Anti-Aliasing features for MSAA/EQAA optimizations[3][9]
- Native multi-GPU support[3]

Vdaka ukazkam cez Mantle, sa presunuli nadavky na fora tvorcov hier. Teraz sa poctivo buzeruju tvorcovia hry.

Zrazu sa Microsoftu dalo vydat DX12 s optimalizaciami? Kde uz pri DX9->DX10 nadavali, ze sa to posunulo len symbolicky a stupli naroky a DX10->DX11 im to potvrdil. Kolko rokov vyvoja DX prebehlo a nic sa nezmenilo? A zrazu DX12 uz vedel? Ved to bolo na zaklade komunikacie programatorov Mantle s Microsrotom, kde im konkretne ukazali ich zlu implementaciu. Len kvoli potencialnej zlej reklame sa to zrazu vsetko rozhybalo.

Vyvojari ovladacov sa mohli sustredit na dvihanie vykonu v hrach a nie v opravovani bugov a je toho dokazom, kolko % vykonu dokazali vytiahnut novymi ovladacmi ako u nVidii tak u AMD. Predtym sa vacsinou len fixovalo.

Vznikli hry ktore pouzivaju Vulkan a sluzia na porovnanie s DX12, co vlastne nuti programatorov DX dbat na optimalizacie.

Toto bolo limitne blizke nule? Prosim? Skuste pan Adams nahmatat nad hlavou a poriadne zatlacit, nech sa vam veko od tej krabice, v ktorej ste, otvori a uvidite aj realny svet.

+1
+1
-1
Je komentář přínosný?

Super. A jakou to má souvislost s tím, že člověku je dnes k ničemu, že jeho grafika podporuje Mantle?

A že podpora Mantle není žádná konkurenční výhoda?

A opravdu je nejlepší způsob, jak změnit nevyhovující standardizované API, ten, že vytvořím vlastní proprietární API postavené na míru vlastnímu hardwaru, na sílu jej procpu do několika her, následně jej procpu do standardu a to proprietární API zaříznu? Dokážete si představit ten kvikot, kdyby něco takového udělala Nvidia?

+1
-1
-1
Je komentář přínosný?

"A jakou to má souvislost s tím, že člověku je dnes k ničemu, že jeho grafika podporuje Mantle?"

Vies co? Ked uz take hluposti potis, tak ziadnu. Dnes je zbytocny parny stroj, dnes su zbytocne konske vozy, dnes su zbytocne obrovske elektronky, dnes su zbytocne dierne stitky... vlastne aj ty si tu zbytocny, naco sa vobec oslavovalo tvoje narodenie, ved si tu uplne zbytocny, bezcenny a otvor si okno a pozri na siry svet, ako pekne dokaze bez teba fungovat.

Ked nerozumies konkurencii, tak naco sa tu vypisujes? DIIT tu je na to, aby sirilo svoj nazor pisany podla pravidiel a so suhlasom ich redaktorov. PCT pisal chujoviny, zakladal na vyzdvihovani teplych rozkov v zime a dopadol ako dopadol. Teraz vacsina citatelov uz vie, ze PCT je uplne zbytocny. Naco tam stale vypisujes clanky? Ved PCT uz nie je ziadna konkurencna vyhoda :-D

"A opravdu je nejlepší způsob, jak změnit nevyhovující standardizované API"
Nad tymto mozu ludia len polemizovat, ale bolo to AMD a DICE, ktore sa tak rozhodli a malo to "nejake" vedlajsie ucinky na trh. Ci boli super pozitivne, negativne, alebo zbytocne vedia najlepsie posudit zucastnene firmy. Tak sa ich laskavo spytaj. Jedna vec je pisat o faktoch, ktore nastali a druha vec je fabulovat na nezmysloch a pokladat to za "pravdu" a la Jirik/RedMarx a podobne.

"Dokážete si představit ten kvikot, kdyby něco takového udělala Nvidia?"
Predstavit si to viem, ale som obycajny clovek, tak preco by som nad tym kvikal? Preco by som ten kvikot mal pocuvat? Nie som opravneny liecit prasata! Ty ano?

Dost trapne od teba.

+1
+1
-1
Je komentář přínosný?

Fajn. A jakou to má souvislost s tím, že by to, že grafika podporuje Mantle, mělo být užitečnější než to, že podporuje akcelerované DXR?

+1
0
-1
Je komentář přínosný?

Ty si fakt tvrdohlavy, ale nepomaha ti to. Suvislost to NEMA ziadnu!

Nie som si isty, ale pravdepodobne vsetky grafiky, ktore podporovali Mantle podporuju aj Vulkan cez ovladace (aj ked nie v plnej miere pre starsiu vyrobu HW).

Mantle resp. naslednik Vulkan urobil medvediu sluzbu:
- k dosiahnutiu lepsieho vykonu v hrach (tisice pohybujucich objektov v priestore bez vyrazneho dopadu na vykon oproti dx11 a starsim),
- k zjednoduseniu ovladacov o "bug-fixy" vyrobcov hier a engine-ov
- k vacsej uspore spotreby a nasledne zefektivneniu chladenia produktov u variabilnych vytazeni HW
- k zvyseniu narokov na herne studia z pohladu uzivatelov (odlahcilo sa supportu tvorcov ovladacov)

Kdezto DXR je len jedna mala vetva celeho stromu grafickych technik, ktore su implementovane v (napr.) DX12. Je to uplne iny trh. Okrem toho jedna firma prezentovala, ze imlementaciu odrazov podobne ako specifikovane v DXR zvladaju aj starsie graficke karty od AMD (cca rovnako ako 2060 RTX), stacilo len pouzit implementaciu na existujuci HW a nie na HW specialne "vycleneny nVidiou". Ano, AMD nema uplne implementovane DXR, ale HW AMD toho schopny je.

Ludia bez DXR si urcite zahraju uplne rovnako, ako s nim, pretoze dolezitejsie im je zahrat si pribeh, akciu, zabavit sa, a par odrazov v scene im vobec nechyba (iba ak by bola hlavna myslienka hry zalozena hlavne na odrazoch - nieco ako 4 pismenkovy serial, kde po 10tich zoomoch na poulicnu lampu, karoseriu auta, ram okuliarov vedeli zistit kto stoji za oknom v byte na 3. poschodi).

Mantle odbural hlavne vykonostne problemy, chyby vyvojarov hier a prispel k vyssej kvalite hrania.

DXR bude pouzite na 95% len na nepodstatne vizualne detaily. Tieto detaily su uz davno pouzivane existujucimi hrami, detaily su sice menej presne, ale uzivatelom to az tak nevadi. Najvacsi vizualny prinos (kde bude aj dobre vidiet presnost a detailnost odrazov) bude u 2K no skor u 4K monitorov. U FHD je rozdiel detailu v odraze mizivy oproti tomu, ako klesne vykon HW.

DXR je v uvodzovkach podobna vec ako HDR - kolko ludi trasie penazenkami v obchodoch a stoja fronty pred HDR televizormi? Pretoze prinos u FHD je mizivy, u 4K je krasny, ale este stale implementovany s dost velkymi obmedzeniami (nejake 1-3 stovky zon) za cenu, ktoru ludia vacsinou nedaju. Cize DXR sa bude niekolko rokov pretlacat do herneho priemyslu, ale casto ho ludia budu vypinat pre jeho zbytocnost a vysoke naroky.

Mantle a DXR nema ziadny suvis. Mantle svoju pracu vykonal v 2012-2015 a jeho dosledky si uzivame vsetci doteraz. DXR je len dalsia vizualna omacka.

+1
0
-1
Je komentář přínosný?

Nikto nepopiera zmysel Mantle a jeho užitočnosť. Ale to ako berieš jeho vznik je celkom naivné. NVIDIA totiž mala lepší DX11 driver, ktorý dokázal vytiahnuť viac výkonu aj u slabších CPU. A ak si dobre pamätáš, tak v tých časoch AMD výrazne za CPU konkurenciou zaostávalo a bolo s tým treba niečo robiť. Nebolo to o Tom, že inžinieri z AMD sa len tak rozhodli ísť nerobiť niečo pre blaho sveta. Potrebovali podporiť vlastný biznis. Je vtipné ako si niektorí ľudia romantizuju firmu AMD. Ale malo to pozitívne dopady na vývoj takže to bol určite dobrý krok.

Čo sa týka DXR, nie je to len jedna malá časť DirectX či len ďalšia vizuálna omáčka. Je to začiatok zavádzania raytracingu pri real time renderovani hier. Je to dosť veľká vec. Pokiaľ nevieš čo je RayTracing, tak si to dostuduj. Nie je to iba o odrazoch, ale je to iný spôsob renderovania obrazu, ktorym sa dá dosiahnuť oveľa lepší obraz ako pomocou rasterizacie. Fakt nechápem prečo pokrok v jednom smere je dobrý, len preto ze ho podporilo AMD a iný zasa zlý či zbytočný pretože ho podporila NVIDIA. Pokiaľ podporu DXR aj keď len v uvodzovkach porovnávas s HDR, tak nevieš o čom hovoríš. A to ani nehovorím o tom, že argumenty typu že sa hráči dobre zahrajú aj bez DXR lebo hranie nie je iba o vizuále, sa dajú použiť aj na Mantle. Či sa podľa teba lepšie ľudia zahrali s hrou pouzivajucou Mantle než s hrou pouzivajucou DX11?

Čo sa týka dopadov na vizuál tak som si včera v Shadow of the Tomb Raider skúšal na rôznych miestach zapnúť RT a porovnával som výsledný obraz s tým bez zapnuteho RT, tak rozdiel bol dosť veľký. Keď sa niekto tvári, že ho nevidí, tak je to dosť úsmevné. A to sa RT zatial používa iba čiastočne a v obmedzenej miere, pretože je to iba začiatok. Takže ak píšeš, že to čo robí RT už používajú iné hry aj bez neho, tak fakt nevieš čo RT je.

+1
0
-1
Je komentář přínosný?

ty:"NVIDIA totiž mala lepší DX11 driver, ktorý dokázal vytiahnuť viac výkonu aj u slabších CPU"
ja:"Vidia toto stihala obsluhovat silnym hrubym vykonom"
Pochvalil som nVidiu strucnou vetou a bodka - pretoze o DX9-11 v tejto diskusii neslo, islo o dovod, preco je resp. bol dobry Mantle. Hadat sa s tebou o stylizaciu vety nejdem, ale je viditelne z rozdielu DX11 a DX12 medzi oboma firmami, ze bud jedna prestala vediet programovat driver, tak ho urobila na DX12 zrazu "v priemere" slabsi, a druha zasa, aj ked vedela urobit DX12 trosku lepsi, tak bola taka sprosta, ze nevedela opravit DX11 driver :-D Toto mi prosim nerob. Zasievas zbytocny flame a diskusia by bola onicom.

ty:"Nebolo to o Tom, že inžinieri z AMD sa len tak rozhodli ísť nerobiť niečo pre blaho sveta."
Toto je hlupost, pretoze som to nikde netvrdil a na druhu stranu, bavime sa o Mantle a ten z valkej vacsiny ludskych zdrojov bol tvoreny firmou DICE. Zasa podsuvas, co nikde nebolo povedane. RedMarkx? Jirik? ... oni dvaja by to nedali terminologiou, ale aspon ich bratranec by si mohol byt. Ak si pozries video prezentacie, tak vysledky so suhlasom firmy DICE boli od zaciatku verejne prezentovane a nikto sa nesnazil tvarit, ze toto im malo nieco zarobit. Engine Mantle zostaval firme DICE, AMD mala narok na zdrojaky Mantle a mala narok podla zmluvy si s nimi robit co chce. Asi toto oddelenie bolo zlozene zo sluzobnikov bohu a mnichov, pre nas neveriacich je to k neuvereniu! Oni nechceli zisk... peklo sa priblizilo k nebu.

ty:"Potrebovali podporiť vlastný biznis."
Nuz znovu otazka, boli to ti mnisi a sluzobnici bohu? Nie, zamerom bolo odstranit "deformacie trhu", ktore branili firme AMD pokracovat v ich vyvoji a smerovali ich len na hrubu silu (alebo ako si to povedal ty k lepsiemu DX11 driveru).

ty:"Je to začiatok zavádzania raytracingu pri real time renderovani hier."
Nepopieram a nikdy som to takto nepisal v negativnom zmysle z pohladu buducnosti. Poucujes ma v niecom, co nie je predmetom diskusie a predpokladom "Pokiaľ nevieš čo je RayTracing, tak si to dostuduj." to zaklincujes. Ako musis si v diskusii podsuvat pocit, ze som nevzdelany? Nie je ti to trapne poucovat neznamych ludi o vzdelani? Aktualne to je vizualna omacka bodka. Ano buducnost je krasna, ale kedze Mantle bola minulost pred 6-7 rokmi a preziva v podobe Vulkanu, tak DXR ma cca 3-4 roky a je na tom (v tomto case) z pohladu trhu grafickych efektov (pre beznych ludi - aby si ma nechytal za slovo) len jeden maly vysek, ktory je prave teraz nepodstatny v hratelnosti.

Chvalim, ze vies aku buducnost bude mat RT, a ja verim v to iste, ale to bude, ked grafiky zvladnu 5-10 nasobok dnesnych vykonov (pre beznych ludi). Pretoze tato problematika nezacala trapnou implementaciou DXR, ale omnoho rokov skorej, kde zistili, ze nemaju vykon HW ani len pre programatorov, nie to este na realtime rendering. Po tusim 16tich rokoch sa dostali k zobrazeniu textur v odleskoch a ma to ukrutny dopad na vykon. Myslim, ze nas caka dalsich aspon 10 rokov do plnej implementacie celej grafiky. Chvalim DXR a chvalim nVidiu, ze sa o to pokusila. Ale to, akym sposobom to vykonala uz nie :) Moj nazor. Kludne si chod volit v politike koho chces, je to tvoj nazor, ja tvrdim v tejto tematike, ze nVidia to mohla prezentovat ovela lepsie. Ty nesuhlasis, tak vyjadri nesuhlas, ale nepodsuvaj mi, co si mam dostudovat a temy, ktore nebolo predmetom tejto diskusie - chovaj sa ako diskutujuci clovek a nie ako ten, ktory tu urcuje co ako bude.

ty:"Fakt nechápem prečo pokrok v jednom smere je dobrý, len preto ze ho podporilo AMD a iný zasa zlý či zbytočný pretože ho podporila NVIDIA"
Tuto fabulaciu si si vytvoril ty sam z "pocitoveho" myslenia pri citani. NIKDE opakujem nikde som nepovedal, ze je zbytocny. Povedal som, ze pri porovnani (MANTLE vs DXR) su to dve nesuvisiace a neporovnatelne veci. Cely cas to Adamovi tvrdim. A nez sa dvihne vyrazne vykon GPU, tak aktualne pouzitie DXR v aktualnych hrach je hodne oznacenia "len mala graficka omacka nepodstatna pre vacsinu beznych ludi, pretoze ich to stoji kopu vykonu" (pritom skvela technologia - aby si si Marek nemyslel, ze hanim nVidiu - inak takto reaguju Jirik, RedMarx a hlavne zeny... na pocit z viet a dost vela si domyslaju. No a teraz ti vratim tvoje podsuvanie o mojej nevzdelanosti: mal by si zacat chodit do posilky, narobit deti teda vybit hormony, inak sa zacnes za chvilu obzerat v zrkadle dlhsie ako 20 sekund. Tym ti chcem naznacit, ze o tebe viem hovno, ze mozes mat tucet skvelych a krasnych deti a byt nabuchany ako Arnold, ale hlavne, ze je podsuvanie vlastnosti cloveku totalne trapne, tak to prosim ta prestan robit).

TY: "Pokiaľ podporu DXR aj keď len v uvodzovkach porovnávas s HDR, tak nevieš o čom hovoríš"
Ak nechapes pojmu uvodzovky, tvoj problem. Ja som to vo vyzname pouzil spravne. Neporovnal som dve technologie, ale dva trhy. Prosim drz sa tematiky - Adams porovnava Mantle a DXR a ja som len uvadzal priklad trhoveho chovania beznych ludi. Nepodsuvaj mi, co viem, co neviem a co som nepovedal. Chovaj sa ako dospely inteligentny clovek.

ty:"A to ani nehovorím o tom, že argumenty typu že sa hráči dobre zahrajú aj bez DXR lebo hranie nie je iba o vizuále, sa dajú použiť aj na Mantle."
Ty si nic ine nenapisal, len same podsuvanie. Nikde som to nepisal a neporovnaval s Mantle. Tie dve veci nemaju suvis a su to rozne trhy, pretoze zameranie kazdej z technologii je ine (aj ked sa to tyka grafiky ako HW alebo ako SW). Hraci bez Mantle hrali na DX11 a DX12 nebol v tejto podobe vobec v plane. Pretoze mal byt len dalsim jemnym navysenim efektov podobne, ako to bolo medzi DX9,10,10.1 a 11. Cize hraci a vyvojari hier BOLI (to sa uz nezmeni) obmedzeni malym poctom objektov na scene a museli to odrbavat roznymi texturami, aby priestor vyzeral dostatocne roznorody. Uz len toto sa vyrazne zmenilo s Mantle a komunikaciou programtorov DICE s Microsoftom. A tych veci bolo viac, co sa vyriesili. Nehajim ho teraz, pretoze Mantle uz NIE JE a projekt skoncil v rukach DICE. Je to stary framework, ktory je uz nepodstatny. DXR je nove a ma buducnost. Preco by som tieto dve veci mal porovnavat? Ja len poukazujem, ktora z technologii mala aky vplyv na herny zazitok.

ty:"Či sa podľa teba lepšie ľudia zahrali s hrou pouzivajucou Mantle než s hrou pouzivajucou DX11?"
Boha, co veta to podsuvanie, ty sa inak chovat nevies?
Mantle tu uz davno NIE JE! Vsimol si si? Vdaka Mantle sa vytunil DX od Microsoftu a to tak, ze dost hier, ktore implementovali techniky z DX12 podavali vyssi vykon ako v DX11. Okrem pripadov, kedy za hru podporujucu DX12 oznacili taku hru, ktora mala stary sposob volani este z dob DX11 ale pouzila nove efekty. Tie hry podavali rovnako zly vykon v oboch DX. Ludia sa zahrali v kazdom pripade dobre, ale u DX11 (najnovsieho technologickeho vykvetu z grafickych api) dochadzalo vyraznym limitom u niektorych typov hier (z pohladu vyvojarov), cize ich to obmedzovalo v pokroku. A kedze vyvojari hier na to mali len male paky, tak museli pouzit to co maju. Ludia sa ale zahrali rovnako, no od DX12 sa hraju ovela lepsie, pretoze v DX12 toho dokazu dostat viac pri rovnakom vykone, alebo to iste s nizsimi narokmi na vykon. Napisal som niekde, ze sa ludia zahrali bez mantle ZLE alebo horsie?.

ty:"...ak som si včera v Shadow of the Tomb Raider skúšal na rôznych miestach zapnúť RT a porovnával som výsledný obraz s tým bez zapnuteho RT, tak rozdiel bol dosť veľký."
1. Ty si si to skusal. Patris medzi slintosov, tak si sa pokochal, ja by som sa pokochal tiez, ale len chvilu. No nehovor za ostatnych.
2. Vzdy som uviedol, ze efekt, ktory je pre danu hru nepodstatny (nema ten efekt za gro hratelnosti), je za cenu narokov na vykon pre beznych ludi nepodstatny.
3. NIKDE opakujem NIKDE pan podsuvatel Marek som neuviedol, ze DXR je zbytocny ako technologia.
4. NIKDE opakujem NIKDE a este raz NIKDE som neuviedol, ze RT v hrach je skaredy.
5. NIKDE (... uz asi vies co) som neuviedol, ze to nema buducnost.

Taky kratky text si napisal, a vsetko si napisal len z tvojho pocitu. VOBEC si sa nedrzal temy uvedenej zo zaciatku, vobec si nespochybnoval nerealne porovnanie Adamsa, a rovno si tu podsunul kopu veci, co som nikde nevrdil a este si ma poucoval, co sa mam doucit?

Tomuto sa hovori DISKUSNY TROLL!!!

+1
0
-1
Je komentář přínosný?

Toto si napísal k Mantle:
------------------------------------------------------------------
"Mantle nebolo prezentovane ako vyhoda grafik ATI/Radeon. Mantle vytvorene v spolupraci s firmou DICE (oni ho programovali) bolo zamerane:
a) na vylepsenie implementacie castych, alebo prioritnych volani HW, ktore na DX9-11 boli dlhodobo ignorovane (napriklad z dovodu, ze nVidia toto stihala obsluhovat silnym hrubym vykonom, kde inzinierom v AMD vadilo, ze sa toto robi strasne neefektivnym sposobom, plytvalo sa energiou aj vykonom)."

"Mantle resp. naslednik Vulkan urobil medvediu sluzbu:
- k dosiahnutiu lepsieho vykonu v hrach (tisice pohybujucich objektov v priestore bez vyrazneho dopadu na vykon oproti dx11 a starsim),
- k zjednoduseniu ovladacov o "bug-fixy" vyrobcov hier a engine-ov
- k vacsej uspore spotreby a nasledne zefektivneniu chladenia produktov u variabilnych vytazeni HW
- k zvyseniu narokov na herne studia z pohladu uzivatelov (odlahcilo sa supportu tvorcov ovladacov)"

"Mantle svoju pracu vykonal v 2012-2015 a jeho dosledky si uzivame vsetci doteraz."
------------------------------------------------------------------

A toto k DXR:

------------------------------------------------------------------
"Kdezto DXR je len jedna mala vetva celeho stromu grafickych technik, ktore su implementovane v (napr.) DX12."

"Okrem toho jedna firma prezentovala, ze imlementaciu odrazov podobne ako specifikovane v DXR zvladaju aj starsie graficke karty od AMD (cca rovnako ako 2060 RTX), stacilo len pouzit implementaciu na existujuci HW a nie na HW specialne "vycleneny nVidiou". Ano, AMD nema uplne implementovane DXR, ale HW AMD toho schopny je."

"Ludia bez DXR si urcite zahraju uplne rovnako, ako s nim, pretoze dolezitejsie im je zahrat si pribeh, akciu, zabavit sa, a par odrazov v scene im vobec nechyba"

"DXR bude pouzite na 95% len na nepodstatne vizualne detaily. Tieto detaily su uz davno pouzivane existujucimi hrami, detaily su sice menej presne, ale uzivatelom to az tak nevadi."

"DXR je v uvodzovkach podobna vec ako HDR - kolko ludi trasie penazenkami v obchodoch a stoja fronty pred HDR televizormi?"
------------------------------------------------------------------

Takže na jednej strane nachádzaš samé pozitíva a chváliš firmu AMD a na druhej len hľadáš negatíva (pričom sú to také, ktoré sa dajú použiť aj na Mantle/DX12/Vulkán, pretože ludia sa dobre zahrajú aj s hrou, ktorá je implemtovaná v DX9/DX10/DX11). A potom ešte napíšeš, že:

"Ano, AMD nema uplne implementovane DXR, ale HW AMD toho schopny je."

"DXR bude pouzite na 95% len na nepodstatne vizualne detaily. Tieto detaily su uz davno pouzivane existujucimi hrami, detaily su sice menej presne, ale uzivatelom to az tak nevadi."

Aj CPU sú schopné počítať a renderovať grafiku Raytracingom, ale určite vieš, že na úplne inej úrovní výkonu. V rovnakom postavení je aj aktuálny HW od AMD a aj všetky GTX grafiky od NVIDIA voči DXR v Turingoch. Sú v tom niekoľkonásobne pomalšie (určite nie cca na úrovni RTX 2060) a o tom to predsa je. Aj tá 2060tka je (ak sa použije DXR) súverénne rýchlejšia v počítaní RT ako ktorákoľvek grafika bez podpory DXR. Blíži sa jej výkonom iba Titan V, ktorý má ale cez 5100 shader procesorov a podporu Tensor cores.

Čo sa týka druhej citovanej vety, tak to nie je iba o nejakej malej nepresnosti. Pomocou Raytracingu sa renderujú obrázky, ktoré nerozoznáš od reality. Áno, tam ešte nie sme, ale začať sa nejak musí. A už teraz sú rozdiely veľké (ako som už písal u Shadow of the Tomb Raider). Podľa mňa je podpora DXR pridaná hodnota už dnes.

Z týchto dôvodov som ti písal, aby si si o tom niečo doštudoval. Nebolo to na posmech a ani ako urážka. Jediný kto tu kádruje a uráža ludí si ty. A ešte píšeš niečo o diskusných troloch. :-) Takže sa ukludni. Ja sa tu s tebou nehádam. Hádaš sa len sám.

+1
0
-1
Je komentář přínosný?

:-) Hadka vyzera inak. Ja som poukazal na manipulaciu mojich textov, ktorych vyznam bol vacsinou pozmeneny alebo pouzity v situaciach, ktore som neuviedol.

Viem ako funguje RT, ale tato technologia je a bude minoritna, pokym sa nezacne sirit aj na hardveri s nizsim vykonom. RT som NIKDY ako technologiu nespochybnoval. To ze to neuvediem (ako ine potencialne vyhody) neznamena, ze neexistuju, no su nepodstatne v porovnani s Mantle s ktorym sa to vobec neda zrovnavat. Ani Mantle nemozem a nebudem povazovat za nejaku technologiu, kedze patri DICE a api bolo posunute Kronosu. Mantle bola ukazka optimalizacii a vykonu, ktory sa prejavil na inych produktoch (nie na Mantle). Vysvetloval som len to, ze su to neporovnatelne technologie/trhy.

To bola povodna otazka Adamsa a tu som mu svojim sposobom odpovedal.

Ty sa nehadas, len manipulujes a podsuvas :) a este to hadzes na mna aj teraz.

+1
0
-1
Je komentář přínosný?

Komu říkáš močko, ty dítě pitomý 13letý.
Kečáš kraviny, to nebudu ani komentovat, ty tvoje blbudy.
Vágner je debil, na to že testuje HW, tak je mimo mísu.

+1
-1
-1
Je komentář přínosný?

Já jsem s močkou nezačal, ty dítě inteligentní třiačtyřicetiletý.

Jop. Podpora Mantle ve pěti AAA hrách z programu AMD byla a je užitečnější než hw podpora DXR a akcelerovaný ray tracing. OK. :D

+1
-2
-1
Je komentář přínosný?

Hádání o ničem, 5600XT je ideový nástupce RX 590 a jako takový se celkem povedl, byť -2GB to trochu kazí. Ale proti 2060 je to ideální soupeř.

+1
+3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.