Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nový seznam Ray Tracing her: Battlefield 5 se odkládá, ACC vyjde dříve...

To je hezky, jak no-X provokuje. :-)
Vsem uz je jasny, ze RT je obrovskej prehmat NVidie, na kterej Turing proste nema a pravdepodobne je RT otazkou pristich 5 let, ale ne drive, takze RT se neda ocekavat ani u 7nm Ampery ani Navi.
Tudiz je jasny, ze vsichni, kdo zrovna nejsou NVidia fans se ted par tydnu pekne zasmeji, jak se NVidia bude topit ve vlastni stave. :-)

+1
+9
-1
Je komentář přínosný?

AMD by toho mela vyuzit a uvest 12nm lacinejsi/vyladenejsi Vegy, 64 by mela stat 580€, 56 480€.

+1
+3
-1
Je komentář přínosný?

Dalsi profi Vega ma vyjit pry jeste letos na 7nm ...

+1
0
-1
Je komentář přínosný?

Je to profi Vega 20, uplne jina cenova kategorie... profesionalni segment.

+1
+1
-1
Je komentář přínosný?

„o je hezky, jak no-X provokuje. :-)
Vsem uz je jasny, ze RT je obrovskej prehmat NVidie“

Jaká provokace? Jaký přehmat? Je to svatý grál a tečka. Komu by vadilo na grafice za $1199 hrát v 1080p do 60 FPS.

+1
+10
-1
Je komentář přínosný?

:D

+1
+3
-1
Je komentář přínosný?

zas je tu příklad 90FPS, 4k s RTX on... takže ono to bude o implementaci, a tak to bylo s výkonem vždy, něco je náročnější něco méně.

+1
-4
-1
Je komentář přínosný?

RTX on ale neni jen o RT ...a tady doslova plati kvantita rovna se kvalita bohuzel na tu kvantitu neni dostatecny vykon RT cores a musi se to hodne sulit aby se dosahlo tak vysokych fps :) a vzhledem k tomu jakou plochu kremiku na to pouzili je to trochu provar ( jako prvni krucky pred nasazenim MCM reseni to ale chapu a mozna bych se nedivil kdyby AMD prisla brzo s vykonejsim resenim teoreticky i zalozenem na univerzalneji vyuzitelnych jadrech.. dle meho by to zvladli naroubovat i do NAVI ale nejspis to prijde s dalsi generaci..pokud tedy AMD nemlzi...)

+1
+6
-1
Je komentář přínosný?

prosimtě co řešíš, AMĎáci si musí ukojit ego pliváním na nVidii, protože i kdyby RTX karty měli 350milionů FPS za vteřinu ve 4K s RT on, tak by pořád byla špatná protože v 8K by dávala jen 349milionů FPS a v 16K neuvěřitelných 348milionů FPS a to je nehratelné! To si radši zapnou Bloom, HDR, Freesync, antialiasing, SSAO, HBM a dalších milion filtrů...

+1
-6
-1
Je komentář přínosný?

Týmto si to pekne vystihol. NVIDIA môže vydať hocičo akokoľvek dobré, pre niektorých ludí to nikdy stačiť nebude. Je to pekne vidieť na tom, ako niekto začal s tým, že je nebadatelný rozdiel medzi RTX on a off a odrazu čím ďalej tým viac fandov AMD začína šíriť to isté, nech je to akokoľvek absurdné. :-)

+1
-6
-1
Je komentář přínosný?

Hadal bych ze je to spis tak ze NV at vyda cokoliv za jakoukoliv cenu. Tak fandove budou vždy slintat a becet radosti kdyz je oholi elektrickym strojkem i kdyz u toho budou krvacet :))) presne takove zakazniky a fanaticke obhajce potrebuji ..to ze jsi na stejne vlne s Jardou dost vypovida :)

+1
+7
-1
Je komentář přínosný?

V tomto prípade, v rámci komentáru na ktorý som reagoval, sa s Jadrou súhlasiť dá. A čo sa týka toho zvyšku, ja osobne nemám v pláne si za aktuálne ceny RTX grafiky kupovať. To ale neznamená, že si tu budem liečiť komplexy tým, ako budem kvôli tomu nadávať, že je celý RTX nahovno či tvrdiť, že vlastne nerobí žiadne alebo minimálne rozdiely a podobne. Takže cena za Turing GPU je samozrejme vysoká a nikde ani nikomu nevyčítam, že sa na ňu sťažuje. Ani nikomu nehovorím a netlačím na to, aby si tie GPU hneď bežal kúpiť. Keď si ale pozrieš iné komentáre, tak väčšinou v nich ludia neriešia ceny, ale samotné RTX a to spôsobom ako sa niektorí iní z opačnej strany stavali kedysi k DX12. Mne z toho vyplýva, že pre nich problém v skutočnosti nie je v samotnej technológii, ale v tom, že s ňou prišla na trh ako prvá NVIDIA. Keby aspoň neboli hlúpe reči okolo, tak by nebol problém. Koľko ale konštruktívnych komentárov v týchto diskusiách vidíš? Úplné minimum. Niektorí ludia už vedia výkon a spotrebu bez testov, prezentujú RT ako slepú uličku, či dokonca ako niečo na čo sa časom zabudne atď. Príde ti to v poriadku?

+1
-1
-1
Je komentář přínosný?

"Niektorí ludia už vedia výkon a spotrebu bez testov"
nie, len komentujeme leaky, ci su realne alebo nie, to je teraz vedlajsie - a ide to na triko nvidie, keby boli vonku karty a drivery, nerobil by sa na webe taky sum o vykone tych kariet. A o tyzden mozeme komentovat dalsie leaky :)

+1
+3
-1
Je komentář přínosný?

jasně... "máme tu dvě sestavy, v jedné gtx1080 a v jedné Vegu, poznáte ve které je co?"

+1
-3
-1
Je komentář přínosný?

Nv prijde prvni s jakz takz pouzitelnou akceleraci urcite ji s ni neprisla prvni ;) to uz fakt smrdi s apple mantrou ze vse vymyslel apple a vsichni jen kopiruji a pritom je to vetsinou naopak :)apple to dokazal pouze lepe prodat....

Takze suma sumarum na RT neni dostatek vykonu zbytek funkci RTX je silne zavisly na podpore konkretnich titulu ale co je horsi na podpore NV ..prakticky je to castecne cloudove reseni .....nejhorsi je ze s vyvojem cen se musime pomalu smirit protoze firmy nemaji na vyber vzhledem k tomu ze jsme se na hrane moznosti ...osobne s RT nemam problem ale to jak nam ho naserviruje NV trochu smrdi a z tech oficialnich predvadecek jsem tak trochu v rozpacich ...vypadalo to jako by casti sceny dynamicky menili rozliseni a prudce kolisalo snimkovani a doufam ze na predvadeci scenky pro promo materialy nepouzili ansel ;)

DX12 je prospesne pro vsechny lepsi sprava vsech prostredku i prace s efekty a navic mnohem lepsi podpora MT a mGPU ..diky ktere soucasna aplikace RT ve hrach nema takovy vyznam ....jsem rad ze doba DX 11 pomalicku konci...

+1
+1
-1
Je komentář přínosný?

"Nv prijde prvni s jakz takz pouzitelnou akceleraci urcite ji s ni neprisla prvni ;) to uz fakt smrdi s apple mantrou ze vse vymyslel apple a vsichni jen kopiruji a pritom je to vetsinou naopak :)apple to dokazal pouze lepe prodat...."

Netvrdil som predsa, že NV vymyslela RT. Iba že s ním prišla teraz prvá. Samozrejme sa bavíme o hernom priemysle. Nie profesionálnom, kde RT (a to plnohodnotný), už dávno je.

"Takze suma sumarum na RT neni dostatek vykonu zbytek funkci RTX je silne zavisly na podpore konkretnich titulu ale co je horsi na podpore NV"

Na plnohodnotný RT nie a ešte dlho ani nebude. Na častočný už výkon v RTX grafikách je. A o tom to je. Prvotná implementácia, ktorá už je použitelná. V daných predvádzačkách bol pekne vidieť aj jej prínos tým, ako oživila hernú scénu. Takže v tomto nevidím problém. Minimálne nie z toho, čo bolo ukázané. Samozrejme zaujímavé bude vidieť výsledok po vydaní hier a porovnať ho s predvádzačkou. Mám taký pocit, že skutočný flame sa začne presne potom ako víde prvé takéto porovnanie.

+1
-2
-1
Je komentář přínosný?

Podíl nVidie a vs AMD je kolik? 90:10 takže mi chceš tvrdit že 90% lidí jsou idioti? Jo jsou, ale těch 10% jsou ještě větší troubové.

+1
-7
-1
Je komentář přínosný?

Znam plno lidi kteri maji polaris ci vegu sam to mam 50:50 a je zvlastni ze na stroji s AMD GPU po me steam jeste nic nechtel :)

+1
+5
-1
Je komentář přínosný?

je to konspiracia, ale tiez ju zdielam. Za 1mesiac s gtx1070 + 3 mesiace s gtx1070ti mi 2x vyskocil hw survey, za rok s rx480 + 6mesiacov s default V56 + 1 mesiac s V56 nitro+ 0x

+1
+2
-1
Je komentář přínosný?

u jsem to psal mnohokrat... mam podobny zkusenosti...
Miomoto uz mam cca rok+ R7 1700 + RX570, R5 1600 + RX570... kolikrat si myslite, ze mi vyskocil dotaz na HW? :-)

+1
+2
-1
Je komentář přínosný?

Ani jednou protože na takové sestavě se nedá nic hrát...

+1
-3
-1
Je komentář přínosný?

jj, maximalne s cukanim zvladol napisat na tom pc koment do diit

+1
0
-1
Je komentář přínosný?

Tve prispevky jsou jak od totalne ozraleho a sjeteho jedince s prujmem :) taky je to vzdy uplne mimo misu ...

+1
+3
-1
Je komentář přínosný?

Crha je Pán, První, Potrefený Pitomec, Precizní Prudič, Potížista, Putinovec, Provokatér, příznivec Zemana, Požírač Prášků, na Palicu, Psač sPamu, Pokakánek, Ptákosurus, Penis, PoloProfesional, Pomahač, Populární, Pošetilý...
Crha má prostě víc než všech Pět Pohromadě !

+1
-5
-1
Je komentář přínosný?

Hloupější podsouvačka vám už dlouho z huby nevypadla. Tomu komu by to vadilo si tu grafiku na 1080p nekoupí, nehledě na to, že ze zdejších čtenářů-hráčů, kteří mají vesměs majoritně full HD a pár možná QHD, stačí bohatě předchozí generace, která mě v podobě GTX 1070 stačí i na 4k. Prostě většina diskutujících, včetně mě, není cílovka tak proč pořád to pozdvižení a kvičení... Je to předražené? Omg, ať to klidně stojí i milión jestli si to někdo koupí... No a co? Jak malé děcka fakt.

+1
-1
-1
Je komentář přínosný?

3440x1440 je co ?

+1
-2
-1
Je komentář přínosný?

UWQHD

+1
+2
-1
Je komentář přínosný?

Adosi, uprav si tu statistiku jo, dík.

+1
0
-1
Je komentář přínosný?

Netvrdim nic jineho. Snad prehmat nebo svaty gral je jedno ne? V tuhle chvili, ale jinak svaty gral je neco navzdy nedosazitelneho, coz raztracing rozhodne neni, je nedosazitelny ted, bude nedosazitelny pristi rok a nejspis i rok potom, ale co my vime treba za 5 let.
8K do masove produkce nepujde, takze bude prostor pro RT.

+1
0
-1
Je komentář přínosný?

Lide jsou ruzni. Ja bych treba mnohem radsi hral ve fullhd s raytracingem nez ve 4k bez raytracingu. Ale ja byl vzdy ujetej na novy technologie.

btw jsem zvedavej co z RTX karet vymackne brigade engine https://twitter.com/OTOY/status/1030269165318287360

+1
0
-1
Je komentář přínosný?

přesně tak, pro realistickou grafiku jsem ochoten jít s požadavky dolů rozlišení nebo obnovovačka, ale co jsem pochopil možnost to uchodit slušně na 4k je, třeba že se RT bude počítat v menším rozlišení. To se konec konců dělá i dnes, nejedna hra má rendering resolution a v základu není na 100% ale méně a pak se to celé upscaluje, dosud to nikomu nevadilo ale možnost že by něco podobného s podporou AI dělala NV je špatně (DLSS) a asi to bude špatně i u toho RT který by se připravil v nižším rozlišení a při sloučení s výsledkem rasterizace upscaloval, třeba pomocí AI

+1
0
-1
Je komentář přínosný?

Ja neberu jako prehmat to, ze jsou tam obvody na "akceleraci" RT.

A ani neberu jako prehmat, ze to v aktulanim stavu SW(her, driveru) a HW dava v hrach jen 50FPS@1080p.

Jen vidim jako prehmat to tak hlasite proklamovat. Je jasne, ze nekde si ty vyvojari musi osvojit techniky. A to na SW CPU emulatoru asi nedaji. Jen kdyby to delali stylem patchu nekdy az po a nedelali z toho takovy humbuk, tak by to bylo prikladne zavadeni novych zpusobu zobrazovani scen :)

+1
0
-1
Je komentář přínosný?

https://www.overclock3d.net/news/software/bioware_looking_into_nvidia_dl...

Bioware tiez riesi implementaciu shiny happy RT, btw je to druha hra od Bioware, ktora mi je u prdele(prva bola Mass Effect Andromeda)

+1
+4
-1
Je komentář přínosný?

EA kdyz ovladla Bioware, tak ho vykuchala, neocekavej od nich uz zadnou dobrou hru. A souhlas ME Andromeda o nicem, Anthem dopadne stejne.

+1
+8
-1
Je komentář přínosný?

Anthem je jedna z her v mém hledáčku vzhledem k žánru je by to měl být RPG looter shooter, stejně jako Division, Warframe, Destiny nebo Borderlands. Otázkou je, jak ta hra dopadne, lidi mají docela skeptické postoje.

+1
-2
-1
Je komentář přínosný?

Tak uvidis, nema cenu se zatezovat nazorem jinych. Melo by byt demo, takze se pak muzes rozhodnout sam.
Osobne me zanr, kterym se Bioware vydal nebavi. Mel jsem rad stary Bioware s Mass Effect 1-3, Dragon Age 1-2.
Andromeda uz byla divna a Anthem mi prijde, ze to zadne RPG ani nebude, spis proste akcni hra.

+1
+5
-1
Je komentář přínosný?

Demo bude pro předplatitele pokud se nepletu. Spíše si počkám na analýzy herního systému a to jak bude hratelná hra solo bez kooperace.

Anthem má být hra podobná těm zmíněným, třeba Division hodně lidí považuje za střílečku, při tom je to looter rpg jako Diablo (a jako střílečku to hodnotí, což je chyba), podobně by tomu mělo být i u Anthemu, ale uvidíme jak nakonec dopadne a zda to bude hra ve které hráči budou mít co dělat sotvky či tisíce hodin.

+1
-2
-1
Je komentář přínosný?

No mě Andromeda vcelku bavila a možná stačilo poměrně málo aby z toho byla opravdu dobrá hra. Ale je fakt, že na ME 1 a DA 1 to nemá ani náhodou. Snaží se eye-candy přebít, že hratelnost není už co bejvala...

+1
0
-1
Je komentář přínosný?

Eye-candy? Asi každý žijeme v jiné realitě :)

https://www.youtube.com/watch?v=7KWkao73HuU&

+1
0
-1
Je komentář přínosný?

Ja to hrám teraz a graficky na plné detaily v 80% 4K rozlíšení je to teda krajšie ako v tom videu na ktorý sa odkazuješ. Nahral som aj časť gameplay v 2K, ktorý som upscale-oval na 4K:

https://uloz.to/!v9llXEVXuE0W/mass-effect-andromeda-2018-05-04-18-36-40-...
https://uloz.to/!w5kivglIH1vr/mass-effect-andromeda-2018-05-06-14-40-29-...

Je to lepšie ako pozerať skomprimované na youtube a v nízkom rozlíšení. V originálnom 4K na plné detaily a s HDR to vyzerá ešte lepšie. Ale bohužiaľ nemám HDR monitor, tak túto funkcionalitu nemám dostupnú a nemôžem v nej nahrávať.

+1
-1
-1
Je komentář přínosný?

A ty hnusně vymodelovaný obličeje, příšerný animace atd, ty jsi taky spravil 4k rozlišením? :)

+1
+1
-1
Je komentář přínosný?

Tie nie. Ale nepripadali mi take hnusné ako o nich píšeš a ani také ako v linkovanom videu. Pozri si tie videá na ktoré som dal odkaz. A prostredie je zasa parádne. Keď sa na to pozriem ako na celok, mne sa tá hra graficky páči. Samozrejme nie všetko je výborné a hra má svoje chyby, ale celkovo na mňa pôsobí dobre.

+1
0
-1
Je komentář přínosný?

Ale zase ta jedna dzungloidni planeta v desti. To bylo moc pekne.

To co zabilo Andromedu byla demence manazeru prejit z osvedceneho UnrealEngine, ktery ma vypilovane nastroje na animace, ozvuceni, proste skvele strihove studio atp. na inhouse FrostBite, ktery byl do te doby ciste jen o Eye-Candy. A jinak stal zaprd. Nebylo tam nic uzitecneho krom grafiky a kolizim kvuli FPS.

Maly tym, puvodne zamysleny jen pro ohnuti FB enginu pak krom toho delal i masivni vyvoj FB (napriklad inventare, atp.) a nastroju kolem. A to se podepsalo na vysledne kvalite.

+1
0
-1
Je komentář přínosný?

Tie hry sa ti iba nepáčia alebo ti vadí iba to, že s nimi niečo mala NVIDIA? Pretože pre mňa je MEA dosť dobrá hra, ktorá ma baví.

+1
-2
-1
Je komentář přínosný?

nevedel som ze s Andromedou mala nieco spolocne nvidia. Proste koncept andromedy mi nesadol. mladi hrdinovia, technicke problemy hry, uz len shooter, ziadne rpg...
a pre klud tvojej duse, vlastne mi nesadol ani Dragon age 3, a ten asi bol s podporou AMD :)
proste bioware asi 7rokov mieri na millenials, a to ja niesom

+1
+3
-1
Je komentář přínosný?

NVIDIA v MEA pomáhala riešiť podporu HDR. Ja som túto hru začal hrať až o dosť neskôr ako vyšla, takže je už vcelku v pohode čo sa týka chýb. A RPG to podľa mňa je. Nie možno úplne hardcore, ale podobné ako je trebárs Borderlands 2, ktoré ma tiež dosť bavila (a stále baví aj teraz).

+1
-2
-1
Je komentář přínosný?

ja som sa k nej nedostal, odradili ma recenzie, videa a ten tmavy rasista, ktory tam robil scenaristu.

+1
+2
-1
Je komentář přínosný?

Za mňa ju môžem s kľudom odporučiť. Príbeh je zaujímavý a graficky je na tom super. Hrám ju naplné v 80% rozlíšení 4K upscale-ované na plné 4K. Dá sa to tak nastaviť v menu.

+1
-2
-1
Je komentář přínosný?

Mohl bych poprosit o nějaké ty chyby (video obrázek) v BF:V?

+1
+1
-1
Je komentář přínosný?

Taky se hlásím.

+1
-1
-1
Je komentář přínosný?

Tiež by ma zaujímali tie chyby v BF. A okrem toho sa v článku píše, že sme výkonovo s RT pri 50 a 60 FPS v 1080p aj keď podľa tohto článku je to už v 2K:

https://www.dsogaming.com/news/nvidia-geforce-rtx2080ti-runs-battlefield...

Čo je teda pravda? Okrem toho vývojári BF V už 24. augusta hovorili, že majú rock solid 60 FPS s RTX vo FHD, čo podľa mňa určite nie je 50 - 60 FPS, ale stabilne nad 60.

https://www.dsogaming.com/news/battlefield-5-was-running-at-1080p-with-r...

Tak isto bol uvedený aj príklad hry, ktorá ide s RTX nad 90 FPS v 4K:

https://www.dsogaming.com/news/gaijins-enlisted-was-running-with-over-90...

Je pekné ako niektorí ludia toto proste ignorujú a idú si svoju cestu o nepoužitelnom RT s 50 až 60timi FPS vo FHD (najväčší fandda AMD išiel ešte tak ďaleko, že hovorí o 45FPS vo FHD s RTX 2080 Ti). Samozrejme vždy bude záležať na implementácii RT v danej hre. Od toho sa budú odvíjať jej požiadavky na výkon so zapnutým RTX. Keď sa ale bavíme o výkone, nemali by v článku o ňom chýbať aj aktuálne informácie. Predpokladám, že nevadí, že sú pozitívnejšie než to čo je tu predkladané.

+1
-4
-1
Je komentář přínosný?

Když se všechno oseká tak to může běžet třeba 500 FPS, ale to asi není ten problém že? :)

+1
+5
-1
Je komentář přínosný?

Samozrejme. Otázka je či sa niečo osekalo, alebo sa proste implementácia RT v BF V zlepšila. To zatiaľ nevieme, ale je to viac pravdepodobné ako to, že budeme pri 60 FPS vo FHD s RTX 2080 Ti. Čo sa týka Enlisted (ukážky 90FPS v 4K), pozri si to video na ktoré mám vyššie odkaz. Nevyzerá to vôbec zle na to, ako dobre to výkonovo škáluje.

+1
-3
-1
Je komentář přínosný?

no, myslis ze skokovo sa zlepsila implementacia RT, ked to riesili 8 mesiacov na Volta, a zrazu na to prisli, ale az tyzden po oficialnej prezentacii turinga?

+1
+6
-1
Je komentář přínosný?

Enlisted se mi vizuálně moc nelíbí a že by tam to RT nasvícení nějak pasovalo.. Zkoušel jsem War Thunder (stejný engine) asi před rokem a modely a materiály vypadají pěkně, jenže zbytek je takový papírový, chybí tomu objem, nic moc tam není ostré.

Dříve nové technologie prezentovaly hry jako Half-life 2 dneska to je Battlefield, omalovánky s úplně přepálenými efekty a herním obsahem, který už nezajímá ani BF fanoušky. Ukázat to třeba v Red Dead Redemption 2 to by byla jiná, ale Rockstar tímhle směrem nejde.

+1
0
-1
Je komentář přínosný?

ved prave, zapne sa Blur...po novom DLSS, a hned to ma +50fps :)

+1
+3
-1
Je komentář přínosný?

BF V pokiaľ viem nepoužíva DLSS. Je to tak aj podľa tabuľky v článku. Takže predpokladám, že je to výkon bez neho.

+1
-3
-1
Je komentář přínosný?

mas pravdu, pouziju DLSS v inych hrach...ale vdaka ze si tiez myslis, ze ide o blurring, si to nerozporoval :)

+1
+3
-1
Je komentář přínosný?

Aktuálne vôbec netuším aké budú jeho výsledky, takže nemám prečo nejak DLSS rozporovať. Neviem či to bude blurring a ak áno v akej miere. Ukážky k RTX na prezentácii NV boli čisté, ale zasa si nemyslím, že v nich bolo použité DLSS. Takže som zvedavý ako to bude nakoniec vyzerať.

+1
-2
-1
Je komentář přínosný?

nj, tak lidi si na to zvykli v současnýh hrách už dávno, mnoho lidí si zcela dobrovolně nechává nastavené, nebo i snižuje rendering resolution pod 100%, některé hry běžně používají že jen focused část scény renderuje v plném rozlišení a zbytek v nižším.

Nevidím tady žádnou zmínku o tomhle přitom je to všude, když NV pro tohle přinese novou technologii, která může přinést lepší výsledky než současně užívané metody (navíc i výkon s tím spojený) tak je to špatně a ukazuje se na to prstem.

+1
+1
-1
Je komentář přínosný?

'' A okrem toho sa v článku píše, že sme výkonovo s RT pri 50 a 60 FPS v 1080p aj keď podľa tohto článku je to už v 2K: ''

dyt tam pisou 40-50 ve 1440p, jak to vyvraci 50-60 ve 1080p?

// 20 sekund googleni: ''the game appears to run at 50-60 fps averages, with periodic drops''
https://www.pcgamer.com/heres-15-minutes-of-battlefield-5-running-on-an-...

+1
+6
-1
Je komentář přínosný?

"dyt tam pisou 40-50 ve 1440p, jak to vyvraci 50-60 ve 1080p?"

Asi tak, že ak by GPU s RTX on mala 50-60 FPS v 1080p, asi ťažko by stíhala 40-50 FPS v 1440p, ktoré je náročnejšie na výkon. Je mi ale jasné, že si mohli upraviť nastavenia tak, aby im to vychádzalo lepšie pre prezentáciu výkonu, ale to teraz nevieme. Takže by som si radšej počkal na oficiálne výsledky. Nebude to už trvať dlho. Testy by mali byť o 2 týždne a vtedy by mala byť dostupná aj prvá hra s RTX - nový Tomb Raider. Tak snáď potom budeme múdrejší.

+1
-7
-1
Je komentář přínosný?

„Asi tak, že ak by GPU s RTX on mala 50-60 FPS v 1080p, asi ťažko by stíhala 40-50 FPS v 1440p, ktoré je náročnejšie na výkon.“

Nějaký důvod by nebyl? Tohle je totiž zcela běžné chování. Například taková F1 běží na Radeonu RX 580 v 1080p při 57 FPS - tedy v rozmezí 50-60 FPS:
https://www.computerbase.de/2018-08/f1-2018-benchmark/2/#diagramm-f1-201...

a ve 1440p při 46 FPS, tedy v rozmezí 40-50 FPS:
https://www.computerbase.de/2018-08/f1-2018-benchmark/2/#diagramm-f1-201...

Uniká mi, co je na tom nemožného.

+1
+6
-1
Je komentář přínosný?

Očakával by som s RTX väčší prepad na výkone pri dvojnásobnom rozlíšení ako nejakých 10 FPS. Ale beriem, že to tak naozaj môže byť. Každopádne keď už sa prezentuje s posmeškami hranie na 50-60 FPS vo FHD, prečo by som radšej nehral v 2K, ak by som mal 40-50 FPS? Veď to sa musí citeľne prejaviť na kvalite výsledného obrazu.

+1
-3
-1
Je komentář přínosný?

zevraj na 4K monitore 2K obraz vyzera horsie ako fullhd, mozno preto

+1
+3
-1
Je komentář přínosný?

Samozrejme 2K môžeš aj upscale-nuť na 4K a nebude to vyzerať zle. Hrám takto Mass Effect Andromedu a obraz je výborný. Určite lepší ako pri FHD, ktoré som skúšal tiež.

+1
-4
-1
Je komentář přínosný?

2K je na 4K monitoru zdeformovany. Zatimco fullhd skaluje naprosto dokonale, protoze z jednoho pixelu ve fullhd jsou 4 pixely na 4K.

+1
+1
-1
Je komentář přínosný?

To je pravda, ale celé je to o tom ako to daný človek subjektívne vníma. Ja osobne s tým problém nemám a nejak to pri hraní nevnímam. MEA hrám v 80% rozlíšení vzhľadom na 4K a to sa upscaluje do plného 4K. Výsledný obraz sa mi celkom páči. Ale beriem to, že niekto môže mať iný názor. BTW v odkazoch, ktoré som dal vyššie je to ešte hrané práve v 2K a potom upscale na 4K. Môžete si urobiť obraz o tom, či to je pre vás v poriadku alebo nie.

+1
-1
-1
Je komentář přínosný?

Z mé zkušenosti v graficky náročných titulech třeba přechod z 16:9 FHD na 21:9 2560x1080 znamenalo 20%, ale 2k jen 25% snížení výkonu. U 4k je to pak typicky kolem 50%. Jde o to že výon neklesá lienárně a záleží na HW a potažmo i SW, nicméně většinou mívám v 4k cca polovic výkonu v FHD ne čtvrtinu, čemuž by odpováídal počet pixelů. Mnoho věcí ta grafika prostě počítá a na výsledném rozlišení nezáleží

+1
0
-1
Je komentář přínosný?

Cili Geforce rady RTX nedelaji RayTracing v plne kvalite a pak je nasledne obraz takto postizeny rychle zehlen jadry Tensor z cehoz vychazi preleskly palici obraz(HDR+), navic kvalitativne horsi nez tradicne leta zavedene algoritmy AA, proste rychle vyhladit, vykon ve FullHD je 45/60 FPS, ve 4k tristní, ale cena techto karet jasne miri na 4K, kdyz si to cele zhrneme:

-Geforce rady RTX nemaji pro plnohodnotny RayTracing vykon vubec...(pote nac to je?)
-Geforce rady RTX maji ve pul profilovem RayTracing-u vykon pro 4K mizivy(nepouzitelne)
-Geforce rady RTX musi obraz zpracovany RT jadry nasledne zehlit Tensorama(DLSS-AA)
-Geforce rady RTX zvedaji kuli RT a Tensor jadrum svou spotrebu oproti Pascalu brutalne
-Geforce rady RTX vuci GTX rade zvedaji hruby vykon minimalne, cenu vsak o 30/45%

Jak poznam NVIDII, osetri vypinani RayTracing efektu tak ze nepujde v novych hrach pote nastavit nejvyssi UltraHD kvalitu/profil, jednak aby lidi/zakaznici nevideli ze kvalitativni rozdil oproti RT je nulovy, tak nenarastl hruby vykon vuci Pascalu vyrazneji cili si NVIDIA sama nenasrala na hlavu, ze hraci zadne RT a Tensor jednotky nepotrebovali, proste se RT bude nasilu protlacovat jako kdysi PhysX a pote se na to zapomene, hlavne ze lidi za to zaplatili krvave castky.

-ja bych rad opakuju vedel jak je natom Turing s implementaci hw-soucasti api DX12

>kdyz neco uvadim delam to poradne a ne jenom tak napul(RayTracing v roli RTX)...

+1
+3
-1
Je komentář přínosný?

"Cili Geforce rady RTX nedelaji RayTracing v plne kvalite a pak je nasledne obraz takto postizeny rychle zehlen jadry Tensor z cehoz vychazi preleskly palici obraz(HDR+)"

Čo je to RT v plnej kvalite prosím ťa? Vždy bude RT obmedzený na možný počet lúčov, ktoré bude karta stíhať sledovať a spočítať.

"navic kvalitativne horsi nez tradicne leta zavedene algoritmy AA"

Už teraz predvedené RTX má citeľne lepšie výsldky než doteraz používané algoritmy v rámci rasterizácie. O čom to teda hovoríš?

"-Geforce rady RTX nemaji pro plnohodnotny RayTracing vykon vubec...(pote nac to je?)
-Geforce rady RTX maji ve pul profilovem RayTracing-u vykon pro 4K mizivy(nepouzitelne)"

Načo sa vlastne vyrábajú mainstream GPU pri ktorých sa musíš obmedzovať na detailoch, keďže nemajú na ne potrebný výkon a sú teda podľa teba nepoužiteľné? Asi takúto otázku sa teraz pýtaš. Sakra pamätám si doby kedy nebolo možné na väčšine GPU zapnúť AA či AO a nikto nepísal, že karty, ktoré ich podporujú by ich vlastne podporovať nemali, pretože je to nepoužitelné. To je dnes nejaká móda nazývať pokročilé grafické efekty náročné na výkon ako nepoužiteľné?

"Geforce rady RTX zvedaji kuli RT a Tensor jadrum svou spotrebu oproti Pascalu brutalne"

Môžem vidieť z akých testov toto tvrdenie vychádza?

"Geforce rady RTX vuci GTX rade zvedaji hruby vykon minimalne, cenu vsak o 30/45%"

Opäť, môžem vidieť testy? Aktuálne to vyzerá na výkon +40%. To určite nie je minimálne aj vzhľadom na to, že výrobný proces urobil iba minimálny skok.

"jednak aby lidi/zakaznici nevideli ze kvalitativni rozdil oproti RT je nulovy"

Chce to trošku ubrať z fanatizmu. :-)

" proste se RT bude nasilu protlacovat jako kdysi PhysX a pote se na to zapomene"

Toto nemôže napísať človek, ktorý aspoň minimálne tuší, čo RT je.

+1
-7
-1
Je komentář přínosný?

Mareku Moravčíků ty ses tak moudrej ze mi vsichni sme vlastne pitomci, nejen autor tohoto webu ale i dalsi renomovane stranky venujici se leta testu hw otevrene hovori ze RTX nedela nic jineho nez pulprofil RayTracingu, cili vykon nato jednoduse nema(malo paprsků) a tak kombinuje leta znamy rasterizacny rendering, teselaci a par efektu RT coz se ve vysledku jmenuje hybridni rendering, to jiste delala PhysX ne kterou dnes sere ukazkove pes, na RT bude srat po mesicich podobne.

RayTracing, Tensor a jine jednotky sou profesionalni zalezitosti/speciality Quader, Tesla, FirePro a PRO karet ktere stoji 4 az 9x vic nez MSRP/doporucene ceny novych Geforce RTX, jednoduse jeste bude leta trvat nez cenova uroven tehlel karet spadne na "akceptovatelnych" 1000 dolaru, ty specialni drahe karty jednoduse maji vykonu na RT dostatek a delaj ho proto v plnem profilu, nahrazuji nim plne rasterizacny rendering, nedelaji jenom nejaky hybrid, NVIDIA jednoduse prodava zakaznikovi 1/4 profil profesionalni karty ktery ale zakaznik vubec od ni nezadal, zakaznik od ni zadal nejvyssi pridavek ve forme hrubeho vykonu ktery potrebuje na plynule hrani ve 4K, nejlip od 90-120FPS aby i ten nativni VR port pritomny na RTX kartach mel smysl.

+1
+5
-1
Je komentář přínosný?

Která profesionální karta krom Touring Quadra které má plně aktivní jádro oproti 2080Ti je pro RT rychlejší (a pokud se nepletu, u 2080Ti je ořezaná jen část CUDA cores nikoli RT a Tensor cores)?

2080Ti v NV SW demu raytracingu byla rychlejší zhruba o 20% než DGX-2 stanice s 4 voltama za 68 tisíc USD a například 1080Ti byla asi 7x pomalejší než 2080Ti.

+1
-4
-1
Je komentář přínosný?

Njn, jak pisete na zacatku. Presny zasah. Marek nikde netvrdi, ze se jedna o Full RT. A ten Vas odstavec o profi kartach a RT je opravdu usmevny. Napiste ktere profi karty umi Full RT s 60 FPS alespon FHD. Slovy nula, nula, zadna.

+1
0
-1
Je komentář přínosný?

Tak CGI filmy které jsou plně raytracované počítají jeden snímek hodiny, ale i několik dní pokud je hodně komplikovaný a v průběhu toho renderu to bude i několik Peta Bytes dat. A to ho nepočítají grafiky jako spíše procesory a těch procesorů jsou desítky tisíc a počítače na to stojí miliardy, Ale někdo to holt chce zabalené v grafice do stolního počítače, ideálně za cenu low end karty a hlavně aby to netrvalo ty hodiny či dny na jeden snímek, ale aby to mělo aspoň 60 snímků za sekundu :D

+1
0
-1
Je komentář přínosný?

Nielen 60 FPS ale 60 FPS v 4K. :-) A keby náhodou RTX spĺňalo aj túto požiadavku (čo určite nebude), tak by sa našlo iné "dôležité" kritérium pre vyhodnotenie použitelnosti tejto technológie.

+1
0
-1
Je komentář přínosný?

"otevrene hovori ze RTX nedela nic jineho nez pulprofil RayTracingu, cili vykon nato jednoduse nema(malo paprsků) a tak kombinuje leta znamy rasterizacny rendering, teselaci a par efektu RT coz se ve vysledku jmenuje hybridni rendering"

Toto predsa viem a nikde to nerozporujem. Dôležitá je ale aj kvalita takého výstupu a tá tu predsa je. Nič také ako ty píšeš sa nedeje. Teda že je nulový rozdiel medzi tým na čo sa RT používa a tým ako sa to riešilo doteraz.

" prodava zakaznikovi 1/4 profil profesionalni karty ktery ale zakaznik vubec od ni nezadal, zakaznik od ni zadal nejvyssi pridavek ve forme hrubeho vykonu ktery potrebuje na plynule hrani ve 4K"

Toto predsa dostávaš. Bez RT máš výkonu na 4K dosť. RT nie je prvá a ani posledná grafická funkcionalita, ktorá potrebuje na svoj beh väčšiu porciu výkonu. Väčšina grafických funkcionalít si týmto prešla. Tiež som mal v minulosti kartu s podporou 16xAA, ktoré som nemohol ani náhodou zapnúť, pretože by som sa dostal do nehratelných FPS. A to je len jeden príklad.

+1
-4
-1
Je komentář přínosný?

"specialni drahe karty jednoduse maji vykonu na RT dostatek a delaj ho proto v plnem profilu"
Tohle je blbost. Zadna karta nema na real-time rendering narocnych scen. Gpu rendering se pouziva k nahledum kdy se doladujou sceny, kdy se ceka treba 30 s na aspon trochu viditelny obraz jednoho snimku, nebo se pouzije k finalnimu renderu, kdy to muze trvat i klidne hodinu a vic. A v produkci vetsich zakazek se pouzivaji renderovaci farmy.

Neni na miste srovnani PhysX, protoze tohle neni proprietalni technologie, pouze ta jejich implementace v jadre je proprietalni.

Vykon u RT jde ovlivnit vice faktory, napr. poctem naslednych odrazu, u GI taky spolu s poctem odrazu i na kolik paprsku se svetlo pri odrazu rozdeli. Predpokladam, ze to bude co jeden odraz, to o jeden paprsek ktere je schopno to pocitat min.

Hybridni rendering mi rozhodne smysl dava, protoze se postupne budou resit ty nejvetsi neduhy rasterizace a to ostatni co je u rastrerizace dostatecne kvalitni se muze zatim nechat.

Jen at si to fanousci kupuji a her pribyva, za nekolik generaci uz to bude jina a pak si budeme moct v budoucnu nejakou starsi hru zahrat v kvalite jakou si dnes nezhrajeme :)

+1
+1
-1
Je komentář přínosný?

JJ. Presne ako píšeš. Dodám ešte vyjadrenie jedného z hlavných vývojárov PhysX k jeho prirovnaniu k RT (a aj iným nezmyselným tvrdeniam, ktoré sa nachádzajú v komentároch na internete):

http://www.codercorner.com/blog/?p=2013

Citujem:

-------------------------------------------------------------------------------
“Raytracing is the new PhysX“: LOL

This is such a ridiculous statement…

Raytracing has been the Holy Grail of computer graphics for as long as I can remember. I was already playing with GFA Raytrace back on the Atari ST in, what, 1991? There has been dreams of “realtime raytracing” for decades. It’s been used in movies for years. There is and there has been more interest for raytracing than there ever was for accelerated physics. It’s just so weird to compare both.

Now if you mean that this is an Nvidia-only thing that will only run on Nvidia hardware, this is (hopefully) wrong again. The main difference is that there is already a Microsoft-provided hardware-agnostic raytracing API, called DXR. There has never been something similar for “direct physics”. So you should not compare it to PhysX, instead you might compare it to the introduction of programmable shaders when everybody was using a fixed-function rendering pipeline. That comparison would make a lot more sense.

Beyond that, you might remember how some games needed a card that supported “shader model 3″ in order to run. Or before that, before shaders, how the D3D caps told the game whether your card supported cube-mapping, fog, “TnL”, you name it. It has always been like this: different hardware from different companies have different capabilities.
-------------------------------------------------------------------------------

+1
0
-1
Je komentář přínosný?

"ja bych rad opakuju vedel jak je natom Turing s implementaci hw-soucasti api DX12"

Například má právě HW podporu pro RayTracing v podobě speciálních jader

+1
-1
-1
Je komentář přínosný?

Už mě se** ta pitomost o jádrech na Raytracing. Raytracing je sada výpočtů, které potřebují ideálně FP32 přesnost.
Tzn. jakékoliv jádro co dovede dělat FP32 může dělat Raytracing je jen otázka jak rychle a jak moc se předtím vše musí zjednodušit aby to ta FP32 jednotka nemusela počítat všechno.

Abych tomu dal resumé. Jen ovladače, jsou to co rozhoduje jak a na čem se to bude počítat. Proto nVidie začala tím, že šla za tvůrci her a poslal jim tam vlastní záškodníky.
Protože, kdyby někdo řekl chci 60 FPS v 1080p a při tom chci rasterizovat, stíny a odlesky a podobné věci... tak by to dali i dnešní karty, jen by to někdo musel naprogramovat.
Na těch "jádrech" není a nemůže být (z principu) něco speciálního.

+1
+2
-1
Je komentář přínosný?

Asi tam niečo špeciálneho bude, keď dnes jedna Turing GPU zvládne v RT to, načo predtým potrebovali 4 Volty.

"Protože, kdyby někdo řekl chci 60 FPS v 1080p a při tom chci rasterizovat, stíny a odlesky a podobné věci... tak by to dali i dnešní karty, jen by to někdo musel naprogramovat."

Takéto jednoduché to nie je. Pri RT máš tento typ efektov implicitne k dispozícii, pretože sú dané spôsobom renderovania na akom RT funguje. Pri rasterizácii to znamená doriešiť kopec fake assetov a rôznych barličiek pri renderovaní a aj tak nedosiahneš vernejšie podanie ako je s RT. Jednoducho preto, lebo na to potrebuješ mať informácie aj o objektoch, ktoré nie sú v tvojom zornom poli, ale môžu mať vplyv na tú časť obrazu, na ktorú sa pozeráš (svetlo sa odráža do tvojho zorného pola aj z objektov, na ktoré sa zrovna nepozeráš). Toto pri rasterizácii nemáš a preto to musíš iba fake-ovať alebo získavať dosť náročným spôsobom, ktorý má zasa kopec nevýhod s akými sa musíš vysporiadať. Pri RT takto obmedzený nie si. A tiež je pri ňom dôležité akcelerovať určitý typ operácií, ktoré sa najčastejšie pri RT používajú. Keď takéto operácie urobíš v HW (to je to, čo si predstavujem, že robia RT jadrá v Turing GPU), tak si výkonovo dosť pomôžeš. A je to vidieť aj na výsledku. Samozrejme môžeš to všetko akcelerovať aj použitím stream procesorov (a teda SW a ako píše ty, doprogramovaním), čo sa pri offline renderingu robí, ale nebudeš mať taký RT na žiadnej GPU v real time. Ani tie čiastočné efekty, ktoré sa pomocou RT dorábajú teraz v prezentovaných hrách.

+1
-2
-1
Je komentář přínosný?

Píšeš to krásně, ale myslím, že se mýlíš. Vysvětlím proč (co je raytracing, rasterizace, polygony, vektory, Zbuffer atd. Vím velice dobře, myslím, že vlastní rutinu na zobrazovaní stínovaných vektorů, jsem napsal ještě dřív než většina lidí tady, byla na světě ;-) ).
nVidie ze dvou důvodů pořád mluví o raytracingu, jednak za to můžou cokoliv schovat a zní to dobře a jednak a to je podstatné o něm už několik let všichni více méně básní.
Z podstaty samotného výpočetního modelu, nemůže existovat něco jako hybridní raytracing. Pak to není raytracing, ale rasterizace, v které někdo dopočítal nějaké efekty. Ty efekty tam jsou protože, někdo nějak definoval, že tohle zrcadlo je lesklá plocha a tak se má chovat. Není pravda, že při rasterizaci nepočítáš s tím co nemáš v zorném poli. Klidně můžeš, jen to znamená, že budeš muset víc počítat. Raytracing je proto náročný, že se počítá s tím co je v celé scéně a to včetně toho co není vidět (že to není vidět zjistíš až na konci celého procesu).
Protože vím jak ten výpočet funguje, vím, že jde úplně stejně ošidit při raytracingu stejně jako rasterizaci. Klidně můžeš zakázat paprskům víc než dva odrazy, nebo jim povolit jen jeden.
Ohledně výpočtů pomocí Volty Vs. Turing v tom vidím, právě tu blamáž.
RT jednotka musí fungovat tak, že akceleruje to co potřebuješ na Raytracing tzn. FP32 to znamená, že uvnitř bude něco co má relativně dost paměti pro takový výpočet a bude zvládat provádět rychlé dělení a násobení s takovou hodnotou. Sčítání a odečítání tam tolik potřebné nebude.

Jediné co nVidia udělal, je vyčlenění několika jader k tomu aby dělali jen tohle. V důsledku toho to funguje tak, že na několika málo místech scény provedou "raytracing" a výsledek nacpou do rasterizovaného obrazu. Díky tomu, že to aplikují jen v omezené míře, nemusí při pohybu počítat tolik světelných cest a díky tomu se to vůbec hýbe.
https://www.youtube.com/watch?v=BpT6MkCeP7Y
Výše jsem pro názornost odkázal video. Tam je hezky vidět jak se takový výpočet dělá. Spočítáš X paprsků v obraze, který jich potřebuje řekněme X*100. Když se pohyb zastaví, spočítáš ty ostatní.
Aby to fungovalo, musí někdo sáhnout do kódu toho co pak vidíš, a definovat co se bude takhle počítat. Bez toho a ovladačů, které to rozpoznají a řeknou jak se to má počítat by to nešlo.
Naopak, technicky nic nebrání počítat to na jakémkoliv GPU nebo CPU, limituje tě pouze to jak se správně chovat k těm vyčleněným jednotkám a jak to rychle budou stíhat. CPU jsou v tomhle relativně pomalá protože, musí z principu dělat i něco jiného ne
GPU by to asi umělo obstojně, ale většina GPU je složena do bloků a jejich výstup je limitován celým blokem. Proto také ty RT jednotky mimo celý koncept rasterizačích jednotek.
Kdy se do rasterizovaného obrazu decentně dopočítá něco dalšího.
Někde jsem zachytil, že nVidia tvrdí 20 Giga paprsků. To je pohádka jak blázen. Protože pro každý pixel potřebuješ jeden paprsek. Takže tohle by mělo zvládat počítat 20 gigapixelů obraz jedenkrát za vteřinu. Což nezvládá. Případně 1 gigapixel 20 krát za vteřinu, což taky nezvládá. Tzn. podle jejich slov 33 Megapixelový obraz by se měl hýbat rychlostí 60 snímků za vteřinu.

Podtrženo sečteno, nVidia nepřišla s ničím, tak převratným. Vyrobila další koprocesor a aby bylo možné ho používat musí o tom vědět ta aplikace a taktéž, ovladače. Z prstu si vytahala nějaký výkon a sází na to, že to zní cool a in. Takže stále si stojím za tím, že v té míře v jaké je to nasazené by to v tom FullHD rozlišení, nutně nemusel být velký problém pro současné grafiky. Brzdí je v tom jejich vlastní návrh a fakt, že minimálně na těch od nVidie to nikdo nikdy nezapne v ovladačích. Turing sám o sobě není o tolik rychlejší, proto tahle kouřová clona s raytracingem.
Myslím že vcelku zajímavý náhled do toho, jak takové věci fungují z úst vcelku povolaných: https://www.youtube.com/watch?v=hapCuhAs1nA
Připojil bych s k Fellinimu: "Herni enginy, jsou podvod!"

+1
+3
-1
Je komentář přínosný?

"Není pravda, že při rasterizaci nepočítáš s tím co nemáš v zorném poli. Klidně můžeš, jen to znamená, že budeš muset víc počítat."

Píšem to aj mojom príspevku. Problém je, že "viac počítať" sa často myslí renderovať iné pohľady na scénu, ktoré sa potom použijú pre získanie aktuálneho obrázku. Viď shadow mapy, ambient occlusion mapy či získavania textúr pre odrazy v zrkadlách a pod. Tieto ale nemôžeme renderovať v dostatočne veľkom rozlíšení a s tým potom prichádzajú ďalšie problémy s akými sa je treba vysporiadať. Napríklad AO mapa je zašumená (kvôli nízkemu počtu lúčov, ktoré zisťujú zatienenie okolím - rovnaký princíp ako pri RT) a preto je potrebné ju vyhladzovať blur filtrom. Pri RT nemusíš generovať žiadne takéto mapy, obmedzený si hlavne počtom lúčov, ktoré sleduješ a ako píšeš aj počtom ich odrazov. Samozrejme to tiež vieš rôzne šidiť ako pri rasterizácii, ale s výsledkom, aký bol ukázaný na predvádzačkách, som dosť spokojný a preto nechápem tú miestnu zášť voči RTX.

"Někde jsem zachytil, že nVidia tvrdí 20 Giga paprsků. To je pohádka jak blázen. Protože pro každý pixel potřebuješ jeden paprsek. Takže tohle by mělo zvládat počítat 20 gigapixelů obraz jedenkrát za vteřinu. Což nezvládá. Případně 1 gigapixel 20 krát za vteřinu, což taky nezvládá. Tzn. podle jejich slov 33 Megapixelový obraz by se měl hýbat rychlostí 60 snímků za vteřinu."

Toto podľa mňa nie je úplne tak ako uvádzaš. Pri RT kvôli jednému pixelu nesleduješ iba jeden lúč. Ale aj viacero ďalších. Keď lúč narazí na prvý objekt a odrazí sa ďalej, z miesta odrazu sa genereujú aj ďalšie lúče, ktoré zisťujú či objekt na danom mieste nie je zatienený alebo ak je lesklý a má odrážať okolie, tak zisťujú čo sa má na ňom odraziť a podobne (a to ešte nehovorím o lámaní lúčov na povrchu transparentného objektu). Takže tvoj prepočet nie je presný. Nevieme koľko lúčov na jeden pixel využívajú pripravované hry. A ani nevieme s koľkými ich odrazmi sa vôbec počíta.

"Podtrženo sečteno, nVidia nepřišla s ničím, tak převratným. Vyrobila další koprocesor a aby bylo možné ho používat musí o tom vědět ta aplikace a taktéž, ovladače."

To je pravda a vôbec v tom nevidím problém. Ak to dokáže mať výkon v RT taký ako predtým 4 Volty, tak prečo nie?

"Takže stále si stojím za tím, že v té míře v jaké je to nasazené by to v tom FullHD rozlišení, nutně nemusel být velký problém pro současné grafiky. Brzdí je v tom jejich vlastní návrh a fakt, že minimálně na těch od nVidie to nikdo nikdy nezapne v ovladačích."

Ja som si celkom istý, že bez RT a iba čiste s raterizáciou by sme sa nejak iba priblížili k tomu, čo dokáže RT vygenerovať. Ale nedosiahli by sme tak verných výsledkov. A preto som aj za aktuálny RT rád, pretože z toho čo som videl, aj táto iba jeho čiastočná implementácia opäť posunula grafiku ďalej.

"Turing sám o sobě není o tolik rychlejší, proto tahle kouřová clona s raytracingem."

Pokiaľ to naozaj bude bez RT tých 40% v priemere v prospech Turingu oproti Pascalu, tak si myslím, že výkonovo budeme môcť byť spokojní. Predsa len išlo iba o evolučné zlepšenie výrobného procesu na ktorom stojí Pascal a nebol to taký skok ako generáciu predtým. Ten nás čaká až na prechode k 7nm.

+1
-2
-1
Je komentář přínosný?

I odražený paprsek je pořád jeden paprsek, na to pozor. Tzn. skutečně je to tak, že každý pixel = jeden paprsek.
Postupně se do výsledku zanesou všechny hodnoty, které ten paprsek "zachytí" na konci je pak výsledek.

Těch 40% bude nejspíš průměr z ideálních podmínek, tzn. jestli to celé bude 20% bude to úspěch.

Nejsem si jistý jestli koprocesor na odrazy a stíny je správná cesta. Zvlášť v případě, že to celé je obalené ještě grafikou a je to za zcela absurdní cenu. Podle mě je to podobně jako PhysX tak nějak podfuk na lidi.
Ale kdo nemá nic lepšího za co jde uvalit prachy, tak beze všeho :-).

+1
+2
-1
Je komentář přínosný?

"I odražený paprsek je pořád jeden paprsek, na to pozor."

Ano, ale tento jeden lúč je iba primárny. Sú aj sekundárne lúče (používajúce sa na získanie informácií pre tiene, transparentnosť či odlesky), ktoré sa sledujú minimálne z prvého miesta odrazu primárneho lúča. Nejde teda o jeden, ale viac lúčov, ktoré sa podielajú na určenie farby jedného pixela. A všetky tieto lúče sa musia sledovať a spracovať. Tým pádom nemôžeš svoje výpočty zakladať na jednom lúči pre jeden pixel. Pozri si tento článok:

https://www.scratchapixel.com/lessons/3d-basic-rendering/ray-tracing-gen...

"Nejsem si jistý jestli koprocesor na odrazy a stíny je správná cesta"

Je to jediná cesta ako na to. Minimálne kým výpočetné jednotky grafiky musia riešiť aj rasterizáciu. Ktovie čo ich nahradí časom. Teraz to ale inak nejde.

No a o PhysX si myslím úplný opak. Ale to už je iná téma. Je to opäť iba o tom, či chceme fake fyziku alebo real-time a vernejšiu fyziku. Taká je ale o dosť náročnejšia na výkon a jej akcelerácia cez GPU dáva zmysel (a ešte väčší teraz pri asynchrónnych shaderoch). Teda opäť je to aj dnes tá istá dilema - fake alebo skutočná grafika. Neviem prečo sa ludia bránia pokroku a lpia na starých postupoch. Okrem toho aj keď GPU fyzika sa vytratila (aj keď to vyzerá, že sa vráti s Metro Exodus), tak CPU PhysX je dnes jeden z najlepších a je súčasťou Unreal Engine-u, Unity a v beta verzii už aj v Cryengine. Takže žiadny podfuk na ludí. Podľa mňa určite nie. GPU PhysX vniesol totiž zaujímavejšiu atmosféru do hier a ja som ho rád používal. Ale mal som výhodu aj v tom, že som na jeho akcelráciu mal vždy samostatnú GPU. Keď som si kúpil novú, tak stará sa posunula na túto pozíciu. No a CPU PhysX sa etabloval v hernom priemysle, len si pri ňom niektorí ludia zbytočne zatvárajú oči a žijú z 10 rokov starých predsudkov.

+1
-2
-1
Je komentář přínosný?

Takže přesně jak jsem od začátku předpokládal.
- není to Ray Tracing
- je to Rasterizace + rádoby Ray Tracing efekty
- pokud dojde na něco jako skutečný Ray Tracing jede karta jen jako výpočetní jednotka - nic nového

Takže celé je to jen BuzzWord nic víc, celé je to marketing jak prodat kartu, kterou v podstatě nepotřebujete. Někdo to tu před nedávnem přirovnal k PhysX, myslím, že to je velice přesný příměr.

+1
+7
-1
Je komentář přínosný?

Čo na tom, že výsledná kvalita obrazu je aj s čiastočným RT lepšia ako bola doteraz s čistou rasterizáciou. Je to len marketing a buzzword. :-) Takže ešte raz. Je akákoľvek grafická nadstavba, zlepšujúca kvalitu obrazu za cenu vyššieho dopadu na výkon, iba marketing a buzzword? Pretože toto v skutočnosti viacerí hovoríte.

+1
-7
-1
Je komentář přínosný?

RT NVIDIE neni nic jineho nez lepsi HDR a umela svazanost s grafickym nastavením/omezenim.

+1
+1
-1
Je komentář přínosný?

jeste nezapomenout vyssi zavislost na podpore ze strany NV ...ktere bych se obzvlast bal s prichodem nasledujici generace ...

+1
+5
-1
Je komentář přínosný?

závislost? Karta podporující DX12 je jediný požadavek aby to fungovalo, případně implementace přes Vulkan.

Buď karta podporuje API a tím pádem i RT, nebo nepodoruje API a tudíž ani RT.

NV jen přidává do čipu trošku křemíku navíc, která tyto specifické činnosti akceleruje.

+1
-3
-1
Je komentář přínosný?

DirectX Raytracing (DXR)
„Will not be released as part of a new version of DirectX but rather as a compatible extension to DirectX 12. “

"Nebudou uvolněna jako nová verze DirectX ale jako kompatibilní rozšíření pro DirectX 12."

Z toho vyplývá to že karta s DX12 (od AMD) nemusí mít automaticky podporu DXR.
Nejdříve musí někdo na implementovat podporu do driveru a otázka je jestli to jde a hlavně jestli to výkonnostně dává smysl.

+1
+1
-1
Je komentář přínosný?

Podpora neni problem problem bude vykon vega karet...je sice hezke ze maji podporu i formou radeon rays 2.0 ale soucasna generace to nebude asi stihat :)

+1
0
-1
Je komentář přínosný?

ja dufam, ze v radeon driveroch bude posuvnik dobre znamy z kausy Witcher 3 head&shoulders

+1
0
-1
Je komentář přínosný?

Záleží od toho, či bude v tomto smere AMD silnejšia alebo nie. Inak bude potrebovať posuvník NVIDIA. :-)

+1
-1
-1
Je komentář přínosný?

Jiri takze ty tvrdis ze tam neni zadna zavislost na masivnich vypoctech a tvoreni profilu pro kazdou hru ktera bude podporovat novou funkci ?

+1
+4
-1
Je komentář přínosný?

Výkon bude potřeba ale to není problém SW že. Ten jen zprostředkuje volání funkce HW. A jaký profil pro každou hru? Tomu nerozumím. Jako uživatel si samo můžu udělat vlastní profil ovladače pro každou apliakci, to je snad v pořádku ne?

+1
0
-1
Je komentář přínosný?

"Takže přesně jak jsem od začátku předpokládal"

proč předpokládat? Však to víme od začátku, jasně to padlo v keynote kde se ty karty i technologie představovaly. Je to navíc součástí DX12 api, žádná proprietární věc jako GameWorks.

A RT je tu už desítky let, akorát doteď cokoli jako real time RT nehrozilo, u filmů je běžné že se jeden snímek generuje hodiny a někdy i několik dní a to ne na kartě za tisíc dolarů ale superpočítači s desítkami tisíc procesorů za miliardy.

+1
-2
-1
Je komentář přínosný?

Ty jsi mi ale silna kava :) takze ve vysledku gameworks neexistuje protoze stejne vse jede pres directX api ci vulkan apod. :))

Ale no :) nepletes si to s jadry ? Btw mrkni na cem maka aktualne treba pixar nebo na cem vznikl i prehistoricky jursky park ;)

+1
+3
-1
Je komentář přínosný?

To je grupa )))))))

+1
+1
-1
Je komentář přínosný?

Čím víc AMDD funboys plivou, tím lepší produkt to je...

+1
-8
-1
Je komentář přínosný?

A ty tuny textu na obhajobu AMD... to je masakr.... Dát vám do ruky lopatu tak už je dávno vykopanej tunel do austrálie...

+1
-5
-1
Je komentář přínosný?

Bejt tebou, tak si s lopatou nezahravam... protoze prvni co by bylo, ze by si s ni dostal po hlave :o)

+1
+1
-1
Je komentář přínosný?

Mne to vypada ze najvacsi "bitching" na RT tu maju ludia od stale menej vykonnej konkurencie ktory by chceli vychytavky a pokrok nvidie, len su neni ochotni platit.
Podla mna toto je prvy krok k plnohodnotnemu real-time raytracingu, a presne takych krokov uz bolo vela pocnuc prvou 3d akceleraciou, antialliasingom, teselaciou atd. Ziadne hry co to vyuzivali vtedajsi hw nedokazal uspokojivo rozbehat. "bitching" je uplne zbytocny, je to nova technologia a je v plienkach, bud treba pockat, alebo sa uspokojit s tym co je. Jo a nezabudat ze nove RT karty su stale kus vykonnejsie aj mimo RT ako predchadzajuca generacia.

+1
-3
-1
Je komentář přínosný?

Presne tak. Kdo vybira novou kartu a je ochotny pustit kacku za 2080 ("Ti" je fakt nesmysl), tak bude mit RT jako bonus v nekterych titulech treba do singlu. Vsechno ostatni je jen bitching. Je treba si uvedomit, jak moc narocny raytracing je. Me to doted taky jeste poradne nedochazi a uprime mi to oproti PCSS neprijde hezci. Odrazy jo, ale stiny fakt ne.
Je teda naprd, ze se z vetsinou implementaci popasovava nejsilnejsi karta ne zrovna uspokojive.
Ok, dobra poznamka od Marka, ze BF:V pujde hrat qhd/uhd se snizenym rozlisenim vykreslovani a se zapnutym RT muze byt teoreticky snimkova frekvence furt kolem 60. Jak to pujde vosmelit u ostatnich her, aby z nich nebyla tahovka, fakt netusim.
Zas si musime uvedomit, ze nvidia mohla RT dat jen do nejsilnejsiho modelu, ale to by zas celila kritice, proc to neni i ve slabsich grafikach. Tim, ze to dali do vice modelu vyvojare dokopou k tomu, vydavat vice RT titulu a taky z toho duvodu, ze RT usetri vyvojarum spoustu prace (a studiim penize). Do budoucna "super" vec a asi se to bude rozmahat mnohem rychleji, nez dx12, nebo vulkan, ktery naopak praci studiim pridelavaji.
Nicmene to mozna znamena i to, ze v budoucnu budou tituly vice delany s RT, ale klasicka rasterizace stinu, odrazu, tedy tak, jak jsme na to zvykli ted, nebude uz tak pekna, protoze se s tim nikdo uz nebude parat. Lidi jsou od prirody lina stvoreni.

+1
-3
-1
Je komentář přínosný?

https://www.pcgamesn.com/amd-battlefield-5-hardware
AMD silicon could be your best bet for real-time ray tracing in Battlefield 5

+1
+1
-1
Je komentář přínosný?

Čo tak napísať, že ide o CPU a vychádza to z toho, že DICE vyhlásila, že na RT budú lepšie viacjadrové CPU. Každopádne som čítal aj inde, že budú odporúčané 6 jadrá, ale aj 4 jadrá s HT (8 threads) by mali byť tiež v pohode.

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.