Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Crytek předvedl ray-tracing demo, jemuž stačí mainstream GPU bez RT jednotek

Neprehanej to! Chyby tam jsou. Maudit (fanousek NVidie) je dokonce oznacil, z dovolenim si pujcim jeho screeny:

https://i.imgur.com/CBmmn76.jpg
https://i.imgur.com/8PtvxrB.jpg

To demo je opravdu krasne, protoze to s odrazama neprehani, nejsou tam, kde byt nemaji a cele to vypada tak nejak realisticteji nez predvadela NVidia na BF5.

Navic celeho toho efektu, ktery asi neni lepsi nez co predvadi NVidia, ale ani horsi je dosazeno s mensim dopadem na vykon. Je to proste famozni.

Tipnul bych si ale, ze grafiky s vykonem pod Vegou56 to nedaji, Polaris je teda odkecanej, ale stejne tak u NVidie bych predpokladal, ze to zvladne aspon GTX1660Ti nebo GTX1080. Jiste porad radove lepsi nez co predvedla NVidia s RTX.

+1
+2
-1
Je komentář přínosný?

Jestli to video opravdu vyrenderovali na Vega 56 ve 4K a neni to jen nejakej upscale tak bych rekl. Ze i slabsi grafiky by mohli mit sanci ve full HD.

+1
+9
-1
Je komentář přínosný?

Redmarxi, tipul bych si, ze tohle je neco jako "early" promo demo, kterym chteji ukazat, co jejich dalsi verze CryEnginu bude umet. To ze jsou tam chyby, kterych si nekdo vsimnul je v pohode. Spis se divim, ze jich tam neni vic, protoze to neni finalni verze :))
To ze zelena bukvice jako Maudit, z toho dela nejake zavery je uplne irelevantni. Ty chyby v nejake finalni verzi mohou byt opravene.
Spis je opravdu fascinujici, co se i ze stavajici generace da jeste vytriskat a dokonce bez hype vlacku jmenem NV marketing :))

+1
+10
-1
Je komentář přínosný?

Souhlas, ja jen zase to neprehanet a nevynaset hned do nebes, ale ja z toho byl take unesen, jak dobre se jim prvni pokus povedl zvlast kdyz vzpomeneme nepodareny prvni pokus v BF5 s RTX grafikou, jak to (ne)predvedla NVidia. :-)

+1
+3
-1
Je komentář přínosný?

Tak jestli to bude prehnane nadseni nebo ne..to uvidime az s tim vyjde aspon prvni hra :)

+1
+5
-1
Je komentář přínosný?

Né hoši, zase lžete, Maudit poukázal na Redmarxův hype, že to je bombastické. Ne není to Bombastické, je to úplně v plenkách, je to tedy horší než implementace nVidie.
Dále Redmarx chválí tmavou scénu v noci kde se odráží pár detailů a čau. Přitom BF5 je ve dne kde se odráží spousta detailů.
U mě jste jen dvě červený opice, co se předhání jak jsou jejich banány lepší než sousedovy.

+1
-12
-1
Je komentář přínosný?

Crha, to je v pohode..sice jsi ten komentar tradicne nepochopil, ale aspon zustavas sam sebou :D

+1
+4
-1
Je komentář přínosný?

dvě hry znamená že je to nějak daleko?

+1
+5
-1
Je komentář přínosný?

jaký hry ?

+1
-5
-1
Je komentář přínosný?

BF5 a Metro Exodus. Na to jak obdivujete RTX a tvrdíte, že je dále než Cryengine demo, je zarážející, že ani neznáte jména těch jediných 2 her ve kterých to je implementováno. Jen si to shrneme - Implementace ve 2 hrách znamená že něco už není v plenkách? Fajn, analogicky až vyjdou 3 hry na tomhle novém Cryenginu tak bude Cryengine built in RT dále než RTX nebo jen "nebude v plenkách"? :-D

+1
0
-1
Je komentář přínosný?

smazat

+1
0
-1
Je komentář přínosný?

Už sú tie hry 3 :-)
https://www.dsogaming.com/news/shadow-of-the-tomb-raider-rtx-patch-avail...

Tu je otázka skôr taká či naozaj veríte tomu, že HW bez špecializovaných jednotiek ako RT cores dokáže byť porovnatelný s HW bez nich. T.j. že dokáže dodať výstupný obrázok rovnako rýchlo a s rovnakou kvalitou. Výstup Cryengine-u v danom deme je síce pekný, ale ani zďaleka sa nepribližuje tomu čo dokáže produkovať RTX v 3 spomínaných hrách. Nie v takej kvalite a nie v takom rozsahu. Vega 56 predsa nedáva hry v 4K a 30 FPS ani bez RT a nie ešte s RT.

+1
0
-1
Je komentář přínosný?

Hele ja ti nevim, ale mne osobne zatim ani jedna z tech 3 implementaci prozatim nepresvedcila. Tahle generace RTX Turingu na to zatim jednoduse nema vykon, aby to davalo opravdu smysl. V kazde z tech her dochazi pri pouziti RTX k 35-50+% propadum vykonu oproti RTX off. Kdyz to trochu zjednodusim, tak 2080Ti 4K karta stiha tak akorat renderovat 1440p. 2080/2070 1440p karta tak akorat FullHD. 2060 je tak nejak spis do poctu, aby se nereklo.Najednou jde narust vykonu poslednich 4 let do kytek, pro
- par lepsich odlesku
- lepsi nasvetleni sceny, kdy ale treba tmavejsi sceny s oknama vypadaji nakonec jeste mene verohodneji nez pred tim
- jemnejsi a obcas trochu realnejsi stiny a to jeste vicmene jen pro Ultra nastaveni, protoze ta predchozi maji bud bugy nebo neprinaseji skoro nic.
Mne by zajimalo, kolik majitelu RTX karet, RTX opravdu vyuziva a ma z toho ten spravny WOW dojem.

Na HWUnboxed maji recenzi SOTR.. ve zkratce, ztrata vykonu za to co to prinasi nestoji

Kdyby to nemelo ty propady vykonu, tak reknu dobry..wow se sice nekona, ale posun tam urcite nejaky je, byt jej musis trosku hledat. ale takhle...Jako tech demo jsou ty 3 hry dobry.. treba priste to vyjde :)

+1
0
-1
Je komentář přínosný?

"HW bez špecializovaných jednotiek ako RT cores dokáže byť porovnatelný s HW bez nich"

Věřím že HW "SKUTEČNĚ!!!" navržený pro RT dokáže být v této úloze rychlejší. Vy však neoprávněně považujete takový HW za NV RT cores. Tak to ale není, protože jak už bylo řečeno a na RT testu s Titánem bez "RT cores" dokázáno - RT cores jsou jen přejmenovaná Tensor jádra a ta NEBYLA pro RT navržena, tudíž jsou v RT úlohách neefektivní a až dodatečně jsou použita pro počítání RT a marketingově prodávána hráčům. ANO, takové RT-neefektivní jednotky mohou být vesele překonány jiným způsobem renderingu RT při použití klasických SP, tedy obecného HW který původně nebyl k počítání RT určen (stejně jako k tomu nebyla zamýšlena Tensor jádra).

A co se týče kvality - ta je ukradená, jedná se o HERNÍ rendering, nikoliv filmový, ani profesionální, samotný Nvidia marketing prezentoval RTX jako JEN A POUZE herní. Zastavování scén v akčních hrách jakým je BF5 a porovnávání kvality screenshotů je tedy nesmysl - prakticky ve hrách ocení každý více fps (jak předvedl Cryengine) než kvalitu odlesku zabírajícího 2% scény a trvajícího méně než sekundu. Kdo nechápe tak očivádnou věc, je jen demagog hledající sebehloupější argument pro obhajobu toho, že se jen nechal napálit marketingem

+1
0
-1
Je komentář přínosný?

To, že vo všetkom okolo NV vidíš iba marketing je tvoj problém.

"na RT testu s Titánem bez "RT cores" dokázáno - RT cores jsou jen přejmenovaná Tensor jádra a ta NEBYLA pro RT navržena, tudíž jsou v RT úlohách neefektivní a až dodatečně jsou použita pro počítání RT a marketingově prodávána hráčům."

Nič z toho nebolo testom z Titanu V dokázané. To si iba niektorí fandovia AMD tak pre seba odvodili pretože vy vidíte u NV vo všetkom iba marketing a podvod a podľa toho si konštruujete príbehy ktoré nie sú. A kto sa nevozí na vašich konšpiračných teóriách je samozrejme demagóg. :-) Dokázané bolo akurát to, že aj s grafikou bez RT cores je do istej miery možné aktuálne RT počítať real-time, ale potrebuješ na to o dosť výkonnejšie GPU. Podľa 3D Mark Port Royal je Titan V v počítaní RT maximálne na úrovni RTX 2060. Si porovnaj herný a výpočetný výkon týchto dvoch riešení. A ešte si porovnaj Titan V s Vegou 56. Keby Vega 56 dokázala naozaj počítať RT na takej úrovni ako RTX Turingy s RT cores (ako to niektorí poňali po tom deme od Cryteku), tak tu RT v hrách v nejakej forme už je.

"A co se týče kvality - ta je ukradená, jedná se o HERNÍ rendering, nikoliv filmový, ani profesionální"

Takže odrazu o kvalitu nejde. Že bude RT z výkonových dôvodov ošidený oveľa viac ako je to pri RTX GPU je vlastne odrazu jedno? Hlavne, že tu ludia rozpytvávali screenshoty z BF V a nadávali ako to je na nič.

"prakticky ve hrách ocení každý více fps (jak předvedl Cryengine) než kvalitu odlesku zabírajícího 2% scény a trvajícího méně než sekundu"

V hrách ako BF V súhlasím. V mulťáku sa na grafiku nehrá. V single player hrách ako Metro či SOTTR si je ale možné grafiku vychutnať tak ako je. Taktiež RT nie je iba o odleskoch, ale aj tieňoch a celkovom nasvetlení scény.
Okrem toho tú vojnu proti RTX čo tu niektorí predvádzate nechápem. Opäť ako aj pri Gameworks ide o volitelnú fíčuru, ktorú si môžeš aj nemusíš zapnúť. Keď toto má zasa niekomu vadiť....

+1
0
-1
Je komentář přínosný?

Az prinese RTX a je jedno na ktere strane, takovy posun v grafice, jako napr FarCry, Crysis v dobe, kdy vysli...tak reknu wow. Do te doby je to gradualni vylepseni typu nice to have. Jedno jestli je to AMD nebo NV.

+1
+1
-1
Je komentář přínosný?

Tiež to tak beriem. Je to nice to have, ktorý môže používať ten kto chce.

+1
0
-1
Je komentář přínosný?

nikdo přeci nezpochybňuje, že to jde zapnout, nebo vypnout. A proč je okolo toho takový šrumec. To přeci nemá nic společného s fandovstvím k AMD, plakat by přeci měli fandové NV.
Koženka prezentoval všechny karty RTX jako nový standard, který prostě funguje.
Takže 1, funguje sotva z jedné desetiny
2, RTX grafika stojí o polovinu víc
3, RT efekty významně snižují výkon (FPS), tak že u 2060 je to vlastně k ničemu.
4, proč tedy stojí 2060 o polovinu víc, než 1060 ??
5, Gameworks atd. nezdražilo GPU o polovinu.
A to je to, proč je okolo toho takových keců, to snad chápe úplně každý, pokud není totální zabedněnec.
Takže, pokud by RTX stáli plus mínus stejně, jako předchozí generace s identickým značením, pouze o generaci nižším, nikdo by neřekl ani popel, jen by se čekalo, kam se RT efekty posunou. Ale pokud je mi něco prezentováno, jako že to funguje a k tomu jsem pitomej a zaplatím o polovinu víc, tak musím být logicky naštvaný, že to nefunguje a následně se ještě dozvím, že to jde i jinak (Cry engine), efektivněji a v neposlední řadě, to vypadá lépe. Mě vůbec netankuje, jestli se náhodou, nějaká nábojnice v kaluži odráží, nebo neodráží, mě zajímá celkový dojem a ten je bezesporu lepší, než jakýkoliv výsledek spolupráce NV - herní vývojář - RTX GPU. A jak jsem poznamenal, za chvilku tuto implementaci použijí i další enginy a v tu chvíli přestávám vidět, jakýkoliv přínos v této sérii GPU, notabene za tyto ceny. Vždycky jde v první řadě o prachy a tady je to ze strany NV normální podraz se skvělým výdělkem, který v tuto chvíli nemají čím omluvit. Prostě je to drahé a nic to nepřináší a na druhé straně je engine, který osobně nikoho nic navíc stát nebude a z dema vypadá o 100 % lépe. Tohle přeci nemá nic společného s nákloností k jednomu táboru (pravda fandové AMD z toho mají škodolibou radost a oprávněně), ale je to realita, kterou někteří nechtějí vidět, tak se k nim nepřidávej.

+1
+1
-1
Je komentář přínosný?

Ono predsa RTX funguje. Pomocou neho alebo s DXR môžeš renderovať aj komplet celú scénu v RT. S tým, že by to bolo dnes nehratelné. Takže sa urobil kompromis. Demo od Cryteku tiež nie je predsa z pohľadu RT nič extra. Podľa mňa určite nie lepšie ako to čo sme videli v BF V.
Tiež cena a prepad výkonu nehovoria o tom, či táto technológia funguje alebo nie. Sú to ale parametre, ktoré ovlypvňujú rozhodnutie grafiku s RTX kúpiť. Ja som mal tiež kedysi v pláne kúpiť ako ďalší upgrade nástupcu 1080 Ti. Ale neakceptoval som dať 1400E len za GPU. To je aj u mňa cez čiaru. Teda s týmto argumentom súhlasím. Na druhej strane mi ale nevadí prepad výkonu, za ktorým je posun grafiky vpred. Čo v tomto prípade podľa mňa je (a do toho počítam aj demo od Cryteku, ktoré tak isto vyzerá dobre).

"Takže, pokud by RTX stáli plus mínus stejně, jako předchozí generace s identickým značením, pouze o generaci nižším, nikdo by neřekl ani popel, jen by se čekalo, kam se RT efekty posunou."

To si nemyslím. Podľa mňa by viacerí ludia na to nadávali tak isto ako teraz pretože to prišlo od NV a toho "kožeňáka".

", tak musím být logicky naštvaný, že to nefunguje a následně se ještě dozvím, že to jde i jinak (Cry engine), efektivněji a v neposlední řadě, to vypadá lépe."

To, či to vyzerá lepšie je subjektívne. Mne sa viac páčia implementácie RTX v BF V a Metre. SOTTR som ešte nevidel. Okrem toho to, že to ide aj bez RT cores bolo predtým normálne známe. Akcelerácia RT pomocou stream procesorov na GPU sa využíva už dlhé roky. Akurát to nikdy nebolo real-time. Je pekné, že Crytek sa snaží najskôr docieliť to, že to ide na GPU klasicky ako doteraz, ale dopad na výkon to bude mať oveľa väčší. GTX 1080 Ti v 2K má iba 18 FPS v BF V s RT na Ultra. Takže moc velký zmysel to nemá. Jedine ešte s ďalšími kompromismi ako to je v deme od Cryteku a tým pádom s (pre mňa ) horším výsledkom. Vega 56 neutiahne väčšinu hier v 4K nad 30 FPS. Takže to nebude len tak, že by to odrazu mala dokonca aj s RT.

+1
0
-1
Je komentář přínosný?

To si nemyslím. Podľa mňa by viacerí ludia na to nadávali tak isto ako teraz pretože to prišlo od NV a toho "kožeňáka".
No ve spojitosti s tím, že kdyby karty nové generace stály + - stejně jako předchozí generace, by určitě významně větší část uživatelů spolkla snížení výkonu, a určitě by okolo toho tolik nebrblala. Ale s ohledem na neakceptovatelnou cenu nové generace si Nv zařídila spoustu nasraných fanoušků.

Mne sa viac páčia implementácie RTX v BF V
Ano to je subjektivní pocit a samozřejmě ho akceptuji.
Ale nemohu akceptovat nesmyslnost RT efektů konkrétně v BF V. Tam je to prostě zbytečnost a zhovadilost. Ta hra je o výkonu PC a postřehu, nikoliv o prohlížení krajiny. Pouze na tebe ta grafika má udělat dojem, ale ten se nezakládá na skoro neviditelném nic, ale na modelech, zničitelnosti objektů atd. a nechci NV nějak křivdit, ale síla jejich marketingu a peněz se podle mě podepsala na celkovém výsledku BF V. Nechci říct, že DICE jsou snad svatouškové, to v žádném případě, ale takovouhle katastrofu neudělali zatím nikdy. A to ve mě evokuje doměnku, že místo vývoje hry, museli vývojáři se snažit nacpat něco do hry, kde sami věděli, že to nebude mít žádný přínos a naopak to přinese veskrze pouze mínusové body, což se také stalo. Hra je již 5 měsíců venku, se stále stejnými mapami, nevyváženým TTK, TTD, přesnipovaná, bugy neodstraněny, dalo by se pokračovat do nekonečna. a to nezmiňuji pojetí 2 sv. války, to není vina NV a mě zrovna nijak netankuje. vcelku očekávám zážitek, a pokud je zážitek skvělý jako vždy, jsem ochoten akceptovat i potetovaného vojáka ve druhé světové. Ale bohužel zážitek se nedostavil, pouze veliké zklamání, jako nikdy za celou sérii. A tady mám pocit, že NV jako hlavní sponzor, se na tom podepsala, právě ze svých zištných důvodů. Nemohu akceptovat firmu, která jde pouze za ziskem a to pro mě NV představuje. Takže kam šlápne NVidia sto let tráva neroste :-)

+1
0
-1
Je komentář přínosný?

Nějak jsem si nevšimnul, že by Nvidia s nějakou kartou davala Raytraycing ve 4k/30 s některou jejich extra drahou kartou natož s kartou minulé generace odpovídající výkonem Vega 56 co použil Crytek ve svém demu. Vzhledem k nárokům, mě ta jejich implementace přijde výrazně vyspělejší,

+1
+3
-1
Je komentář přínosný?

Kolik se toho odráží v noci?

+1
0
-1
Je komentář přínosný?

Zase si to ani nevidel a komentujes, co? Neco jako "skola zivota" :D

V prirode, bez mesicniho svitu se opravdu odrazi malo veci. Nicmene tahle scena je ve meste, kde je tuna svetelnych zdroju z ruznych poutacu, atp. Zaroven je tam hromada povrchu, ktere odrazi svetlo. Tvuj argument ma asi takovou dulezitost, jako obsah plenek batolete.

Bombasticke nikdo nepouzil. Ani Redmarx, ani no-X, reagujes na neco co se nestalo. Padly slova "vypadá dobře" a "Je to proste famozni", a navic to druhe se tyka ne kvality ale pomeru kvality/vykonu, coz skutecne famozni je.

+1
+1
-1
Je komentář přínosný?

jooo, to se mi libi jak nV-fans mlcej o tom, jak jsou vsechny odlesky v bf zubaty jak prase, ale kdyz jde o demo pro chystanej engine, ktery vypada z 99procent lip a bezi super na amd hardwaru, tak si libujou v tom jednom procentu, ktery jeste neni odladeny.. ((:

+1
+6
-1
Je komentář přínosný?

jak tady chceš něco psát když nemám zelenou ikonku, bez toho zabarvení to není ono.

+1
-6
-1
Je komentář přínosný?

Tech zvlastnich zlomu, ktere se objevuji na odleskach jsem si hnedka vsiml taky. Ale jsou velmi pravidelne, cestuji po scene a kolem nich je zase vse vyhlazene.

Na prvni pohled mi to pripadalo jako kdyz se nezapne VSync u toho prvniho screenu a nejaky efekt DOF u druheho.

Zatimco u nVidia mi to prislo jako ostry, ale minecraftovy odraz :)

+1
0
-1
Je komentář přínosný?

Takže Navi bude optimalizovaná na raytracing ? Jsem zvědavej jak nVidia sešlápne plyn, aby obhájila existenci RT cores a dokázala, že s nimi to jde lépe a hlouběji. A poslední věc, jak Crytek řeší "vyhlazování" odlesků, když tohle u nVidie řeší tensory ?

+1
0
-1
Je komentář přínosný?

Tie RT core ktovie co su a ci tam vobec realne su, cele to hype okolo RTcores je klasicka medialna bublina nvidie :-}

+1
+9
-1
Je komentář přínosný?

Presne tak..nikdo nevi, co ten pojem ve skutecnosti znamena...

+1
+2
-1
Je komentář přínosný?

Kolem RT cores v podstatě žádný hype není... všichni se tomu pošklebujou a místní Forrest Crha běhá kolem.

+1
0
-1
Je komentář přínosný?

Zdá se, že se začíná v plné nahotě ukazovat proč tak uspěchali vydání RTX grafik. Málo výkonu navíc a obrovské premium aby si člověk vyzkoušel RTX v jedné, pardón už dvou hrách. A už tu máme technologii co funguje na starších generacích a s vulkánem i jiném OS než W10. Být majitel RTX karty, tak jsem asi docela naštvanej.

+1
+7
-1
Je komentář přínosný?

jj, tohle mě zaujalo. Jsem vážně zvědavý na reálné testy.

+1
+1
-1
Je komentář přínosný?

Tak záměrem NV RTX nebylo dodat hráčům lepší vizuální zážitek, ale pouze nutit je kupovat jejich hardware. Výrobce enginu má naopak zájem, aby to jelo na všem, potud nic překvapivého. S uvedením Nv RT jednotek se tu vytvořila chybná premisa, že tyto jednotky snad představují nejefektivnější (v zelených mozcích dokonce jediný) způsob renderingu RT. To je samozřejmě nesmysl, Intel např. počítal RT na x86 jádrech v rámci projektu Larabee, starší Titán ukázal, že to běží stejně rychle na tensor cores, které pro RT nebyly primárně určeny (čti nejsou v této úloze efektivní). No a pak už jen nastoupilo marketingové oddělení NV, přejmenovalo jednotky na RT cores a začalo tuto RT-neefektivní featuru prodávat. Teď Crytek ukázal že to jde i jinak (jako mnozí před ním), s menšmi HW nároky, stávajícími API a přinejmenším srovnatelnou kvalitou.
Dávám Nv RT rok, maximálně dva. Skončí to jak všechny jejich proprietární nesmysly - Gsync, 3D vision atd. V tichosti to odejde, nebude se to používat, jen tučné zisky už v kapsách zůstanou.

+1
+17
-1
Je komentář přínosný?

Myslim, ze ani NVidia zatim nikde neodhalila zadny fyzicky rozdil mezi RT Cores a Tensor Cores. Docela verim tomu, ze to jsou fyzicky stejne jednotky jen s jinym marketingovym nazvem. Myslim, ze to k cemu NVidia svym jednanim prispela, je zjisteni, ze raytracing ve hrach ma smysl, ze to Microsoft jako soucast DirectX12 vymyslel dobre a nic nebrani raytracing v omezene mire pouzivat.
Co bych oznacil na uroven GSyncu a 3D Vision je spis ten naprosty nesmysl DLSS, kterym chtela NVidia raytracing vylepsit, ten umre uplne. Raytracing zustane, maximalne ho NVidia v budouci generaci grafik implementuje jinak.

+1
+3
-1
Je komentář přínosný?

A jak vám do téhle teze pasuje to, že primárně už tlačí ray tracing do her microsoft přes DXR?

+1
-4
-1
Je komentář přínosný?

Jeden o voze a druhý o koze, aneb když už nemám argumenty...

+1
+2
-1
Je komentář přínosný?

:D Nemám argumenty na co přesně?

Ten post nahoře je z půlky nesmysl a z půlky polopravda. Na procesoru vypadal RT takto: https://www.youtube.com/watch?v=blfxI1cVOzU

a na larrabee takto:
https://www.youtube.com/watch?v=G-FKBMct21g
https://www.youtube.com/watch?v=mtHDSG2wNho

pak to spolu s larrabee utichlo (ale linky na novější věci uvítám, jestli jsem na něco zapomněl, nebo to prošvihl).

Z toho, co jsem viděl, je nejlepší ray tracing od intelu ve hrách asi tohle:
https://www.youtube.com/watch?v=XVZDH15TRro

a tam notebook funguje jen jako thin client pro servery na pozadí.

Stejně rychle, pokud vím, běhal na Titanu V jen Battlefield, a tam je RT použitý jenom na výpočty odrazů.

Ray tracing není jenom to, když se vám v zrcadle odráží správný odraz.

Crytek ukázal, že umí přes ray tracing udělat odlesky a lom světla (aspoň podle toho, co k tomu demu sám napsal).

A to nejlepší nakonec, jak může být ray tracing proprietární nesmysl Nvidie, když to Microsoft nacpal do DirectX, Khronos to nacpe do Vulkanu a všichni cpou implementaci přes DirectX do svých enginů. Nebo bylo míněno proprietární nesmysl od Microsoftu?

BTW, první zmínky o DXR od MS se objevily půl roku před Turingem: https://devblogs.microsoft.com/directx/announcing-microsoft-directx-rayt...

A už v té tiskovce je zmínka že "Raytracing that does not require any specific hardware support. "

+1
-2
-1
Je komentář přínosný?

"A to nejlepší nakonec, jak může být ray tracing proprietární nesmysl Nvidie"
ve výsledku zavisí na tom jak k tomu NV a vývojáři přistupují dokud budou vývojáři používat NV primitives kvůli zíksnání použitelného výkonu a DXR bez fallbacku tak se bude AMD muset pěkně ohánět aby tuhle rádoby otevřeou implementaci "obešli" >> CRYTEK na to jde očividně velmi dobře už od základu

"BTW, první zmínky o DXR od MS se objevily půl roku před Turingem:"
tohle nemyslíš vážně, že ne ?
MS si uprde a NV zázrakem přijde s hotovým HW a SW řešením do prodeje pár měsícu potom co se o tom MS zmíní..

+1
+1
-1
Je komentář přínosný?

Když u toho člověka je taky prd poznat, čemu zrovna v té které větě říká RT.

Ale asi ho nemá smysl řešit, to je paranoia jak prase, celé Nvidia RTX je vlastně jenom fejk Nvidie, jak z lidí tahat prachy, protože na ray tracing ve 4K v pohodě stačí i grafiky s polovičním výkonem.

Jenom mi teda není jasné, proč ten ray tracing ve hrách není už dva roky, když to jde tak jednoduše a v poho to dávají mainstreamové grafiky. Lidi o to asi nestáli nebo co...

fun fact: Crysis 3 jede na RX Vega 56 na very high ve 4K kolem 30 fps. Bez ray tracingu.

+1
-2
-1
Je komentář přínosný?

"Ale asi ho nemá smysl řešit, to je paranoia jak prase, celé Nvidia RTX je vlastně jenom fejk Nvidie, jak z lidí tahat prachy, protože na ray tracing ve 4K v pohodě stačí i grafiky s polovičním výkonem. "
.. akorat ze ten tvuj sarkasmus neni nicim dolozeny. Do proprietarnich uzavrenych technlogii nevidis, tudis ani nevidis, jak ta implementace ve skutecnosti vypada. To ze ti NV namaluje par marketingovych slidu, na kterych uvidis napsano RT Cores a bla bla vsechno je uzasne, v realu nic neznamena. Specielne NV ma v marketingovych kamuflazich docela kvalitni historii.
Minimalne je zarazejici, pokud je to demo Crytecu opravdove a muze ukazovat budouci hry, ze dokazali z toho HW vytriskat neco, co se minimalne podoba NV RTX a nemuseli proto vymyslet novou radu karet s novyma technologiema a marketingovym humbukem kolem dokola, jako to predvedla NV.
Neco tady smrdi, jestli je to NV nebo Crytek..se uvidi.

+1
+1
-1
Je komentář přínosný?

Tak si se nam tu pekne odkopal :D

"celé Nvidia RTX je vlastně jenom fejk Nvidie"
Zaprve, logicky, "nVidia RTX" je jejich marketingovy pojem, takze to musi byt od nVidie.
Zadruhe nVidia ma historii, kde se snazi jakkoli podojit zakazniky**
Zatreti, fejk to zjevne je, protoze puvodni informace byla ray-tracing pouze na NVIDIA RTX series kartach. Zaplatte a uzivejte, je to diky HW, ktery nikde jinde nenajdete***

Tvuj fun-fact je take mimo. Crysis 3 jede na cry-engine 3. Tohle je verze 5.5. Vysledky RX Vega 56 v 6 let stare HRE postavene na mnohem starsi verzi engine nemaji moc valnou vahu ve srovnani s aktualnim tech-demem.

** R-E-S-P-E-K-T-I-V-E! nVidia vymysli neco, jako treba G-Sync, coz asi v jadru vsichni bez rozdilu oblibenosti znacky oceni. Nasledne ale nVidia se snazi na tom maximalne vydelat, coz uz moc lidi neocenuje, i kdyz na to ma nVidia pravo. A nasledne tim rozpumpuje jine hrace na trhu k implementaci jejich reseni, ktera casto (i spise kvuli nutnosti, nez dobrodinstvi) je "zadarmo". Viz Freesync, tedka Crytek engine bez omezeni vyrobce HW...

*** Coz je podle me na hranici klamani zakaznika, ze plati za exkluzivitu. "backportem" RTX na Voltu a pote i na Pascal ztratil ten zakaznik hodnotu, za kterou si priplatil.

+1
+1
-1
Je komentář přínosný?

Hm, a RTX vlastně není ani označení karet od nVidie... chápu

+1
+1
-1
Je komentář přínosný?

1. nepřijde mi, že by MS DXR nějak obvzláště "tlačil", "tlačení" si představuji jinak, je to jen Vaše zbožné zelené přání.
2. MS DXČ standart není multiplatformní ale jen wokení, Cryengine a jeho schopnost jet na Vulkánu nabízí daleko širší možnosti
3. DXR nějak nesouvisí s tím o čem jsem mluvil - implementace RT by Nv přes RT (tensor) cores je jednak proprietární a jednak neefektivní. To že výstup tlačí přes DXR je nakonec jedno když je performance tak mizerná, protože prakticky je to nepoužitelné

Zajímavé jak zelené mozky reagujete - RT zabudované v Cryenginu Vám pojede i na vašich Nv kartách - dokonce rychleji než přes tensor jádra a DXR, tedy z Cryenginu můžete benefitovat i Vy. Místo radosti ale u Vás přichází zklamání z toho, že to nyní dostanou všichni - toto je reakce nemocného, závistivého jedince s idiotskou potřebou elitářských produktů a touze patřit k jakési domnělé elitě (ač taková neexistuje) tím, že ostatní/většina nemá to co já. Toto vědomí je pro takto nemícného jedince dpležitější, než samotná užitná hodnota - v tímto případě odlesky ve 2 hrách. Řada firem má na tom postavený celý marketing (např. Apple) nebo Nvidia. Gratuluji ke členství v takovém klubu

+1
+5
-1
Je komentář přínosný?

au :D

+1
0
-1
Je komentář přínosný?

Machina, to čo teraz v tomto príspevku kritizuješ je presne to isté čo robíš často ty pri glorifikácii AMD a hate-ovaní NV. :-) Nikto nekritizuje či nie je rád za to, že sa vývoj posúva dopredu. Akurát sa opäť s RT stalo to isté ako predtým u GPU PhysX či G-Sync. Potom ako s tým prišla NV na trh, tak AMD rýchlo zbúchalo niečo na oplátku. V prípade GPU PhysX to bol GPU Havok alebo potom neskôr Bullet. Nič toho sice nebolo, ale hlavne, že AMD fans mohli tvrdiť, že ich obľúbená firma má to isté aj keď to tak nebolo. Detto keď prišla NV s G-Sync do desktopu, tak AMD narýchlo zbúchalo prezentáciu s Freesync na NTB (teda nie desktop, ale NTB pretože tam sa už táto technológia používala predtým) a tvárili sa, že majú to isté. Trvalo 1 a pol roka kým prišli prvé monitory s Freesync, ktorých drvivá väčšina mala oproti G-Syncu viaceré obmedzenia. Ale to nevadilo AMD fans, ktorí opäť mohli tvrdiť, že AMD má to isté a dokonca ževraj lepšie, aj keď to tak zasa nebolo. U RT sme opäť tam kde v minulosti. Aj keď daná ukážka nie je v takej kvalite a ani v takom rozsahu ako v BF V či Metre. Mne osobne to nevadí a to čo ukázal Crytek je v pohode. Vzhľadom na to, že to beží na Vege 56 v 4K na 30FPS. Takže v tomto smere žiadna kritika. Určite by som ale nedúfal, že to na Vege 56 v rovnakej kvalite a rozsahu pôjde lepšie ako na RTX grafikách pri využití RT cores. Nečudoval by som sa keby RTX 2060 bola 2krát výkonnejšia s RT v tej istej ukážke ako Vega 56, pokiaľ by tá ukážka využívala RT cores.
BTW ak veríš tomu, že Crytek si zvolil na ukážku dema Vegau 56 náhodou a že to nebola dohoda s AMD, tak potom patríš do rovnakého klubu ako tí ktorých odsudzuješ u NV či Apple. AMD marketing naozaj má a aj ho pekne využíva. Len ho tu niektorí proste ignorujete (ako správni fanúšikovia AMD aj keď tu viacerí z vás píšu, že sú nestranní).

+1
-2
-1
Je komentář přínosný?

Ty jsi strašně zelený mozek. Když čtu tvůj koment, tak mám pocit, že nebýt NV, tak snad ani nejsou hry. Prosím tě, než začneš tady šířit bludy, tak si něco o historii, všeho toho, co tu tvrdíš zjisti. A když opominu to vychvalování NV do nebes, jak jsou jedinní a inovativní, tak taky dodej druhou polovinu. Všechny technologie, které jsi zmínil, vždy dělala NV pouze pro své GPU a tak vždy ty technologie odešly do věčných lovišť. Podpora technologie, aby byla udržitelná musí být za A, v celém portfóliu hardwaru a za B, cenově dostupná. Ani jedno pro mě NV nesplňuje. Naopak technologie které nahrazují "proprietární" technologie NV, tak jsou dnes snadno dostupným standardem, to jen pro upřesnění. A dovolím si věštit z křišťálové koule. 2x předražené RTX, které ovce zelené s radostí zaplatily, půjdou do kopru, jako všechny proprietátnosti NV. A věř mi že se mi demo Cryteku líbí o hodně víc, než tma v Metru a odlesky v FPS multiplayerové hře, tam je fakt čas to sledovat. To když koženka z NV řekl, že to bude v BF V, tak ještě nevěděl, že si v mulťáku nemůžeš dát pauzu, aby jsi se kochal odleskama. To mu bohužel řekli, až po ohlášení. Takže suma sumárum, pokud tady někdo něco ignoruje, tak jsi to ty, mozek zelený.

+1
+1
-1
Je komentář přínosný?

Prečítaj si ešte raz môj komentár. Ja tam nikde NV neglorifikujem a ani netvrdím, že bez nej by tu nič nebolo. Tvrdím akurát to, že NV popohnala nasadenie vyššie uvádzaných technológií, na ktoré AMD zo začiatku reagovalo iba marketingovo (fakt to nie je odo mňa ignorácia) a aj to potom nie vždy dotiahla ďalej (ako napríklad GPU fyziku). Prestaň si to brať osobne.

"nebýt NV, tak snad ani nejsou hry"
"A když opominu to vychvalování NV do nebes, jak jsou jedinní a inovativní"

Nič takéto som predsa nenapísal. :-)

"A věř mi že se mi demo Cryteku líbí o hodně víc, než tma v Metru a odlesky v FPS multiplayerové hře, tam je fakt čas to sledovat. To když koženka z NV řekl, že to bude v BF V, tak ještě nevěděl, že si v mulťáku nemůžeš dát pauzu, aby jsi se kochal odleskama."

Zaujímavé, že v BF V máš problém s mulťákom, u Metra zasa s tmou (nie všade to tak v hre je), ale v deme u Cryteku ti výsledná nízka kvalita nevadí. Ani to, že ukazuje dané odlesky v oveľa menšej miere ako je to napríklad v BF V, vďaka čomu má potom o dosť nižšie nároky (aj vzhľadom na nižšiu kvalitu RT). Hľadáš cielene chyby len tam kde ti to vyhovuje (teda kde má v niečom prsty NV). Ale urážať ťa kvôli tomu nebudem ako si to urobil ty. :-)

+1
-1
-1
Je komentář přínosný?

Hele, nic ve zlym, ale nadavat zrovna M. Moravcikovi do "bezmozku" neni uplne koser :)
Na takove stenkrovani jsou daleko lepsi zeleni agenti. Pokud chces napr. na cnews...Maudit, Hnizdo a par dalsich. Pokud mas chut, tak to prenes tam ;)

+1
0
-1
Je komentář přínosný?

Marku, proprietarni technologie v momente, kdy existuje nejaky jiny otevrenejsi standard, jsou temer vzdycky na dve veci, obzvlaste pokud je prosazuji firmy, ktere vicemene nepotrebuji soutezit, protoze maji trh pod palcem. To je priklad NV. Bohuzel. Nedavne "zariznuti" G-Syncu, ktere si nekteri za premiove ceny koupili, to jen potvrzuje.
NV RTX mozna bude vykonejsi nez to co predvadeli na Vece, ale nejspis to zalezi, jak ma NV napsany driver a celou implementaci Pokud bude MS RT v jejeich imlementaci vyuzivat jejich slavne RT cores, proc ne, to je v poradku a at to jede 2x rychleji nez na Vece. Jen doufam, ze se NV nepodari prosadit jejich proprietarni NV RTX naprimo...to je jako vzdycky cesta, na ktere nakonec zaplace zakaznik, ktery to zaplati zvysenymi naklady...ostatne cela rada RTX turingu to zase jen potvrzuje..

+1
0
-1
Je komentář přínosný?

V príkladoch čo som uvádzal neexistoval otvorený štandard pre GPU fyziku a ani niečo ako GSync na desktope (pri NTB ale áno). V NV akurát využili túto dieru a reagovala so značným predstihom prvá. To im predsa nemôže mať nikto za zlé. Čo sa týka RTX, tak to chápem ako nadstavbu nad DXR. Herné engine-y ale implementujú podporu pre DXR, takže si nemyslím, že sa RTX bude používať viac ako trebárs taký Gameworks. Toho by som sa nebál.

+1
-2
-1
Je komentář přínosný?

Marek ale môže, taký ako ťa nazývajú zeleným bezmozgom tý čokoľvek je od NV je z princípu zlé.

+1
-1
-1
Je komentář přínosný?

V mem komentari nic o zelenych bezmozcich nebylo. Tim nerikam, ze nejsou a ze jich je..ale M.Moravcika k nim urcite neradim.

+1
0
-1
Je komentář přínosný?

Zrovna teba som nemyslel, s tvojimi komentármi nemám problém a z väčšiny s nimi súhlasím.

+1
-1
-1
Je komentář přínosný?

Ja neviem v čom je problém, keď si zoberiem DX12 a Vulcan tak bol robený v spolupráci AMD a tá si to urobila tak aby to vyhovovalo jej a NV a Intel sa musia/museli prispôsobyť teraz to bude naopak, RTX tlačí hlavne NV a MS ho v DX12 pravdepodobne robí so spoluprácou práve NV a tá si ho tiež urobí tak aby jej to vyhovovalo. Ale keď bude/je RTX súčasťou DX12 či Vulkan tak už nemôžeme tvrdiť že je to propiertálne. Už to bude len o implementácii NV a AMD a kto sa stým lepšie popasuje.

+1
-3
-1
Je komentář přínosný?

Wut? Na vyvoji low lvl API's se podilela i NV a mnoho dalsich

+1
+1
-1
Je komentář přínosný?

Teraz áno ale v základe nie aspoň pri Vulkane to tak bolo.

+1
-1
-1
Je komentář přínosný?

Podivej se nejdriv kdo vse byl uz behem vyvoje rannych verzi Vulkanu v Khronos group a ano mantle byl proprietarni :)

+1
+1
-1
Je komentář přínosný?

Vy o hruskach, ja o jabkach. Ja pisu o tom, ze by bylo spatne, aby se prosadil v enginech uzavreny standard NV RTX, ne MS RT. Jak NV interne implementuje MS RT je mi jedno. At treba proto udela specialni kartu s 10k RT cores, kdyz ji to nekdo zaplati.
Mne jde o to, aby se netristili sily v implementaci RT do her, tudiz aby to jelo pres MS RT standard, nikoliv prprietarni NV RTX, jak je to napr.v BF5.

+1
+1
-1
Je komentář přínosný?

Ja len tvrdím že ak to bude priamo v DX12 a vo Vulkane nemôžeme o tom hovoriť že je to propiertárne, hlavne ako to bude vo Vulkane kde ku kódu majú všetci prístup (minimálne všetci členovia). A čo urobila NV je len jej implementácia RTX. A preto som použil ako prímer DX12 a samotný Vulkan.
Práve že BF5 nieje použité propiertárne NV RTX ak sa nemýlim.

+1
0
-1
Je komentář přínosný?

Co ja jsem pochopil, tak BF5 pouziva NV primitivy..nikoliv DX12 rozhrani. Mozna MM vi neco vic ;)

+1
0
-1
Je komentář přínosný?

Popravde neviem. Je to také nejasné. Niekde zamieňajú RTX a DXR ako keby to bolo to isté, inde sa zasa nepíše či sa daná technológia využíva cez RTX alebo DXR. Každopádne v BF V je to označené ako DXR ak si dobre pamätám. Čo sa týka použitia, tak určite na RT využíva DX12 rozhranie. Akurát nie je jasné či používa vlastnú implementáciu alebo tú od NV v podobe RTX. Obe ale podľa mňa využívajú DXR ako základ.

+1
0
-1
Je komentář přínosný?

Jakmile vyvojar hry pouzije NV primitives a zaroven neimplementuje DXR fallback layer jen kvuli dosazeni prijatelneho vykonu tak se jedna o proprietarni reseni s kterym se bude muset AMD opet prat aby to fungovalo i na jejich HW ..

+1
0
-1
Je komentář přínosný?

"Místo radosti ale u Vás přichází zklamání z toho, že to nyní dostanou všichni"

Ja je docela chapu. Puvodni marketing podle me klamal zakaznika, ze za svuj zlatak dostane neco exkluzivniho a to se rozplyva. Jooo kdyby to bylo rovnou povolene vsude a marketing byl ve smyslu: "efekty si pustite kdekoli, ale jen na RTX kartach si zahrajete, misto abyste meli slide-show", tak to tak blbe nevypada.

+1
0
-1
Je komentář přínosný?

v tom případě by správnou reakcí měla být nespokojenost s NV, nikoliv jejich obhajoba.

+1
+1
-1
Je komentář přínosný?

To je trochu mýlka. To není obhajoba NV, nýbrž obhajoba vlastní zaslepenosti a skočení na špek. Přeci si nepřiznají, že ulítli. To raději budou hájit nesmysl.

+1
+2
-1
Je komentář přínosný?

tak to je smutné. Pak ten svět vypadá jak vypadá když chybí špetka sebekritičnosti. Potvrzuje to slova britského logika a matematika Bertranda Russella:
"The whole problem with the world is that fools and fanatics are always so certain of themselves, but wiser people so full of doubts"

+1
0
-1
Je komentář přínosný?

No pekne jste se poplakali, jen tady jaksi nevidim tu protistranu tvrdosijne obhajujici zelenou barvu. Kde jsou zeleni mozci? Jen jestli si je nase ruda partaj zase nevysnila... diskuze se tu deli na amd fan girls, trolliky crhu s vagnerem a ty co stoji uprostred.

+1
-1
-1
Je komentář přínosný?

"Skončí to jak všechny jejich proprietární nesmysly". To je možné, jen bych zdůraznil slovo proprietární. NV občas zapomíná, že je jen jedním vrcholem trojúhelníku hráč-vývojář-nvidia. Slovo "proprietární" snižuje počet hráčů, kterým se dá podpora proprietárního RT prodat, což této technologii nepomáhá. Navíc teď herní studia mají větší problémy než ne/podporu RT. Například nechuť hráčů si koupit hru za 60$, jen aby zjistili, že bez dalších stovek dolarů za loot boxy a Dé-eL-Céčka si hru ani pořádně nezahrají.

+1
+3
-1
Je komentář přínosný?

Ja to beriem ako demo, čo to môže byť, nie reálny výsledok.
Keď to bude v hre a nie priamo pripravenej scéne aby to odprezentovali čo najlepšie potom tomu uverím.
Ale budem rád keby to dopadlo ako s G-Syncom nakoľko keby sa stým NV nevytasila tak tu žiadny free-sync nemáme.

+1
-7
-1
Je komentář přínosný?

no urcite by tu bez nVidie zadnej freesync nebyl.. jen si rikam, na co mela amd ty patenty na variabilni framerate rok nebo dva pretim nez nVidie prisla s g-sync a jak je mozny ze hardware amd variabilni framerate bez nejakyho modulu podporoval o dve generace driv jak hardware nVidie.. (:

+1
+5
-1
Je komentář přínosný?

Netvrdím, že by tu nebol vôbec ale možno by ešte nebol. Len tvrdím, že NV to urýchlila.

+1
-8
-1
Je komentář přínosný?

Protoze to VESA zahrnula do eDP specifikace hlavne kvuli uspore energie pak se toho chytla NV s proprietarnim modulem a v zavesu AMD (proto FS taky prezentovali na NTB ktery danou specifikaci umel)

+1
+1
-1
Je komentář přínosný?

Dobre a prečo to nebolo skôr? Ja nikde netvrdím že by to nebolo len že to NV postrčila.

+1
-4
-1
Je komentář přínosný?

Protože AMD tuto funkcionalitu implementovala do GPU, jehož vývoj trvá 3-4 roky, kdežto Nvidia vytvořila přídavný slepenec z existujícího hardwaru, který byl sice cenově mimo a fungující na principu drbání se levnou nohou za pravým uchem, ale nebylo třeba dělat žádné změny na hardwaru, díky čemuž G-Sync mohli uvést dřív. Navíc i od představení G-Sync do reálné dostupnosti na pultech taky uplynulo dost času.

+1
+5
-1
Je komentář přínosný?

Ale aj tak to neuberá zásluhu NV keď sa s tom začalo viac robiť po jej uvedení. Nikde som netvrdil že to ich riešenie je jediné dobré a správne.

+1
-5
-1
Je komentář přínosný?

Takže AMD měla implementovat 3-4 roky tuto technologii (určitě kvůli tomu není třeba předělávat celý čip:-) a za tuto dobu si nebyla schopna sehnat partnery, kteří by připravili monitor?
I po dalším roce měli výrazně menší rozsah než konkurence(snazší na implementaci ze strany výrobce monitoru).

Teď tu o perníkové chaloupce, prosím.

+1
0
-1
Je komentář přínosný?

Je pravdou, že AMD měla patent o dost dříve než Nvidia poprvé zmínila G-Sync. Takže to spíš vypadá, že když Nvidia viděla patent AMD, začala zmatkovat, že její hardware toto nepodporuje a jako afterthought přišla s modulem postaveným na programovatelném hradlovém poli od Altery. Pokud by skutečně byl G-Sync něco dlouhodobě plánovaného, pak by buď funkcionalitu zahrnuli do GPU (jako AMD s GCN 2) s prakticky nulovými náklady nebo navrhli vlastní specializovaný čip, který by byl řádově levnější než velké FPGA od Altery. Je evidentní, že ani na jedno z toho neměli čas.

+1
+7
-1
Je komentář přínosný?

Hm... zahrnuli do čipu. A monitory, které by to podporovaly, by k tomu vzali kde?

Nvidia k tomu navíc neměla daleko, s elektronikou monitorů koketovala už s 3D Vision 2 s lightboost.

+1
-6
-1
Je komentář přínosný?

„A monitory, které by to podporovaly, by k tomu vzali kde?“

Ta otázka je míněna s nadsázkou nebo vážně? Protože se mi nechce věřit, že by se našel člověk, který věří tomu, že je jednodušší přesvědčit výrobce, aby svůj monitor vybavili novou deskou s jednoúčelovým proprietárním slotem a ten osadili proprietárním modulem za $200, než aby mírně upravili sériově vyráběné čipy bez zvýšení výrobních nákladů.

+1
+4
-1
Je komentář přínosný?

Naprosto vážně. Jak dlouho tahle „mírná úprava sériového čipu“ trvala u FreeSync, než se to dostalo aspoň do pár modelů v prodeji? Jak dlouho trvalo, než se to potom za pochodu doladilo? (low framerate compensation, flickering (na který si lidi dodnes u některých monitorů stěžují))

Nvidia prostě jenom šla cestou nejmenšího odporu a adaptivní v-sync měla díky modulu celý víc víc pod kontrolou.

+1
-5
-1
Je komentář přínosný?

Takto to naprosto nebylo.
Monitory s funkčním LFC byly od prvního dne k dispozici, stejně jako ty bez něj a situace je pořád stejná. Otevřenost standartu není nevýhoda, ale výhoda!!! umožňující vyrábět monitory různých rozsahů bez i s LFC a pokrýt tak segment levných i drahých monitorů. Díky tomu se dostal FS i do monitorů za 3,5 tisíc, samozřejmě nebyl problém koupit "hiend" 34" IPS s LFC a rozsahem od 30 a to za cenu cca o 5-7 tisíc levněji než tenkrát srovnatelný Gsync monitor.

To, že někdo nečte specky a očekává u FS monitoru za 3,5 tisíce LFC a rozsah od 30 JE JEN A POUZE JEHO VLASTNÍ BLBOST! Freesync však umožnil i alespoň malou pomoc (obvykle rozsahy 42-60) na těchto superlevných lowendech, zatímco nejlevnější Gsync monitor byl za 11 tisíc!

+1
+2
-1
Je komentář přínosný?

*

+1
0
-1
Je komentář přínosný?

Variabilní framerate je už poměrně dlouho běžnou součástí gpu pro notebooky z důvodu úspory energie. Nabízelo se tedy zapnout tuto podporu i na stolních pc. NVidia z toho modulem zkoušela udělat další premium funkci, zatímco AMD prosadili freesync jako součást standartu rozhraní pro displeje. Jak to dopadlo vidíme. Monitory s modulem se neprodávají a freesync zařízení je stále víc. NVidia tedy moc na výběr neměla pokud chce plnou kompatibilitu s rozhraním monitoru a nabízet tuhle funkci. Btw neví někdo kolik si účtují za g sync nálepku pro freesync monitory?

+1
+4
-1
Je komentář přínosný?

Tak Nvidia především před uvedením G-Sync řešila plynulost zobrazování (tak vznikl FCAT). A velice dobře věděla, že přepínání mezi 60 a 30 fps s v-sync je dost významným faktorem, kvůli kterému vypadá hra neplynule.

Také řešila zobrazování s vysokou snímkovou frekvenci kvůli 3D stereu, ale hráči paradoxně měli větší zájem o těch 120 nebo 144 Hz na obyčejný „2D“ obraz než o nějaké stereo. A když se tohle všechno dalo nějak dohromady, vypadl z toho G-Sync.

+1
-5
-1
Je komentář přínosný?

Si sa trocha netrafil do zmyslu môjho príspevku. Celé čo tvrdím je že to NV postrčila a keď postrčí rovnako aj RTX bude dobre.

+1
-3
-1
Je komentář přínosný?

Tak nejak se nemuzu zbavit dojmu, ze Crytek prave vypalil rybnicek marketingovemu oddeleni NV ;)

+1
+19
-1
Je komentář přínosný?

Moc pěkné, jen to bude přeci jen maličko místy ošulené. V 1:30 mě trklo do očí, proč druhá a třetí nábojnice zprava a ta vlevo se vůbec na zemi neodráží, když ty zbylé 4 krásně ano.

+1
-1
-1
Je komentář přínosný?

protoze se nemaj od ceho odrazet.. leskne se to tam, kde je voda..

+1
+2
-1
Je komentář přínosný?

Tak minimálně ta druhá zprava tam kaluž má, lesknou se tam jiné předměty, ale nábojnice ne. :)

+1
+1
-1
Je komentář přínosný?

jenze ta louze je kus pred nabojnici, ne pod ni.. odlesk by vychazel do mista kde neni voda, proto tam neni..

+1
+2
-1
Je komentář přínosný?

Jen malý kousek, takže by z nábojnice měla chybět řekněme spodní třetina. Jenža ona se tam neodráží vůbec.
https://postimg.cc/hhtPGhTq
Stejně tak nábojnice vlevo... i když tam není přímo kaluž ale jen mokrý povrch, tak tam nemají bezprostředně před nábojnicí co dělat odlesky neonu v pozadí

+1
+1
-1
Je komentář přínosný?

je to dáno tím že světlo dopadá ve velmí ostrém úhlu... a tak se v hladině odráží prakticky jen to, co v ní zároveň i leží... je to vidět dle okolních nábojnic (jejich odrazy a velmi krátké stíny).

+1
0
-1
Je komentář přínosný?

Tak ještě lepší obrázek. Kdo to ani tady nevidí, tak mu doporučuji jít ven k rybníku a podívat se, jak se na hladině odráží stromy na protějším břehu. :-)
https://postimg.cc/gnVz39Dq
Prostě 2. nábojnice zprava se vůbec v kaluži před ní neodráží. Ačkoli se tam jasně a čitelně odráží neonový nápis na pozadí, kterému přitom od 2. písmenka stojí v cestě ona nábojnice ;-). Jak má vypadat odraz v kaluži je vidět na nábojnici vlevo. Stíny jsou něco zcela jiného, ty nerozporuji.

+1
0
-1
Je komentář přínosný?

Vemte si pár vyleštěných nábojnic z pistole, a zkuste si to v noci po dešti vyfotit a porovnat ;).

+1
+1
-1
Je komentář přínosný?

JJ, demo má svoje mouchy, ale celkově působí velmi dobře.
Spíš by mě zajímalo reálné použité ve hrách - a i tam člověk nehledí na každý detail, protože to nestíhá v zápalu hry.
Nikdo nečeká fotorealistickou kvalitu ani u Nvidie, ani u Cryoteku, i když u té Nvidie se za to dost připlácí, tak tam jsou markantně očekávání větší. Přitom mě se líbí víc Crytek verze, i s těmi chybičkami

+1
+1
-1
Je komentář přínosný?

Nie len sa tu zase robí hon na čarodejnice.
Ani samotná NV netvrdila že to bez špecializovaných jednotiek nejde, ide len ten výkon na to nieje. Tie jednotky to majú urýchliť a zreálniť. Že za to chcú tie peniaze čo chcú je druhá vec, tá nemá s tou technológiou nič spoločné, to je len na ľuďoch aby sa rozhodli či sú ochotný vysoliť alebo nie. NV má jednu výhodu a to je jej podiel na trhu a schopnosť niečo presadiť čo by sa AMD nemuselo podariť a vždy musí mať partnera pri tom vo väčšej miere ak NV.
Toto beriem len ako demo kde je všetko pripravené tak aby to vyzeralo dobre, v reálne hre by to podľa mňa tá karta neutiahla v 4k 30FPS

+1
-1
-1
Je komentář přínosný?

Dle mě to vypadá korektně. Zdroj světla je za nábojnicemi, takže se tam nemá co odrážet.

+1
0
-1
Je komentář přínosný?

Vy ve vodní hladině nebo v zrcadle vidíte jen odrazy zdrojů světla? Já tam vidím vše, kromě absolutně tmavých těles. ;-)

+1
+1
-1
Je komentář přínosný?

Ta prvni zleva nema ani stin :-D

+1
0
-1
Je komentář přínosný?

Nemůžu si pomoct ale podobné kvality odlesků bylo dosaženo už dávno. Takhle narychlo mě napadá SW render v MDK nebo Glide (možná D3D) verze hry Re-volt.

+1
0
-1
Je komentář přínosný?

To je podobný příběh jako PhysX. Je jasné, že specializované jednotky budou provádět výpočty efektivněji, na druhou stranu ale zaberou místo těm univerzálním. A podobnost je i v té obsahové stránce, je pěkné, že je scéna v souladu s fyzikou, jenže je vynaložený výkon úměrný výslednému efektu? Ocení to hráči nebo jen štouralové? Hra není fyzikální simulace, u hry záleží jen na dojmu.

+1
+4
-1
Je komentář přínosný?

"Hra není fyzikální simulace, u hry záleží jen na dojmu."

Trosku si protirecis. I z fyzikalnej simulacie, moze vzniknut dobry dojem. Prikladom je GTA5 u mnohych ludi. ;) Asi si chcel napisat, "na hratelnosti".

+1
+1
-1
Je komentář přínosný?

Nechtěl jsem říct, že by hra měla popírat fyziku (i kdyz to děla většina her, hlavně co se týče pohybu postav a příšer). Spíš mi šlo o to, že detaily, které při hře nevnímáš, nemá smysl nějak cizelovat. Důležité je, aby ve scéně nebyly bugy, které by tu pozornost upoutaly.

+1
0
-1
Je komentář přínosný?

mazec....podobny ulet byl prvni crysis, ktery porad vypada dobre a je to asi 10let

+1
+2
-1
Je komentář přínosný?

Posledni dobou je veselo...
1) Microsoft vyda(l) DirectX12 pro Windows 7 (kvuli WoW)
2) NVIDIA dela raytracing pod Vulkanem (Quake II RTX)
3) Crytek dela raytracing "bez NVIDIE"

+1
+4
-1
Je komentář přínosný?

Jak asi dlouho bude trvat, než toto implementují další enginy ??? Asi tak dlouho, než se doprodají RTX "předraženky". :-) To bylo keců od zelených bezmozků, jak je to inovativní a že to bez toho nejde žít. Opravdu se směji, jak jsou lidi hloupí a skáčí na marketing společnosti pracující "pouze" pro zisk.

+1
+1
-1
Je komentář přínosný?

Tak ale pozor, NVidia tvrde odpovedela RTX ukazkou na 1080p, kde se pomalu nema co odrazet.

https://www.youtube.com/watch?time_continue=123&v=-kg-cm48Pro

:-D

+1
+3
-1
Je komentář přínosný?

Moje perpeťácká fantazie se rozběhla na plné obrátky:

Raytracing bez raytracingu... co když vyrenderují scénu bez RT jenom texturově mapovanou (nebo fragmenty scény z různých úhlů pohledu) do ad-hoc off-screen frame-bufferů, nastříhají z toho letmo nějaké "dynamicky spočítané" textury na odrazivé plochy, a při druhém průchodu renderují finální snímek? Kombinace lomu a odrazu na vodní hladině by se dala spáchat třeba překrytím dvou textur (pokud vím dávno běžná věc). Pak by to bylo fakt zpátky hlavně na chytristice, který face má být v "odrazu" vidět a který nikoli - a do jaké míry detailu se s těmi odrazy pustit, které odrazivé plochy počítat a na které se vykašlat = optimalizace výsledného dojmu v rámci omezení výpočetním výkonem. A samozřejmě trochu dochutit nenáročnými / dávno běžnými efekty s osvětlením ploch blízkým "sálajícím" zdrojem apod.

Pro skrytí nectností tohoto přístupu se velmi hodí "noir" scéna, kde se ze tmy vynořují jenom jasné zdroje světla resp. jasně nasvícené plochy "před odrazem". Absence vícenésobného odrazu a možné další nepřesnosti zaniknou ve tmě.

Navrhoval bych výrobcům RT akceleračního křemíku a fake-RT game enginů jednoduchou testovací scénu, které by dominovala dvě rozměrná zrcadla umístěná téměř rovnoběžně proti sobě a mezi nimi nimi nějaký ten objekt, který by se v zrcadlech "znásobil". To by se to pak měřilo, kdo má větší $NÁSTROJ

Další jednoduchá testovací scéna: plavecký bazén / hala. Ať má na dně nějaké lajny, které jsou vidět skrz krásně modrou vodu, a hladinu klidně úplně klidnou=hladkou. Na stropě třeba prkna / kazetový podhled / nosné trámy. A postava pozorovatele (kamera) se projde podél startovních bloků.

Nebo umístit kameru do potápěčských brýlí s rovným sklem (lom vzduch - sklo - voda) a trochu se rozhlížet kolem.

A pak třeba nějakou "normální" scénu za denního světla. Jedno jestli interiér nebo exteriér.

Popravdě když se rozhlédnu kolem sebe, mnoho lesklých odrazivých ploch nepozoruju. Ani mnoho objektů, na kterých by vynikl lom světla (skleněné tabule v oknech nejsou moc dobrý příklad). Takže raytracing s cílem řešit odraz a lom je možná zase jenom další marná meta. Moc bych se na něj neupínal. Jo takhle až někdo zařídí v reálném čase detailní radiosity rendering s mnoha průchody, to mi teprve klesne čelist :-)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.