Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Turing TU102 obsahuje 72 Ray Tracing jader. Recenze vypadají na 14. září

V článku to máte prohozené...
GeForce RTX 2080 ponese 36 RT Cores
GeForce RTX 2070 ponese 46 RT Cores

+1
+2
-1
Je komentář přínosný?

Díky, opraveno.

+1
+1
-1
Je komentář přínosný?

Super, tesim se na 14.9 na recenze v den, ktery bude nocni murou pro vsechny NVidia fanousky az se prijde na to, ze je to cele na .... :-)

+1
-4
-1
Je komentář přínosný?

Mně přijde, že noční můra je to tak akorát pro tebe... Skoro pod každým článkem nám cpeš, jak je to špatné a že si to nekoupíš, ale to může být nějakému Nvidia fanouškovi ukradené, ten tě zná a ví co píšeš za blbosti.

Já osobně se na to těším a jediné co by mně zkazilo náladu je, kdyby 2080 Ti byla jen o 10% výkonnější než 1080 Ti, ale takový scénář nečekám.
RTX mi může být ukradené, buď to bude fungovat i ve vysokém rozlišení a bude to pro mě plus a nebo nebude a budu to mít prostě vypnuté, žíly mně to netrhá. Zatím to neposuzuji, karty nejsou ani venku a ty hry které to mají mít také ne, takže je to jen vaření z vody jak to bude běhat.

+1
0
-1
Je komentář přínosný?

Přijde na to, jestli budeš posuzovat výkon S, nebo BEZ ohledu na pořizovací cenu. Je pravděpodobné, že absolutně bude 2080Ti výkonnější o více než 10% ve srovnání s 1080Ti. Ale 1080Ti stojí řekněme jako 2080 bez Ti. Takže při srovnávání cenově srovnatelného se možná dočkáme právě jen těch 10%. Když i nVidia sama říká, že hrubý výkon je hloupý, připravuje nejspíš půdu pro mnohem střízlivější navýšení, než jaké předvedla předchozí generace. Nezbývá než ještě 3 týdny počkat na testy po NDA. Kdo náklady neřeší, asi spokojený bude.

+1
+4
-1
Je komentář přínosný?

Já srovnávám čistě jenom výkon, pořizovací cena mě zas tak netrápí, ta je až na druhé příčce. Jsem ochoten si připlatit pokud tam ten výkon bude, ale jestli bude nárůst malý, tak si nechám 1080 Ti.
Nvidia neříká, že hrubý výkon je hloupý, ale že u této generace to není nejvhodnější pro porovnání.
Právě nedočkavě čekám na testy...

+1
0
-1
Je komentář přínosný?

@Redmarx : Tak jasne ze nekupiš , tvoje finančne problemy chapem , ale s tymy mentalnymi niečo rob
PS: Nebudes ty nejaka rodina , alebo milec Stacha ?

+1
-3
-1
Je komentář přínosný?

Redmarxi, vem si příklad z Blaha, ten kupuje rovnou dvě RXT2080Ti do SLI!

+1
+1
-1
Je komentář přínosný?

NIKDY! :-)

+1
0
-1
Je komentář přínosný?

RedMarxi, brečet budou AMD trollové:
"Namísto toho, aby při nasazení technologie Raytracing počítala všechny paprsky, které jsou potřeba pro vykreslení kvalitního („nezašuměného“) obrazu, počítá s nižším počtem paprsků a výsledný obraz vyčistí použitím algoritmů akcelerovaných právě přes tensor cores. Celkové FPS pak mají být vyšší."
z vlastních vod: https://diit.cz/clanek/bude-raytracing-zakladem-novych-her

+1
-2
-1
Je komentář přínosný?

Odkaz je super. Diky.

+1
0
-1
Je komentář přínosný?

a vzhladom na to, ze ani 2080 ti nedokaze ist s RT na 1080p rozliseni na 60fps, tak pri 2080 a 2070 to bude absolutne nepouzitelne a akurat tak do marketingovych materialov.

+1
+8
-1
Je komentář přínosný?

asi treba znizit naroky na scenu. ak bude v scene len 1 trojuholnik tak sa mozno dockame i tych 10 Giga rays/s.

+1
+1
-1
Je komentář přínosný?

Trojuhelniku zustane stejne, svetlo se generuje paprskama z bodu, ze ktereho skutecne vychazi. Tech paprsku musi byt opravdu hodne, aby to udelalo nejaky obraz byt treba jen castecny.

+1
0
-1
Je komentář přínosný?

to je jasne, pre 1080p mas 2 mil raycastov, ale je velky rozdiel raycastnut scenu ktora ma 1 trojuholnik alebo 300 miliard. si sprav logaritmus pri zaklade 2 z tych 300 miliard a ti vyjde ze zlozitost je tam 38-krat vyssia.

+1
+1
-1
Je komentář přínosný?

Jsem nepochopil, jaks to myslel, ok.

+1
0
-1
Je komentář přínosný?

Právě jste popsal průchod GI (global illumination) kdy photon tracing se opravdu počítá ze zdroje světla směrem k osvětleným plochám. Nicméně na toto v GPU a real timu si ještě 10 let počkáme. Zatímco ray tracing se počítá přesně opačně. Paprsky míří z kamery a ne ze světel.

+1
0
-1
Je komentář přínosný?

Tohle je dost blby, pokud se ukaze, ze vkastne jen Ti stiha tak tak 1080p pro RT. Takhle to zustane dlouho nice to have volba. Mensi studia (neplacene NV marketingem) nebudou mit ani motivaci RT implementovat.

+1
+4
-1
Je komentář přínosný?

Uz se tesim na realne testy a jsem zvedav na to v jakem rozsahu bude aplikovan jestli na cele sceny atd. a jak moc musi byt RT zjednodusen a orezan aby se to aspon trochu hybalo ..... RT u VR by mohl byt aplikovan pouze v zornem poli .....a cim vice od stredu tim jednodussi vypocty aby to nevypadalo tolik rusive ...taky jsem zvedav jak se s RT popere VEGA a PASCAL pripadne nove karty GTX 20x0 bez RT cores :)

+1
0
-1
Je komentář přínosný?

A jakmile vypnete RT, tak je čtvrtina čipu k ničemu. A pokud hra neumí využít ani tensor cores tak polovina čipu. Epic fail.

+1
+4
-1
Je komentář přínosný?

2080Ti ma o 60% vacsiu plochu nez 1080Ti. Fyzicky ma o 20% viac CUDA cores. Realne teda zabera 1.333x viac plochy na jadro. Nieco zoberu 2.7x vacsie cache, takze RT+tensor zoberu tak 25-30% cipu, co je ale stale dost.

+1
0
-1
Je komentář přínosný?

Předpokládám, že díky novější výrobní technologii je hustota tranzistorú vyšší. Já osobně vycházím z obrázku v článku. Třeba nám to no-X spočítá přesněji :)

+1
+1
-1
Je komentář přínosný?

Ak su udavane cisla spravne, tj. 18.6mld tranzistorov a 754mm^2 tak Turing ma este horsi pomer tranzistor na mm^2 nez Pascal. 1.6x vacsia plocha a len 1.55x viac tranzistorov.

+1
0
-1
Je komentář přínosný?

To je kvůli týrání umělé inteligence, Brusel přikázal, že velikost chlívečku pro jednu tensorovou bytost musí být minimálně 0,33 x 0,33 mm....

+1
+2
-1
Je komentář přínosný?

Mně by ke štěstí stačilo, kdyby se tensor cores daly využít pro denoise a kvalitnější upscaling videa v reálném čase (a případně pro upscaling obrazu ve hrách). Už v tom okamžiku bych to nepovažoval za zbytečné plýtvání místem na čipu ani na slabších grafikách.

Akorát se bojím, že se nějakého takového přehrávače, který by to využil, nedočkáme (i když jestli dobře chápu povídání kolem SDK k RTX, tak by to zase takový problém na implementaci být neměl).

+1
0
-1
Je komentář přínosný?

uz len linux gaming. a podla toho vyberam aj hry ..vlastne uz ziadne len tie starsie.
dojizdim na win8 cely tento cirkus)) 2023
inak aj v poslednej van show od linusa alebo hardware unboxed sa ide tvrdo proti nvidii a aj nekrosoftu ))
tak nebudte tam u vas na valale a ceskom valale hlupaci a bojkotujte nvidiu taky ))) zese ste mimo svetoveho trendu)) kupit si nvidiu za 1400 euro megarofl )))))))))

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.