Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Vývojář: Raytracing nevyžaduje RT-cores, chystané konzole ho zvládnou bez nich

Takže VOLTA má větší propustnost paměti a 12x širší sběrnici to by mnohé vysvětlovalo s ohledem na tvrzení vývojáře a pak že HBM není přínosem :)

+1
+4
-1
Je komentář přínosný?

v článku se ale nepíše o VRAM ale CACHE, ta je součástí GPU stejně jako CACHE CPU

+1
-5
-1
Je komentář přínosný?

Vážně o.O to není možné! :D
Všechno souvisí se vším vzhledem ke složitosti výpočtů je propustnost a paralelizace dle meho velmi důležitá aby nedocházelo k přílišným prodlevám ..což nastínil i vývojář a NO-X to akorat doplnil/rozvinul ;)

+1
+3
-1
Je komentář přínosný?

Tady ses ale podle me mimo.

Pristup k velke pameti u GPU byl vzdy o celkovych datech. Nikdy ne o latenci. Bezne operace se provadeji nad velkym balikem dat v celku jasne danem postupu a strukture.

Kdezto prave RT potrebuje rychlou odezvu l, nahodny pristup, atp. Takze o propustnosti VRAM se nejedna.

Ale jestli mas link na lepsi info o nastaveni radicu pameti (specificky latenci) na GPU, tak nahod, rad se poucim.

+1
0
-1
Je komentář přínosný?

"Bezne operace se provadeji nad velkym balikem dat "

Takze propustnost neni potreba ? Tak kdyz bude 1Mbps tak to bude ok :) propustnost i latence je souhrn mnoha faktoru nevim kde vidis problem...

+1
0
-1
Je komentář přínosný?

Ten problem vidim v tom, kdyz je pametovy system optimalizovan na to, ze najde a pak precte v davce par mega textury... a uplne jindy zase treba zapise...

A kdyz vyzaduje najit, precist, zmenit a zapsat male segmentovane kousky dat a potrebuje takovych operaci udelat hromady.

A proto si myslim, ze na ficury jako RTX je potreba vnitrni system cache a sbernic a dalsich prvku. A tohle si zije (cti se vyviji) uplne bokem od radice pameti a tedy propustnosti VRAM, at uz je pouzit GDDR, nebo HBM.

+1
0
-1
Je komentář přínosný?
+1
-1
-1
Je komentář přínosný?

Plus vylepšený Async Compute od Volty dál.

Je asi jasné, že AMD by mohla RT pod DX12 oživit, ale tím by přistoupila na porovnávání pindíků v nové oblasti a nedopadlo by to pro ni z marketingového hlediska dobře (můj odhad je 50 % postih výkonu). Hýbat by se hra nicméně hýbala.

Pokud AMD netušila do launche Turingů, že budou o vapourware RT (že by neměli v nVidii špiony?), tak se můžeme s velkou Navi rozloučit, resp. jsme se s ní rozloučili z tohoto důvodu.

Na druhou stranu pokud pro jakžtakž raytracing stačí "pouze" překopat/posilnit/rozšířit cache a část GCN* (počítající BVH) v předtapeout fázi, zdržení může být například jen několik měsíců.

*nebo i rasterizér

+1
+2
-1
Je komentář přínosný?

Jestli se nepletu tak AMD mluvilo o podpore DX12 RT, ktery je jeste ve vyvoji. To co NV ted predvadi mi spise prijde jako marketingovy tah aby mohli rikat, ze jsou prvni a meli pod kontrolou na cem to pobezi. Pak se potichu k presunou DX12 RT. Vsichni se schodneme, ze uvedeni RTX grafik bylo ponekud uspechane a hodne se tlacilo na predprodeje. A hry se daji spocitat na prstech jedne ruky neprilis sikovneho truhlare. Nabizi se otazka proc to tak uspechali? Napada me jedine, ze ocekavaji neco co se jim nelibi a potrebuji rychle zahltit trh vlastni technologii. Tady uz budu spekulovat ale DX12 RT se jim asi nehodi do kramu a na jejich HW asi nepodava dobre vykony. Cas nam ukaze jak to bude.

+1
+5
-1
Je komentář přínosný?

NV DXR, ty DX12 RT jak píšeš podporuje. RTX je nadstavba DXR asi jako GameWorks, implementují vlastní knihovny a vývojář má na výběr, napsat si to sám pomocí DXR nebo využít RTX, takže vážně spekulace že se někomu RT přes DX12 nehodí je výmysl rudého mozku, navíc když DX12 i Vulkan na RTX řadě běží výrazně lépe než běhal na Pascalu.

Třeba BFV, pokud se nepletu nevyužívá RTX ale implementuje RT pomocí DXR.

A proč to začali prodávat? Tak to je snad jasné a z výroční zprávy pochopitelné - klesající prodeje. Před představení RTX řady tady furt někdo psal jak je to hrůza jak nechce kupovat 2 roky staré grafiky a stěžoval si že tu nejsou nové. I pro NV ta pauza byla o kousek delší než dřív. Starou generaci lidé přestávali chtít, také bylo jasné že přijdou na trh karty z těžby, nasazení nových modelů tak dává smysl protože v bazarech budou karty staré.

+1
-8
-1
Je komentář přínosný?

Můj dojem je ten, že Turding je čistá snaha překonat konec doby minérské a výprodeje kopáčských rigů.
Už jsem to kdysi psal, jediný reálně akceptovatelný způsob ukončení takových prodejů je uvést novou technologii, která učiní stávající HW obsoletním.
nVidia se o to zřejmě pokusila uvedením podpory RT, bohužel pro ni navazovala na velmi dobrý Pascal a navíc se jí nepovedlo to podstatné - namíchat cenu, výkon a hlavně podporu pro nové technologie. Jak RT, tak DLSS je z obchodně/marketingové stránky stále velký fail a osobně dosti pochybuju, že se to nějak zásadně vylepší. První dojem proběhl médii, oslavné články/recenze více než kdy jindy vypadají jako napsané na objednávku a vystřízlivění a kocovina se dostavila nebývale rychle. Hrdina to pojmenoval velmi trefně jako vaporware.

Na teorie o očekávání něčeho, co se jim nelíbí bych moc nedal (pokud jsi myslel Navi). Trh je naučený kupovat nvidie, ať se děje co se děje.

+1
+4
-1
Je komentář přínosný?

Souhlas. Došlo na saturaci trhu. Kdo 1080 ji už obvykle dávno měl. A nova řada se nepředvedla o moc víc muziky. Důvodů k upgradu moc není.Takže i přes novou řadu poslední kvartál byl pěknej propad oproti loňsku.

+1
+2
-1
Je komentář přínosný?

Upgrade počítačů probíhají průběžně, stejně jako přibývají nové počítače, nejde říct že kdo chtěl to už dávno má.

+1
-2
-1
Je komentář přínosný?

to je zajímavý- tenhle argument se používá jen někdy, jak to tak sleduju. :-)

+1
+2
-1
Je komentář přínosný?

to je selský rozum, tím netřeba argumentovat, na rozdíl od jiných neargumentuju tím "výkon co tu byl", a v nové generaci mě primárně zajímá top model, případně ty modely které překonají výkonem top model předchozí generace. Čím pak ten výkon jde dolů, tím menší zájem o to mám

+1
-1
-1
Je komentář přínosný?

Těžební mánie to trochu zamotala. Ceny neklesali a grafiky se tak postupně neposouvali do nižších pater. Počet potenciálních zákazníků tak tedy klesal. A ted máme situaci kdy nová generace nasadila vyšší ceny ale není je schopna obhájit svým výkonem. Hodně zákazníků tedy nevidí důvod k upgradu a zůstává u stávajících karet.

+1
+1
-1
Je komentář přínosný?

"ale není je schopna obhájit svým výkonem"

RTX2060, RXT2070 mají lepší poměr cena/výkon než výkonový ekvivalent předchozí generace a ne, nemluvím o výprodejových cenách a už vůbec do toho nemotám bazar. 1070Ti tu byla zhruba za 13-14 tisíc, za to tu teď máme buď kartu pod 10k nebo stejně drahou ale výkonnější, jednoznačný posun kupředu, jako bonus zdarma RTX tech. Kdyby mi někdo nabídl 1080 za 13,5k rval bych mu ruce, platil jsem o 8 tisíc víc, rok před tím jsem dával 16k za GTX980 tu svým způsobem srovnala 1060 za 7... jednoznačně tu vidím posun kupředu, zvlášť ve střední třídě, výkonný segment bude mít vždy nějakou tu exkluzivitu za kterou si člověk holt musí připlatit.

A lidi co neupgradují mají zřejmě výkonu dost, protože pokud nemám dostatečný výkon, musím upgradovat.

Ale her jako Metro bude přibývat a pokud člověk bude chtít splnit aspoň doporučené požadavky tak chtě nechtě bude muset, pokud dnes má něco jako Radeony RX, 1060 a slabší karty upgradovat.

Ale shitstorm na ceny tu byl snad vždy, když začínaly pascaly tak tu lidi nadávali jak to stojí ranec. Dnes ty nevýhodné karty za ranec oslavují do výšin... někdy by lidi měli mít větší sebereflexi a být aspoň trošku konzistentní

+1
-1
-1
Je komentář přínosný?

Kde beres ty ceny a kde nakupujes ? GTX 1060 za 7k a GTX 980 je urcite lepsi (nebo jsi me dokonce na mysli 3G verzi? )

GTX 1070 Ti nabidne stejny vykon a více VRAM akorat nema velmi spornou podporu RT a degradujici DLSS :) takze co je na tom uzasneho ze ti za stejny prachy NV proda po letech kartu orezanou o 2GB VRAM ?

+1
0
-1
Je komentář přínosný?

1080 vs 2070 podobna cena, podobny vykon. Cca 500kc navic za par procent vykonu. 1070 vs 2060. 2060 8gb nevidim a 6gb je paskvil s problemy. Opet cca 500kc za par procent navic. Stejna cena. Stejny vykon. Technologie ktere nevyuzijes a v pripade 2060 s davkou problemu navic. Kde mas tu pridanou hodnotu o ktere mluvis? A ano koukam na aktualni nabidku obchodu.

+1
0
-1
Je komentář přínosný?

"že by neměli v nVidii špiony?"

Lidí je nedostatek, možná, že jen nejsou v nVidii, ale o článek vedle - https://diit.cz/clanek/kontaminovane-wafery-pripravi-tsmc-o-pul-miliardy...
:-D

+1
0
-1
Je komentář přínosný?

RT potřebuje odezvu a zbytek scény potřebuje propustnost. Takže raytracing karty jsou zjednodušeně řečeno schizofrení.

Mimochodem, neznáte někdo latence GDDR6 a HBM2 pamětí?

+1
+1
-1
Je komentář přínosný?

ty latence by me taky zajimaly, nic jsem k tomu nenasel, muzu jen strelit, ze tim ze sbernice je u HBM2 vetsi a ze musi byt blizko k cipu, budou latence podstatne lepsi, ale je to jen odhad, pravda je nekde tam venku :D

+1
+1
-1
Je komentář přínosný?

Délka vedení tohle fakt neovlivní. Podstatné je jak dlouho potřebují ty paměťové čipy aby našly požadovanou informaci a předaly ji.

+1
-5
-1
Je komentář přínosný?

tak delka vedeni tohle fakt ovlivni :D

+1
-1
-1
Je komentář přínosný?

Reálná latence DDR5 pamětí je cca 15ns. Kdyby paměti měli 5cm spoje, tak to přidá 0,16ns, což je nic, takže délka vedení opravdu latenci neovlivní. HBM se nedávají na interposer proto, že by byla rychlost světla tak pomalá, ale kvůli tomu, že se fakt blbě vede z čipu 2048 vývodů a ty následně přes PCB. HBM má odhadem 50-60ns. Možná to ovlivní délka vedení uživatele :)

+1
+3
-1
Je komentář přínosný?

No myslim, ze na vedeni si sedi ten, kdo tvrdi, ze se elektrony v medi pohybuji rychlosti svetla ... zjisti si prvne neco o driftove rychlosti.

+1
0
-1
Je komentář přínosný?

Tak to každopádně, ale jak si můžete sám přečíst já jsem nic takového nepsal, takže nechápu proč mi vnucujete slova, která ani vzdáleně nesouvisí s tím co jsem psal. Rychlost propagace elektrického signálu a rychlost pohybu elektronů jsou dvě rozdílné věci. Ve vodiči se docela dobře (~99%) přibližuje k c. A když už jsme u toho slovíčkaření, tak vf signály se spíše než "v mědi", (generalizuji na vodič) šíří u povrchu, zjisti si prvně něco o skin efektu.
Kdyby latence pamětí ovlivňovala driftová rychlost elektronů a ne rychlost propagace, tak by v tomto vesmíru zřejmě nikdy žádné elektrické počítače nevznikly :)

+1
+1
-1
Je komentář přínosný?

ok, rychlost sireni elektrickeho pole se rychlosti svetla priblizuje, neni stejna, ale zjednodusene se to da tak pojmout, nicmene faktem je, ze vzdalenosti roli hraji, vzhledem k ruseni a prevodnikum proste na 1cm otocis vic nul a jednicek nez na 10cm ... proto treba nebude az takovy problem do PCIE3 dostat PCIE4 ale uz by to nedalo PICE5 ... vzhledem k tomu, ze tu nemame odstinenou laborator tak cim vetsi vzdalenost tim ten signal musi byt silnejsi a trvat dyl aby se dal precist, kdyby vzdalenost nehrala roli, tak ADSL neni tak pomaly, napr ... stejne tak proto treba cache pamet je hned u jadra procesoru a nemame ji v PCIE slotu ... proste rici, ze vzdalenost nehraje roli u latence a rychlosti je blbost

+1
-1
-1
Je komentář přínosný?

Jenže vy jste na začátku řešili úplně jiné věci, než kilometry u ADSL a to, že budu citovat:
"sbernice je u HBM2 vetsi a ze musi byt blizko k cipu, budou latence podstatne lepsi"
Latence HBM/HBM2 jsou mnohem vyšší než u GDDR5/6. GDDR6 má latence ~8ns. Konkrétní latence HBM v podstatě nikde nejsou zmíněné, ale měřením se odhaduje 50-60ns. Psal jste přímo, že HBM2 je blízko čipu a musí být tedy latence lepší. Co je zcela špatná úvaha, vzdálenost zde nehraje roli. GDDR6 mají spoje v délkách ~5cm a latenci násobně nižší, protože frekvence. A evidentně není problém hnát na takové délce 1,2ghz, tedy stejou reálnou frekvencí jako HBM2. El. signál urazí za 8ns řekněme 240cm a bavit se o tom, že HBM musí mít lepší latence z důvodu jeho rychlosti je naprosto zcestné.
A že jste pak začal točit o driftové rychlosti, která je tak o 5 řádů nižší než rychlost želvy, to už ani nemám sílu argumentovat.

+1
+1
-1
Je komentář přínosný?

nikde zminene nejsou ale hezkej rozbor je treba tady ... http://monitorinsider.com/HBM.html , takze by me zajimalo kde si vzal 8ns vs 50-60ns a tady zminuje nejakej manik z Micronu, ze latence jsou mensi u HBM .. jenze to jsou prispevky typu jedna pani povidala https://www.quora.com/In-how-many-clock-cycles-is-Samsung-s-High-Bandwid... , holt to vsechno asi jeste spada pod obchodni tajemstvi, btw moje L3 nema latency 8ns ... a intel EDram ma cca 70ns .. takze pokud ma HBM2 50-60ns tak je to pecka a da se pouzit jako L4 cache, coz rozhodne GDDR6 ani nahodou, latence 8ns je uplna blbost

+1
+1
-1
Je komentář přínosný?

Upřímně by mě to taky zajímalo, věřil jsem cizím diskuzím, tak jsem to prostě převzal:
https://forums.anandtech.com/threads/gpu-memory-math-gddr6-vs-hbm2-vs-gd...
"Samsung's improvements will enable bins of even lower latency, like ~8 ns (3200 MT/s, CL12 or 13) at 1.35 V. "
A ohledně HBM jsem viděl diskuzi, kde to měřili na intel cpu s amd grafikou a odhadovali 50-60.
Jestli jsem plácnul kraviny, tak se omlouvám, nechal jsem se unést trolem. Vyvracel jsem úplně jiná prohlášení a latencema co jsem našel se je snažil podpořit, což asi nebylo příliš šťastné, nakonec tam nehrají žádnou logickou roli :).

+1
+2
-1
Je komentář přínosný?

nejlepsi bude asi pockat, az daji nekdy overenej datasheet, ted je to opravdu vse jen o tom, co si lidi povidaj na netu ...

+1
-1
-1
Je komentář přínosný?

Taky může být zakopaný pes v pojmu "vedení". Pokud má na mysli logické vedení (počet součástek mezi vstupem a výstupem), bude vliv této "blízkosti" větší, než když má na mysli jen dráty. Pokud je propustnost (obecně) zvýšená paralelizací, lze očekávat pomalejší odezvu kvůli složitější a delší cestě (myslím počtem logických prvků).

Každopádně je na toto téma málo dostupných, kvalitních a věrohodných zdrojů. Kdo ví, jak (a odkud a kam) tu latenci Samsung a ten z té diskuze měřili. Samsung je výrobce pam. modulů, takže to možná měřil na pinech paměťového modulu. Měření na kartě z diskuze ale mohlo probíhat od GPU k paměti a zpět. Už ve frekvencích grafických pamětí je takový bordel, že jen málokdo dokáže říct, na kolika Hz běží hodiny paměti, co se s tím pak děje a jestli a jak lze vůbec porovnávat frekvence GDDR a HBM.

Možná by to chtělo článek na téma architektury grafických pamětí.

uptade: Našel jsem pédéefko (http://meseec.ce.rit.edu/551-projects/spring2015/3-2.pdf), kde je jako jedna z fíčur HBM "Stacking DRAM dies on top of each other thus allowing for close proximity between DRAM and processor". Ale do jaké míry je to skutečně relevantní, a jak to vypadá celkově se započítáním frekvence paměti a počtem potřebných cyklů, opravdu nevím...

+1
+1
-1
Je komentář přínosný?

Toto vlákno asi není úplně potřeba řešit: Myslíte, že způsob výpočtu scény ovlivňuje/(RT sahá) do framebufferu? Já si to nemyslím.

+1
+1
-1
Je komentář přínosný?

nějaký zdroj ohledně latence pouze pamětí by nebyl ? (nemám na mysli celý řetězec tam je latence silně proměnlivá a závisí na typu zátěže, prospustnosti atd. atd. )

+1
-1
-1
Je komentář přínosný?

Myslíte HBM2 ? Našel jsem jen nějakou diskuzi, kde to měřili na Intel CPU s AMD+HBM. Příliš jsem to do hloubky nestudoval. https://forum.level1techs.com/t/how-is-the-latency-with-hbm/95550/11 .

+1
0
-1
Je komentář přínosný?

Taky prave nevim jakou ma fyzickou latency samotna pamet..ale z logiky veci kdy HBM nepotrebuji obvody navic jen kvuli zajisteni kvality "spojeni" a diky vyssim frekvencim GDDR6 se sice zveda propustnost ale soucasne se zveda latence ..latence celku zveda i druh a objem zateze(vice je hure) a jedine co latency dokaze rozumne pri takove zatezi srazit je vysoka propustnost a sirka sbernice dejme tomu vysoka paralelizace i za cenu vyssi rezie a tam jednoznacne vitezi HBM :)

+1
0
-1
Je komentář přínosný?

Což mimo jiné ovlivní vzdálenost a složitost řídících obvodů u GDDR např. i vč. PLL
HBM můžeme považovat s mírnou nadsázkou za L4 cache ;)

+1
+1
-1
Je komentář přínosný?

Jiříku kde se proboha v tobě něco takovýho líhne. Snad když o tom nic nevím tak se nevyjadřuji a když v ím málo tak se podívám na skutečnost.

+1
-1
-1
Je komentář přínosný?

Mám selský rozum, nebo přeměřuje každý třeba na desce jak daleko jsou paměti od slotu CPU? Ty zdálenější sloty by musely mít výrazně vyšší latence touhle logikou, protože těch pár cm co tvrdí kolega je "výrazný rozdíl". Ten rozdíl tam bude naprosto bezvýznamný proti tomu jakou latenci to má samo o sobě

+1
+1
-1
Je komentář přínosný?

Nemuzes srovnavat RAM a VRAM ..a ano ty centimetry navic vyzaduji dalsi clanky v retezci aby to fungovalo :) a ano vyvojari to premeruji a ladi/navrhuji podle toho cely system :) (je to i jeden z duvodu proc maji CPU predikci) kdyby se to neresilo tak uz tu mame davno asynchro a to by jsi preci kvuli tvemu gamingu nechtel..nebo?

+1
0
-1
Je komentář přínosný?

Nic nového pod sluncem, všichni kdo mají mozek chápou že AMD RT nasadí taky, bude muset. Jak ho dosáhne, je scela v moci inženýrů AMD, kterej nikdo z nás neovlivní.
Ale jinak co se týká toho brute force přístupu, tak jestli to dobře chápu, tak by vznikla karta která by bez RT efektu podávala obrovské FPS převyčující RTX2080Ti v SLI, ale po zapnutí RTX spadne někam k RTX2060... to je skutečně schizofrení.

+1
-7
-1
Je komentář přínosný?

JirkaK: prosím neodpovídej

Protože jsem to nenašel, zajímalo by mě, jestli někdo víte, že by se někde dělaly reálnější testy, o co mi jde, když hra nemá stabilních 60FPS, tak prostě snižuji detaily a to samé jde přece dělat i u zapnutého raytracingu, takže to, že nějaká RTX karta v mega/hyper/ultra nastavení má jenom 30FPS pro mě nic neznamená, pokud bude stačit snížit nějaké nesmyslné nastavení stínů, antialiasingu, dohledu do 30km atp a pokud tím dosáhnu 60FPS, tak budu spokojen.

+1
0
-1
Je komentář přínosný?

Nicméně pokud kvůli RT snížíte kvalitu, tak k čemu ten RT pak je?
Můžete prostě vypnout RT a hrát v lepší kvalitě a s více FPS.

+1
+3
-1
Je komentář přínosný?

edit: tak mi to nějak docvaklo až teď :)

+1
-1
-1
Je komentář přínosný?

no je pravda že snížením dohlednosti z 30km na 20 nejspíš fakt nic nepoznáte.

+1
-4
-1
Je komentář přínosný?

Záleží, v leteckém simu to bude dost zásadní rozdíl, mohou to být desetitísíce objektů které najednou na scéně nebudou.

+1
-3
-1
Je komentář přínosný?

V doomu mě fakt nezajímá co se děje 20km daleko, sorry jako

+1
+2
-1
Je komentář přínosný?

Jenom jestlis počítal s časem než dopadne foton ze žárovky projektoru na babiččino prostěradlo...

+1
+1
-1
Je komentář přínosný?

AFAIK je problém v tom, že ten propad na 30FPS nedělá rasterizace, ale právě zapnutí RT, takže vypnutím/snížením detailů si moc nepomůžeš. Napsáno jinak: již dávno vykreslená scéna čeká na to, až se spočítají paprsky. ;-)

+1
+7
-1
Je komentář přínosný?

"vykreslená scéna čeká na to, až se spočítají paprsky" Mno takze pokial RT bude stale len dodatocnen prilepeny efekt tak samozrejme bude vzdy sposobovat pokles hrubeho FPS vykonu. Je potrebne aby RT komplet nahradilo rasteriazaciu .To sa vsak len tak skoro nestane kvoli kompatibilite...

+1
+1
-1
Je komentář přínosný?

Videl bych to stejne ze se ceka na vypocet snimku RT, ale reseni je nekolik:
1. snizit kvalitu RT (napr. snizenim rozliseni odrazu nebo pocet naslednych odrazu [tohle aspon ve 3d programech pomaha docela dost, zalezi na komplexnosti sceny])
2. pridat vic RT cores, coz zatim asi nebude optimalni cesta, kdyz tech RT her je malo a uzira to plochu jadra, ale zase az to vyvojari implementuji do enginu, bude nastaveni RT ve hre pomerne jednoduche
3. vzhledem k tomu ze lze pocitat RT nejen na RT cores (proto to jede na tom Titanu V), tak vyuzit na RT i dalsi cast GPU, ale to samozrejme pomuze jen za predpokladu, ze se opravdu ceka se snimkem na vypocet RT, tim by se to dal efektivne vyuzit cely vykon karty

+1
0
-1
Je komentář přínosný?

1. o tohle se tu prece bavime uz par mesicu. Ze doted platilo, ze grafiky smerovaly k mete "kvalitni hratelne 4k". Prisla nova generace a zmenilo se to na "hratelne kvalitni 4k ale bez ficury, kterou marketing nVidia tak vehementne prosazoval" a nebo "hratelne, o neco vice kvalitnejsi HD".

Ja napr. koupil pekny 4k monitor a ve hrach vypinam uz AA, pac to nema zadny realny prinos na takovem rozliseni. A hry se hybou moc pekne. Ale kdybych mel na nativnim 4k hrat hru s rozlisenim 1080p, tak to vypada hnusne. A docela by me stvalo, ze jsem "vyhodil" penize do luftu.

+1
+1
-1
Je komentář přínosný?

Tak z perf. testů je hraní bez RT na 4k i s RTX2080Ti leckdy na štíru, kupovat si 4k pro lepší kvalitu a pak si ji redukovat snížením detailů abych udržel FPS není moc dobré, sweet spot je 1440p, ale zrovna třeba BFV s RTX on v 4k sviští, metro taky https://www.youtube.com/watch?v=PHB3mBYFktA není to tak nejhorší bych řekl, enlisted ve vývojové verzi běhal hojně v tříciferných FPS.

+1
-2
-1
Je komentář přínosný?

Skoro stejne nastaveni Metra. Tedy az na DX11, pac mam stale W7 a vypnuty Blur, pac se mi to osobne nelibi a samozrejme RTX, pac nejnovejsi grafiku jsem nekupoval, pac nemela zadnou pridanou hodnotu :) Na 1080 mam pekny, hratelny zazitek. Kolem 30FPS, nestacilo by to, kdyby bylo Metro MP progaming, ale zatim jsem ani nezazil situaci, kdy by se mi to trhlo, nejaka monstera vyskocila a ja dostal slideshow. 30FPS stabilne. Takze pekny, "ultra" 4K.

+1
+1
-1
Je komentář přínosný?

Ono to snad nejde? Nechápu ale proč omezovat stíny které jsou vlastně produktem RT. To pak nemá cenu ani to RT aktivovat. Dám do placu jednu filozofickoekonomickou otázku. Proč kupovat ( často né zrovna levnou) hru kde musím velmi osekávat kvalitu zobrazení, abych si jí s rozumným FPS zahrál, když na to můj hardware nestačí. Když si po čase pořídíte hardware který to již zvládne, máte tu hru už minimálně jednou dohranou a hrát jí znova jen kvůli tomu že si budete moci spustit nejvyšší kvalitu zobrazení nedává smysl.

+1
+2
-1
Je komentář přínosný?

Odpověď na filosofickoekonomickou je, že hra, kde je součástí online, mi je po pár letech k ničemu. Dám příklad: Forza série.

+1
0
-1
Je komentář přínosný?

Online hry které se dají hrát dlouhodoběji to vypadá o něco lépe, ale i u nich dochází vydávání nových verzí, jako je třeba Project Cars a to většinou znamená opět větší nároky na hardware a tak to jde pořád dokola. Pořád mi vychází, že by hráč měl kupovat jen hry na které jejich hardware stačí aspoň z 90% maximální kvality zobrazení. Pokud tato podmínka není splnitelná, takovou hru nekupovat a ušetřené peníze přihodit na spořící hromádku na nový hardware. Doby kdy šla prakticky jakákoli hra v rekordní době šlohnout a peníze se investovaly jen do hardware je jednou pro vždy pryč. Dnes má hráč dilema zda strkat peníze do hardware či softu.

+1
0
-1
Je komentář přínosný?

Denuvo aktuálně odolá většinou maximálně 1-2 týdny vyjímečně o trochu déle (samozřejmě se to týká titulů o které je velký zájem ) :) neviděl bych to tedy jako problém a dilema jestli investovat do HW či SW (samozřejmě jsou jedinci kteří to chtějí dohrát v den vydání a ti si to musí většinou koupit...) ale RE2 REMAKE nebo Ace Combat 7 byl skoro instatně :) a Metro Exodus je v podstatě na cestě (řeší už jen problém se stabilitou)
>> piráti nabízejí lepší služby jak oficiální distribuce plně offline režim bez otravného DRM přívětivý instalátor verze bez zbytečností atd. nebo kdo má pomalejší linku či chce skladovat instalačky může rovnou stahovat třeba od fitgirl repacky :) druhý nej už je jen GOG, ale tam není moc dobrý výběr a mám tam jen Witchera 3(GOTY)+Trine trilogy a zbytek je odpad

+1
0
-1
Je komentář přínosný?

To ale platí jen pro single hraní a nikoli pro síťovou část kde podvodné servery vznikají ( a jestli vůbec vzniknou) mnohem pomaleji. To by ale nebyl takový problém, protože darovanému koni na zuby nekoukej. Promne je mnohem více odstrašující riziko, že si do PC s krekem nasypu kdejakou verbež. To nemluvím o tom že můj antivir je odstraňoval jako infikované. Ale jinak máte pravdu, ty ochrany jsou opruz, Když třeba instaluji starší hru do Win 10 tak mám problém právě často s ochranou, která si nějak s OS hůře rozumí a vyskakují mi různé chybové hlášky.

+1
0
-1
Je komentář přínosný?

to že ho antivir identifikuje jako virus není nic neobvyklého (však manipuluje s originálními daty/ochranou) a navíc je to "nelegální" ..když je crack z ověřeného zdroje není problém a že jsou lidé kteří si nejen ke hrám ale i k open source aplikacím přibalují trojany/minery apod. je už jiný problém :)

+1
+3
-1
Je komentář přínosný?

Tak jednoduché to není. Abych uvěřil v to že crack není infikován, musel by se někdo za tento fakt zaručit a to samozřejmě neudělá. To by autor či autoři cracku museli dát ve známost kontrolní bitový součet cracku, aby si člověk mohl ověřit, že do něj nebylo něco vpraveno navíc.

+1
0
-1
Je komentář přínosný?

no dejme tomu i to je možné rizika jsou všude kolem nás :) ale myslím si že antiviry dělají chytré hlavy a dokázali by zjistit co přesně který crack dělá a většinou detekují jen známe varianty cracků a ani nenapíšou co přesně dělají u jiného škodlivého SW s tím nemají problém (proč asi ; >> prototože obcházejí oficiální ochranu a je to automaticky škodlivý kód ..i když žádnou jinou funkci nemá) )
btw známý si stáhnul mimo ofiko zdroj VLC a infikoval si PC (antivir nic nepoznal) když jsem mu vyčistil PC tak jsem zkusil na ten soubor několik online scanů i antivirů a žádný nic nepoznal ... toliko k té důvěryhodnosti antivirů ...

+1
0
-1
Je komentář přínosný?

Na virustotal.com jsou crc vidět a po přihlášení je vidět i další soubory se schodným crc. Pokud někdo svědomitě testoval, tak se dají najít jedny z prvních výskytů souborů spolu se vztahy k ostatním podobným a na základě toho uvážit, zda je soubor pravý. Je to krkolomné, ale pomůže to :)

+1
+1
-1
Je komentář přínosný?

Tak jsou tu hry, které si ani single člověk nezahraje offline protože i single část běží skrze server.

+1
0
-1
Je komentář přínosný?

No a Metro Exodus uz je taky pokorene :)

+1
0
-1
Je komentář přínosný?

Tahle věta by chtěla předělat:
„Na druhou stranu je celkově na hardware náročná i samotná hra jako taková, takže pokud např. na rozhýbání hry se vším všudy, jen bez raytracingu, v 1920×1080 při 60 FPS potřebujete GeForce RTX 2070, pak i přesto, že propady jsou relativně nižší, než jsme viděli při vydání Battlefield, dosahují FPS v tomto rozlišení 45.“

Krkolomných vět je tam víc, ale tuhle jsem někde kolem půlky musel začít číst ještě jednou abych to pochopil.

+1
+1
-1
Je komentář přínosný?

Přijde mi, že se tu tak trochu honí voda. Podle dosavadních testů jde RT použitelně uchodit na grafické kartě za 20+ tisíc. Když už někdo vysype za GK tolik lupení stěží bude mít monitor s FHD. Takže celá ta technologie je užitečná asi jako G-sync, je to drahé jako svině, v zásadě to nic nepřináší ale je kolem toho strašné halo i když to reálně používá tak každý desetitisící (10 000) hráč na planetě. Je to jen marketingový humbuk NVIDIA který jí všichni žerou.

+1
+9
-1
Je komentář přínosný?

Nic vám nebrání koupit si kartu od AMD. Tam bylo vždy také velké haló co se týče Mantle, DX12, Async compute a nakonec to první generaci nepřineslo vůbec nic, nebo to vyšumělo. RT je nový směr, Nvidia ho nasadila v nejvíce příhodný čas, kdy prakticky nemá konkurenci, takže z jejich strany určitě zajímavé. Nebo by jste chtěl, aby vydali jen karty s brutálním hrubým výkonem a tím šla AMD GPU divize ke dnu ? Takže ve výsledku můžeme být vlastně všichni rádi, že alespoň RT přináš Nvidia zatím negativa.. :)

+1
-4
-1
Je komentář přínosný?

Ja bych to videl treba tak, ze lidi sere uz tak trosku NV marketing. Turingy sami o sobe, krome prepalene ceny a setrenim VRAM jsou dobre karty. Nicmene RT + DLSS hallo udelala sama NV. Kdyby tu radu uvedli vic "normalne", tak ani RT by nesklizelo takovou kritiku a bylo by prijate jinak.
DLSS je zatim opravdu naprd, takze tim se nema cenu zabyvat a NV si s nim prozatim usila sama z ostudy kabat..

+1
+3
-1
Je komentář přínosný?

Ano, to máš pravdu. S tím marketingem to přehnali a pokud to chtěli dotáhnout, měli to uvést třeba na 5-ti titulech, kde to dobře funguje. Takže se stalo pouze to, že lidi nemají důvod přechodu z veleúspěšné generace Pascal a prostě počkají na další generaci, kdy už bude RT dotažený a bude to fungovat snad i na dostupnějších kartách ke spokojenosti. Kdo má starší grafiku, pak se mu RTX karta vyplatí a bude mít určité funkce navíc, které třeba využije později.

+1
-1
-1
Je komentář přínosný?

Nesouhlasím. První generace schopná mantle a DX12 je díky tomu stále použitelná jako základní herní karta. Viz ta má 280X, kterou synek prohání v PvZ2 (což zrovna DX12 titul je).

A co se vydávání karet s takzvaným brutálním hrubým výkonem týká, já jsem pro. Jednak by konečně dohnali v určitých směrech AMD a druhak by došlo k rychlému vývoji, což je věc, která tu už několik let chybí.

RT je, a to snad už všichni dnes pochopili (včetně zelenejch fandů), techdemo stejné, jako byla tesselace v dobách, kdy s ní prvně přišla ATi.

+1
+3
-1
Je komentář přínosný?

280X jsem vlastnil 3 roky a hype postavený na Mantle byl podobný tomu s RT. Nakonec vyšli asi 3 tituly, které jsem měl dávno dohrané a podpora Mantle tam byla dodělána horkou jehlou, takže to ve výsledku ani nic nepřineslo. Takže srovnávej o čem se bavíme. Jestli se na kartě dá nebo nedá hrát je věc každého dle nároků.

Vydat karty s brutálním výkonem, když už nyní nemá AMD převahu proti kartám minulé generace.. :) Tak to určitě. AMD by padlo na hubu a možná i tady by se konečně mluvilo o Nvidia kladně, což by mohlo vést k rozpadu místních diskuzí.. :)

A co je RT, můžeš napsat jen ty, jelikož si hrozně přeješ aby jim to nevyšlo. Jenže jsou tu 2 hry, takže bych s rozsudky počkal, jako to dělají slušné IT weby.

+1
-5
-1
Je komentář přínosný?

Ale to je brutální omyl. za prvé, Mantle je genetický předek DX12 + Vulkánu a v nich žije doteď. Za druhé, Mantle tak jako jeho následovníci zefektivňuje hlavně práci CPU ( což neznamená že tam není i optimalizace pro GPU) a tak se nárůst výkonu ve hrách projevil hlavně u sestav kde bylo výkonové hrdlo CPU.

+1
+6
-1
Je komentář přínosný?

Co se na to zkusit podivat z pohledu, ze vpodstate prave z Mantle vznikl Vulkan a Dx12 a nebyt Mantle, tak by mozna ani nevznikly?

+1
+6
-1
Je komentář přínosný?

Jelikož má velký odpor k win10 tak je pro mě API mantle, nyní vulkán velkým přínosem. Na DX12 na win7 můžu zapomenout. Nemluvě o Linuxu kde teď Vulkán dělá malou herní revoluci.

+1
+2
-1
Je komentář přínosný?

Takze low lvl API's ktere jsou prinosem pro vechny ve vsech situacich nezavisle na znacce a konecne umeji multi-threading je dle tebe velke halo? :)))

To ze i staricke mainstreamove karty od AMD chytly druhy dech je v konecnem dusledku nepodstatne ;)

+1
+2
-1
Je komentář přínosný?

Čekal jsem, že se tady opět rychle oženeš i ty a opět jen z důvodu, že nejsi schopný pochopit o čem se bavíme. Články výše řeší marketing a výsledek u první generace karet. Proto jsem psal o Mantle jako příkladu, kdy se to u dané generace karet vůbec do plusu neprojevilo a hype to byl královský stejně jako s RT.

A s tím druhým dechem. Takže vlastně AMD vydá grafiky, které ztrácí na konkurenci díky CPU overhead pod DX11. To časem odbourá a díky DX12 třeba i odstraní. Tím roste jejich výkon, který byl ale zapříčiněný jejich neschopností na začátku. Tak to je opravdu zrání jak má být. Jinak mnoho přetestování již ukázalo, že neuzrál ani R9 390 vs GTX 970. Stejně tak RX 570 stále o 4% v průměru zaostává za GTX 1060 3GB. A RX 580 má stále podobný náskok nad GTX 1060. Tady se prostě jen hledá neustále senzace.

+1
-3
-1
Je komentář přínosný?

RT a Mantle jsou rozdílné věci (to ti doufám došlo) .. s nadsázkou jedno zvedá výkon pro všechny a druhé ten výkon snižuje ;)

AMD vydalo grafiky, které v té době nabídly srovnatelný výkon s více VRAM atd. za podobnou/nižší cenu jestli považuješ jako mínus, že časem chytly druhý dech záleží už jen na tobě ;)
jestli ti vadí, že low lvl API dokáže lépe využívat tvůj HW (nejen GPU) a díky tomu i obstarožní FXka chytly druhý dech to už je ale na pováženou :)
sám vlastním i7(skylake) a stařičkou GTX 980 v druhém PC mám i7+ AMD kartu(hlavně kvůli AWD) a když přisel tenkrát DOOM chtěl jsem ji vyhodit pak přidali podporu Vulkanu a chytla druhý dech (tomu říkám přidaná hodnota ...)

když už se bavíme o nějakých % tak to chce řešit konkretní tituly .. nevím tohle nesleduji ale vzhledem k ceně jsou 4% výkonu v průměru naprostá pecka (obzvlášť když je doslova pár her, které ten průměr hodně sráží...)
btw kouknu na cenu nejlevnější 1060 3G 5k+ a 470 s větší VRAM o 1k levnější >> průměrný rozdíl výkonu 4% v neprospěch RX 470 která je ale o 20% levnější a má o 1GB VRAM víc :) negativa vycházející z nedostatku VRAM u 1060 nebudu ani zmiňovat >>> a BTW za cca cenu 1060 3G si můžu v podstatě koupit RX 580 8GB variantu a když si připlatím litr tak 590 :))) to už chce hodně odvahy vyzdvihovat tu svou NV ;)

+1
+4
-1
Je komentář přínosný?

Proč vytahuješ ceny těch grafik? to je irelevantní řeší se to že "AMD zrajou s časem" a kolega kontruje tím že to dozrávání není vidět neb ty grafiky mají pořád stejné výkonové odestupy jako při vydání, tudíž pokud dozrály AMD karty, dozrály i NVIDIA karty když rozestup zůstal.

Tohle potvrzují různé retesty od různých zdrojů. Jestli je výhodné kopit RX nebo GTX s tím nijak nesouvisí

+1
-3
-1
Je komentář přínosný?

to co píšeš je prostě bulshit :) a týká se maximálně par NVlike her nebo zastaralých enginů (když tohle vyškrtáš tak dostaneš v průběhu času úplně jiné výsledky ..) a ty posrané 4% rozdílu jsou absolutně bezvýznamné obzvlášť když i ty určitě víš, že ten průměr AMD kartám kazí doslova pár bezvýznamných her/enginů kde hodně zaostávají za NV :)
btw cena není irelevatní když levnější karta trhne dražší

třeba konkrétně ten DOOM má karta prostě měla někde propady na nehratelnou úroveň(samozřejme ne na ULTRA) takže do té doby horší ale i levnější AMD karta natrhla po příchodu low LVL API dražší a silnější kartu od NV a v plno hrách srovnala krok .. a neviděl bych, že by se to u maxwellu a starší někam pohlo ;)

+1
+1
-1
Je komentář přínosný?

" a ty posrané 4% rozdílu jsou absolutně bezvýznamné"

4% je "mostly same"... Jak jsme se nebavili o ceně, tak se nebavíme jaký rozdíl mezi kartami je ve smyslu jeho významu. nemusíme se bavit o rozdílu ale o výkonu 100 vs 104%

když RX X karta byla o 104% výkonu GTX Y karty při launchi, tak když ta RX "vyzraje" a GTX ne, tak měla ta RX X získat nějaké to procento navíc. To se ale neukazuje dokonce jeden z top náskoků ve prospěch NV je ve hře podporované AMD a běží v noční můře NV karet - DX12.

https://www.youtube.com/watch?v=cJFm51OFcNA náskok 1080 je na vegu pořád stejný.. Ony totiž "zrajou" i ty zelené karty. jen to jejich majitelé asi tak neberou

+1
-2
-1
Je komentář přínosný?

My se tady celou dobu bavime o hodne starych kartach a ty vytahnes predesly high end od NV :) my o voze ty o koze :))) ale dobra nevim co tve dojmy a pojmy ale na gamenexusu probehly testy VII a ac byla RTX 2080 v avg i max vitez tak v nekterych hrach mela propady fps o cca 30% horsi nez VII a RTX 2080 Ti je mela s VII srovnatelne ...

+1
0
-1
Je komentář přínosný?

Podle meho skromneho nazoru je z dnesnho pohledu problematika 390 vs 970 a 570(4GB) vs 1060(3GB) ani ne tak v delce pindika v grafu, ale spis v oblasti mikrostutteringu ve hrach. Tohle samozrejme v beznych testech nebude hned tak videt, ale skutecnost, ze jak 970 a hlavne 1060 (3GB) bude nachylna k castejsim zasekum asi neni ani potreba moc diskutovat. Krome toho dneska si dobrovolne koupit 3GB kartu muze fakt jen kompletni rajce, ktere sedne na lep kamaradovi.. :)

+1
+4
-1
Je komentář přínosný?

Přesně. A RTX2060 jde v jejich šlépějích.

+1
+2
-1
Je komentář přínosný?

Zatím to ale problém fakticky není. U starých her je to ok, bylo to ok už při uvedení. Nové hry jsou zase tak náročné že v maximálních detailech si je stejně nikdo kvalitně nezahraje a sníží detaily a tím i sníží požadavky na VRAM

https://www.youtube.com/watch?v=zJzMt-ihsHw

krom Forzy, jsou výkonové rozdíly odpovídající ořezanějšímu čipu, někde ten rozdíl ani nejde reálně poznat. Jsou tam puštěné AC:Odyssey a SotTR kde jdou vidět průběhy , jen při nahrávání nové scény je to o trošku horší, ale to se stává i výrazně silnějších a pamětí vybavenějších karet, jinak tam jde vidět konzistentní fps

+1
-1
-1
Je komentář přínosný?

Koukam, ze ti uniklo hned nekolik "detailu".. prvni je velikost RAM.. 16GB.. Pokud si nekdo snazi koupit 3GB kartu k vuli budgetu, tak tam nejspis nenarve 16GB RAM, ale jen 8GB. s 8GB RAM budes celkem zarucene dostavat i jine fps prubehy,. Viz video, ktere potvrzuje presne co jsem psal nahore.
https://youtu.be/BcJI5H3fQlE?t=914
Druha vec je, ze tam ma spusteny jen benchamrky a nema tam realne hry, aspon z toho kousku co jsem videl.

+1
0
-1
Je komentář přínosný?

"stěží bude mít monitor s FHD"

Třeba včera jsem řešil dotaz člověka který chtěl na APEX Legends vhodnou grafiku a CPU s tím že che ideálně krmit 240Hz monitor.

Hru nehraju, ale co jsem prohlídl pár diskuzních fór zahlédl je poměrně náročná na HW, tak jsem koukl do diskuzí kde člověk s RTX2070 říkal že by si přál 2080, člověk s 9900k a 2080 tvrdíl že i na low detailech je daleko od 240 FPS...

Aneb hráči s high refresh rate monitory je chtějí krmit a to ideálně tak aby Hz monitoru = minimální FPS, takže nevidím důvod proč by si ti lidi nekoupili 2080 nebo klidně i 2080Ti na FHD monitor aby měli jistotu že ho využívají naplno.

+1
-6
-1
Je komentář přínosný?

Chtit 240Hz monitor na hrani mi prijde spis z oblasti uzivatele, kteremu se rika "trouba na peceni". Ted to neni mysleno jako urazka, ale nejspis totalni podlehnuti nesmyslnemu marketingu.
Smyslem rozumne konzultace je i vysvetlit, ze jiste naroky je taky potreba upravovat smerem k realite a ne jen k vybajenym, nesmyslum.

+1
+5
-1
Je komentář přínosný?

čtu mezi řádky:

to nemůžu uznat ale na 240FPS ve FHD to fakt ten výkon potřebuje, takže se pokusím ten požadavek výkonu na FHD vyvrátit zpochybněním potřeby 240Hz monitoru

Ano, v takovém případě skutečně ty karty mohou být pro některé lidi overkil (nechtějí vysoká FPS a nechtějí max detaily a FPS rovné typickému 60Hz monitoru), ale ty monitory existují, lidé si je kupují a dost lidí co si ty monitory kupuje, si je kupuje s účelem jejich vysokého refresh rate využít a na to jednoduše potřebují výkon.

Stejnou logikou si můžeme řít že se klidně můžeme vrátit k EGA monitorům, 640x250 16 barev najednou z palety 64 barev... Nebo ať nežeru, VGA monitorům. 640x480 a 70Hz přece musí stačit.

Opět jsme u té generalizace, nejde nějaký názor generalizovat protože požadavky jsou různé a pokud nejsou definované tak je potřeba počítat s worst case scenario, ale to bude stejně nepochopitelné jako to že někdo chce monitor s 240Hz...

+1
-4
-1
Je komentář přínosný?

"Stejnou logikou si můžeme řít že se klidně můžeme vrátit k EGA monitorům, 640x250 16 barev.."
.. to je naprosta kravina co pises. Srovnani 240 a 144Hz je diametralne odlisne od neceho jako navrat zpatky k VGA monitorum

Zkus priste vymyslet nejaky priklad co dava smysl a ne hovadinu :))

Mozna radeji ani neodpovidej, stejne to bude nejpis dalsi hovadina..

+1
+5
-1
Je komentář přínosný?

No ovšem v této chvíli by měl nastoupit zkušen ajťák a vysvětlit zmasírovanému blbečkovi že jeho 240 HZ je úplně k hovnu. Jak využiješ tento nesmyslný refresh který je míle za hranicí vnímání lidského oka to by mě opravdu zajímalo.

+1
+4
-1
Je komentář přínosný?

240 Hz jsem na vlastní oko neviděl, ale jestli tekutý krystal v takovém panelu dokáže změnit bez přepalu stav takhle rychle(čemuž moc nevěřím) tak bych viděl přínos takových panelů i při nižší obnovovací frekvenci :)

+1
+3
-1
Je komentář přínosný?

samozrejme nezmeni, jedine kde ma smysl honit Hz je u OLED nebo MicroLED, normalni IPS,PVA ale i TN proste tak rychly nejsou ...

+1
+3
-1
Je komentář přínosný?

Tak že je to jasný nvidia chtěla jen více peněz proto tam přidala větší čip k ničemu nahodila nový název a ejhle cena se nám musela zvednout a kdo nám na to skočí tak zaplatí.

+1
+2
-1
Je komentář přínosný?

Opět ta zlá Nvidia.. :) Jak už jsem psal výše, co vám brání koupit si kartu od konkurence. Jenže ejhle, Radeon VII je předražený stejně jako Nvidia. Vegy 56/64 byli dlouhou dobu cenově nevýhodné a až nyní u nich AMD sráží cenu, aby se alespoň nějak prodali. Takže nám tu zbývá pouze RX 570/580, která je nyní opravdu cenově zajímavá. To se ale může změnit s uvedením 1660/1660Ti. Takže co to tady pořád chcete křičet do světa ? Ono to AMD také nic extra nenabízí.

+1
-5
-1
Je komentář přínosný?

Souhlasím - dnes není v podstatě co kupovat. AMD má profi grafiku převlečenou za herní a prodává ji tak jen proto, že mu to nvidia svými cenami umožnila.
GTX1660(ti) bude podle mě konkurent pro RX580 a RX590 (viz první úniky benchů z FF), takže ani zde není nic, co by se měnilo. Navíc je to zastaralá výrobní technologie, do které bych osobně už nešel. Další generace karet tyhle modely výkonově po dlouhé době pohřbí (viz výsledky shinku Vegy).

+1
+6
-1
Je komentář přínosný?

nenabízí protože je to tolik nepálí. A rozhodně nechtí opakovat chyby kdy vznikly karty jako Fiji a Fury víceméně výkřik když měli prázdné ruce a rozes*anou gpu divizi. Ty poslední dva refreshe 12nm a 7nm jsou víceméně povedené, zvlášť ten Polaris konečně dospěl (na třetí pokus...) a umožní důstojné dožití minimálně do podzimu. 1660Ti na tom moc nezmění protože se musí vejít do mezery mezi 590 a 2060 což moc prostoru nedává takže 590tka bude pořád konkurenceschopná.

+1
+2
-1
Je komentář přínosný?

Hlavne cena tech levnych modelu klesla mezi 6,5-7k...coz te karte dodava zpatky na atraktivite. Podle mne jeste musi spadnout Veka 56 nekde k 8+k a bude to doooost zajimava karta :)

+1
-1
-1
Je komentář přínosný?

Cili na Ray Tracing je treba univerzalne silneho hrubeho vykonu a vyssi pametovou propustnost(HBM), bez specializovanych RT jader(o kterych davno tvrdim ze sou to umele uzamcene CUDA bloky) a Tensor jednotek(ktere prinasi pekny prd), samozrejme na novejsich grafickych kartach stredni tridy jako RX570/590 minimalne 8GB graficke pameti, ze si NVIDIA pokurvila svou RTX 2060 blbym a nepouzitelnym RT, 6GB VRAM a cenou to uz je jenom jeji problem, proste nemelo byt zadne nesmyslne RTX ale GTX s HBM a bez RT a Tensor plus cenou tam kde zacinali predesle GTX 1060, 1070 a 1080(+Ti), kdyz je ale nenazranost silnejsi, proc nespravit ze znamych CUDA bloku jakesi reklamni RT a prodavat to s prirazkou +100/500€?

+1
+4
-1
Je komentář přínosný?

co jsem pochopil tak by bohatě stačilo MCM řešení GPU+HMB+asic "RT" chiplet a teď kdo s tím příjde první NV nebo AMD (hádám, že NV >> to umí lépe držet jazyk za zuby u AMD už by to prosáklo ven)

+1
0
-1
Je komentář přínosný?

"Cili na Ray Tracing je treba univerzalne silneho hrubeho vykonu a vyssi pametovou propustnost"
Propustnost ne, rychlou odezvu. Proto to řeší chache*. Problém je, že grafiky jdou už dlouhou dobu cestou propustnosti na úkor latence.

* Podle mě jde spíš o polořešení. Jednoho krásného dne převýší nároky RT možnostni rozumně velké a cenově proveditelné cache, začne se predikovat co tam hodit dřív, výsledky budou nekonzistentní a závislé na neustálých optimalizacích ovladačů,... a pak NV příjde s kartou, která bude GDDR6 + RTDDR1 + RTcache :-)

+1
-1
-1
Je komentář přínosný?

"RT jader(o kterych davno tvrdim ze sou to umele uzamcene CUDA bloky)" Tak to nevim clovece. Co sem sam zkousel, tak 2070 je cca 10x rychlejsi v raytracingu (unidirectional path tracing) nez 1060 (6GB). Tolik uzamcenych CUDA bloku tam snad narvat nemohli.

Testovano na tomhle demu https://ompf2.com/viewtopic.php?f=8&t=2158

+1
+1
-1
Je komentář přínosný?

Podívej se na velikost die nebo pocet tranzistoru ... a RTX rada je navic na lepsim vyrobnim procesu...

+1
-1
-1
Je komentář přínosný?

Dobrej napad.

Tak podle wiki GeForce GTX 1060 6GB - 4.4 miliard tranzistoru, GeForce RTX 2070 - 10.8 miliard tranzistoru. To je 2.5x pocet tranzistoru. 10x vetsi vykon. To je 4x vetsi efektivita CUDA jader? Not bad.

+1
+1
-1
Je komentář přínosný?

Vsechny tranzistory se nestaraji jen o vypocty ;)

+1
0
-1
Je komentář přínosný?

..ale ty pocty... :)

+1
+1
-1
Je komentář přínosný?

No zřejmě si ještě semnou GTX 980 ti (1080ti už asi taky nemá smysl teď kupovat) ještě pobude nějakou chvíli protože takový zlodějský praktiky Nvidie opravdu nemá smysl podporovat a gratuluji všem co si RTX karty koupily teď víte na čem jste ale to fanouškům značky který koupí každou kravinu jako byla GTX 970 nikdo nevysvětlí a ještě píší jak jsou spokojeni já třeba spokojený nebyl a proto jsem ji vrátil i když jsem se musel s obchodem dohadovat.

+1
+1
-1
Je komentář přínosný?

Hlavne pokud bude podpora RT volitelna, abych ji mohl vypnout. Protoze do 5 let nebude k dispozici tak nabouchany hardware, ktery da 2x QuadHD nebo pripadne 2x UltraHD na 90FPS. A to ja budu nutne na VR potrebovat. Pocitam s tim, ze bych si chtel VR poridit bud v tomto nebo pristim roce a tak rychle proste vyvoj grafik nejde a ani AMD na tom nedokaze nic zmenit.

+1
-1
-1
Je komentář přínosný?

2x 2080Ti by snad mali zvladat krmit Vive Pro 2x 2880×1600 viac ako 90 FPS ?
Alebo tam SLI nefunguje ?
AMD vraj od Radeon VII uz nepodporuje Crossfire ale len "nativne multiGPU" v ramci DX12.

+1
0
-1
Je komentář přínosný?

Nechci dve grafiky, s tim jsou akorat problemy. A Vive Pro taky nechci, cekam na fov >= 170 stupnu.

+1
+1
-1
Je komentář přínosný?

Hlavně podpora SLI, crossfire.... ve virtuální realitě prakticky neni (mám HTC Vive). Přecházel jsem před pár týdny z R9 290 na RTX 2080. Nejdřívě jsem zkusil 2x R9 290 jelikož mám doma dva herní počítače a výkon ve VR prakticky stejný, nebylo poznat rozdíl.

+1
0
-1
Je komentář přínosný?

SLI znamená problémy, RT přes SLI neběží vůbec pokud se nepletu.

A ano RVII skutečně nemá podporu Crossfire, proč by, jsou tu přece ty vychvalované DX12, které Radeony umí dokonale a ty mají hned několik multiGPU možností, ale to by museli vývojáři chtít a to nechtějí a nedivím se jim, to co doteď řešil vendor karet různými SLI profily a optimalizacemi v driverech teď musí řešit vývojář a to ještě na takové úrovni kdy ty karty nejsou identické ale máme tu třeba UHD graphics kombinovanou s RTX2080Ti, nejne že vývojář musí umět pracovat efektivně s dvěma diametrálně odlišnýma kartama, ale musí mezi ně i efektivně rozdělovat práci. To už chce docela velkou znalost toho HW...

+1
-3
-1
Je komentář přínosný?

nepřešlo AMD od dob Polarisu/VEGY cca 2-3 roky zpět na značení mGPU/Multi-GPU a Crosfire(X) už je jen podskupina (možná kvůli starším kartám) ? (fakt nevím jen mi něco takového úvízlo v hlavě a nechce se mi to dohledávat)

dle mého prostě s CF skončili a vývojářům prostě stačí dodržovat standardy API a mělo by to fungovat ...

+1
+1
-1
Je komentář přínosný?

JirkaK byl přidán do troll remover skriptu. Tahle diskuze rozhodla. Ahhhh.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.