Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia ohlásila podporu pro „FreeSync“

Obrázek uživatele WIFT

Velké plus za opraváře komínů :).

+1
+13
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Jak malí děti...

+1
-10
-1
Je komentář přínosný?

Od tebe teda kritika sedí. Oni to psali ze srandy, od tebe jsou podobné vtipy na denním pořádku po celý rok. Až na to, že ty to myslíš vážně.

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

A víš co je sranda, že jsem si koupil freesync monitor... LLLOOOOOLLLLLLLLLLL

+1
-6
-1
Je komentář přínosný?

Tohle je druh komentare, co vzdy delal tento web zajimavym. :) Za me jasne plus!

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Můžeš pluskovat jak vzteklej, u Crhy se automaticky vše započítává jako mínus.

+1
-7
-1
Je komentář přínosný?

Doufam, ze zustanou obe varianty protoze g-sync je preci jen o neco lepsi.

Certifikaci take chvalim. Alespon se nestane ze si clovek koupi freesync monitor ale takovy, ktery nezvlada frekvence pod 50Hz a pak je zklamany.

+1
-12
-1
Je komentář přínosný?

Napsal NVIDIA happyBOY.

+1
+1
-1
Je komentář přínosný?

Tak si clovek diky "certifikaci" nekoupi monitor zacinajici na 50hz, ale na 48. Coz je vetsina monitoru z toho aktualniho seznamu. To moc velka vyhra neni...

+1
+4
-1
Je komentář přínosný?

PPK - ja bych si monitor pod 144Hz nekoupil a je uplne jedno jestli by se jednalo o FreeSync nebo G-Sync model.

+1
-7
-1
Je komentář přínosný?
Obrázek uživatele shipo

Není Freesync většinou 58-72Hz?

+1
-5
-1
Je komentář přínosný?

Vzhledem k tomu, ze amd na seznamu nema ani jeden takovy monitor.. tak neni. https://www.amd.com/en/products/freesync-monitors

+1
+3
-1
Je komentář přínosný?
+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

nVidiák s přezdívkou: "tomo", to je prostě jasná provokace. :D tomobimbo trhej.

+1
-3
-1
Je komentář přínosný?

To už zamrzlo peklo? Jo a na guru3d píší: "we reached out to NVIDIA. Not certified monitors will work as well by manually enabling the mode". Takže by to mělo jet pro všechny monitory s FreeSync.

+1
+10
-1
Je komentář přínosný?
Obrázek uživatele Adams Adams

„Vedení firmy pravděpodobně dospělo k uvážení, že při prodejích omezených na pár modelů a high-end nemá další vývoj G-Sync modulu smysl a raději se zaměří na cestu, kterou se vydala AMD.“
Nedospělo. G-Sync s modulem bude dál existovat, tohle je jen tvé zbožné přání.

+1
-10
-1
Je komentář přínosný?

To, že bude existovat, ještě neznamená, že ho budou vyvíjet.

+1
+10
-1
Je komentář přínosný?
Obrázek uživatele Adams Adams

G-Sync vznikl hlavně kvůli tomu, že se s ním dalo dělat víc než s aktuálními standardy, a v tomto duchu se jej Nvidia snaží celou dobu vyvíjet.
Až budou standardem 240Hz 12bitové 8K HDR panely a nebude co zlepšovat, tak možná nebudou. Do té doby...

+1
-11
-1
Je komentář přínosný?

A skončilo to jen u toho, co má AMD. Takže prakticky druhý PhysiX -> Drahý a časem nevyužívaný "nestandard", takže zase smůla. I když určitě na tom Nvidia vydělala.
Prostě potvrzením podpory Free sync Nvidia ví, že G-sync pomalu končí.

+1
+1
-1
Je komentář přínosný?

"Takže prakticky druhý PhysiX -> Drahý a časem nevyužívaný "nestandard", takže zase smůla"

Čo máte stále s tým PhysXom? Už si konečne pozrite aký je reálny stav a nie 10 rokov písať to isté dokolečka. Keby to aspoň bola realita. Ten nevyužívaný neštandard o ktorom píšeš je natívnym fyzikálnym API v Unreral a Unity engine a tiež ako alterantíva v iných herných engine-och - napríklad dokonca aj v Cryengine.

+1
-3
-1
Je komentář přínosný?

Alternativa nebo nativni...

Faktem je, ze Unreal i Unity pouzivaji PhysX 3.3, vydanou v roce 2013.
Podle poslednich informaci je AAA her s PhysX mnohem mene, nez tech s Havokem, nebo alternativama. I podle stranek nVidie jsou posledni velke hry s PhysX Fallout4 (dodano patchem), Witcher3. Napriklad Assasin Creed drive pouzival PhysX, ale novejsi dily uz ne.

A kolik her vychazi na Cryengine? To je hodne omezene portfolio. Dost z nich byla zrusena (taky kvuli problematickemu vyvoji na CryEngine) a z tech co jsou, tak asi pro nas Kingdom Come a pak dobre vypada Wolcen. Za posledni dobu PREY.

Proste je to slabota.

+1
+1
-1
Je komentář přínosný?

Faktem je, ze nemas pravdu. UE4 pouziva minimalne physx 3.4 od verze 4.14 . (release notes) https://www.unrealengine.com/en-US/blog/unreal-engine-4-14-released

"Podle poslednich informaci je AAA her s PhysX mnohem mene, nez tech s Havokem, nebo alternativama." Zdroj prosim? Netvrdim ze nemas pravdu, jen me zajimaj konkretni cisla.

+1
0
-1
Je komentář přínosný?

Tak isto aj Unity už používa verziu 3.4 od posledného release-u 2018.3:

https://www.nspir3d.com/blog/unity-20183-beta-adds-physx-34-upgrade

Okrem toho medzi SDK 3.3 a 3.4 boli ešte diielčie 3.3.x, na ktoré postupne oba herné engine-y aktualizovali. Nie je to tak, že by od roku 2013 nikto PhysX v Unreal a Unity engine neriešil. Unity dokonca teraz aktualizovalo z 3.3.3 (vyšla v januári (leden) 2015) na 3.4.

+1
-1
-1
Je komentář přínosný?

Tu je ešte lepší odkaz na upgrade Unity z 3.3.3 na 3.4.2:

https://blogs.unity3d.com/2018/11/12/physics-changes-in-unity-2018-3-beta/

+1
0
-1
Je komentář přínosný?

Viď tabuľku na stránke:

http://physxinfo.com/

V nej si nechaj zobraziť tie hry, ktoré používajú CPU PhysX. Je síce 2 roky stará, ale už vtedy bolo takých hier viac ako dosť a medzičasom ich vyšlo tiež dosť (prevažne hry využivajúce Unreal a Unity). Stránky NVIDIe nie sú aktuálne. Zobrazujú iba tie hry, ktoré používajú buď GPU PhysX alebo vybrané pre nich zaujímavé hry.

"Alternativa nebo nativni..."

V Unreal Engine a Unity je PhysX natívny, v Cryengine ako alternatívny (myslím, že dokonca iba ako beta).

+1
0
-1
Je komentář přínosný?

Hlavně že ty panely, které byly osazené G-sync modulem byly o takovej kotel napřed, že?
Není to tak dávno, co jsem se díval do nabídky jedného nejmenovaného obchodu, jestli náhodou není k dispozici 10bit (žadnej 8+prd bit panel, čistej 10bit) s libovolným syncem... světe div se, nebyl. Všechno co bylo označené za 10bit (jestli se nepletu, vím že mě tam prostě nic nezaujalo) byly 8+prd bit panely. To prostě není to samé, co 10bit, i když to tak nazývají. Takže 12b panel, nativní, s elektronikou schopnou to obsloužit, ať to je nebo není vlhkej sen jen-jsem-lhala, není reálný ani z odvrácené strany marsu.

+1
0
-1
Je komentář přínosný?

Tak. Byly tam jen "hráčské nesmysly" zaměřené výhradně na refresh rate, což je poněkud málo.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Ať si klidně existuje, ale na věci, že to je definitivní mrtvola, to už nemění nic.
Jistě si to koupí pár snobíků a ultrafanů nvidie, ale reálné opodstatnění takové řešení nemá.

+1
+10
-1
Je komentář přínosný?

Spíš bych předpokládal, že se do roka přestanou vyrábět pro nezájem zákazníků.

+1
+6
-1
Je komentář přínosný?

Jako takhle, on by ten modul měl smysl, kdyby fakt ty monitory nabídli něco víc, byť i o menší prd. Jenže ono to nenabízí ani ten menší prd. A jak jsem "vyhejtil" adamse o pár příspěvků výše, jsou buď 8bit "gaming" monitory, nebo 10 bit "obyčejné" a 10+ bit "kvalitní". Vybral jsem si několik rádoby 10bitů s jakýmkoliv syncem a pokud si má děra hlavatá pamatuje dobře, tak to byly všechno 8bity.

FPGA logika by zřejmě dávala smysl, kdyby ten monitor měl dobrej panel, ale interně špatnou logiku a tohle by to celé "obcházelo" + přineslo onen Async. Jenže, tohle se neděje, takže bych to nazval spíš takovým rovnákem na vohejbák.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Gembler

aby v tom zas nebyl nějakej ojeb. Úplně vidim, jak nějaký rádoby odborník pak bude radit, že je fs k ničemu, protože on to na nv zkoušel a nejelo to tak dobře jako gsync...
Pokud se ale moje obavy nepotvrdí (a pojede i můj fs monitor), tak má u mě nv velký plus! Jen teda vyvstává otázka, proč tak najednou? Že by Jen-Hsunovo eso pro udržení pozice?

+1
+3
-1
Je komentář přínosný?

Dle meho to bylo nevyhnutelne obzvlast kdyz i vyrobci TV adoptuji VRR :)

+1
+4
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Přesně tak. G-Sync se stal koulí u nohy, která nvidia karty penalizovala. Je tedy logické, aby _konečně_ začali podporovat obecný standard.

+1
+8
-1
Je komentář přínosný?

Co tak najednou?Nejspis proto,ze to ma podporavat i intel+ruzny televize uz se delaji s FS atd.

+1
+1
-1
Je komentář přínosný?

Jak skoncili veci u NVIDIE:

-PhysX, predtim smyslny projekt, pote leta zakonzervovan v ovladacich, nic sa neinovuje
-Ray Tracing, RT jadra nejsou potreba, jeho pocitanim sou umele konzervovany CUDA jednotky
-G-Sync, prilis drahe, zrave a neefektivni, ted se vyvijet nebude a ty co to koupili, sereme na vas

"NVIDIA it meant to be paid".

+1
+8
-1
Je komentář přínosný?

- PhysX je nejpoužívanější engine pro fyziku
- RayTracing: Pracuješ pro NV, že tohle víš? :-D
- G-Sync: Kde nVidia prohlásila, že GSync nebude dále rozvíjet?

+1
-6
-1
Je komentář přínosný?

PhysX bol najpouzivanejsi uz predtym nez ho NV kupila. Nvidia zrusila Ageia PhysX akceleratory ktore urychlovali hlavnu scenu v PhysX. Namiesto toho vytvorila rozsirenie Apex s GPU akceleraciou, ale takmer nikto to nepouzival lebo jeho API je prekomplikovane, bolo to urcene pre vedlajsie efekty nie pre hlavnu scenu, tooly crashovali a jeho vykon bol dlhe roky nedostacujuci - nebolo to vyrazne rychlejsie nez CPU.

+1
+8
-1
Je komentář přínosný?

NVIDIA kompletne PhysX prerobila - vylepšila a rozšírila. V používaní je aktuálne na tom podobne ako Havok. Vzhľadom na to, že je natívnym fyzikálnym API v Unreal Engine a Unity, používa PhysX väčšina hier postavených na týchto engine-och. Samozrejme PhysX nie je iba GPU, ale hlavne CPU akcelerovaný. Keď dnes niekto (ako Waffer) tvrdí, že NV nič s PhysX-om neurobila, že ho zakonzervovala a že sa nepoužíva, tak fakt neviem čo robí na technologickom webe. Tu by som očakával ludí, že aspoň niečo vedia o tom, k čomu sa vyjadrujú.
Čo sa týka APEX máš pravdu. Ten je už obsolete. Aktuálne je GPU fyzika u NV rozdelená na GPU PhysX a Flex. Flex má inak podporu okrem CUDA aj pre Direct Compute, čo znamená, že je možne ho do hry využiť aj v tejto variante. A teda ak sa takto použije, tak bude bežať aj na AMD a Intel grafikách.

+1
-1
-1
Je komentář přínosný?

Skoda ze Flex su len particle. Ma to sice i rigid body, ale tie su simulovane particlami, 48 particlov na 1 kvader. Zlozitejsie konvexne objekty sa s tym zrejme nedaju presne simulovat. I vykon nie je prilis zaujimavy. Prave som si to vyskusal. 1000 kvadrov 3ms, 2000 kvadrov 6.5ms, 4000 kvadrov 11.8ms, 8000 kvadrov 17ms na Vega56. Nie je to prilis pouzitelne pre rigid body na AMD.

+1
0
-1
Je komentář přínosný?

Flex predstavuje unifikovaný časticový systém. Dá sa použiť na viac vecí. Viď vyjadrenie od Pierra Tiedemanna:

http://www.codercorner.com/blog/?p=2013

"If we’re talking GPU particles or cloth, they have indeed been deprecated in recent PhysX versions, replaced with FLEX (an entirely different engine, unrelated to PhysX so far). The FLEX implementation is better, so there was no need to keep supporting both."

Čo sa týka rigid body, to zostalo doménou GPU PhysX a je to stále pod CUDA. NVIDIA túto pipeline zefektívnila a pridala do PhysX možnosť, aby vývojári mohli za pochodu prepínať medzi CPU a GPU rigid body akceleráciou iba anstavovaním jedného príznaku. Predpokladám, že v tomto prípade bude riešenie citeľne efektívnejšie ako keď sa rigid body fyzika má využívať cez FLEX.

+1
0
-1
Je komentář přínosný?

"PhysX bol najpouzivanejsi uz predtym nez ho NV kupila. Nvidia zrusila Ageia PhysX akceleratory ktore urychlovali hlavnu scenu v PhysX."

Ešte k tomuto. NVIDIA výrazne pomohla k základni pre GPU PhysX tým, že ho naimplementovali na ich GPU. Koľko ludí si kúpilo AGEIA kartu a koľko ich malo PhysX kompatibilnú GPU od NV? Bol to oveľa širší záber. A čo sa týka urýchlovaniu hlavnej scény vs. efekty, je to záležitosť vývojárov ako sa bude PhysX používať. Umožňuje každú variantu. A v tom ako sa používal PhysX u AGEIA a u NV nebol žiaden rozdiel. Čo myslíš pod tým, že predtým urýchľovali celú scénu? Veď tie AGEIA akcelerátori sa používali na akceleráciu úplne rovnakých efektov ako potom zo začiatku od NV.

+1
-1
-1
Je komentář přínosný?

AGEIA karta dokazala akcelerovat konvexy v hlavnej scene az do 32 rovin na jeden konvex. Na Geforce to nefungovalo, mal si tam len simulaciu cloth a particlov. Existovalo len jedno demo od Nvidie ktore som nasiel kde GPU akceleracia fungovala a neboli to ani konvexy, ale dokazalo to rozbehat 10 tisic boxov na 30fps na 8800GT, ale nijako ta GPU akceleracia nesla zapnut v SDK. GPU pre konvexy pridal az Apex, ale jeho vykon bol velmi nizky, cca 10 tisic konvexov na 30fps na GTX660 a interakcia bola spravena len jednym smerom, takze GPU objekty nemali vplyv (nedokazali posunut, aplikovat silu) na charakter alebo vozidlo v hlavnej scene. Optimalizovana rigid body fyzika prisla az v roku 2016, ale bezi len na CUDE. A je cca 10 rychlejsia nez Flex ak pouzijes rigid body.

+1
+1
-1
Je komentář přínosný?

Jak jste prisel na to, ze pro RayTracing se nepouzivaji RT jednotky ale CUDA? Z tesu na BF? A co ostatni hry, tam to funguje taky tak? Nemuze to byt pouze pripad, ze implementace pro BF V je zmrsena?

+1
-3
-1
Je komentář přínosný?

Pro VT + ork:

-PhysX se uziva kde? vic prinesli nove standarty api DX 11 a 12
-RT akceleruje graficka karta Titan V ktera zadnymi specialnymi RT jadry nedisponuje, cili CUDA
-aktualne existuje 4K G-Sync modul zravy jako prase(chlazeni) a stoji 500 dolaru:

>https://diit.cz/clanek/g-sync-hdr-prodrazi-monitor-o-500-usd

>proto NVIDIA prechazi na FreeSync, navic G-Sync ve SLI funguje velice zle nebo vubec

Jeste neco panove? nestaci vam tyhle vojeby od NVIDIE? a co umele prodrazena rada RTX?

+1
+5
-1
Je komentář přínosný?

Ale vzdyt jsem to psal do dotazu - akcelerace RT pomoci TItanu - jedna se o jednu hru, o jeden titul, nemuze tudiz byt zprasena implementace RT v teto hre? Pokud je pravda, ze hru vcetne RT "efektu" tvorili pred nastupem RT karet, tak asi potrebovali zprovoznit RT "nejak" na kartach predchozi generace

Jinak me z nadrzovani nVidie nelze moc podezirat, posledni 4 GK mam ze staje od AMD, ale tahle oblast me docela zajima, tak se ptam

+1
0
-1
Je komentář přínosný?

kolik je aktualne her s RT (nejen tech co to maji prislibeno ) ?

+1
+2
-1
Je komentář přínosný?

To nemam poneti a je mi to vicemene jedno, ja kartu s RT urcite mit nebudu, jen me zajima, zda v tom BF je spatna implementace RT (ze to jde spustit i na GK bez RT jednotek), nebo zda je RT jako takove "ojeb" a RT efekty se daji pocitat i na ne-RT hardware

+1
0
-1
Je komentář přínosný?

"jedna se o jednu hru, o jeden titul, nemuze tudiz byt zprasena implementace RT v teto hre?"
ptám se protože jiná hra zatím nejpíš není a navíc byla použita i samotnou NV pro reprezantaci svých nových RTX karet ....

ono to má jít spustit i na jiných kartách = je to v pořádku >> v pořádku už není skoro identický výkon různého přístupu k výpočtům RT v dané hře VOLTA přes univerzální CUDA jednotky a Turing přes speciální RT jádra o kterých nikdo neví co jsou zač a jak fungují ale mají mít papírově cca 10x větší výkon :) (odkazovat se na starwars demo je imho nesmysl)

+1
+6
-1
Je komentář přínosný?

BFV nepoužívá RTX technologii, používá implementaci DXR, v tomto směru by to tedy mělo běžet na jakékoli kartě která tohle rozšíření DX12 umí, je pak otázkou ovladače co na jakém HW pro ten výpočet použije. Jestliže pro to může použít CUDA nebo Tensor, proč ne. Ten rozdíl rozhodně nebyl malý, ve scéně kde je RT nejvíc šlo o několik desítek procent.

+1
-5
-1
Je komentář přínosný?

při nasazení RT přes OptiX, DXR, Vulkan na NV kartách poslední generace se atutomaticky použije i RTX technologie (které jsou součásti RTX platformy) >> nevím o čem zase točíš :)
ne neběželo protože BF V nemá DXR fall back layer + vyvojáři použili NV primitives(a ani to nepomohlo)

a ještě jeden podstatný detail TITAN V je sám o sobě herně slabší než Turing :) takže při nasazení RT se dá očekávat nižší výkon, ale vzhledem k prezentaci NV ten výkon měl být na urovní slide show a né že bude zaostávat tak málo ;)

z mého úhlu pohledu to vypadá spiše na problém s implementací hybridního RT
>>> nejsou schopni RT jádra pořádně vytížít protože celá platforma má někde "úzké" hrdlo na HW úrovni a ve vysledku by pak trpěl celý vizuál za cenu reálnější hry světel a odlesků ...např. by museli snížit kvalitu textur a modelů(nebo jejich počet)

+1
+6
-1
Je komentář přínosný?

"z mého úhlu pohledu to vypadá spiše na problém s implementací hybridního RT".. k tomu si pridej jeste i absurdne vysoke naroky na pamet, pri zapnuti Ultra RT u BF5, ktery dela oproti ne-RT az 2GB RAM navic. Osobne nechapu proc..nicmene 2060 se svymi 6GB je v ten moment de-facto mimo hru :)

+1
0
-1
Je komentář přínosný?

Napadá mne že to potřebuje nějaký "working set" ve kterém se to počítá a pokud je paměti nazbyt, může ji prostě alokovat i když ji nevyužívá.

Nemyslím si že by 6GB nestačilo i kdyby to 2GB navíc vzalo. Ta karta je tak tak na FHD bez velkého omezování se, v tomto případě ta paměť není limitující

+1
0
-1
Je komentář přínosný?

Ta karta vykonove bezne zvlada 1440p na vysoke detaily, spoustu her i v MAX nastavenich. Neni proto duvod, aby se jako 1440p karta nepouzivala. Krome toho i dneska jsou uz hry, ve kterych ta karta ma blbe frametimes a to i ve FUllHD. Prikladem je testovana COD WWII
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/5/#diag...
Dalsim prikladem jsou "raster packy" pro hry, kdy tech 6GB nebude stacit, vykon te karty ale ano.
RTX je uz jen tresnicka na dortu..

+1
0
-1
Je komentář přínosný?

Ano RTX karty by měly použít akcelerace RT jader pokud je použit jakýkoli RT, což nijak nepopírá že DXR může běžet i na kartách které RT jádra nemají, což je případ Volty. Proč to běží tak rychle, je otázkou na vývojáře, spekulací proč tomu může být je spousta a ve scéně kde je RT efektů nejvíc jde vidět už znatelný propad výkonu.

Navíc se bavíme o jedné implementaci, která navíc nepoužívá RTX nástavbu. Elisted pod vulkanem kde je RT využito na global illumination běží i v 4k výborně - https://www.youtube.com/watch?v=AvXra6yqEZs

+1
0
-1
Je komentář přínosný?

Ctes si to po sobe?

DXR je cast Microsoft DirectX api. To musi byt podporovano ovladacem a HW. Samozrejme je teda pravda, ze vsechen HW(+ovladace) ktery danou verzi DirectX podporuje, tak to na nem musi behat (nejak).

Ale je kravina rict, ze je to dotaz na vyvojare. Neni, je to dotaz na nVidia. Jakto, ze ovladace k nVidia RTX karte nepouzivaji marketingove propagovane RT jadra, diky kterym je karta vetsi a tim padem ma horsi pomer cena/vykon. A nebo je pouzivaji tak spatne. Je to problem realizace DXR u nVidie. Borci z DICE jen pouzivali oficialni jednotne API od Microsoftu.

"Navíc se bavíme o jedné implementaci, která navíc nepoužívá RTX nástavbu."
Jedina hra zatim na trhu, jedina hra prezentovana nVidii, a co myslis tim, ze nepouziva RTX nastavbu? Co je podle tebe RTX nastavba? A jakto, ze ji nepouziva, kdyz nVidia to tak prezentovala?

+1
0
-1
Je komentář přínosný?

@ork..
"..en me zajima, zda v tom BF je spatna implementace RT (ze to jde spustit i na GK bez RT jednotek), nebo zda je RT jako takove "ojeb.."
...a tohle presne vyjma NV a Dice vyvojaru nikdo nevi a rad by vedel :))

+1
0
-1
Je komentář přínosný?

"Nebo zda je RT jako takove "ojeb" a RT efekty se daji pocitat i na ne-RT hardware"

Samozrejme sa RT dá akcelerovať aj bez RT jednotiek. Ale to neznamená, že je to "ojeb". Kľudne sa dá RT napísať tak, že ho bude akcelerovať iba procesor. Procesor je schopný akcelerovať celú prácu čo robí dnes GPU. Síce to nebude real-time, ale asi to niekomu nevadí. :-)

"ze to jde spustit i na GK bez RT jednotek"

DXR má okrem HW vrstvy implementovanú aj SW. T.j. keď pre ňu pridá výrobca GPU podporu pre RT, tak RT pôjde aj bez toho aby si mal GPU s RT jednotkami. Samozrejme pomalšie, ale pôjde. Akurát to, čo akcelerujú RT jadrá, bude akcelerovať CPU. Preto to dokáže ísť aj na Titan V. A kľudne by to takto išlo aj na Vegách, ak by pre ne túto podporu do ovládačov AMD naimplementovalo.

+1
0
-1
Je komentář přínosný?

Asi mame jine definice slova "akcelerace". Pro me je to zrychleni.

Tedy CPU, jako "general-purpose" cip dokaze samozrejme spocitat vsechno. Ale jde o to, ze protoze je navrzen na obecne vypocty nedokaze nic akcelerovat (nebo jen maloco na co ma specialni instrukce). Taaakze akcelerovat RT se da jen a pouze v pripade, ze se to nepocita klasickou cestou pres Shadery nebo nejak pres CPU, ale pres dedikovane obvody, RTCores.

A protoze ale nVidia prezentovala Raytracing jako jednu z hlavnich tahounu nove rady a rikala, ze realizace je skze RT Cores, tak to ve vysledku vypada na slusny ojeb. Aneb... zadna akcelerace se nekona, pouziva se normalni DXR, ktery je v ovladacich nVidia realizovane bud pres stejne obvody jako drive (tim padem temer nulovy narust efektivity) a nebo je to realizovane tak spatne, ze vykonostni prinos to zadny nema (napr. ze RT Cores jsou nepouzitelne, nebo jejich zapojeni stoji moc zdroju, vraci moc spatne vysledky ktere se musi nejak filtrovat jinde, atp.).

+1
0
-1
Je komentář přínosný?

Podľa tvojho druhého odstavca sme sa pochopili správne. Tak som to aj myslel. Čo sa týka tretieho odstavca, je otázne ako to reálne funguje. Každopádne si osobne nemyslím, že by NVIDIA nepoužívala RT Cores ako píšeš ty. Nemalo by to logiku zbytočne vyrábať väčší čip, ktorý je nákladnejší na výrobu a ešte aj zvyšuje cenu GPU, ktoré ho budú používať. Ak by to tam malo byť len tak.

Čo sa týka Raytracingu, tak RT cores ho neriešia celý pokiaľ viem. Mali by akcelerovať iba 2 dôležité operácie: prechod BVH stromom a počítanie priešečníkov lúčov a trojuholníkov, ktoré tvoria mesh objektov. Zvyšok sa tým pádom podľa mňa musí realizovať cez CUDA cores. Čo sa týka tých testov na Titan V, tak jemu mohli pomôcť tensor jadrá na vyčistenie výsledku RT, čo tiež môže skreslovať skutočnú situáciu.

Pokiaľ by reálne nebolo treba využívať RT cores a na výkon v BF V pre RT by stačili iba stream procesory na GPU, tak by to už využilo aj AMD svojou implementáciou DXR, ktorou by ukázala, že sa dá RT v reálnom čase vyriešiť aj tak. Tak isto aj Pascal GPU by v RT museli podávať slušný výkon. Aspoň tie od GTX 1080 a vyššie. A to sa mi nezdá.

+1
0
-1
Je komentář přínosný?

"Mali by akcelerovať iba 2 dôležité operácie: prechod BVH stromom a počítanie priešečníkov lúčov a trojuholníkov, ktoré tvoria mesh objektov. "

Ano, tak to i vsude pisou. Jenze k tomu dodavaji, ze je to desive narocna operace a proto si to zaslouzi dedikovane jednotky aka RT CORES. Jenze pokud to tak skutecne je, tak bud maji botu v navrhu, nebo spatnej celej design hybridniho renderovani. Protoze podle testu neni moc rozdil, jestli pouzijes kartu ktera ma dedikovane obvody, a nebo kartu, ktera je nema.

"Čo sa týka tých testov na Titan V, tak jemu mohli pomôcť tensor jadrá na vyčistenie výsledku RT, čo tiež môže skreslovať skutočnú situáciu."

V tom pripade by byla blbost delat novy dedikovany HW, pokud by stavajici zvladal vykonostne to same. Zbytecne prostredky R&D, tranzistorovy rozpocet, atp.

"Pokiaľ by reálne nebolo treba využívať RT cores a na výkon v BF V pre RT by stačili iba stream procesory na GPU, tak by to už využilo aj AMD svojou implementáciou DXR"

Battlefield V byl vyvijen DICE s tezkou spolupraci ze strany nVidie. Nemyslim, ze by AMD mela pristup k vyvojarum tak aby s nimi ladila jejich pouziti DXR tak aby to valilo i na Radeonech. A jine hry s RT zajim nejsou. Takze praktickou ukazku RT na Radeonech mit AMD asi ani nemuze - zatim, a delat nejake vlastni demo by nijak nepomohlo, pac by na to vsichni rekli: ukazte nam to ve hre. A navic AMD rekla, ze aby RT byl zajimavy, musi ho zvladat rozumne i mainstream. Rozumne dejme tomu 1080p na 60+ FPS. A to nezvlada ani to nejnabusenejsi zelezo od nVidie.

A co se tyce Pascalu, po "bitcoin crisis" by posledni vec, co nVidia potrebuje byla, aby i Pascal tak nejak zvladal RT. A navic... stejne by to nezvladal, protoze porad ma o dost mene CUDA, nez Turing. Tohle ale neni diskuze o tom, ze Pascal a Vega by to dali taky. Tahle diskuze je o tom, ze misto toho, aby nVidia ferove rekla, ze nove Turingy jsou o XX% lepsi, tak vsude masirovala, ze jsou lepsi kvuli RT. A ze jsou jedine ktere to zvladnou, protoze maji na to spesl HW a proto by je lidi meli kupovat jako horke rohliky. A to vypada jako ukazkovy BS.

+1
+1
-1
Je komentář přínosný?

"PhysX se uziva kde? vic prinesli nove standarty api DX 11 a 12"

http://physxinfo.com/

Nechaj si v tej tabuľke zobraziť hry, kde sa využíva CPU PhysX. A to je ten zoznam 2 roky starý a neaktuálny. Dnes je citeľne väčší.

"RT akceleruje graficka karta Titan V ktera zadnymi specialnymi RT jadry nedisponuje, cili CUDA"

Samozrejme sa RT do príchodu Turingu počitalo cez stream procesory na GPU. A predtým na CPU. Fakt si niektorí myslíte, že HW akcelerácia dôležitých operácií pre RT je zbytočná? Že si NV bez úžitku zväčšila čip pre grafikcé karty, čím si predražila výrobu a o dosť navýšila cenu produktov, ktoré jej čipy využívajú? A to všetko umelo a zbytočne?

"Jeste neco panove? nestaci vam tyhle vojeby od NVIDIE?"

Prečo by malo niekoho zaujímať to, čo si iba vymýšľaš?

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Gembler

Ja jsem slysel, ze u BF V neni problem s vykonem RT jader, ani CUDA, ale v te hybridni implementaci. Neco "mezi" to brzdi.

+1
0
-1
Je komentář přínosný?

Pro které karty to bude?

+1
0
-1
Je komentář přínosný?

Pascal a Turing

+1
0
-1
Je komentář přínosný?

VT:

1. to jeste nevis jestli to bude pro Pascal a Turing - mozna to bude exkluzivitka jenom pro Turing
2. melo by to byt tez pro Maxwell a Kepler, zakaznici si to zadaji
3. NVIDIA je vychcana, nevim proc rovnou neotvori ovladac pro vsechny 400 FreeSync modely

Cili tak.

+1
+1
-1
Je komentář přínosný?
+1
0
-1
Je komentář přínosný?

logicka otazka vychadzajuca z clanku:
NVIDIA has internally supported VESA Adaptive Sync for a couple of years now
a
On January 15th, NVIDIA will be releasing a new driver that enables VESA Adaptive Sync support on GeForce GTX 10 and GeForce RTX 20 series

teda, preco odomkla len 12 monitorov, ked dalsich 400 monitorov podporuje VESA Adaptive Sync?
chce tvrdit, ze ostatne monitory VESA Adaptive nepodporuju? alebo filtruje monitory podla nejakeho kluca?

+1
+3
-1
Je komentář přínosný?

Půjde to zapnout pro všechny monitory, které mají adaptive sync, u těch certifikovaných se to zapne automaticky, u necertifikovaných ručně v ovládacím panelu.

+1
-1
-1
Je komentář přínosný?

co znamena certifikovanych? v com je monitor A s freesync a VESA iny ako monitor B s freesync a VESA?
ved vsetky monitory s freesync musia mat VESA certifikaciu.

+1
+4
-1
Je komentář přínosný?

chápal bych to tak, že ty co nebudou na seznamu tak se nezapne AS automaticky :) >>> BTW jak to bude s VRR přes HDMI ? :)

+1
+2
-1
Je komentář přínosný?

VESA ano, ale nemají "G-Sync compatible" certifikaci, pro takové to zapne automaticky.

+1
-4
-1
Je komentář přínosný?

z jedneho fora:
V podporovaných monitorech je AOC G2590FX ­(24­"; TN; 1920x1080; 30­-144Hz; DP, HDMI; LFC ano; FS2 ne; HDR ne­)
Ale není tam AOC G2590PX přitom to jsou stejné monitory, jen PX má navíc USB passthrough.
Takže je zajímavé, že FX "prošel" testováním, ale PX už neprošel.

+1
+2
-1
Je komentář přínosný?

Liší se dynamickým kontrastem.50M:1 u FX vs 20M:1 u PX

+1
0
-1
Je komentář přínosný?

Ahoj, na tom nejmenovaném fóru jsem to psal já. Hodnota dynamického kontrastu je hausnumero vytvořené marketingovým oddělením. Použitý panel je u obou těchto monitorů stejný. Jsou to opravdu stejné monitory, jedinej opravdovej rozdíl je v tom USB.

+1
+2
-1
Je komentář přínosný?

Skavene dopr! Umíš číst? Na oficiální stránce nvidia je to jasně vysvětleno. Certifikované mají zaručené jisté kvality, neblikají, nějak se chová overdrive atd... a HLAVNĚ musí mít poměr minimálních a maximálních Hz alespoň 2,4:1. Uvádí jako příklad 60-144Hz. Takže jejich certifikace je jen záruka, že v tom relativně benevolentním rybníčku Adaptive-Sync monitorů bude i ze strany Nvidie nějaký pořádek.
https://www.nvidia.com/en-us/geforce/news/g-sync-ces-2019-announcements/
Zatím co Adaptive-Sync je standard který je všeobecný bez ohledu na hráče, "FreeSync" a "G-Sync Compatible" je "značka", pod kterou se schovávají monitory s Adaptive-Sync,ale zároveň takovými možnostmi, které jsou výhodné pro hráče. Zjednodušeně. AdaptiveSync je základ technologie, FreeSync(AMD)=G-Sync Compatible(NVIDIA) a jedná se o značku označující AdaptiveSync monitory pro hráče s určitými vlastnostmi pro hráče vhodné.

+1
+2
-1
Je komentář přínosný?

V článku chybí tyto podstatné informace:
- budou podporovány generace Pascal a Turing
- půjde to zapnout pro všechny monitory, které mají adaptive sync, u těch certifikovaných se to zapne automaticky, u necertifikovaných ručně v ovládacím panelu

+1
+6
-1
Je komentář přínosný?

Děkuji Wafferovi za mínus :-D

+1
+3
-1
Je komentář přínosný?

Tak ted uz AMD grafiky nejsou zajimave vubec nicim. Hmm.

+1
-5
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Ale jo, jsou.
Kromě toho, AMD moc nových grafik aktuálně nemá, takže zase tak bledě bych to neviděl.

Navíc AMD standard Freesync uvolnilo k všeobecnému užití, a tedy bráno touto optikou uspělo, protože je nyní akceptace této technologie (alespoň v úrovni proklamací - i intel pokud vím taky ještě "jen" slibuje) 100%, což měl být cíl.

Být v roli markeťáka AMD, tak nvidii veřejně poblahopřeju k nastoupení do správného vlaku s červenými proužky. :-) AMD by zase mohlo akceptovat a podporovat GPU PhysX, i když doba této technologie už bohužel minula a nic pozitivního a trvalého nepřinesla. :-/

+1
+5
-1
Je komentář přínosný?

"AMD by zase mohlo akceptovat a podporovat GPU PhysX, i když doba této technologie už bohužel minula a nic pozitivního a trvalého nepřinesla"

Mne to príde tak, že o GPU fyziku proste nie je záujem. Vývojári mali celé roky k dispozícii Bullet, od NV majú aktuálne Flex (ktorý je možné akcelerovať aj cez DC), ale nikto to nevyužíva (okrem toho, kde si to NV dohodne). A určite si nemyslím, že to neprinieslo nič pozitívneho. Veď sa celá tá technológia rozvinula a dnes sú možnosti väčšie ako predtým.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Ten problém byl/je roztříštěnost a nejistota plynoucí z uzavřenosti. Dnes už po tom nikdo ani neštěkne.
Zopensourceovatění PhysX mělo přijít tak před 7-10 lety, tehdy to mělo smysl, tehdy byly vhodné podmínky (slabé CPU a relativně výkonné grafiky).
Další příležitost (možná) přijde se širokou adopcí vícejádrových CPU, kde vznikne výkonová rezerva pro AI a třeba právě fyziku.

Na rozdíl od (dnešního) RT si myslím, že lepší fyzika má velký potenciál zkvalitnit hry a přinést nová herní paradigmata. K tomu je ale třeba nejen API, ale taky "odvaha" vývojářů netlačená marketingem.

+1
0
-1
Je komentář přínosný?

Metro Exodus ma mat GPU PhysX. Nejake 2 hry pouzivaju Flex. CPU PhysX sa pouziva hodne a ten bol myslim teraz vydany ako open source. Vyvojari mali ale roky k dispozicii aj Bullet. Takze skor by som videl problem v neochote vyvojarov ako v tom, ze nieco nie je alebo je open source.

A nikto ho nepouzival. Inak stale nechapem to, ze ked nejaku technologiu do hry dostane Nvidia, je to marketing. Ked to urobi Amd, tak je to odrazu nieco ine.

+1
0
-1
Je komentář přínosný?

Tak nevím. Nejdřív jsem jásal, že ten egoistický asiat s fetiší na kůži konečně ustoupil a tedy mohu začít uvažovat o Nvidii. Pak jsem ale četl dále - 12 FS monitorů a můj BX 340 mezi nimi není, přestože má luxusní rozsah od 30 a LFC k tomu. Teď nevím jestli by mi adaptivní refresh fungoval. Babo raď. Chce to víc informací

+1
+2
-1
Je komentář přínosný?

Mělo by to jít zapnout manuálně.

+1
0
-1
Je komentář přínosný?

A to mi právě nestačí. Manuálně znamená checkbox adaptive sync on/off nebo si musím vytvářet ručně adaptive sync profil a rvát tam nějaké hexa hodnoty o kterých nemám tušení, protože ne vše lze z dokumentace monitoru vyčíst? Jaký je vlastně důvod že podporují jen 12 monitorů... atd. Co když si koupím Nvidii a nepůjde to, nebude to korektně, půjde to napůl - nebude fungovat např. LFC? Mnoho otázek, málo odpovědí. S AMD kartou je jistota že to jede. U NV chci vidět nějakou recenzi/video kde to někdo prakticky rozchodí. Do té doby Nv kartu nekupuju

+1
+3
-1
Je komentář přínosný?

Buď v klidu, praktické zkušenosti se objeví s novými drivery.

+1
0
-1
Je komentář přínosný?

U monitorů s Freesync/AdaptiveSync to půjde zapnout v ovladačích. Na certifikovaných(jmenovaných v článku) monitorech se tohle přepínátko přepne samo. :)
Ale nebojte. Až ty ovladače vyjdou, určitě v komentářích poreferuju.

+1
+1
-1
Je komentář přínosný?

Stejne si myslim ,ze to nVidia zapne jen na ji vybranych katrach. Pokud to neda jen na Turring aby po tech vsech must have ptakovinach pridali dalsi a podporili tim prodeje. Coz by na Nvidii sedelo.
Obavam se ,ze to nebude stacit dokud nedaji do rozumnych mezi cenovou politiku hernich karet.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

"live long and prosper!" :-)

+1
+1
-1
Je komentář přínosný?

podle posledních zpráv to vypadá na pascal a novější (takže můj maxwell ostrouhá) ale nikde nevidím zmínku o tom jak to bude s VRR

+1
0
-1
Je komentář přínosný?

ceny jsou pořád stejné, i turing není odlišný, pořád člověk zaplatí cca to samé za stejný výkon, jako bonus dostává DLSS, RTX...

+1
-8
-1
Je komentář přínosný?

RTX ti je momentalne k houvnu, DLSS bohuzel to same...

+1
0
-1
Je komentář přínosný?

i když je to jen tvůj subjektivní názor, pořád to nemění fakt že cena/výkon je u Pascalu a Touringu vesměs stejná, to platí aspoň pro 2060/70 a 2080, u 2080Ti je poměr cena/výkon o dost lepší pokud připustíme že nahrazuje TitanXp. Nové featury jsou v ceně pascalu navíc.

+1
0
-1
Je komentář přínosný?

To ze je RTX a DLSS momentalne k houvnu neni muj subjektivni nazor, ale faktzalozeny na neexistujich hrach na trhu s jeho podporou (s vyjimkou jedne), ktere s tim muzes hrat. Tohle bohuzel neni subjektivni. Co bude za rok je druha vec, ja mluvim o soucasnosti,
JInak na co je mi stejny, potazmo jen o neco lepsi pomer vykon/cena, ktery tady uz je s Pascalem 2 roky.. tomu se rika nulova motivace k upgradu, pokud si nekdo na jare 2017 koupil za "500,- Ecek" 1080ku pred krizi a dnes za tu cenu dostane 2070 s vyssim vykonem v radu jednotek procent...to jsme se za 2 roky nikam nepohnuli

+1
+1
-1
Je komentář přínosný?

JirkoK, ale podle tvojí logiky bude za pár let stát grafická karta s výkonem 10xGTX1060 cca 10x6200,- Tedy pokud se bude Nvidia držet značení, bude za pár let mainstream grafická karta stát 62000,- Kč. Tě potěš koště.

+1
0
-1
Je komentář přínosný?

Off-topic: V dev branchi unreal enginu je jiz mozne zapnout raytracing (predpokladam, ze velmi provizorni implementace, napriklad nefunguje denoising). Ale stejne, huraaa!

https://forums.unrealengine.com/development-discussion/rendering/1564157...

https://www.youtube.com/watch?v=TStUfKbl2jk

+1
+1
-1
Je komentář přínosný?

Taky si myslim, ze to otevrou jen pro Turing, aby lidem zavreli hubu a mohli rici, Hele tady mate dalsi ficuru k teto bomba karte... A moje 1070 zase ostrouha :D ... Jsem spis zvedav jak se vyvine spor Apple vs Nvidia v problemu ovladace pro Mojave... Docela by me zajimalo, kdo v tom ma vic prsty, jestli fetish cinan, nebo teplous z Coupertina :D kazdopadne jsou na tom biti hlavne zakaznici co vysolili nekrestansky prachy za Quadry a Tesly a ted muzou z Macu udelat WidleMac nebo zustat na HighSierre a dal podopora konci :D

+1
0
-1
Je komentář přínosný?

pokud 1070 není 1000 series, tak ostrouhá, jinak je na seznamu.

+1
-2
-1
Je komentář přínosný?

Budem doufat ;)

+1
0
-1
Je komentář přínosný?

Proč doufat, bylo to jasně uvedeno: "G-SYNC Compatible tests will identify monitors that deliver a baseline VRR experience on GeForce RTX 20-series and GeForce GTX 10-series graphics cards, and activate their VRR features automatically."

https://blogs.nvidia.com/blog/2019/01/06/g-sync-displays-ces/

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

nVidia dneska jede RTX 2060 = 9499Kč…. (365€)

+1
-1
-1
Je komentář přínosný?

za mainstream vela, mala stat cca 290-310€ max
keby stala 300€, aspon by obchodnici museli znizit cenu vega 56, co ma podobny vykon(V56 ma vyssi v DX12, nizsi v DX11). tak stoji rovnako ako ta V56, takze nic sa nemeni
https://www.guru3d.com/articles_pages/geforce_rtx_2060_review_(founder),12.html

+1
+2
-1
Je komentář přínosný?

Ta cena je prepalena, o tom zadna, pokud je 2060 nastupcem 1060. On tu mezeru Huang smerem dolu ale vylepi tema 11xx grafikama bez RT, ktere ale budou nejspis slabsi..

+1
0
-1
Je komentář přínosný?

Tak ono je to v průměru lepší než 1070Ti, někdy to atakuje 1080, výkon mezi 1070Ti-1080 za 9,5k? Mě to přijde jako fér cena, jako bonus nové technologie, pro FHD hraní bez velkých kompromisů, super výkon, výborná cena, ještě nedávno byli lidi ochotni stejné peníze dávat za výrazně pomalejší 1060, že.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Přesně tak, takovej Redmarx se teď mlátí do hlavy, protože si koupil gtx1080, přitom mohl mít rtx2060 s novějšíma efektama a ještě o pětikilo levnější. Bohužel, ale on tvrdil že Turing je fail a že si Turinga nekoupí.
Je mi ho kluka líto. Takovej nVidiák a chtěl strašně moc aby ho brali i AMĎáci a lezl vám do zadku. Budiž mu lehká zem. RIP Redmarx. :(

+1
-4
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Nejsem si tak úplně jistý tímto tvrzením.
Ono to zatím vypadá tak (alespoň co jsem si v rychlosti prošel testy), že v hrách optimalizovaných pro nvidii je 2060 blízko 1070Ti nebo dokonce 1080, ale pouze za předpokladu, že se použije nižší rozlišení.
Když náročnost začne stoupat, ta karta se propadne až k V56, a to je na novou grafiku docela fail, protože V56 je starý model a navíc nedosahuje zamýšlených výkonů.

Takže vzato kolem a kolem, bojím se, že 2060 má opět "geny" svých šedesátkových předchůdců, tedy opticky dobrý výkon při uvedení, ale v budoucích hrách to zřejmě bude o dost horší, plus nedostatečný objem videoRAM - opět se jedná o potenciální problém pro budoucí hry. S ohledem na cenu se podle mého názoru jedná o nevýhodnou grafiku.

P.S.: GTX1060 za 10 tisíc? To by koupil jen šílenec (podobně RX570/580).

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Tebe snad kojil sám stach.
Ohneme rtx2060 z neexistujících grafů výkonů k Vegě56, a pak použijeme naprosto nerovné spojení že to je ve skutečnosti převlečená gtx1060, no mám dost jako.

+1
-1
-1
Je komentář přínosný?

https://www.guru3d.com/articles_pages/geforce_rtx_2060_review_(founder),12.html
aby si mal predstavu, existujuce grafy

+1
0
-1
Je komentář přínosný?

Wow to si Jiřík musel hrůzou cvrknout.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Adams Adams

Řekl bych, že to paradoxně chápou spíš jako vítězství AMD.

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

A není to (malé) vítězství AMD? Já bych spíše bral jako paradoxní myšlenku, že AMD uvolní specifikace jako standard a pak bude doufat, že tento standard nikdo nepřevezme.

Hlavně to je ale vítězství spotřebitele, má daleko větší možnosti a svobodu nákupu. To považuji, v dnešní úchylné době vendorlocků, kterým někteří zákazníci ještě freneticky tleskají, za velmi podstatné.

+1
+2
-1
Je komentář přínosný?

Je to hlavně vítězství zákazníků, kteří teď mají na výběr, ne? Často to byl jediný argument proč nekoupit zelenou kartu.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Adams Adams

Těžko říct s ohledem na to, že bez G-Syncu by AMD ani nehlo něco takového uvádět do praxe. :D

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele asta

Podľa toho že "začínajú testovať" usudzujem že idú podľa abecedy a sú ešte len pri písmenku B. Dajte im čas, ešte pribudne viac modelov.

Niekto by v tom videl ústupky, ja v tom vidím peniaze... Miesto toho aby vyrábali vlastné FPGA moduly a dávali ich výrobcom = stojí to peniaze, plus monitory sú drahé a menej sa predávajú atď. tak nechajú elektroniku na výrobcov a oni sa profilujú do role certifikovania na G-sync compatible = výrobcovia im budú platiť (pravdepodobne).

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Ale tohle už si přece může rozhodnout každý jeden soudruh, zda má cenu připlácet za "bezcennou" certifikaci.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Znova zde vytáhnu, že si myslím, že to spíš zkrachovalo na výrobcích obrazovek, protože nVidia chtěla ty 65" obrazovky a podle mě výrobci v těch monitorech viděli obrovkskou ztrátu peněz. Vem si, teď budou ždímat lidi na 40" monitorech s rozlišením 4K, pak budou ždímat 50" monitory a uběhne deset let než se dostanou 65" monitory do nějakého normálního segmentu obrazovek, navíc budou muset v té době mít pomalu 16K rozlišení. Byli by sami proti sobě, dnes na archaický trh zaseklý u 27" obrazovek rozhýbat a zaplavit trh "levnými" 65" monitory s G syncem. Co by za deset let prodávali?

+1
-1
-1
Je komentář přínosný?

Výrobci hlavně nechtějí vyrábět věci co se hodí jen velice limitované skupině zájemců a ti ještě dost váhají a koupi vzdávají, když patřičně vybavený monitor stál o krávu více než stejný Gsync nevybavený. Neprodané kusy jsou ztráta, je to obrovské obchodní riziko. Takže vyráběli jen sem tam model, aby se neřeklo. To není spiknutí, to je prostá kupecká logika, to bys jako podnikatel mohl vědět.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

No však jasně, proto to opakuju dokola. Podle mě to byl nesmysl nějakého manažera, kterého už za to od nVidide vykopli.

+1
0
-1
Je komentář přínosný?

Tak ještě podporu Linuxu a bude se dát o Nvidii uvažovat :)

+1
0
-1
Je komentář přínosný?

neskoro :) mozu si to NV gluptaci sturic do rici :) ja Freesync samozrejme mam, a dalsia karta bude AMD ktora mi prekona moju 1080Ti aspon o 20%

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.