Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia otevře podporu G-Sync monitorů s modulem pro „FreeSync“ grafiky

"DisplayPort Adaptive-Sync, který není ničím jiným než standardizací technologie FreeSync ze strany VESA"

Není to obráceně? Tedy že ze strany FreeSync je modifikovaný VESA standard, tedy že FS například negarantuje podporu přes DP což VESA ano, zato FS funguje na HDMI, což VESA nemá?

+1
-8
-1
Je komentář přínosný?

FreeSync existoval dříve než VESA standard.

+1
+13
-1
Je komentář přínosný?

Tak VESA historicky prvni prisla s moznosti zmeny snimkovani u eDP kvuli uspore energie (nikoho nenapadlo az na NV vyuziti na hry) za dlouho na to prisla NV s vendor-lock in resenim a AMD se chytlo za nos a narychlo splacalo FS (pres eDP) a pak teprve pres DP coz VESA zapracovala jako volitelnou polozku(AS) -> AMD to rozbehlo pres HDMI coz si pak adoptovalo HDMI pod VRR >> takze je to aj aj :)

+1
-4
-1
Je komentář přínosný?

To je nějaká podivná interpretace faktů.

VESA specifikace první generace eDP byla publikována (prosinec 2008) teprve poté, co Apple i AMD dostaly přiklepnuté patenty na variabilní obnovovací frekvenci.

patent AMD / ATi („2006-08-31 Application filed by ATI Technologies ULC“):
https://patents.google.com/patent/US20080055318

patent Apple („2008-11-21 Application filed by Apple Inc“):
https://patents.google.com/patent/US7844842B2

Obě tyto společnosti jsou hlavními členy VESA, takže je vcelku jasné, odkud se do eDP standardu variabilní obnovovací frekvence dostala:
https://en.wikipedia.org/wiki/Video_Electronics_Standards_Association#Co...

AMD na úrovni eDP standardu podporovala variabilní obnovovací frekvenci od vydání Radeonů 5000, tedy od roku 2009 (s ohledem na dobu vývoje GPU je zřejmé, že implementace samotná je ještě staršího data než příslušný patent). Jako druhý se přidal Intel.
https://ahmedsharif.net/2014/01/08/the-sync-wars/

Za „narychlo splácaný“ by se dal považovat leda tak G-Sync modul, který s použitím drahého FPGA a onboard paměti dělá to, co bylo možné provozovat i s nativní elektronikou displeje jen proto, že to první generace G-Sync-kompatibilních grafických karet Nvidie neuměly hardwarově. G-Sync modul nahrazoval, co již AMD a Intel uměly na úrovni DisplayPort výstupu před schválením VESA standardu pro VRR na DP.

+1
+11
-1
Je komentář přínosný?

Tohle příliš nesleduji, ale opravdu bylo možno provozovat na všech displejích? Opravdu všechny toto nativně podporovaly? Už jsem starší a moc si nepamatuji, ale z prvopočátků zavádění FreeSync mám takový dojem, že to až tak úplně neplatilo, ne? Nota bene, proč tedy monitry získávají nálepku FreeSync, když to nativně podporují? Osobně, zaplať pánbů za G-Sync modul a investici NV tímto směrem, protože bez toho by ledy možná nepohly dodnes (AMD a Intel sice uměly, ale očividně s tím nic nedělaly).

+1
0
-1
Je komentář přínosný?

Docela bych ocenil, kdyby ty otázky byly buďto konkrétnější, nebo citovaly, k čemu z mého příspěvku se vztahují. Takhle na ně nejde jednoduše odpovídat.

„opravdu bylo možno provozovat na všech displejích?“

Co konkrétně? VRR přes eDP nebo VRR přes DP? VRR přes eDP ano, už v době prezentace. VRR přes DP na těch, které mezi elektronikou displeje a DP neměly scaler podporující pouze fixní obnovovací frekvenci. Jediným problémem byl ten scaler, takže bylo potřeba, aby ho (1) buďto monitor neobsahoval, nebo (2) podporoval VRR, nebo (3) byl implementovaný tak, aby ho bylo možné obejít.

„proč tedy monitry získávají nálepku FreeSync, když to nativně podporují?“

Co si mám představovat pod „získávají nálepku FreeSync“? O tom, jestli ve specifikacích monitoru bude logo FreeSync, nebo nebude, rozhoduje výrobce monitoru na základě vlastního uvážení.

„AMD a Intel sice uměly, ale očividně s tím nic nedělaly“

Zdroj? GCN2 již podporovala VRR i přes DP (o 7 měsíců dříve, než o něčem podobném začala mluvit Nvidia) a právě tento fakt je pravděpodobně důvodem, proč Nvidia narychlo splácala G-Sync modul. Kepler neuměl VRR přes DP a Nvidii bylo jasné, co podpora VRR v desktopu znamená. Tedy že v desktopu nepůjde o úsporu 0,0… wattu jako v noteboocíc (kde primárně sloužila ke snížení spotřeby při komunikaci mezi GPU a panelem při nečinnosti), ale že plány budou jiné.

V březnu 2013 uvedla AMD první GPU, které podporovalo VRR přes DP, v říjnu 2013 Nvidia představila G-Sync postavený na FPGA modulu. Pokud by G-Sync nebyl afterthought a Nvidia s jeho vývojem počítala a začala dříve, podporovala by její tehdejší GPU (Kepler) VRR přes DP namísto toho, aby absenci této technologie řešila kusem hardwaru navíc. Tam opravdu šlo jen o předběhnutí konkurence i za cenu drahého slepence, o kterém bylo jasné, že se nikdy pořádně nerozšíří.

+1
+5
-1
Je komentář přínosný?

Prosimtě, jak jsi přišel na to, že AMD chtělo uvést VRR ve hrách? JAK? Odkud máš tuhle informaci? Ty patenty se točí jenom kolem dynamické změny obnovovací frekvence v závislosti na přehrávaném obsahu. A i ty nejstarší modely Radeonů s „podporou FreeSync“ v podstatě nic jiného neuměly – snížit obnovovací frekvenci při přehrávání videa s 24 fps na 24 Hz apod nebo kvůli snížení spotřeby.

„Opravdu šlo jen o předběhnutní konkurence za cenu slepence...“

A co když Nvidia prostě jen chtěla utajit, že něco takového chystá, aby měla konkurenční výhodu? Jak by to utajila, kdyby nejdřív začala prosazovat nějaké rozšíření na VRR do standardu a následně začala přesvědčovat výrobce monitorů, aby předělali elektroniku v monitorech?

Víš, že to nebyla první technologie, u které Nvidia zasahovala do elektroniky monitorů, že ne? Že už s tím měli nějaké zkušenosti, když dělali na 3D Vision a druhé generaci s lightboost, kde už tu elektroniku monitorů ovlivnili dost významně?

Když už nic, tak i v té Nvidii v tom březnu 2013 prokazatelně věděli a dokazovali nám, že fixní vsync na 60 Hz je na hov...by. Proč si myslíš, že na G-Sync začali dělat až poté, co se zděsili, že AMD má podporu VRR na desktopovém GPU a předtím je to ani nenapadlo?

Kdy poprvé vyšlo najevo, že AMD u svých GPU podporuje VRR na DP, pakliže vycházíš z předpokladu, že Nvidii napadlo začít dělat na VRR až v okamžiku, kdy zjistila, že to umí desktopové grafiky AMD?

+1
-5
-1
Je komentář přínosný?

Můžu se zeptat ještě jinak – představ si, že jsi inženýr v Nvidii, a pro ovladače už vyvíjíš technologii jako adaptive v-sync, kterou uvedeš v březnu 2012:

https://diit.cz/clanek/adaptive-v-sync-bindless-textures

A je ti naprosto zřejmé, kde má v-sync problém...
https://www.geforce.com/hardware/technology/adaptive-vsync/technology

Fakt tě při té příležitosti nenapadne „a co kdyby ten monitor snížil snímkovou frekvenci spolu s grafikou“?

Fakt musíš čekat, až o rok později AMD uvede nějaké VRR na desktopovém GPU a pak teprve začneš přemýšlet nad tím, co by se s tím dalo dělat? Fakt tě to bez toho AMD nemůže napadnout dřív?

I na tom slajdu z roku 2012 mají výslovně napsané "The solution: Dynamically adjust VSync depending on frame rates for smoother gaming" :D

https://diit.cz/sites/default/files/images/3988/nvidia_gk104_prezentace_...

Fakt si myslíte, že Nvidia musela čekat na AMD, aby jim ukradla jejich nápad a realizovala G-Sync za sedm měsíců, když by to AMD neuvedlo do praxe za několik let, co na tom podle vás měli dělat?

+1
-5
-1
Je komentář přínosný?

Tady někdo nVidii obvinil z krádeže nápadu? Kde?

+1
+1
-1
Je komentář přínosný?

"Za „narychlo splácaný“ by se dal považovat leda tak G-Sync modul, který s použitím drahého FPGA a onboard paměti dělá to, co bylo možné provozovat i s nativní elektronikou displeje jen proto, že to první generace G-Sync-kompatibilních grafických karet Nvidie neuměly hardwarově."

Řekl bych že naopak. Navrhnout, vyrobit a odladit modul společně s ovladači trvalo déle než pro prezentaci rozchodit jeden typ notebooka.

+1
-3
-1
Je komentář přínosný?

Což bylo dané tím, že GPU v notebooku (eDP) podporovalo technologii, jejíž implementace začala už v roce 2006. Kdežto řešení Nvidie bylo postavené na hardwaru sloužícím k vývoji prototypů. Tedy jako reakce narychlo, podle všeho na uvedení GPU AMD Bonaire, které vůbec jako první podporovalo VRR na DP. Viz příspěvek výše. Pokud by Nvidia na G-Sync pracovala dlouhodobě a nešlo o snahu narychlo předběhnout AMD po zjištění, že hardware AMD umí VRR přes DP nativně, podporoval by Kepler VRR přes DP. Což nepodporoval a bylo to potřeba řešit hardwarem navíc, G-Sync modulem s FPGA. Učebnicový afterthought.

+1
+6
-1
Je komentář přínosný?

Zajímavé je, že AMD nikde nezmínila možnost použít tuto technologii pro plynulejší hraní, tedy než Nvidie uvedla G-sync, že?

Když byla AMD tak napřed, proč ji tak dlouho trvalo než výrobci uvedly monitory? Vždyť stačilo jen upravit software:-)

Nemohu si pomoci, ale nejjednodušší vysvětlení je, že byli Nvidií zaskočeni...

+1
-2
-1
Je komentář přínosný?

FreeSync ako technologia (nie maximalny rozsah frekvencie) fungovala na existujucich displejoch. no-X uviedol na ktorych - body a) b) c).

To, ze FreeSync nefungovala v plnom rozsahu bolo casto tym, ze vyrobcovia displejov nepredpokladali v navrhu suciastok tak vysoku, alebo tak nizku frekvenciu. Pri vydani GPU s FreeSync bol prezentovany existujuci displej z notebooku, kde FreeSync fungoval s malym rozsahom frekvencie. Cakalo sa na vyrobcov desktopovych monitorov, ktori umoznia fungovanie FreeSyncu.

Vyrobcovia monitorov maju tiez svoj kolobeh vyroby, dizajnu a marketingu. Ved sa zmenila logika synchronizacie v smere komunikacie grafiky voci monitoru:
z: driver grafiky caka, kedy monitor dokresli posledny obrazok (VSync) a to presne 1/60tinu sekundy
na: monitor caka dobu vramci moznosti FreeSync dynamickej obnovovacej frekvencie a zobrazi, to co grafika posle. Ak posle skorej, zobrazi ju okamzite. Ak grafika neposle nacas, tak monitor prekresli existujuci (2-3x podla doby cakania monitora - funkcia LFC, cize pre rozpatie FreeSync 48-144Hz dokaze monitor vdaka LFC synchronizovat obrazky este aj od 24 do 48 fps). Monitoru je uplne jedno, ze hra ma kolisave fps od 24-144 fps, aj tak ich vzdy zobrazi cim skor cele, a bez zdrzania.

Ano, vyrobcom monitorov to nejaku dobu trvalo, pretoze nejake "zmeny v navrhu, vo vyrobnom procese linky, v manualoch, v marketingu" im nastali, ale nie az tak vyrazne, aby ich to stalo v konecnom dosledku viac ako 20Eur. Ako uviedol no-X problemom v desktop monitoroch bol vacsinou scaler, ktory branil v moznosti dynamickej frekvencie. Pre vyrazne nizsie a vyrazne vyssie zobrazovacie frekvencie museli povymienat suciastky, aby hranicne hodnoty utiahli dlhodobo a neprdlo im to pred koncom zaruky.

Takze ano, trvalo to dlho. A zamyslel si sa nad tym, preco na Slovensku a v Cechach trva tak dlho dokoncit par km dialnic? Ak porovnam nase vedenie vo vladach a vedenie vo firmach monitorov, tak zareagovali celkom svizne a bez natlaku.

+1
+1
-1
Je komentář přínosný?

"FreeSync ako technologia (nie maximalny rozsah frekvencie) fungovala na existujucich displejoch. no-X uviedol na ktorych - body a) b) c). "
Body a),b) ani c) nevidím.
Nevím o jaké době píšete, ale v době uvedení G-sync rozhodně nefungovala na monitorech a ta předváděčka na notebooku tedy vypadala dost uspěchaně. Pou6ili jiné, lowlevel rozhraní. Proč když stačilo upravit firmware a měli na to roky?

Existuje nějaký jiný zdroj než tento server, že AMD pracovala na Freesync před G-syncem?
Protože tato teorie je IMO nová i na tomto serveru.

+1
0
-1
Je komentář přínosný?

Je to novy pohled autora :) asi zapomel co kdysi napsal :)

+1
0
-1
Je komentář přínosný?

Jo, podporovalo variabilní obnovovací frekvenci, ale jako úspornou funkci pro snižování obnovovací frekvence, nikoho ani nehnulo to používat ve hrách. :D

A ti pitomci v Nvidii to udělají a radši vyrobí nějaký modul místo aby jako AMD trpělivě čekali, až se navrhne nová generace elektroniky pro monitory, výrobci to začnou do těch monitorů montovat a odladí to za pochodu, aby to urychlili... jak pošetilé.

+1
-7
-1
Je komentář přínosný?

„Jo, podporovalo variabilní obnovovací frekvenci, ale jako úspornou funkci pro snižování obnovovací frekvence, nikoho ani nehnulo to používat ve hrách. :D“

Speciálně pro Tebe tedy ještě jednou a polopaticky. Pro úsporu energie bylo VRR implementováno v eDP pro notebooky. V březnu 2013 ale AMD uvedla desktopové GPU, které podporovalo VRR i přes DP. Tedy zjevně nikoli kvůli úspoře zlomku wattu u displeje notebooku, ten se k DP nepřipojuje. 7 měsíců poté Nvidia ohlásila G-Sync modul postavený na hardwaru používaném k vývoji prototypů. Z toho je více než jasné, kdo měl jaké dlouhodobé plány a kdo se pouze snažil na poslední chvíli vyfouknout nápad.

+1
+6
-1
Je komentář přínosný?

Jo, AMD si musí připravit řešení pět let dopředu, ale Nvidia jí vyfoukne nápad, a za sedm měsíců zvládne připravit karty, protokoly, vlastní elektroniku, otestovat to a protlačit to do monitorů. :D

Zatímco AMD mělo dlouhodobé plány, takže až po uvedení G-Syncu to teprve začali zkoušet na noteboocích, potom na monitorech, pak dlouho nevěděli, jestli bude stačit nový firmware, nebo bude potřeba nová elektronika, pak se teprve po dalších x měsících začala dělat nová elektronika, pak se to dalších x měsíců za pochodu ladilo...

Tak snad bychom měli té Nvidii poděkovat, že za těch sedm měsíců, co ten nápad AMD ukradli, dokázali z ničeho dostat na trh funkční řešení a přinutili AMD své "dlouhodobé plány" trochu urychlit, protože jinak by tím jejich tempem to VRR tady nebylo dodnes.

*střih*

V březnu 2013 jsem byl u NVidie kvůli FCATu. Mj. tam s námi Petersen asi dvacet minut na názorných ukázkách rozebíral, jak je vsync na klasickém 60Hz monitoru na pytel, protože při framedropu pod 60 fps s vsync padá obraz na 30 fps, takže to vypadá, že hra „zadrhává“ a jak to vadí dojmu z plynulosti hraní. O sedm měsíců později uvedli na trh hotový G-Sync.

Ale určitě čekali, až AMD přidá VRR na první GPU, aby to pak od nich mohli okopírovat a na poslední chvíli jim to vyfouknout. O:-)

A taky bys už mohl přestat v každé druhé odpovědi narážkou, že pro idiota to vysvětlíš polopaticky.Přístup AMD... no tam bych se hádal, jestli to bylo tím, že je AMD tak hodné, nebo tím, že v podstatě neměli jinou možnost. Proprietární placené řešení by při jejich podílu určitě neprotlačili tak snadno jako Nvidia a druhou možností bylo už jen nemít nic.

A ty tvoje narážky na to, že jsem idiot, kterému je nutné něco vysvětlovat polopaticky, už by sis taky mohl odpustit.

+1
-8
-1
Je komentář přínosný?

Zkus ubrat smajlíků a trochu přemýšlet:

fakta:
1. AMD uvádí první desktopové GPU s nativní podporou DP VRR v březnu 2013.
2. Nvidia ohlašuje G-Sync přes modul v říjnu 2013.
3. Kepler (2012) ani ještě Maxwell (2014) DP VRR neumějí.
4. První generace od Nvidie, která VRR podporuje, je Pascal (2016).

Kdo na podpoře pracoval déle, by z těchto informací zvládlo vydedukovat i dítě z prvního stupně základní školy. Že Nvidia VRR nepodporovala ještě ani na Maxwellu vydaném v roce 2014, jasně ukazuje, jak pozdě na podpoře variabilní obnovovací frekvence začala pracovat. Když si od vydání Pascalu odečteš tři roky, což obvykle odpovídá uzavření návrhu uncore, ukáže se krásně, kdy Nvidia přišla s myšlenkou podpory variabilní snímkové frekvence.

„trochu urychlit, protože jinak by tím jejich tempem to VRR tady nebylo dodnes“

Máš to čím podložit, nebo je to jen další zbožné přání?

+1
+12
-1
Je komentář přínosný?

podlozit zdrojema? po adamsovi? (: to chces moc.. ((: jedinej adamsuv zdroj jsou prka nVidie, pro gsync to tipuju este na masirku od Stanka.. ty se tu seres s linkama na kazdej patent nebo datum a on tu placa pr zvasty nVidie a namachrovany fraze like a boss.. kasli na nej, ztrata casu..

+1
+9
-1
Je komentář přínosný?

První grafická karta s podporou DP VRR v březnu 2013 (tzn. že čip se začal navrhovat kdy? Kdy už museli vědět, že chystají VRR do her?). První pokusy s FreeSync až o rok později. První monitory s podporou FreeSync v recenzích někdy v březnu 2015. A až jako uspěchaná reakce na G-Sync. Tak pokud už čtyři roky makali na VRR, proč to na těch improvizovaných prezentacích po výystavách vypadalo, že to až po uvedení G-sync teprve začínají zkoušet? Kdy by to teda plánovali uvést? V roce 2016? 2017? 2018?

Desktopové GPU s nativní podporou DP VRR... hele, nepoužívají se náhodou stejné čipy i v mobilních grafikách? Nemohlo se to tam jenom kvůli tomu, že se ten čip používá zároveň jako mobilní? Nevím, jenom se ptám...

A že se tak ptám, čím máš ty podložené, že AMD před G-Syncem chystalo VRR ve hrách?

+1
-8
-1
Je komentář přínosný?

Mícháš dohromady podporu VRR na eDP pro notebooky a podporu VRR na DP, tedy pro desktop:

1. Všechna GPU AMD (nebo ještě ATi) od Radeonů HD 5000 podporovala VRR na eDP (tzn. pro úsporu energie v noteboocích).
2. Všechna GPU AMD počínaje GCN2 podporovala VRR na DP (to znamená pro desktop).

Hranice podpory byly definovány takto. Podpora VRR ne eDP nebo na DP nezávisela na tom, pro jaký segment se GPU použilo, byla dána pro všechna GPU od konkrétní generace. Tzn. všechna GPU od HD 5000 podporovala VRR na eDP pro notebooky, všechna od GCN 2 podporovala navíc VRR na DP pro desktop.

Je jasné, že podpora na DP nesouvisí s notebooky, protože ty mají panel připojený přes eDP. Podpora na DP se týká desktopu, samostatných monitorů. První GPU s podporou VRR na DP byl Bonaire, první čip z generace GCN2. AMD ale Bonaire formálně vydala dříve než architekturu GCN2, jejíž představení čekalo na Hawaii, který byl oproti Bonaire zpožděný a vydaný až koncem roku 2013. Dva měsíce po vydání Hawaii / GCN2 ohlásila AMD FreeSync.

Nemůžeš ohledně data zahájení vývoje FreeSync argumentovat tím, kdy byl zahájen prodej monitorů, když koncept FreeSync byl postaven na tom, že s podporou na straně monitorů nebude mít AMD nic společného. To, co logicky vypovídá o práci AMD na podpoře FreeSync, je podpora na straně hardwaru AMD. Nikoli podpora na straně monitorů, kterou AMD nechala v rukou výrobců monitorů a žádný hardware do nich neimplementovala.

Jak by mohl FreeSync fungovat na Bonaire a Hawaii, kdyby „to až po uvedení G-sync teprve začínali zkoušet“?

+1
+5
-1
Je komentář přínosný?

A eDP a DP jsou dvě na sobě vzájemně nezávislé a oddělené technologie? Vůbec nic spolu nesdílejí? Odkdy? Nemůže se stát, že když někdo potřebuje VRR na eDP, tak mu bude zároveň fungovat i na DP? Já měl za to, že eDP je rozhraní pro interní připojení displejů postavené nad DisplayPortem, ale zjevně se teda pletu, ne?

+1
-6
-1
Je komentář přínosný?

Ano, jsou to technologie, jejichž verze spolu nekorespondují a číselně stejné generace vznikly v různé době, na základě různých požadavků a mají odlišné parametry. Není pravda, že by kupříkladu eDP 1.4 vycházelo z DP 1.4. Vzniklo zcela nezávisle na něm. eDP 1.4 má specifikacemi nejblíž k DP 1.2, eDP 1.4a má specifikacemi nejblíž k DP 1.3. Rozhodně se nedá říct, že když nějaký produkt něco podporuje na eDP, musí to podporovat i na DP. To je chybný předpoklad daný neznalostí specifikací.

+1
+5
-1
Je komentář přínosný?

Ale já jsem neříkal, že to musí podporovat. Já jsem říkal, že to neznamená, že to nemůže podporovat.

A šlo mi čistě o implementaci na úrovni hardwaru – když mám čip, který má rozhraní DP a nad ním nadstavbu eDP, a já na eDP potřebuju VRR, proč bych to měl dělat tak, aby DP VRR neuměl a eDP ano? Není jednodušší mít udělat to VRR tak, aby fungovalo na DP i na eDP?

+1
-5
-1
Je komentář přínosný?

Boze ty jsi magor, to ti jde tolik o to mit nad nekym navrch jen proto, ze nakonec kvuli tem kydancum demagogie a prekrucovani prestane krmit trola ? Tobe musel v minulosti nekdo fakt hodne ublizit, protoze tohle je uz na diagnozu. Vyzobavat domneky a stripky aby ti pri ignoraci vsech realnych faktu vysla tva vysnena konstrukce tu byvalo dilem jinych. "Arguing on the Internet is like running in the Special Olympics: Even if you win, you're still retarded"

+1
+1
-1
Je komentář přínosný?

Jaký reálný fakt ignoruju?

V roce 2014 ještě ani no-x nepochyboval o tom, že AMD začíná vymýšlet, jak FreeSync realizovat za pochodu s využitím stávajících technologií. Dnes je přesvědčený o tom, že v AMD na desktopovém FreeSync několik let před uvedením Bonaire, protože to přeci na tom GPU pak dokázali zprovoznit. Důvod, proč podporovat async na DP a desktopové grafice existoval – úspory ve spotřebě a to, že se filmy do té doby musely upravovat tak, aby byly synchronizované s obnovovací frekvencí monitoru, ať už zpomalováním nebo zrychlováním, anebo při konverzi na obrazovky přes pulldown. (Teda nemusely, šlo tu obnovovací frekvenci přepnout „ručně“, ale to bylo nepraktické). Ale u té desktopové grafiky to (na rozdíl od mobilní) není killer feature.

Já neříkám, že Nvidia vynalezla adaptive sync, jenom říkám, že do vydání G-Sync to všichni zmiňovali jen jako možnost, jak měnit snímkovou frekvenci displeje podle zobrazovaného obsahu (ať už kvůli snížení spotřeby, nebo kvůli sladění snímkové frekvence monitoru s přehrávaným filmem) bez toho, aby při změně frekvence problikával obraz, ne k tomu, aby měnili snímkovou frekvenci monitoru s každým framem podle toho, jaký je aktuální framerate ve hře.

+1
-2
-1
Je komentář přínosný?

Tvl, tohle je člálek, kde se uvádí, že nvidia konečně přiznala, že g-sync byl umělý vendor-lock. Po letech ždímání penez ze zákazníků jim to konečně došlo, že to byl fail, ale ty si to musís obhajovat, že vlastně freesync byl něco úplně jiného. 5 let není zase tak dlouhá doba aby sis to nepamatoval jak to bylo ve skutečnosti, takže ti je buď 14, nebo máš poškozenou dlouhodobou paměť, nebo účelně mystifikuješ. Na nejstarším videu s freesync co jsem našel na YT je jasně vidět na co byl FS stavěn. https://www.youtube.com/watch?v=pIp6mbabQeM . Ale účel to splnilo, připadám si retardovaně, že vůbec reaguju.

+1
0
-1
Je komentář přínosný?

Nepochopils o cem je rec :) neresi se samotny FS ale predesly beh udalosti ..a snahy o jejich prekrouceni

+1
-1
-1
Je komentář přínosný?

To "nejstarší video" je natočené čtvrt roku po launchi G-sync. Ano, je na něm vidět, na co byl freesync původně stavěn – na notebooky. :D

Modul na G-sync nebyl umělý vendor lock in. V roce 2013 neexistovala jiná možnost jak to uvést, než nahradit stávající elektroniku monitorů. Kdyby byl modul na G-sync jenom umělý vendor lock-in, nemuselo by AMD s freesyncem rok a půl čekat na nové monitory. Existuje sto tisíc způsobů, jak takový „vendor lock-in“ zařídit levněji než nějakým podělaným modulem s výrobními náklady deset tisíc (například si domluvit s výrobci monitorů proprietární protokol, jakým budou spolu grafika a monitor komunikovat, čistě softwarovou záležitost). Pak už stačí udělat nálepku a zkasírovat sto dolarů na certifikaci a vydělají na tom víc než nějakým prodejem modulů.

A když Nvidia po pěti letech, kdy je adaptive vsync ve standardu, na kartách zprovozní podporu bez modulu, tak to někdo považuje za důkaz, že v roce 2013 nebyl modul potřeba. :D

+1
-3
-1
Je komentář přínosný?

Mohli to standardizovat jako otevrene reseni ;) a pak by to mohlo behat i na iGPU od Intelu..

+1
0
-1
Je komentář přínosný?

1. AMD uvádí první desktopové GPU s nativní podporou DP VRR v březnu 2013.
2. Nvidia ohlašuje G-Sync přes modul v říjnu 2013.
Ano. Je tedy zvláštní, když Nvidia vylezla s G-Syncem, že AMD obratem nepředvedlo nativní podporu DP VRR na desktopové kartě a běžném monitoru, aby všem vytřelo zrak, ale jen na notebooku. A že nebude velký problém umožnit vrr u monitorů začalo mluvit až potom. Freesync byl představen tuším na CES 2015 souběžně s několika málo monitory, které ho podporovaly. Nehledě na to, že ještě v té době byl DP u monitoru spíš sprosté slovo, proto AMD aplikoval adaptive sync ze specifikace rozhraní DisplayPort pro použití přes HDMI (v té době mnohem rozšířenější i u levných monitorů), které naopak podporu adaptive syncu oficiálně nemělo.

+1
0
-1
Je komentář přínosný?

Bez zmeny hardveru AMD GPU FreeSync fungoval s viacerymi generaciami grafickych kariet. Stacila len aktualizacia ovladaca.

Monitory si vyrabaju ine firmy a tie sa prisposobili plynule pocas niekolkych rokov, bez vyrazneho zvysenia nakladov. Displeje ktore to zvladali, existovali a FreeSync fungoval - cize AMD mala FreeSync implementovany ovela skor.

Kde je problem? Ze AMD nevyrabala 100-150$ modul? Dalsi zbytocny plosak s dalsimi suciastkami, ktore dnesni ekoteroristi neberu ako zbytocnu zataz na zivotne prostredie? Si nejaky selektivny.

+1
-1
-1
Je komentář přínosný?

Takze FS byla narychlo splacana odpoved na GS ..btw tvuj clanek z roku 2014
"AMD vysvětlila, že pro ni není problém tento způsob synchronizace realizovat, protože už před několika lety zahrnula jeho podporu do svých GPU, byť s trochu jinými úmysly. Cílem byla původně úspora energie v mobilních zařízeních - stručně řečeno chtěla technologii, která umožní prodloužení snímkové frekvence při nečinnosti. Protože každý displej zvládá jiný maximální interval (jehož překročení by mohlo mít vliv na kvalitu obrazu), muselo pro implementaci této technologie GPU umět pracovat s variabilní snímkovou frekvenci."

"Koduri zmínil, že AMD chtěla svoji technologii používat pouze úsporu energie. To ovšem Nvidia nemohla vědět a v okamžiku, když byl (v roce 2008) zveřejněn patent ATi na variabilní snímkovou frekvenci, si Nvidia mohla odvodit, že tento postup bude používat pro plynulejší zobrazování a jala se připravit vlastní alternativu i bez hardwarové podpory na straně GPU. To asi nebyl velký problém, stávající G-Sync modul se totiž jeví jako důsledek evoluce původního G-Sync modulu, což byl v době GeForce 6 (NV4x) Genlock modul pro Quadro FX 4400G. Přizpůsobení konceptu novým požadavkům mohlo být docela jednoduché a když AMD vlastní řešení nevydala (alespoň ne v takové podobě, jakou asi Nvidia čekala), šel nový G-Sync do světa."

+1
0
-1
Je komentář přínosný?

Takze si potvrdil, ze FreeSync mala implementovany skorej aj ked s inym umyslom (setrit energiu) a len aktualizaciou ovladacov umoznila na viacerych grafikach vykonavat synchronizaciu takmer ako s G-Sync modulom.

+1
0
-1
Je komentář přínosný?

:) ne neměli .. a ani omylem to nebylo "takmer" ... alpha verze bez LFC s nízkým rozsahem a s problémy to bylo o parník jinde >> nikoho to v té době ani nenapadlo a nebyl žádný HW schopný plnohodnotně fungovat, protože nebyl vyvinut pro daný účel ... prostě jen daný HW naplňoval standard vydaný VESA v roce 2008 (taky na něm nepracovali týden, jak se tu někdo snaží nadhodit a museli spolupracovat se všemi dotčenými stranami i NV - vydat si VESA něco na papíře co by nešlo snadno/levně realizovat a nebyla by podpora od výrobců by nedávalo smysl)

btw to že má VESA stovky členů a dva z nich (o nich je to známo) si během přípravy nového standardu patentovali něco na způsob VRR a ani ve snu je nenapadlo, že by se to dalo využít po pár úpravách HW i standardu na dynamičtější změny (i na hry) a o tom co se vydalo v roce 2008 jako eDP 1.0 musela vědět i NV a zřejmě ji zaskočil patent ATi >> u NV si to asi špatně vyložili a "narychlo" za cca 5-8 let připravili plně funkční herní synchronizaci vč. ekosystému a ATI s APPLE si přitom patentovali "kolo" a AMD ani ve snu nepřemýšlelo nad dalším využitím ani nad FS jako takovým

to že by se u AMD 8 let rozhoupávali a pak přišli s alpha verzí, až potom co NV představila plně funkční verzi GS se těžko věří..ano nejpíš tím dokonale zmátli NV(proč by taky někdo pantetoval princip něčeho co bude součást standardu ), která začala vyvíjet vlastní řešení ... a kdyby NV ten "princip" obšlehla, tak se mohl vést nějaký pikatní patentový spor, ale nemohli, protože to bylo úplně jinak než teze místních fabulátorů ;)

+1
0
-1
Je komentář přínosný?

Ale mali, ved im fungoval aj na starsich grafickych kartach :) To, ze neexistoval v desktopoch monitor, ktory to vedel zobrazit nie je vecou AMD. AMD to ukazala na displej od notebooku a ich grafika, bez zmeny jej hardveru, to zvladla. LFC je vec hardveru displeja. Ked to vyrobcovia displejov implementovali, tak nebol problem aj pre starsie graficke karty.

+1
0
-1
Je komentář přínosný?

:) to bude tím, že "posíláš" jen data, která si monitor přelouská (můžes tam poslat doslova co chceš, ale nezvládne to monitor) >> to že podporu zpětně přidali pro modely z roku 2012, když byl finální standard po letech vývoje realeasnutý v roce 2008 mi nepřipadá nic světoborného a nevím o čem točíš, když sám Koduri potvrdil, že nic neměli a ani nepřemýšleli o herním nasazení/FS (šlo jim pouze o úsporu energie = VESA standard z rokud 2008 a že to bylo principielně podobné a stačilo změnit tok informací posílaných po kabelu)
- na NTB to šlo pouze z jediného důvodu, protože měl správně implementovaný eDP 1.0(a vyšší) = NVIDIA si byla plně vědoma limitů takového řešení a rozhodla se jít vlastní plnohodnotnou a dlouhodobě bezproblémovou cestou (nemusela to ale řešit vendor lock-in cestou) >> mnohem lepší uživatelský zážitek narozdíl od FS kdy až FS2 nabízí podobný komfort, ale jen u těch TOP monitorů se blíží k tomu co nabízí GS a to jsme v roce 2019 (takže cca 5-6 let trvalo nabídnout srovnatelnou alternativu, která je stále méně "spolehlivá" napříč celým spektrem produktů ;) )

+1
0
-1
Je komentář přínosný?

Z mého pohledu to dělají hlavně kvůli novým konzolím, které budou vydány příští rok. I když nevím kolik lidí si ke konzoli připojí monitor na místo televize. Nebo snad nVidia plánuje Gsync do televizí?

+1
0
-1
Je komentář přínosný?

Clanek zminuje, ze prozatim u jednoho modelu bude fungovat VRR a to vypada do budoucna slibne ..btw Dokazu si predstavit blazna co to pripoji k necemu podobnemu jako k HP OMEN X Emperium protoze next gen konzole s tim nebudou mit problem

+1
0
-1
Je komentář přínosný?

Nechápu, proč dávat do monitorů nenažraný modul, když to lze řešit levněji a energrticky efektivněji jako FreeSync.

+1
+4
-1
Je komentář přínosný?

Kolik ten modul žere?

+1
-3
-1
Je komentář přínosný?

cca 50W

+1
+5
-1
Je komentář přínosný?

to asi teoreticky, v praxi nemuze bejt zatez tak velka aby to dostala na 50 wattu, to by se bez aktivniho chlazeni otavily plasty.. ((: teda aspon nevim, ze by v tech panelech byl vetrak..

+1
0
-1
Je komentář přínosný?

Nové G-Sync moduly s HDR opravdu mají větráček, chladí je Sunon EF70151S1-C010-S9A, který má sám o sobě spotřebu až 4,8 wattu:

https://diit.cz/clanek/g-sync-hdr-prodrazi-monitor-o-500-usd/

+1
+6
-1
Je komentář přínosný?

heh, tak to sorry, precenil sem produkt nVidie.. (:

+1
+3
-1
Je komentář přínosný?

Tak když to potřebuje dobře chladit, asi je větráček potřeba. Třeba X570 je slušný čipset a taky potřebuje větráček, nebo ho přeceňuji? ;)

+1
0
-1
Je komentář přínosný?

Záleží kolik elementů se v jeden okamžik přepíná a jaké to má hodiny, pak se dá přesně spotřeba spočítat. Odhadnout to jen podle použitého obvodu nelze, maximálně lze tak odvodit, jaké maximální provozní parametry budou.

Vzhledem k tomu že jsem viděl i menší FPGA papat přes 30W, nedivil bych se, kdyby tohle umělo ve špičce při velkém počtu prvků měnící svoji logickou úroveň cucnout i přes 150W.

+1
+1
-1
Je komentář přínosný?

precenil sem nVidii proto, ze sem si myslel, ze co zvlada amd udelat integrovanou grafikou v apu co ma cely i s chipsetem a procesorem 10wattu, zvladne kolem tech 10w nVidie samostatnym obvodem taky.. no, nezvladne..

'' Třeba X570 je slušný čipset a taky potřebuje větráček, nebo ho přeceňuji? ;) ''

nee, podcenujes, x570 staci pasivni chlazeni..
http://www.gigabyte.cz/products/page/mb/X570-AORUS-XTREME-rev-10#kf

+1
+1
-1
Je komentář přínosný?

Však v pořádku. Taky ta mobka s s tím pasivním chlazením něco stojí, že. Velká většina desek s X570 má stále větráček. Koneckonců, i ta Arria by se dala uchladit pasivně, za odpovídající cenu. Také bych úplně nesrovnával apu na menším procesu piplané na spotřebu s programovatelným hradlovým polem - horší spotřeba (a na starším procesu) je holt daň za univerzálnost toho obvodu.

+1
0
-1
Je komentář přínosný?

Fanless* ;)
http://thermalright.com/product/hr-05-sliifx/

*I hate small fans

+1
0
-1
Je komentář přínosný?

Podle verze, záleží na verzi FPGA, ale i aktuálním rozlišení a snímkové frekvenci. Arria 10 může konzumovat 40 wattů, v případě průměrného využití se uvádělo 10-25 wattů. Každý paměťový čip má TDP 2 watty. Arria V měla nižší energetickou efektivitu, takže to mohlo být více.

+1
0
-1
Je komentář přínosný?

G-sync má teoreticky větší potenciál jet plynule a bez problémů (zdůrazňuji slova "teoreticky" a "potenciál"). Problém je exkluzivita a hlavně cena, která jen málokomu ospravedlní investici do g-sync monitoru.

+1
+1
-1
Je komentář přínosný?

Tak je treba vyslovit uznani AMDecku, ze diky jejich pristupu s FreeSync donutili zmenit pristup i NVidii. Tady neni o cem diskutovat.

Spis bych zminil, jestli je AdaptiveSync opravdu tak krucialni funkce, jak z toho nekteri delaji?
Ja mam obycejny 60Hz monitor, novy si koupim nejdriv za 10 let (mam ho teprve 2 roky) a ten tu funkci nema a presto se mi hraji hry dobre. Pouzivam klasicky VSync a zamykam teda FPS na 60 a nemyslim, ze bych chtel nekdy mit vic FPS ve hre, nebylo by mi to k nicemu. Myslim, ze teda pro cast hracu je Adaptive Sync neco, co vlastne vubec nepotrebuji k zivotu. Jiste chapu, ze hraci souteznich multiplayer her to maji nastavene trochu jinak a potrebuji ziskat jakoukoli i minimalni vyhodu, takze tam je ta funkce dobra, ale pro nas singlplayeristy to je proste neco, co ani nevyuzijem.

+1
+1
-1
Je komentář přínosný?

nemas tearing, a pri nizsich fps nevidis cukateriu. uz by som nechcel fungovat bez freesync.(a freesync monitor stoji o 200€ menej ako gsync monitor)

+1
+4
-1
Je komentář přínosný?

Abych nemel tearing, to zajistuje VSync. Cukani muze prichazet tehdy, pokud jsou minimalni FPS pod 60 a padalo by to neustale 60 - 30 - 60 - 30. Kvuli tomu mam silnou grafiku, takze se to stava vyjimecne.

+1
0
-1
Je komentář přínosný?

ale mas input lag, ked mas Vsync. proste ked uvidis, ake to je bez input lagu, budes zirat, ako si dovtedy vedel na takom niecom fungovat

+1
+1
-1
Je komentář přínosný?

Samozřejmě že 60-30-60-30 neplatí.

Někdy si zapni VSync a měj výkon pod refresh rate monitoru, nespadne na polovic. A víš proč?

Už na 8bitech se VSync používal akorát si to člověk musel naprogramovat sám, hodně jednoduše, scéna se počítá do paměti, která není zobrazována - do bufferu, až je snímek hotov, buffer se přenese do videopaměti, nebo pokud je možné označí se ten blok paměti za aktuálně zobrazovaný, třeba na Siclairu 48kb se muselo přenášet do "VRAM" na Sinclairu 128kb stačilo přepnout paměťovou banku, Přenos dat/přepínání se dělal v zatemňovací periodě monitoru/zobrazovadla.

Dnes to funguje stejně.

Karta počítá snímek, nestíhá to dostatečně rychle, nevadí počítá dál. Až má hotovo, tak se

A: může zastavit a čekat až dojde k refreshi, kdy se použije vypočítaný snímek a pak začne počítat další = těch 60-30 při sebemenším poklesu pod 60.

B: začne počítat další snímek, nečeká, když dojde k refreši, použije se poslední kompletní snímek. = Třeba 60-59 nebo 60-45 či cokoli dle frametimes

To A se dnes ve hrách už nevidí, B je normální, double buffering je běžný, někde se používá i triple.

Jelikož se vytváří předpočítaná fronta (buffer), tak snímek skutečně není tak čerstvý, jak by byl s variabilním refresh rate. Tzn dochází k jeho zpoždění.

Za předpokladu že frametimes jsou konzistentní, bude variabilní refresh podávat plynulejší obraz než VSync i když FPS budou identické!

Příklad frametime je 20ms, tzn 50FPS. Na 60Hz monitoru

S variabilní refreshí každý snímek na monitoru bude zobrazený přesně 20ms.

S VSync bude první snímek zobrazený 33,3ms, druhý až 5. snímek 16,7ms, šestý 33.3ms, další 4 zase 16ms. Když tak si udělej časovou osu, každých 20ms máš frame, a každých 16,67ms refresh. a jak ti to tam poleze, snadno uvidíš kdy se snímek protáhne na 33,3ms a kdy ne, zároveň uvidíš rozdíl mezi časem kdy se dokončilo počítání a kdy začne zobrazování = input lag.

Pokud mám samo výkon na max refresh monitoru, jde použít VSync bez bufferu, tedy možnost A a čekání na monitor bez propadu.

Když to nepoužiju, bude grafika cpát do monitoru co dá a budeme mít tearing či neplynulý obraz podobně jako v bodě B, tady FreeSync ani G-Sync nijak nepomohou, protože FPS jsou mimo rozsah monitoru.

Mě osobně třeba přijde 80-100-120-150 FPS na 60Hz monitoru jako nehratelná cukatura, nemám z toho pocit plynulosti tak jako když zamknu těch 60FPS a je jedno zda VSyncem nebo frame limiterem s variabilním refresh ratem.

Pravděpodobně to způsobuje nějaký input lag, ale ten nevnímám takže mě netrápí, kompetitivní MP hry nehraju a casual MP, tam moje reflexy nebudou stíhat hráče kteří jsou ve věku, které bych pomalu mohl označit za vnoučata.

V tomto případně nepomůže FS ani G-Sync

+1
+3
-1
Je komentář přínosný?

S VSync bude první snímek zobrazený 33,3ms, druhý až 5. snímek 16,7ms, šestý 33.3ms, další 4 zase 16ms.

Ale to pořád znamená, že se první snímek zobrazuje na 30 Hz, druhý až pátý na 60 Hz, šestý na 30 Hz, a další čtyři zase na 60 Hz. A obraz se trhá, mění se kadence snímků. A je jedno, že je to průměrných 52 fps.

+1
0
-1
Je komentář přínosný?

Však jsem psal že FPS při variabilním refresh rate bude podávat plynulejší obraz než s VSync a bufferingem i když FPS budou +- stejné (musel bych si udělat přesnou časovou osu).

Proto osobně volím grafiku, a když je nutné i nastavení tak, abych měl rock solid 60 FPS, což odpovídá refreshi monitoru. Monitor umí i 75Hz, ale na 75FPS nemám v některých hrách výkon, i když FreeSync (G-Sync compatible) mám zapnuto, tak nekonzistenci frametimes vnímám a působí to na mě hůře, než pevný refresh. Když to pak běží přes 75(60) FPS, tak i když nevnímám viditelný tearing, tak vnímám velkou inkonzistenci a obraz nepůsobí plynule, i když jsou frametimes výrazně nižší, v některých hrách i násobně.

+1
0
-1
Je komentář přínosný?

Tak v tomhle redmarxe celkem chápu. Sice teda dva roky zpět už bych uvažoval o zobrazovadle s FS, nicméně na stole mi stojí ZR24W, mám to už docela dlouho, nasvíceno má tak polovinu z odhadované doby, kdy spadne jas zářivek na polovinu (na druhou stranu, jedu prakticky pořád na 20% nastavení jasu, odhadem tak 1/3 jasu proti maximu, což je 400cd?).

Nelíbí se mi, kolik nových zobrazovadel je 8bit (6+2bit frc), u 10bitu bych to asi nějak zkousnul. Mám tohle na jednom notesu a při čtení textu je to velmi protivné (a že toho někdy dost čtu nebo hledám, když potřebuju projít různé specifikace obvodů, produktů). Stejně jako většinou chci matný povrch, ideálně DP, robustní stojan s plnou polohovatelností a nějaké rozumné odchylky v barvách a rovnoměrnosti podsvitu.

Občas se takhle podívám na to, co trh nabízí, problém je, že skončím u monitoru třeba za 30-40k (a to jsem schopný dát), jenže neumí většinou FS. K tomu všemu mám ještě malej stolek a nějakou dobu mít budu, takže ultrawide zakroucené nudle rozhodně ne. V tomhle směru jsem takovej čekatel ala redmarx, kdy buď přijde zajímavej produkt s kombinací co mi bude komplet sedět, nebo dřív dojde k rekonstrukci, bude větší stůl (snad) a pak se potencionální nabídka lehce rozšíří :)

+1
0
-1
Je komentář přínosný?

https://www.czc.cz/aoc-q3277pqu-led-monitor-32/186431/produkt

32" 2560x1440, AMVA, 10bit, v ty dobe za 10K. Jako nebylo nic s FreeSync s tema parametrama. Dneska bych asi sel do 4K a u her ktere by nestihaly, bych pouzival downscale na 1920x1080, musel by to monitor samozrejme umet, ale tehdy jsem chtel to QHD.

+1
0
-1
Je komentář přínosný?

mám od roku 2016! tzn 3+ roků 34" Acer BX340 3440x1440 - IPS, 75Hz, FS s rozsahem 30-75 +LFC.
To co píšeš jsou tedy kecy, kvalitní volba prvních FS monitorů už před lety byla, srovnatelný 34" taky acer s Gsync modulem byl tenkrát o 7 tisíc dražší, tehdy jsem to kupoval se skvělou Fiji Nano = hiend, který tehdy vyšel na 12 tisíc.
Za stejné řešení od Nvidia bych tenkrát zaplatil cca 7 tisíc navíc za monitor + další 1K navíc za tehdy pomalejší a horší GF980, čili 8 tisíc vyhozených oknem za horší výkon. Taková tehdy byla nabídka by Nvidia

+1
+1
-1
Je komentář přínosný?

Opět se bavím. Tak ty tady pořád dokola meleš o tom, jak čekáš na nějakou ultra výkonnou grafiku a pak z tebe vypadne že máš a budeš mít doma ještě 10 let 60Hz monitor.. :D Do toho používáš V-Sync, který šíleně zvyšuje input-lag, takže taky super.. :D G-Sync nebo Freesync je super technologie, bez které bych už hrát nechtěl. Stejně tak poznáš 100fps oproti 60fps to je bez diskuze. Takže vítej v pravěku Redmarxi. Hlavně si k tomu kup grafiku výkonu 2080Ti, až tedy bude jednou stát 4 tisíce na což čekáš.. :D

+1
+6
-1
Je komentář přínosný?

toto podpisujem. Rok a pol som mal 75 Hz monitor, teraz v lete som prešiel na 144.Mám vegu 64, takže oba monitory samozrejme s freesync. Naprostá balada aj ked fps padnú pod obnovovaciu freq. A ako píšeš 60Hz a V-sync ani zadara. Ešte by ma zaujímalo aký veľký ten monitor má. Vitajte v 21 storočí....

+1
+2
-1
Je komentář přínosný?

Nepoznam rozdil mezi 60 Hz, 100 Hz ani 144Hz. U RPG her to snad ani nelze, ikdyz mnozi tvrdi ze ano. Ale co jsem cetl nejake clanky na webu, tak slepe testy neprokazaly, ze by to hraci mimo hrani kompetetivni strilecky poznali.
VSync zvysuje input lag jen pri poklesech pod 60 FPS, jinak je to zcela zanedbatelne a to resi vykonna graficka karta.

+1
-1
-1
Je komentář přínosný?

Naopak, třeba na Techspot to testovali a zjistili také že tam je přínos. A jinak já píšu o tom, poznat 100fps na 144Hz monitoru oproti třeba 60fps. To pozná každý a jestli ty ne, pak jsi slepý. V-Sync je šílená věc, v některých hrách to maže a pohyb je jak na gumě. Ale proč to vysvětlovat někomu, kdo nemá ani na pořádný monitor, který se dnes již dá sehnat za 4-5k. Tak si užívej ten svůj pravěk a hlavně čekej na tu super silnou grafiku za pár korun, která je k tomu monitoru nesmysl, pokud se tedy nejedná o 4K abych ti nekřivdil.. :)

+1
0
-1
Je komentář přínosný?

https://www.czc.cz/aoc-q3277pqu-led-monitor-32/186431/produkt

32" 2560x1440, AMVA, 10bit, v ty dobe za 10K. Jako nebylo nic s FreeSync s tema parametrama. Dneska bych asi sel do 4K a u her ktere by nestihaly, bych pouzival downscale na 1920x1080, musel by to monitor samozrejme umet, ale tehdy jsem chtel to QHD.

Co mas ty?

Jinak VSync mi v zadne hre obraz nemaze, uprimne je to z definice VSyncu naprosta blbost, je videt, ze tomu hodne rozumis. :-D

+1
0
-1
Je komentář přínosný?

Tohle je stejné se mnou.

Mám 75Hz monitor s FS (G-Sync compatible), ale takový výkon nemám všude, takže 60Hz a 60FPS, V-Sync. Pro mě je nejdůležitější konzistentní frametime, dosáhnu toho leda tak, že mám železo co zvládne víc a je omezené, takže vykrývá bez propadu FPS i nejnáročnější chvíle v graficky náročných titulech.

V méně náročných hrách můžu pustit 75Hz, ale rozdíl v hratelnosti necítím, cítím ale rozdíl v tom, když FPS nezamknu na refresh rate. Když budu cpát 100-120 FPS do těch 75Hz tak to pro mě působí jako hodně trhané, nekonzistentní a je to logické, i když to nebude vyloženě viditelný tearing, tak jsou jednotlivé snímky zobrazované nepravidelně protože to monitor nestíhá.

Koupě monitoru s vyšším refresh ratem by mohlo pomoct i bez jakékoli synchronizace jelikož čas zobrazovaných snímků bude výrazně nižší, ale když nenakrmím ani 75Hz, tak netuším co budu dělat se 144Hz nebo i vyšším refrsh ratem.

A input lag je něco co můžu s přehledem ignorovat. Netrénuju 10 hodin denně své reakce, takže pár (i desítek) ms je zanedbatelných, když má reakční doba bude třeba 500ms když někdo výrazně mladší, trénující bude mít reakční dobu 100ms.

+1
+1
-1
Je komentář přínosný?

Přístup AMD... no tam bych se hádal, jestli to bylo tím, že je AMD tak hodné, nebo tím, že v podstatě neměli jinou možnost. Proprietární placené konkurenční řešení by při jejich podílu určitě neprotlačili tak snadno jako Nvidia a další možností bylo už jen nemít nic. Tak si na tom aspoň udělali luxusní PR.

A proč Nvidia „změnila přístup“? Fakt si myslíte, že cílem Nvidie bylo implementovat VRR do monitorů pomocí vlastní nabastlené pětisetdolarové elektroniky, kterou bude prodávat výrobcům do prémiových monitorů pro úzkou skupinu zákazníků, a dál už se nijak nepokoušet celé řešení zjednodušit, víc rozšířit a zlevnit?

A spekulace na téma moduly G-Sync by už nikdo nechtěl, takže musí začít podporovat i konzole a Radeony... Hm. Nevím, jestli má smysl hledat za tím něco víc. VRR na HDMI už je nově ve standardu, tak přidali podporu VRR ze standardu. Kupodivu i ta Nvidia u svých produktů někdy podporuje otevřené technologie a standardy.

+1
-4
-1
Je komentář přínosný?

„Fakt si myslíte, že cílem Nvidie bylo implementovat VRR do monitorů pomocí vlastní nabastlené pětisetdolarové elektroniky, kterou bude prodávat výrobcům do prémiových monitorů pro úzkou skupinu zákazníků“

Ano. Respektive původní cíl byl předběhnout AMD, současný cíl je držet monitory s modulem v prodeji tak dlouho, jak to půjde, protože z těch má Nvidia příjmy. Z monitorů s nativním DP VRR nemá ani cent. Pokud by cílem bylo nějaké zlevnění a zjednodušení, mohli G-Sync modul vyhodit s vydáním první generace GPU, která podporovala DP VRR. To by byl rok 2016 a Pascal. Což neudělali a drželi modul jako exkluzivní implementaci G-Sync, dokud nebylo na trhu nějakých ~500 panelů podporujících FreeSync. Trend byl navíc opačný, protože průměrná cena G-Sync monitoru (s modulem) od uvedení G-Sync rostla. Novější verze totiž obsahovaly čím dál tím větší FPGA.

„A spekulace na téma moduly G-Sync by už nikdo nechtěl“
E-shopů, které uvádějí statistiky prodejů, je docela dost. Stačí se podívat, jak se nyní prodávají monitory s klasickým G-Sync modulem.

+1
+6
-1
Je komentář přínosný?

viz výše, fakt si nemyslím, že by Nvidia měla důvod někoho předbíhat, když samotné AMD bylo celým G-syncem zjevně dost zaskočené a až po jeho uvedení začali řešit, jestli by to nedokázali udělat taky.

Spíš chtěli AMD zastihnout v nedbalkách, proto nešli cestou nejdřív to protlačíme do standardu, že, pak to budeme podporovat u grafik, pak začneme ukecávat výrobce, jestli by to taky nechtěli přidat do monitorů, a pak uvidíme, ale dali jim rovnou hotové řešení, které vyvinuli u sebe.

Hm... a to, že začne adaptive sync u drahých monitorů fungovat, když se na to připojí levná konzole, jako něco na těch statistikách nějak významně změní?

Monitory s modulem se prodávají, jak se prodávají, protože to jsou obvykle highendové monitory (nejen cenou). A ty nejdou zrovna na dračku.

+1
-5
-1
Je komentář přínosný?

'' fakt si nemyslím, že by Nvidia měla důvod někoho předbíhat, když samotné AMD bylo celým G-syncem zjevně dost zaskočené ''

eeee? amd ktera mela v desktopu od roku vydany 2013 vrr-kompatibilni grafiky pul roku pred ohlasenim g-sync byla prekvapena a nVidie ktera zacla vrr-kompatibilni grafiky vyvijet tak ze prvni vydala roku 2016 prekvapena nebyla a makala na g-sync dlouhodobe, jo? ((: to je fakt logika jak stehno..

the geforce is strong with this one.. (:
https://imgur.com/a/h1Nz0sZ

+1
+6
-1
Je komentář přínosný?

Ne, takže AMD nebylo G-Syncem zaskočené, protože FreeSync plánovali už dávno, ale jediné, na co se zmohli po uvedení G-Sync, bylo tři měsíce mlčet a pak ukázat na výstavě demo FreeSync zbastlené na notebooku. :D A pak spekulovat, že by možná stačilo u monitorů vyměnit firmware... a až následně zjistit, že se přece jen bude čekat na novou elektroniku.

Zjevně dobrej plán.

+1
-5
-1
Je komentář přínosný?

„A pak spekulovat, že by možná stačilo u monitorů vyměnit firmware... a až následně zjistit, že se přece jen bude čekat na novou elektroniku.“

Vážně?

https://diit.cz/clanek/amd-freesync-lcd-firmware

Hele, nic proti diskuzi, ale když neznáš ani základní informace, sám si je zjistit nechceš a když Ti je někdo předá, tak je ignoruješ, tak to vážně nemá cenu.

Existuje průkazný a jasný fakt, že AMD na úrovni svých GPU začátkem roku 2013 měla hotovou hardwarovou podporu pro FreeSync a Nvidia měla implementaci ekvivalentu na svých GPU hotovou v polovině roku 2016. Pokud a dokud nejsi schopný vysvětlit, kde se na jaře 2013 hotová implementace v GPU AMD vzala, tak při použití elementární logiky nemůžeš tvrdit, že byla reakcí na události podzimu 2013, kdy Nvidia ohlásila G-Sync modul. Na cestování časem AMD patenty nemá, na VRR ano.

+1
+4
-1
Je komentář přínosný?

A to mi sem lepíš proč? To je přesně ten monitor, co jsem měl na mysli, kvůli kterému se spekulovalo, že bude u některých monitorů stačit nahrát nový firwmare. Objevil se potom jeden jeden jediný monitor, u kterého by skutečně stačil jen update firmwaru? Objevil se jeden jediný monitor aspoň v nové revizi, u kterého by stačilo nahrát nový firmware? Neobjevil. Proč? Třeba proto, že když něco je na statické ukázce někde na stolečku, tak to ještě neznamená, že to může člověk v této podobě a s touto funkčností začít prodávat? Zkusil na tom demo monitoru někdo třeba blbý alt-tab, jestli to bude fungovat?

Ad Nvidia nemohla dělat na G-Syncu, protože to neměli v čipu... A nenapadlo tě, že Nvidia nemusela čekat s tím, až to implementuje na straně GPU, když to dokázala implementovat na straně monitoru? Proč by měla být nepřítomnost podpory pro Async na úrovni čipů důkazem, že Nvidii nenapadlo pracovat na Async před březnem 2013?

Hotová implementace u AMD se vzala... třeba z notebookového eDP, že :-O

Když už umím implementovat dynamickou „seamless“ změnu frekvence kvůli úsporám na mobilním čipu, tak už není problém implementovat to obecně. I u toho desktopu to má smysl, svého času byli lidi, co například řešili, jestli můžou monitor přepnout na 24 Hz, protože chtějí přehrávat film s 24 fps 1:1. A pro ně by něco takového byla zajímavá feature, a zjevně o ní AMD i uvažovalo, když s uvedením FreeSync vysloveně uvádělo karty, které podporují freesync na playback videa.

Najdeš mi, cestovateli v čase, jedinou zmínku o tom, že AMD uvažuje o VRR pro hry, před uvedením G-Sync?

Já jsem aspoň v tom čase trochu cestoval a našel tu větičku "The solution: Dynamically adjust VSync depending on frame rates for smoother gaming" na slajdu Nvidie z roku 2012.

Najdeš nějaké podobné moudro z úst AMD před uvedením G-Sync?

+1
-7
-1
Je komentář přínosný?

„A to mi sem lepíš proč?“

Protože jsi to ve svém předchozím příspěvku rozporoval.

„To je přesně ten monitor, co jsem měl na mysli“

Nevím, co jsi měl na mysli. V příspěvku jsi psal o „demo FreeSync zbastlené na notebooku“ a rozporoval jsi existenci podpory FreeSync na monitorech aktualizací firmwaru.

„Objevil se potom jeden jeden jediný monitor, u kterého by skutečně stačil jen nový firmware? Objevil se jeden jediný monitor v nové revizi, u kterého by stačilo nahrát nový firmware? Neobjevil.“

Další nepravda. Nixeus měl v nabídce více modelů, kde stačilo upravit firmware a v roce 2015 byla po diskuzích sepsána celá řada návodů, jak aktualizovat firmware monitorům, aby podporovaly FreeSync:
https://diit.cz/clanek/lcd-crossover-wasabi-podporuji-freesync

Následující text v odstavci Tvého příspěvku je jeden velký nesmysl vycházející z toho, že neznáš a nechceš znát reálnou situaci.

„A nenapadlo tě, že Nvidia nemusela čekat s tím, až to implementuje na straně GPU, když to dokázala implementovat na straně monitoru? Proč by měla být nepřítomnost podpory pro Async na úrovni čipů důkazem, že Nvidii nenapadlo pracovat na Async před březnem 2013?“

Protože kdyby na tom pracovali dříve, měli by to v GPU. Kdyby na tom pracovali dříve, měli by publikované nějaké patenty. Kdyby z nějakého zvráceného důvodu považovali za lepší cestu modul, nezačali by v roce 2013 s implementací do GPU :-)

„Najdeš mi, cestovateli v čase, jedinou zmínku o tom, že AMD uvažuje o VRR pro hry, před uvedením G-Sync?“

1. Najdeš mi, kde Nvidia před oficiálním ohlášením Turingu byť jedinkrát zmínila, že architektura Turing bude podporovat speciální jednotky pro akceleraci raytracingu? Nenajdeš, protože nevydané produkty výrobci nekomentují. Dokazuje to, že Nvidia až do vydání Turingu nepracovala na akceleraci raytracingu? Asi těžko :-) Že o něčem v danou chvíli nevíš, ještě neznamená, že se to neděje.

2. Tvůj dotaz pouze dokazuje, co jsem psal výše. Nechceš znát informace, které se Ti nehodí do krámu. Výše v diskuzi jsem se odkazoval na patent ATi/AMD podaný 2006 a publikovaný 2008, který stále ignoruješ a který popisuje mimo jiné variabilní snímkovou sychnronizaci pro 3D grafiku na obrazovce počítače:

„Some high-end flight simulation systems are known to couple the refresh rate of the projector(s) to the three-dimensional (3D) graphics rendering rate (i.e., image rate) of the graphics processor(s) so that the image update rate dynamically adjusts to the image rate. However, these systems do not couple the display rate to the image rate for any other type of content, e.g., video image rate, nor are they configured to provide power savings. Furthermore, such systems are built using projection display systems, rather than displays more commonly associated with computers or televisions.“

Takže Tvá zmínka od Nvidie je o 6 let pozdější.

+1
+3
-1
Je komentář přínosný?

Ten Nixeus jsme v debatách o FreeSyncu za posledních několik let řešili už xkrát. Tak mi teď nepodsouvej, že o něm nevím. Je to přesně ta předváděčka, kvůli které se rozjela vlna spekulací, že jsou monitory, u kterých bude stačit nahrát nový firmware... což nebyly.

A proč mi sem lepíš návody na update firmware monitorů vydaných po uvedení FreeSync? Mě zajímá update u starých monitorů uvedených před oficiálním launchem FreeSyncu, ne u monitorů, co se začaly prodávat několik měsíců poté, co už byl FreeSync na trhu.

Ad patenty – ok, takže AMD v roce 2006 podle vás dalo patent, podle kterého plánovalo uvést VRR na herních grafikách. V březnu 2013 vydali první grafiku, kterou připravovali na VRR ve hrách. Ale na konci roku 2014 neexistuje monitor, který by to uměl. Až po uvedení G-Sync jim došlo, že k tomu, aby VRR fungovalo, potřebují, aby to uměly i monitory a teprve pak začali jednat s jejich výrobci a řešit, jak to dostat do monitorů a do standardu. Tak k tomu už radši ani nemám slov. :D

+1
-3
-1
Je komentář přínosný?

tvl ty jsi kecal, ze to neni mozny.. NIKDE ve svym postu nepises, ze ti de o nejaky monitory vydany PRED ohlasenim freesync, ale ze ti de o monitory kde je mozny doplnit freesync upgradem firmwaru.. no-x ti presne takovy vyjmenuje a ty najednou zacnes prekrucovat, ze si chtel neco uplne jinyho.. hele, co si chtel SI KAZDEJ MUZE PRECIST ve tvym predchozim postu.. NIC o monitorech vydanejch pred vydanim freesync jsi nepsal, takzes dostal odpoved PRESNE NA OTAZKU COS POLOZIL..

za kecy jako ''proč mi sem lepíš'' bys zaslouzil tak par facek..

no-x: hele Jiri, proc jste mu davno nedali ban? dyt sem od tech jeho vylevu po vydani hd7970 chodi jenom prudit a delat bordel..

+1
+4
-1
Je komentář přínosný?

Bóže, tak já se ptám, jestli byl nějaký monitor, který nepotřeboval novou elektroniku, ale šlo u něj FreeSync přidat dodatečně updatem jen firmwaru, jak se o tom spekulovalo půlce roku 2014 (články typu sláva, pro freesync není potřeba upravovat elektroniku, půjde to přidat i na některé aktuální monitory jen softwarem atp. (abych přesně citoval z toho článku z roku 2014: „AMD neopomněla zdůraznit, že touto demonstrací se snaží ukázat, že některé existující panely skutečně od podpory FreeSync dělí jen software...“)), a vy jako argument vytáhnete monitory vydané v půlce roku 2015, čtvrt roku po launchi freesyncu, kdy už se běžně prodávaly monitory s novou elektronikou, co freesync podporují s tím, že jsem se přece "neptal po monitorech vydaných před launchem freesync".

No tak jo, dobře, čtvrt roku po vydání FreeSync šlo u nových monitorů updatovat firmware tak, že to přidalo podporu FreeSync, jupí, existují monitory, u kterých stačilo jen nahrát nový firmware a fungovalo to. :D

Sám mám televizi, kde se FreeSync přidal updatem firmwaru někdy v roce 2017... ale na to jsem se fakt neptal.

+1
-4
-1
Je komentář přínosný?

A k tomu „Existuje průkazný a jasný fakt, že AMD na úrovni svých GPU začátkem roku 2013 měla hotovou hardwarovou podporu pro FreeSync “

Neexistuje. Existuje jasný a průkazný fakt, že AMD mělo podporu pro „bezešvou“ změnu obnovovací frekvence na DisplayPortu (a je dost dobrých důvodů, proč by to měla grafika umět). Ale to ještě neznamená, že připravuju technologii, která dynamicky mění obnovovací frekvenci monitoru podle aktuálního framerate ve hře s každým jediným framem.

To, že můžu s kombinačkama zatlouct hřebík, ještě neznamená, že někdo kombinačky navrhoval na zatloukání hřebíků.

+1
0
-1
Je komentář přínosný?

V kompetitivních akčních střílečkách záleží na každé milisekundě. S VSync se může stát, že bude snímek na monitoru trochu opožděný proti skutečnému stavu hry. Proto taky existují tzv. honiči šílených fps, daleko nad hranici schopností monitoru. V Linustechtips testovali vliv frekvencí monitoru i přemrštěných fps, a náhodou se jim podařilo vyvolat šňůru netrefených nepřátel, ikdyž byli podle kamery prokazatelně v zaměřovači (šlo o kvalitního hráče s převážně konzistentní reakční dobou). Snímková frekvence z GPU byla opravdu těsně nad možností monitoru. Zajímavé bylo, že hráč, který byl z konzolí zvyklý na větší latence, byl schopný se rychle přizpůsobit a intuitivně střílet o pár milisekund před cíl.

+1
0
-1
Je komentář přínosný?

Která verze ovladačů bude teda podporovat HDMI Freesync?

+1
0
-1
Je komentář přínosný?

Nejde jen o ovladače, musí to podporovat konkrétní produkt. Pokud má uživatel monitor s G-Sync modulem, který podporuje HDMI, tak by mu měl fungovat již nyní. Pokud to monitor nepodporuje, tak se ale nedá čekat, že přijde nějaká verze ovladačů, která to zprovozní. Vyjádření se týkalo především možné podpory na straně budoucího hardwaru (nikoli zprovoznění na stávajícím hardwaru).

+1
0
-1
Je komentář přínosný?

...a já otevřu lahváče.

+1
0
-1
Je komentář přínosný?

Zeby inak povedane : Vyrobci a predajcovia mozete odpisat svoje zasoby strasich iba GSYNC monitorov.

+1
0
-1
Je komentář přínosný?

Blazen prodejce, ktery tvoril skladove zasoby GSync monitoru. Vyrobce maximalne vyhodi modul a monitor stejne proda.

+1
0
-1
Je komentář přínosný?

Nejake zassoby urcite vytvorili. Mozno nie u vyrobcu ale v distribucii. Tie uz nebudu stahovat naspat do vyroby ani lokalne odstranovat GSync moduly . Proste znizia ceny a odpisu straty na marziach.

+1
0
-1
Je komentář přínosný?

Spíš by to mělo nVidii donutit cenu těch modulů srazit dolů aby byl levnější i monitor protože je blbost aby si člověk s AMD kartou koupil monitor výrazně dražší jak s Feesync. Tak že ta jejich exkluzivita bude stejně přetrvávat protože to moc lidí kupovat nebude a obzvlášť ne ti s AMD kartou když mají levnější variantu přímo pro svou kartu.

+1
+1
-1
Je komentář přínosný?

Adams Adams, už zase děláte ostudu nejen sobě, ale i vašemu zaměstnavateli. Jste trapný, nesrozumitelný ani vlastní názory nejste schopen zpětně uznat. Vaše příspěvky jsou džungle navzájem se vyvracejících tvrzení. Vaše vyjadřování postrádá jakoukoliv konzistenci. Je to změť, ze které čpí "...já mám pravdu, ať říkám cokoliv. A pokud jsem tvrdil něco jiného, tak je to taky pravda, protože já mám pravdu pořád. Pravdu nedefinuje obsah sdělení, ale to, že jsem tak pravil já. Ámen."
Samozřejmě je to hodně nadsazené, ale vy nesnesete představu, že byste se mohl mýlit.

+1
0
-1
Je komentář přínosný?

Hele, kdyby aspoň ty Jirkovy teorie, že AMD připravuje desktopové herní VRR, a Nvidia to zjistí, tak jim to během sedmi měsíců vyfoukne narychlo zbastleným produktem, na nějž AMD dokáže s dlouhodobě připravovaným jednodušším řešením zareagovat až o rok a půl později, nezněly tak uhozeně... :D

První „FreeSyncová“ karta březen 2013, oficiální uvedení FreeSync březen 2015. Fakt si myslíte, že AMD mělo FreeSync naplánovaný x let dopředu, protože to zahrnuli do GPU, ale v době, kdy to zadrátovali do návrhu čipu, zároveň nějak zapomněli na to, že by se měli na podpoře domluvit i s výrobci monitorů?

Prostá otázka – kdy by se podle vás objevil FreeSync nebýt G-Syncu, pokud AMD až v reakci na G-Sync začalo de facto veřejně zjišťovat a předvádět, jak by se dal udělat FreeSyncový monitor a FreeSync dokázalo na trh uvést až v březnu 2015?

+1
0
-1
Je komentář přínosný?

nechapem jak mozu ludia kupovat produkty od niekoho, kto vydrbava so zakaznikmi a ekosystemom.
stay "classy" nvidia, intel..

+1
0
-1
Je komentář přínosný?

V kapitalismu všichni vydrbávají se zákazníkem, to je princip, na kterém ten systém funguje. Není to charita.

+1
+1
-1
Je komentář přínosný?

Dlouhodobě má AMD tendenci spíš dát něco zadarmo, a doufat že prodá víc kusů.
Na rozdíl od nVidiie, která například prodávala DX11 karty a když se přišlo na to že mají jen DX10, tak "who care".
Slovo charita vystihuje víc význam dát zadarmo, než slovo vydrbat.
Podle Adamse vlastně AMD vydrbava se zákazníkem protože mu dává VFF zadarmo?

+1
+1
-1
Je komentář přínosný?

Nvidia dala zákazníkům zadarmo GeForce Experience. Nvidia dala zákazníkům zadarmo Adaptive vsync. Nvidia dala zákazníkům v nových ovladačích zadarmo podporu pro ReShade. Nvidia dala zákazníkům zadarmo Quake RTX update pro Quake II. Nvidia dala zákazníkům zadarmo podporu adaptive sync na DP (i na o generaci starší karty). Nvidia teď dává zadarmo podporu na VRR k HDMI 2.1. Nvidia dala zákazníkům „zadarmo“ a dodatečně podporu pro mraky technologií i na produkty, které už neprodávala.

Znamená to, že Nvidia nevydrbává se zákazníkem? Dát něco zadarmo je dobré PR, to je celé. Dát zadarmo něco, za co chce jiný připlácet, je ještě lepší PR.

Proč je třeba Ryzen 5 3600X o tisícovku dražší než 3600, když se ty dva procesory de facto liší jen tím, že se k 3600X boxuje chladič s o 2 cm vyšším pasivem (který stejně každý vyhodí)? To není vydrbávání se zákazníkem? Proč AMD neřekne Nvidia má předražené GeForce RTX, ale my na tuhle hru nepřistoupíme a mainstreamovou RX 5700/5700 XT uvedeme za stejné ceny, za jaké jsme uváděli před třemi lety mainstreamovou RX 470 a RX 480? Neudělají to, napálí na to maximální cenu, za jakou to dokáží vedle těch GeForce prodat.

Intel a Nvidia si prostě jen momentálně můžou dovolit víc, než si může dovolit AMD. To je celé. Proč si to AMD pořád tak idealizujete jen proto, že je to jediná konkurence pro dva molochy a z pozice slabšího nemůže diktovat, co bude?

Lisa Su nemiluje hráče o nic víc než Jen-Hsun Huang, má je na salámu úplně stejně jako ten CEO Nvidie, i když se na prezentacích oba tváří, že by se pro hráče rozdali.

+1
0
-1
Je komentář přínosný?

ad prvy odstavec. vsetky tie veci by pricetny clovek nikto zvlast nekupoval, len by to bral ako bonus k novemu produktu. Chcel by som vidiet napr. reklamu na Geforce Experience, len za 9,99€ mesacne, kto by to kupil.

ad druhy odstavec. ja fungujem dokonca na r7 3700X na default chladici a bez problemov, neviem preco by niekto vyhadzoval/menil box chladic na 3600X
ad rx5700/xt vs rtx - jo, nova generacia je drahsia ako starsia, ale stale RX5700XT je lacnejsia A rychlejsia ako RTX2060S

+1
+1
-1
Je komentář přínosný?

No já jsem z těch, co chladiče z boxu automaticky zahazují.

Ad Radeon vs GeForce, ano, protože musí být levnější. Kdyby byl Radeon dražší, kupovali by ho lidi už asi jenom kvůli FreeSync nebo z lásky k AMD. Jinak mě u minulé ani současné generace nenapadá žádná killer feature, na kterou by si byl člověk ochotný proti GeForce připlatit.

+1
0
-1
Je komentář přínosný?

No já jsem z těch, co chladiče z boxu automaticky zahazují.
ak si mal stale Intel, ani sa ti necudujem :)
ad druhy odstavec:
urban legend vravi, ze radeony zobrazuju lepsie farby

+1
+1
-1
Je komentář přínosný?

Hlavně preferuju chladiče s velkým pasivem před chladiči s rychlým větrákem. :D

A speciálně u těch intelů ještě jako bonus větráky i v idle vrčely, nevím, jak dnes.

+1
0
-1
Je komentář přínosný?

3700x a 3600x uz nemaji bohuzel stejny chladic. 3600x uz ma jen Wraith Spire, ktery se ridi spis uz k tomu "nic moc". Hlavne to tim padem za ten priklatek oproti 3600 fakt nestoji a solidni chladic za 500-600,- ti udela lepsi sluzbu.
1600x mel jeste stejny chladic jako 1800x...

+1
0
-1
Je komentář přínosný?

s tym vydrbavanim myslim PRESNE to ze amd rozlisuje modely iba poctom core/cache.
vsetky ficury ostavaju ZAPNUTE.
dokonca aj ryzen dokaze ecc (ak doska neni shit) toto sa dialo aj za ery phenom.

intel zamyka cpu, a hlavne xeony, nie vsetky ficury su v kazdom modeli dostupne !
a to je vcelku pruser. takto umelo donucuje ludi kupovat vyssie modely...
to iste je aj v doskach/platformach..
kvoli vacsiemu poctu pcie, nuti ludi kupovat 2s dosky (drahe v situaciach ked 2s neni treba...)

krasne to ukazuje na uspech epycu, ked 1s je lepsie vybaveny ako intel 2s....aj toto vyrazne pomohlo amd k uspechu.

+1
0
-1
Je komentář přínosný?

Mohl by mě někdo vysvětlit jak to je to s g synkem a v synkem dohramady četl jsem spoustu názoru na to, tod otázka jestli té názory k něčemu byli nebo ne. Někdo říká ze stačí mět gsynka v NVcontrlPanelu. Někdo říka ze je najlapšejší je mět gsynka a vsynka NVcontrlPanelu a ve hře Vsynka vyplé. Jo a pro jistotu povidali at zapnu rivatuner a hodím to 3 fruka za sekundu pod hertse, že by to mohlo dělat neplechu s tím vsynkem. Děcka objasněte mě prosim vás mystérium juniverza jak ti gé synci a vé synci spolu kamaradiju či nekamarádiju dohromady nedohromady at z tého nemam v hlavě hromady Mochomůrek

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.