Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Překvapení: G-Sync funguje i bez G-Sync modulu, prozatím v noteboocích

Samozřejmě že to bude mít negativní dopad, rozjede se druhá vlna kampaně "Nvidia vám lhala, že to bez modulu nejde, když to sama udělat dokáže, a modul slouží jen jako HW klíč".
Sám nevidím důvod, proč by Nvidia dělala nepotřebý HW modul, na kterém trhne po odečtení nákladů třeba deset doláčů, když by to stejně dobře mohla řešit licencováním technologie výrobcům za stejných deset doláčů a jinde než na tom licencovaném hardwaru to prostě nepovolit (a ušetřila by si spoustu starostí).
BTW, nějak z toho článku vypadla ta poslední stránka, kde se řeší, že to na tom notebooku čistě softwarově zase tak úplně dobře nefunguje. :)

+1
-44
-1
Je komentář přínosný?

Tak vzhladom na akutalny trend kopania do nVidie (v podstate aj opravnene, ehm), mam pocit ze to je to uz taky miestny kolorit napisat cast pravdy. Presne, bolo by fajn napisat aj koniec z toho povodneho clanku. Jednak nVidia bude asi podporovat G-sync na notebokoch ale asi tiez bolo potrebne aby sa doladili ovladace a hw (tieto vyzeraju ze unikly omylom a asi aj na iny model notebooku) a potom, ako pises ze sice to funguje, podla clanku, ale pri nizkych FPS (pod 30) ma ten panel problemy a v tychto situaciach prave G-sync pomaha so svojim framebufferom. A tak isto mali problem pri nizsich FPS ze sem tam cely panel na chvilu blikol (blank) co ale asi bude problem ovladacov.

+1
-27
-1
Je komentář přínosný?

I když to zní jako pokus o fundované vysvětlení - respektive obhájení existence G-Sync modulu, s realitou to nemá mnoho společného. Bliká totiž i G-Sync s modulem, takže modul ani paměť na něm nic neřeší.

http://www.pcper.com/reviews/Editorial/Look-Reported-G-Sync-Display-Flic...

+1
-1
-1
Je komentář přínosný?

Bliká, ale jinak :D

+1
-6
-1
Je komentář přínosný?

víc dozelena, že? ;-)

+1
+28
-1
Je komentář přínosný?

nVidioti si vymyslí vše, aby nVidiu obhájili. Nechápu je. A to mám grafiky (všechny výkonnější na hraní) nVidia a nijak nVidiu nemusím pro to "zbožňovat" a omlouvat její lži, podvody a přešlapy...

Ono je toho totiž poslední dobou už nějak... moc.

+1
0
-1
Je komentář přínosný?

Omezím se na fakta. V tomto stavu je to na tom notebooku nepoužitelné (viz video na PC Perspective). Nahrát tam jen ten ovladač zjevně nestačilo k tomu, aby to fungovalo korektně (viz video na PC Per). Není pravda, že se to u toho notebooku chová stejně jako u monitoru s G-syncem (viz text na PC Perspective). No-x tuhle drobnost (že jim na tom notebooku při nízkém framerate vypadává obraz) v celém článku tak nějak zapomněl zmínit (viz článek na Diit). Nvidia nikdy neřekla, že nějaký jimi navržený stodolarový přídavný modul bude v takové podobě zapotřebí na věky. Řekli jen to, že to tehdy u stolních panelů nešlo řešit jinak (a dokonce mluvili i o tom, že u notebooků je to řešené jinak, a dokonce i o tom, že žádná další rozšíření standardu VESA zapotřebí nejsou, protože už to lze realizovat i na těch stávajících).
viz http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo
Ale chápu, prostě by to nabořilo tu tezi o ždímání zákazníků zlou Nvidií, která všem jen ustavičně lže o tom, že nějaký adaptivní v-sync potřeboval i nějaké změny u hardwaru, když AMD jasně dokázalo, že stačí jen napsat nový firmware pro scalery a na Nvidii se provalilo, že u notebooku stačí jen napsat nové ovladače. A kdo řekne, že by to tak úplně nemuselo být, je zelený mozek. Jasně. Dává to smysl. :)

+1
-19
-1
Je komentář přínosný?

Adame, ale o technikálie přece nešlo, šlo o to, že představitelé nvidie šmahem tvrdili, že nic jako FreeSync (a dokonce obecný standard DP1.2a, který není nijak svázán s AMD) podporovat nebudou a že mají svůj (mezi řádky lepší, výkonnější, blabla) G-Sync.

Kdyby řekli, že G-sync (jakožto obchodní značka) bude podporovat/využívat DP1.2a atd., nebo aspoň řekli, že to zkoumají, zda to je technicky možné (protože to se evidentně dělo), nedělali by z lidí blbce, protože právě to se s tím prolátlým driverem stalo. Naopak by mohli tvrdit, že podporují všechny varianty této featury a je na uživateli, co zvolí.

Celkem rozumím tomu, že se nvidia marketingově staví do role leadera, který pokládá konkurenční řešení za suboptimální a že to celé je marketingové bubnování, kterým se snaží zůstat v povědomí lidí/zákazníků jako ti co mají "lepší ovladače a technologie", ačkoli to dávno v mnohých aspektech není pravda. Jenže pak si musí ohlídat a náležitě probubnovat i ten přechod na onen zprvu odmítaný standard, což se zjevně nestalo. Fanoušci nvidie pak musí složitě argumentovat a manévrovat v diskusích o technických aspektech a problémech, ačkoli o nich to primárně přece není, jak jsem už napsal v první větě tohoto příspěvku. :-)

+1
+29
-1
Je komentář přínosný?

Ano, marketing (mimochodem, tvrdím, že marketing všech firem lže, přikrášluje či "zapomíná" všude bez rozdílu). Na druhou stranu jim v tuto chvíli nic nezbývalo, protože do speciálně vyvinutého HW již investovali dost peněz. Ale tím, že to je právě speciální HW, není určen pro běžné uživatele (mezi běžné uživatele nepočítám ani hráče, kteří tráví u PC hodiny hraním a pořizováním si kvůli tomu top HW), což by bylo v duchu profi HW pro profesionály, kam G-Sync modul, dle mého názoru, míří. Jestli teď koketují s SW implementací pro "masy", tak proč ne, zatím se k tomu NV nevyjádřila. A mimochodem, díky za G-Sync modul, protože kdy by se AMD uráčilo zpřístupnit Free-sync, to je ve hvězdách, takhle k tomu bylo dotlačeno inicivativou NV.

+1
-24
-1
Je komentář přínosný?

AMD toho uvolňuje až moc :-) u freesyncu se to taky dalo čekat. Kdyby to nechtěli uvolnit, tak by se to těžko dostalo do DP ;)

+1
+6
-1
Je komentář přínosný?

Dalo čekat - kdy? Za rok? Za pět? Na svatého Dyndy? Jak je patrné, bylo zprovoznění free-syncu poměrně jednoduchou záležitostí, tak že se hoši v AMD nepochlapili dříve, jak by se u "tahouna" technologického pokroku v GPU dalo čekat. :o

+1
+9
-1
Je komentář přínosný?

A kde je napsané, že to funguje stejně jako freesync a využívá to optional funkce z DisplayPortu 1.2a? To se pozná na základě toho, že se uvnitř notebooku při rozborce nenašla stejná karta, jaká se montovala do monitorů nebo nějaký šváb navíc? Hergot, lidi, já bych u něčeho tak komplikovaného, jako je tohle řešení, chtěl mít tu vaši jistotu, že je všechno tak strašně jednoduché, vzájemně kompatibilní a jde to tak snadno. Nenašel jsem švába z G-sync modulu = Nvidia používá freesync!

+1
-25
-1
Je komentář přínosný?

Ale o tom, zda to (ne)funguje stejně jako F-S to přece není. Navíc nesouhlasím s tím, že se jedná o komplikovanou věc, principy jsou známy desítky let (viz 8-bity 16-bity, zejména pak Amiga s různým harampádím typu framebuffer + genlock a v podstatě i "neblikavých" her či her kde se děly hrátky s copperem), jde jen o to, jak se to technicky postaví a případně vylepší. To jen dnešní doba dělá z každé kraviny sofistikovanou magickou věc opředenou TMky a Cčky a Rky v kolečku (a náležitě opředeno patentovými blijanci). Že nvidia nebude 100% kompatibilní s F-S nebo DP1.2a je možné, nicméně tím se opět vracíme k marcom obkecávačkám a lžím.

+1
-10
-1
Je komentář přínosný?

Princip je jednoduchý, komplikované je to implementovat a naroubovat do stávajícího ekosystému. Už před rokem ta prolhaná Nvidia tvrdila, že stávající standard zná vše, co je pro implementaci variabilního v-syncu třeba (což dokládala tím, že na stávajícím standardu postavila G-Sync) a že problém je s elektronikou, která to v tehdejší podobě nezvládala.

+1
-20
-1
Je komentář přínosný?

Proprietarni reseni VS standard :D

Kdyby byl standard dostatecny, nebylo by potreba G-Sync modulu. Neslo to jen SW cestou na strane vyrobce grafik. U NTB to je krapet jine, pac notebookove monitory maji neco nad stardard. To demonstrovala AMD uz pred rokem. Tedka to zkousi i NVidia.

+1
-19
-1
Je komentář přínosný?

AMD to demonstrovalo před rokem, ale přesto to žádný notebook s AMD doteď neumí. Z toho mi logicky vyplývá, že by s něčím asi mohl být problém (a software to nebude).
Kdyby to uspokojivě zvládala dobová elektronika, tak není třeba modulu s G-Sync ani přes rok čekání na to, než se začnou prodávat monitory s freesync.
Opět zopakuju, Nvidii k tomu, aby na podpoře G-Sync u monitoru něco trhla, stačí jen to, aby po výrobci chtěla poplatek za licenci, pokud chce mít v parametrech, že monitor G-Sync podporuje. Nemusí kvůli tomu vyrábět hardwarové klíče.

+1
+2
-1
Je komentář přínosný?

Asi tak. A když k tomu přičteme dobu na vývoj, který jistě není pár týdnů, potom nám vyjde, že celý modul G-Sync byl vyvíjen někdy v době, kdy prostě stávající HW neměl potřebné parametry, které právě ten modul suploval.

+1
+6
-1
Je komentář přínosný?

Kazdy se musi nejak zivit...staci si rozdelit firmy na ty uspesne (neoblibene) a ty druhe, a kdyz nam umira ctenost, tak to pekne rozjedeme... :-) Taky nelze opomenout, ze jsme v Cesku, tady se uspech neodpousti...takze je jasne, na ci stranu se priklonit...

+1
-5
-1
Je komentář přínosný?

Nuz neviem. Nesledujem detailne dianie okolo G-Syncu a tak isto je mi cela nVidia aj AMD ukradnute. Obcas mam pocit ze si ludia neuvedomuju ze je skor zazrak ze nieco co obsahuje cez miliardu tranzistorov funguje v podstate bez problemov. To uz ani nehovorim o komplexnosti grafickych ovladacov. Proste vzdy v tom budu nejake bugy. Ja som len poznamenal, ako koment nadomnou, ze v povodnom clanku toho bolo trochu viac a aj jasne tam pisu ze G-Sync modul v jednom specifickom pripade moze zlepsit zazitok a to pri menej ako 30FPS. Ale tak chapem ze autor si neprizna ze clanok nebol uplne prevzaty ako original a teraz ma potrebu to obhajit, ale ved aj tak sa im to sere. Aj ked paradoxne aj v tom ovom linku pisu ze to blikanie obrazovky bolo len v testovacej verzii G-Sync modulu ale v produkcnej to uz obmedzili a deje sa to len pri dropoch na 0FPS.
Tu nejde o to ci je nVidia zla alebo dobra, len ze povodny clanok pise o par faktoch ktore uz tu su, boh vie preco, zamlcane.

+1
-22
-1
Je komentář přínosný?

Konspirační teorie: Všechno spolu souvisí - chybějící ROP a půl GB pomalé paměti jsou ve sktečnosti utajený G-Sync modul! :-)

+1
+40
-1
Je komentář přínosný?

G-Sync = modul coz jenom zere energii a prevadi digitalny signal dal doskou PCB, umele predrazene HYPE

My nebudeme podporovat FreeSync, DisplayPort 1.2a rozsireni a budeme nadale lhat o vsem, nase jasna strategie "NVIDIA"

NVIDIA by ted mela udelat nasledovne:

-majitelum soucasnych karet GTX 970 s chybnou sbernici bezplatne vydat verzi GTX 970Ti kde to budem jenom o zoskrtanych procesorech
-zmetkove GTX 970 prodavat za cenu GTX 960
-GTX 960 dat jak nejnizsi lowend pod ktery se uz nebude moct preznacovat stara predosla generace
-otevrene priznat ze nejaky G-Sync je umelina/podvrh a aktivne spolupracovat na vypileni technologie FreeSync s AMD a Intel-em
-ospravedlnit se zakaznikum

Jeste je tu otazka 7GB modelu GTX 970 ktery by resil sprasenou sbernici(224-bit), holt uvidime.

+1
+21
-1
Je komentář přínosný?

Nepreháňaš to trochu?

1. Zbernica na GTX970 nie je chybná. V tom prípade by nefungovala karta ako celok.
2. GTX 970 nie je zmätok. To by sme tak´potom mohli označiť všetky karty, ktoré nensú plné špecifikácie čipu na ktorom stoja. A to nie je problém iba NVIDIe. Je snáď HD 6950 alebo HD 7950 zmätok? Nie je.
3, GTX970 je výkonovo signifikantne nad GTX 960. Prečo by mala ísť na jej cenu?
4. G-Sync modul mal zmysel na desktopových monitoroch. Na NTB NVIDIA nikdy netvrdila, že je treba špeciálny modul. Takže o žiadnu umelinu nejde. O podstate G-Syncu sa rozhodne s poriadnym nástupom AdaptiveSync monitorov. Ak G-Sync ponúkne nejakú pridanú hodnotu oproti štandardnému riešeniu, tak zmysel mať bude. Inak nie.
5. Áno. Mali by sa ospravedlniť. Hádam sa tie zmätky okolo GTX 970 už nebudú opakovať.
6. Čo je to za výraz sprašená. Tá zbernica je úplne normálna. Je snáď sprašená 192-bitová alebo 384-bitová zbernica?

+1
-35
-1
Je komentář přínosný?

<i>GTX 970 nie je zmätok. To by sme tak´potom mohli označiť všetky karty, ktoré nensú plné špecifikácie čipu na ktorom stoja.</i>

Proč tak lžete? Není Vám to trapné?
Nejde přeci o to, že GTX 970 nenese čip v "plné parádě" (proto je to také 970 a ne 980, že?!), ale jde o to, že nVidia uvedla na "půl huby" nějaké specifikace (64 ROP, 4G ram), které všichni převzali a do světa vytrubovali.

A najednou se ukázalo, že nesedí počet jednotek a že se rozhodně nedá bavit o 4G ram kartě ale jen o 3,5G ram (navíc dalších 0,5G funguje jako skvělý "performance killer") a navíc že udávaná paměťová propustnost je další lež.

...

Tedy ne, že by karta nenesla plnou verzi čipu, ale že nVidia přímo, natvrdo a bez vytáček lže v tolika parametrech GTX 970, až to hezké není. O to tady jde.

...

Pokud jste natvrdlý, já Vám to přeložím. Je to, jako kdyby výrobce prodával elektromobil a součástí jeho specifikací by bylo, že jede maximální rychlostí 130km/h (pro dálnici). A pak by se ukázalo, že je to tak, že hlavní silný elektromotor vůz rozpohybuje na 100km/h a malý elektromotorek pro městské pojíždění mu dodá rychlost maximálně 30km/h a výrobce tyto parametry sečetl, i když ty motorky NEMOHOU běžet dohromady a auto tak nedosáhne 130km/h ale jen 100 a 30km/h na různé motory.

Už?!

+1
-4
-1
Je komentář přínosný?

"navíc dalších 0,5G funguje jako skvělý "performance killer" " Muzes tohle nejak podlozit? Ja co sem koukal na benchmarky, (dve ruzny stranky, ctyri ruzny hry) tak nic takoveho nepotvrdily, takze uz fakt nevim co si o tom myslet a sam si to overit nemuzu...

+1
-7
-1
Je komentář přínosný?

kdyby to nebylo potvrzeno z tolika stran, tak by z toho nebyla takova afera. Doporucuji trosku hledat. Ono totiz tim ze se to chova jako 224b+32b, tak ani do tech 3,5GB neni pametova propustnost takova jaka mela byt, ale je prave o tech 12,5% (32/256 propustnosti v haji) pomalejsi nez v pripade plnohodnotne 980.
O tom co se deje po prekroceni 3,5GB hranice se spekuluje. Nekdo rika ze to zpomali jako prase, protoze pri pristupu do posledniho bloku pameti to nemuze pristupovat k tem 3,5GB, nekdo rika ze to k tem poslednim 512MB ani nepristupuje, protoze by to zabilo tu pamet a vyuziva ram. Tak ci tak je to problem.

+1
+3
-1
Je komentář přínosný?

Celý Váš príspevok je úplne mimo z jednoduchého dôvodu. Keby ste nemali pred očami červený mrak, dokázali by ste oddeliť dva rôzne faktory: špecifikácie udané NVIDIou a samotný produkt. Za to čo NVIDIA uviedla náležite platí. Časť zákazníkov vracia GTX970tky a nikto im to nemôže zazlievať. Osobne by som si GTX970 po tom všetkom tiež nekúpil. NVIDIA by sa mala za to revanšovať, reklamácie uznať a ospravedlniť.
To ale neznamená, že samotná GTX970 je zlá grafika. Jej výkon je predsa známy z testov na webe. Stačí si prejsť viacero zdrojov a je jasné, že svoju cenu si obháji. Preto neuznávam výrazy ako zmätok u tejto GPU. Pretože zmätkom sa označuje niečo čo je vadné. Nie niečo čo funguje.
Takže nemusíte mi dávať Vaše príklady pretože rozumel som tomu čo chcete povedať aj predtým, len ste nepochopili, že ja neobhajujem v tomto prípade NVIDiu, ale GTX970 ako produkt. Naozaj si myslíte ako ten na koho som reagoval, že sa karta s jej výkonom má predávať za cenu GTX960?
GTX 970 je grafika naprosto v poriadku. Osobne sa čudujem, že keď už moralizujete, že ste nereagovali na príspevok na ktorý som odpovedal. Obsahuje len kopu hlúpostí a navyše je zbytočne agresívny. Zrejme Vám ale agresia voči jednej strane nevadí.
Taktiež si vyprosím označenia ako natvrdlý. Napísal som svoj príspevok jasne. To, že ste ho nepochopili nie je moja vina. Nepotrebujem Vaše príklady k tomu, aby som niečomu porozumel. Mám svoj vlastný rozum a aj vzdelanie.

+1
-20
-1
Je komentář přínosný?

Tak ja jsem mel za to, ze nVidia komentovala hned v zacatcich ze na notebooku to neni az takovej problem, pokud to podporuje GPU. Coz jak se zda nova generace uz to asi umi. Problem byl u klasickych monitoru. Pokud bude nVidia davat modul jen do externich monitoru a do notebooku ne, porad to muze mit marketingove pod svoji G-sync.
Ale popravde do toho nevidim, az zas tak me to nezajima.

+1
+11
-1
Je komentář přínosný?

Je pravda, že marketing nVidie je trošku více kreativní, než by měl...

+1
-5
-1
Je komentář přínosný?

A nebude to skor tym, ze vyrobcovia panelov zacali pouzivat ine ... scalery (sa to tusim vola) vzhladom na to ako aspon trochu rozviril hladinu AMD s FreeSync? Kedze Asus ma ROG monitory pre hracov, a tiez uz ma aj freesync modely, kludne mohli pouzit scaler ktory uz podporuje zmenu obnovovacej frekvencie. To ze je kompatibilny s G-sync moze ale aj nemusi byt nahoda. Ja by som za tym nevidela konspiraciu, skor chystanie na nadchgadzajuce produkty. Ten G-Sync ktory PCPER skusali je stale zabugovany a funkcny fakt len v zaklade.

IMO vyrobcovia monitorov budu do budicnosti podporovat oba standardy, ci uz s modulom alebo vyleptany proamo v pouzitom scaleri.

+1
-15
-1
Je komentář přínosný?

Nvidia vám lhala, že to bez modulu nejde, když to sama udělat dokáže, a modul slouží jen jako HW klíč.

+1
+11
-1
Je komentář přínosný?

Môžete dať odkaz na zdroj odkiaľ čerpáte? Akým spôsobom sa to dalo realizovať na desktopových monitoroch v čase, keď sa G-Sync prezentoval?

+1
-2
-1
Je komentář přínosný?

Myslel som zdroj kde NVIDIA tvrdila, že bez G-Sync modulu nie je možné mať adaptive sync na NTB alebo že to bez neho celkovo nejde. Treba si uvedomiť, že v dobe prezentácie G-Syncu nebolo niečo také bez špeciálneho modulu možné. S príchodom AdaptiveSync to už dnes samozrejme neplatí.

+1
0
-1
Je komentář přínosný?

nVudia v poslednej dobe robi pekne kotrmelce ale zasa treba argumentovat k veci.V tej dobe, ked prezentovali Gsync, zvladal to bezny monitor ez specialneho kusu hw alebo bez toho aby vyrobca komplet prerobil elektroniku? No nezvladal, ale kde je napisane ze to bude tak naveky. Vasou argumentaciou, Intel nam lhal, pri 386 bolo treba samostatny svab ako koprocesor 387 a pritom o par rokov to uz mali niektore 487 a od pentia vsetky cpu v sebe. Dnesny vyrobcovia 4k panelov klamu, lebo sa musia pripojit cez dva kable (hdmi ani dp na vecsine dnsnych kartach to nezvladaju) ale pri dalsej generacii to uz pojde cez jeden kabel a hnusny klamarsky apple to cez tb zvladne tiez cez jeden kabel. A podobne...
Skor si myslim ze nVidia si tou svojou strategiou a politikou presrala kratke casive okno kedy sa mohol Gsync rozsirit.A mozno necakali ze vyrobcovia panelov sa tak rychlo dohodnu a doplnia standard.

+1
-5
-1
Je komentář přínosný?

V době ukázky g-sync opravdu nebyl monitor schopný něčeho podobného.

Na druhou stranu, místo modulu se dal jen změnit FW v monitorech a hotovo.
Takže Nvidia věděla, že to jde levně ale udělal si modul s vlatním čipem ze kterého chtěla vydělávat a hlásat do světa kolik Tegra čipů prodává.

Viz AMD, ukázala jak se dá změnit FW aby fungovalo adaptivní framerate a v tomto kvartále má být prvních 10 minitorů s freesync. Navíc není důvod nemít tuto technologii v každém monitoru, je přeci zadarmo.
Kolik je na trhu monitorů s g-sync?

+1
+7
-1
Je komentář přínosný?

"Na druhou stranu, místo modulu se dal jen změnit FW v monitorech a hotovo."

Tak to AMD prezentovalo. Prečo teda nevyšiel žiadny update FW a prečo sa muselo vyše roka čakať keď to bolo také jednoduché? AMD len vtedy využilo NTB, aby trochu narušili vnímanie G-Syncu. Bol to čisto obchodný zámer a z toho istého dôvodu pretlačili AdaptiveSync. Keby im šlo o posun technológií, nečakali by s tým až kým ich k tomu dotlačí NVIDIA.

+1
+5
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.