Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Podvádí AMD Polaris v HDR renderingu?

Ok - Polaris má problémy na HDMI s barevnou škálou ....No problém , ve své cenové asi nijak výrazný , ale omezení to je a u některých pozic to může být až otázkou volby . Ehmm a jak je na tom pod DVI-D ? A jak je na tom vlastně konkurence ?

+1
+7
-1
Je komentář přínosný?

HDMI 2.0 na to proste neni stavene (nema dostatecny datovy tok) a AMD slo cestou 8bit 4:4:4 aby byl zarucen HDR zazitek a NV asi cestou 10bit 4:2:0/4:2:2 (spekuluji protoze 10bit 4:4:4 pres HDMI 2.0 pri 60@Hz se protlacit neda)
u PS4 PRO to urcite nebude problem protoze ve 4k to nejspis prepnou na 30Hz a tam uz se 10bit 4:4:4 protlaci v pohode :D (jen hadam o konzolich nevim skoro nic :D )

mel bych nekolik dotazu
- na jakem monitoru/TV to testovali a maji na testy jeste nejaky spickovy referecni monitor pro porovnani a testovali jen toho SW 2 ?

- kolik PS4 her bude umet 10 bit HDR ?

- ma PS4 PRO Displayport ? :D (to byla jen recnicka otazka)

+1
+3
-1
Je komentář přínosný?

Tak Ježek je neskutočný debíííííl. Zase to dokázal. Celý článok vyznieva, že je to problém AMD, prípadne tej karty (čipu), pritom je to problém rozhrania HDMI, ktoré to proste nezvláda. Kedy ten novinársky?, redaktorský? sockovský odpad odíde do prdele aj so svojimi blogmi? Jaj, asi nikdy, lebo Diit by zrazu stratilo polovicu príspevkov (či skôr sračiek?).

+1
+2
-1
Je komentář přínosný?

Opet dokazujes, ze nemas sajn, jak veci funguji. Chroma sub-sampling v rezimu 4:2:0, ktery pouziva Nvidia, dava plny HDR zazitek, co se tyce barev. Barevny rozsah je bez kompromisu 10bit HDR. Ten sub-sampling je v tom, ze chroma kanaly Cb a Cr maji polovicni rozliseni oproti luma, coz ale neni zas takovy problem. Vubec to neznamena, ze by se nejak nekde ztratila HDR informace.

Takze Nvidia opravdu dava HDR zazitek (jak jen to s HDMI 2.0b jde), kdezto AMD to poradne provarilo :)

+1
-4
-1
Je komentář přínosný?

ano NV nabizi opravdu HDR akorat to trochu odrbe a bezkompromisu poda zdeformovany vysledek ktery s originalem nema mnoho spolecneho :D ale AMD ktere opravdu poskytne nezkresleny HDR vystup pres HDMI to provari :)
ted jestli se tak chova kazda hra nebo jen ta testovana pripadne jestli je nejaka moznost si vybrat jaky rezim uzivatel preferuje a takove informace uplne chybi ...

+1
+4
-1
Je komentář přínosný?

"ale AMD ktere opravdu poskytne nezkresleny HDR vystup pres HDMI to provari "

AMD u Radeonu pres HDMI neposkytuje HDR obraz. O tom tu je cely ten clanek. Nvidia HDR poskytuje.

+1
-1
-1
Je komentář přínosný?

Byly 2 možnosti. Vybrali tu lepší. Tak pokud je to "podvod", tak sáhnu raději po tomto "podvodu", než po převzorkovaném humusu 4:2:0 a 10 bit barvám. Nicméně název článku nezklamal, opět žumpa snažící se vyvolat diskuzní flame. Nic pokleslejšího než věty s otazníkem na konci snad už není. Styl ala Blesk

+1
+13
-1
Je komentář přínosný?

no tak todle mi taky hlava nebere.. ne otaznik ale ty reci v clanku kolem hdmi.. urcite jsem tu cet aspon dva clanky kde tohle rozebirali.. jeden byl imho tohle..
http://diit.cz/clanek/4k-televizi-k-pc-pripojete-pres-displayport

uz pre rokem tu psali ze hdmi2.0 umi ve 4k bud 10bit+60hz nebo 10bit+plny barvy nebo plny barvy+60hz.. ne vsechno najednou.. musi se vybrat jesli pres hdmi poleze..
-10bit+60hz+polovicni rozliseni barev
-10bit+30hz+plny rozliseni barev
-8bit+60hz+plny rozliseni barev
prvni se hodi na video, druhy na grafku.. takze je vsechno ok, ne?

+1
+12
-1
Je komentář přínosný?

Všechno je ok, to ale neznamená, že neexistuje TV, do které když připojíš BlueRay UHD 10bit - 12bit barvy + HDR, že to ta telka odmítne. Taková telka existuje, jede přes HDMI, ale do jaké míry je to proprietární řešení softwarové nebo hardwarové (narážím, že vlastně letos v lednu byly teprv na CES a zapojení Samsung - Samsung přehrávač atd.), to se jaksi blbě googlí, když cena za členství v HDMI fóru je 15000 dolarů za rok a nikdo jinej ke specifikaci nemá přístup. Pak je totiž otázka, že si takovou Telku koupíš, ale soudruhům v číně se nechtělo platit výpalný letos a tvoje grafická karta (zrovna toho výrobce.. např. EVGA hi hi) ti to nezobrazí, i když by náhodou měla ten čip, který to umožňuje. Tak tomu rozumím já. A pak jsou ty horší varianty typu 900 řada nVidie, ta na to podle mého skromného soudu nemá - kolik výrobců s Polarisama / Pascalama tam jeblo stejnej čip je otázka.

Nicméně může existovat i varianta, že to Polaris "napřímo" nedá (malej digitální tok HDMI kanálu z čipu, možná dokonce kvůli samotným nižším frekvencím čipu) a Pascal jo, zatím se nikdo oficiálně nevyjádřil. Ten Guru3D je jen alibismus na základě "nestandartu". Celkově to ale Polaris dá přinejhorším s externím DP-HDMI čipem, a jsme viz. výše, jakej čip tam dali.

+1
0
-1
Je komentář přínosný?

proste 4k@60Hz 10bit 4:4:4 tam nenarves (je uplne jedno jestli NV nebo AMD)a o tom to je to ale neznamena ze tam neprojde 4k HDR 10/12 bit 4:4:4 na nizsi frekvenci @30Hz ..nekde jsem cetl ze tam nekdo manualne protlacil 4:4:4 pri @52Hz ale to uz sel mimo standard u bluray je situace jina tam by teoreticky stacilo 48 Hz kvuli HFR ale i tak myslim ze Blueray ma v zakladu 4:2:0 takze ani 4k@60Hz by nemel byt problem >>> uvidime co prinese HDMI 2.1 jestli mirne vetsi datovy tok nebo pridaji kompresi >> HDMI jedine na FHD a na plnohodnotne 4K opravdu ne a skoda ze vyrobci neimplementuji prozatim do TV i DP ...v minulosti to par TV uz melo mohli u toho setrvat ...

+1
+5
-1
Je komentář přínosný?

Jestli myslis 4K@60Hz a 4:4:4 chroma tak to samozrejme funguje ale pouzije se 8bit barevna hloubka coz pro desktop je vice nez dostatecne. U videa a her by zase nemel byt problem 4K@60Hz a 4:2:2, nehlede na to ze UHD bluray bude mit videa s uplne stejnou limitaci.

PS:
- ve video prumyslu na DP pro pristich par let zapoment, tam je zavedene HDMI a pravdepodobne to tak nejakou dobu zustane.
- vetsina displayu a monitoru v soucasnosti pouziva 8bit a jen mala cast 10bit.

+1
+3
-1
Je komentář přínosný?

- vetsina monitoru pouziva 6bit pripadne s FRC ktery je taky vydavany vetsinou lzive za 8bit :) lepsi true color 8bit/10bit uz neco stoji i s TN panelem a mezi uzivateli 8/10 bit moc rozsireny neni :) vyvoj monitoru se zabrzdil a udelal trochu krok zpet pri prechod z CCFL na LED podsviceni (dobre VA segment si drzel 8 bit celou dobu ) a teprve s prichodem 4k HDR a REC2020 se zacina pomalu rozbihat kupredu

+1
+6
-1
Je komentář přínosný?

Staré Matrox (mystique ještě ne, ale Prahelia už určitě) uměly i více barev než 8-bit ačkoliv VGA standard počítá s max 8, byla to tehdy jejich obrovská výhoda a proto taky byly hodně oblíbený u grafiků po mnoho let.

Dále u CRT je obecně problém s bandingem mnohem méně výrazný. Jednak samotná technologie CRT ráda slejvá jemné přechody, kor v tmavejch odstínech. V tomto ohledu neni nejpřesnější ale lidskému oku to působí přirozeněji. Pak tam máš onen dobrej kontrast a ten fakt že je to full analog, tzn co z VGA vyleze to jde rovnou do CRT děla a pokud tam budeš mít 0 neplynulejch přechodů tak to bude na monitoru. Je to velká výhoda CRT (a proto taky doma držim stále pár high-end trinitoronů).

LCD dlouho bojuje s tim že od svého počátku defakto emuluje CRT. Platí to i u VGA připojení (které v LCD lede do A-D převodníku. tak DVI,HDMI, DP. Vše je založené na staré 8-bit RGB (s 32-bit color), a sRGB prostoru. LCD už se svym příchodem měly mít jinej systém protože tenhle CRT formátovanej signál pro ně neni ideální.

Co mě dále štve je že se vůbec oběvilo YBCR 4:x:x u HDMI. Proč se nezůstalo u RGB jako DVI (DVI a HDMI jsou signálem kompatibilní, HDMI umí YBCR mody defakto navíc), co tim chtěli ušetřit? Jen díky tomu se u TV stalo standardem 4:2:2 místo 4:4:4, ano filym jsou standardně komprimované v 4:2:0 takže tam to nevadí, ale vadí to jaksi všude jinde hlavně v desktop usage kde člověk potřebuje jemné přesné 1:1 pixely ve všech barvách. Chjo...

Ty 10-bit barvy jsou nutností aby tam nebyl banding, kor u wide-gamut panelů, protože čim větší gamut, tim více barev a tim více jich je potřeba aby nebyl banding. Tzn co se HDMI týče, tak kompromis je takovej že 8-bit 4:4:4 je lepší pro desktop 10-bit 4:2:2 pro video.

Dále u HDMI (kor na straně TV) je problém hlavně s HDCP. Samotná elektornika dovede dát určitej pixelclock (kterej by i třeba stačil na 4K 60hz 4:4:4 10bit) ale onen DHCP čip takovej výkone nemá a umí třeba jen 4:2:0. Obecně s tim byly velké problémy protože ty HDCP dekodéry byly o generaci pozadu oproti konektivitě, obecně od nástupu HDMI 2.0 je to problém.

+1
+2
-1
Je komentář přínosný?

K tomuto závěru jak oni jsem taky došel po půl hodině googlení... HDMI zmrdi. Výsledek je, že u některých karet to půjde updatenout na 2.1 (beztak to ale nazvou 2.2), u některých ne, protože - a to fakt hledat nebudu - záleží jakej signální čip (vlastně DA konvertor) použili na konci před konektorem. Ono těch čipů se na světě moc nevyrábí, asi tak 3 - 4 (kdysi jsem to googlil a našel myslím 3, třetí byl oznámenej teprv) - jestli se ten čip dokáže přetaktovat, toť otázka. A to samý pochopitelně na straně TV. Čili mít šťastnou ruku při výběru výrobce karty i TV. Protože i HDR telka může existovat jako 8bit.

Pro mě to znamená jediný, vzhledem k použití 4k TV jako monitoru můžu s klidným srdcem koupit GoGen 50" za 9990, u kterýho je jistý pouze to, že má 8bit barvy při 60p a dál se nechat překvapit...

Chlápek z Hospodářek (strašnej tragéd btw. - http://tinyurl.com/zy7ls97) se rozplýval nad HDR u XBOX 1s, z desetibitovejch barev se tak neudělal co si pamatuju. Tak nevím, radši bych 10bit barvy, ale už cca. v roce 1994, když jsem poprvé viděl/používal truecolor na CRT monitoru - a pak později na mém Matroxu Mystique G200 na CRT (Trinitron) - žádné přechody jsem neviděl. To ale taky bylo naposledy, co jsem viděl grafickou kartu bez přechodů, od té doby jsem na kvalitní DAC nenarazil - současná TV samsung totiž jede chudák přes VGA a taky jsou tam lehoulince mapy při prechodech. Nicméně VGA integrovaný na desce a telka má 12 let, že. Čili respekt že vůbec šlape.

Nicméně zdrojovej článek o ničem a clickbate na "kupte si další číslo magazínu c´t"... tam je jedinou věc na poloobranu autora třeba dodat, že to celej Internet vyplašilo a papouškuje to taky. )))

+1
+2
-1
Je komentář přínosný?

Ja mam pomerne drahe EIZO 2455 s 6+2bit FRC, do 10.000Kc je monitoru s 8bit barvama pomalu skoro zadne, takze mi muzete vypravet o Polarisu a 10bit barvach.
---
Jinak peknej nadpis: Polaris podvadi s 10bit. A v clanku: HDMI neumi zobrazit 10bit. :-D

+1
+14
-1
Je komentář přínosný?

No já musel jít ještě dál k EIZO CS240, který má 10bit barvy (a téměř AdobeRGB gamut). Přenese to jen přes DP, přes HDMI/DVI limitováno na 8bit.

+1
+1
-1
Je komentář přínosný?

Kouknu na nadpis a říkám si - tihle výrobci jsou nenapravitelní. Přečtu první odstavec a ptám se sám sebe - jak to teda dělá nVidia, když dělat to správně nejde kvůli propustnosti. A pak se vracím k nadpisu článku a s povzdechem konstatuji: "aha, bulvár" ...

+1
+10
-1
Je komentář přínosný?

Mám dotaz: Mám k Polárce připojený IPSový monitor skrze DP a IPSovou TV skrze HDMI. V ovladačích v additional settings si u monitoru můžu vybrat mezi 6 a 8 bity na kanál a u TV mezi 8,10,12. U monitoru jsa přesvědčen, že nejlepší zážitek dosáhnu s 8 bity nastavení neřeším. Zajímá mě TV. Znamená to že je HDR ready ? Zkoušel jsem testovací videa na YT a jsou krásný, krásnější je to na více jak 8 bitech subjektivně (nereálný, ale krásný). Otázka zní, můžu si TV otestovat nějak exaktně ? Ještě doplním, že v manuálu k TV nic není, ale relativně často stahuju update firmware skrze wifi, takže TV žije a nějak se vyvíjí.

+1
+3
-1
Je komentář přínosný?

Tak to ti gratuluju. Co to je za TV a grafiku? Exaktně stáhnout testovací video někde, který bude mít uvnitř kontejneru 12bit barvy a 4:4:4, pokud někde existuje a pak si s tím hrát např. v Daum PotPlayer a uměle to omezovat, jestli vidíš rozdíl.

Mimochodem doteď jsem nikde nenarazil na to, kolik úrovní světelnosti HDR přidává k řízení podsvětlovacích diod a jaké je jejich rozlišení. Protože při 3x12bit jsme ze 16GBit na 24GBit + HDR + Ethernet + Audio + blbinky (u GPU jen teoreticky), tzn. 3 linky PCIe 3.0 a už toto pásmo je zadrátovaný pro DisplayPort část, takže opravdu záleží na návrhu čipu tak, aby dával 5k monitor nebo řekněme 2 - 3 4k, a zároveň aby tuto schopnost měl ještě separé na HDMI. To se opravdu spíš nabízí řešení dát tam přídavnej čip DP-HDMI a při zapojení HDMI vypnout jeden DP. Ale kdo takovou kartu vyrobí, když AMD (Pascal zatím nevíme) se na to už na úrovni čipu asi vykváklo, toť otázka. Tranzistorů je hodně a místa málo, resp. i drátků pod čipem je nedostatek.

+1
+1
-1
Je komentář přínosný?

Díky za odpověď. Jedná se o Samsung TV ue46f6510, která už byla nahrazena novějším modelem, ale jak píšu, aktualizace dostává. Ve specifikacích jsem našel, že má wide color enhancer, asi nějaký barevný převzorkování ? Čert ví, co to vlastně je. Jak kdyby to nemohli napsat technickým jazykem.
Grafika je RX480 od Sapphire.

+1
+1
-1
Je komentář přínosný?

Opravdu to musíš ale otestovat. To že ti grafika dovolí pustit 4:4:4 až 12-bit neznamená že to TV zobrazí, v praxi to většinou bejvá max 4:2:2. On je velkej rozdíl mezi zpracovat signál a zobrazit. Zařízení co neumí 4:4:4 takovej signál přijme, ale kvalita na samotné obrazovce bude odpovídat tomu co podporuje, tzn typicky 4:2:2, někdy i zlejch 4:2:0.

+1
+1
-1
Je komentář přínosný?

No to nestraš, minimálně má ku.evskou kliku na to, že jak telka tak grafika se spolu baví přes HDMI na 12bit. barvách 4:4:4. Jestli lžou ovladače grafiky a stejně to posílá 4:2:0, o tom radši nemyslet. Jestli to ta telka vidí, že jí to přišlo, tak ovladače nelžou. Ten marketingovej název právě může znamenat, že tam jebli správnej čip (SoC), kterej už to futureproof jebe hlava nehlava např. 24MBit a neřeší bitclock (na kompresi opravdu zapomeňte, už tak si lidi stěžujou na 70ms lag při 4k). A posledně jestli ušetřili 5 dolarů na čipu a 100 dolarů na panelu a udělali to tak, že čip je starej mrzák, protože dostačuje k mrzáckýmu panelu na konci, kterej je vyrobenej tak, že ušetří pár transistorů po stranách a barvy hardwarově jedou pouze Full HD... možný to je. Viz. ona aféra s displeji 4k s bílýma pixelama, víte co myslím, nevzpomenu si.

Radši nemyslet. Jinak samozřejmě celej problém je o HDCP, proto když má telka DisplayPort, tak si připlatíš tak 20 litrů výpalné (nedivil bych se, kdyby vstup do HDMI fóra obsahoval ve smlouvě podobný háky pro consumer products, ne už např. pro filmovej průmysl nebo výstavu CES, že).

+1
+2
-1
Je komentář přínosný?

Frkulini celeho sveta spojte se.
---
Lepsi komentar me nenapada, nebot stejne jakou cenu ma tenhle 10bit nesmysl u pohybliveho obrazu? Samozrejme fotografie je neco jineho, ale u videa detail. Kdyby se radsi zacali zabyvat tim, aby byly 50FPS kamery, protoze zvlast jak je clovek navyklej u pocitacovych her, ze ma 60FPS a obraz je krasne plynulej, tak se potom jdu koukat na nejakej film a trha mi to oci ten obraz, hruza.

+1
+3
-1
Je komentář přínosný?

Když to máš těžký. Ten kdo není třeba z her, jak píšeš, navyklej na plynulej obraz, tomu se high fps u filmů nelíbí a má pocit, že sleduje nějakej studiovej záznam (drtivá většina TV, co umí kompenzaci obrazu ji má na minimu nebo vypnutou. Jen občas se mě nešťastníci, co to omylem zapnou ptají, jak to co nejrychleji vypnout). Nedávno tu byl článek o Cameronovi a ani ten by si nepřál dělat celý filmy s vysokým frameratem.

+1
+2
-1
Je komentář přínosný?

Tak asi starsi lidi budou proste zvykli a je prirozeny, ze zadny novinky moc nechteji a to vcetne Camerona. Neverim, ze kdyz by se to stalo standardem, tak ze by si velmi rychle nezvykli a za chvili by byli za 50FPS radi. Sam jsem taky nevidel u 50FPS pro video prinos, dokud se o tom nezacalo mluvit, protoze jsem si to proste neuvedomoval a zdalo se mi i tech dnes beznejch 25(30) FPS plynuly, ale prave jak se o tom zacalo vic mluvit, tak jsem si ten rozdil u her a filmu zacal uvedomovat, jak se vlastne u filmu zvlast u zaberu z dalky, kdy kamera prejizdi nejakou krajinu, neuveritelne trha, protoze proste ty FPS jsou nedostatecny.

+1
+4
-1
Je komentář přínosný?

Vymýšľajú 8K TV, ale ako k nim pripojiť komponenty je im jedno. HDMI má často problémy aj dnes už s obyčajným HD

+1
+4
-1
Je komentář přínosný?

HDMI je zlo, rikam to uz roky. HDMI melo zaniknout kratce potom, co vznikl DP, ktery je ve vsech ohledech lepsi. Standart, ktery ma prilis malou datovou propustnost v podstate uz v den vydani, nema na zarizenich co delat. Proc se vlastne na TV nedava DP?

+1
+12
-1
Je komentář přínosný?

HDMI narozdíl od DP funguje, vždycky se mi stane, že zničím kabel, protože tam jsou nějaké dementní zobáčky. Navíc existují už funkční 10 metrů a delší DP kabely? Mají to projektory? Většina televizí má stejně HDMI, tak tu netroluje nějaký CRTPortem, haha ten vtip se mi povedl. Je to CRTPort, protože to umře stejně jako umřely CRT monitory.

+1
-9
-1
Je komentář přínosný?

s tím DP u NV je to ošemetné, zkoušel jsem připojit nový iiyama na DP na gk 1060 a se zlou jsem se potázal - grafika, respektive její driver neustále přesvětloval obraz, ať už starší nebo nejnovější, pomohlo až přepojení na DVI. A do HDMI se mi jít nechce. Možná až v budoucnu koupím Radeona tak to bude normální. Přijde mi jako kdyby NV tiše bojkotovala DP a podle této zprávičky zase AMD výrazně více preferuje DP před HDMI. Jistě je to otázka technických parametrů rozhraní, ale snad se to nezvrhne v jakési protěžování preferovaných standardů, na to pak doplatí akorát uživatelé....

+1
+5
-1
Je komentář přínosný?

Tak klasika, prostě AMD něco neumí tak lže a lže a lže. A přitom konkurence se směje, protože má zisky a funguje :)

Každý přece ví, že HDMI je nejlepší, DisplayPort je pro divné existence a Apple masochisty.

+1
-10
-1
Je komentář přínosný?

Jasne, DP je pro podivne existence. No uz to zacinas prehanet, tohle ti fanousci NVidie, ktera ma na svych novych grafikach 3xDP a pouze 1xHDMI, nedaruji.
Uz tu NVidii tady prestan ocernovat, jo!!!

+1
+1
-1
Je komentář přínosný?

Tak typicky Vám stačí jeden monitor, ten zbytek je DP z důvodu, že se za něj neplatí poplatky, proč kartu prodražovat o konektory, které stejně nikdo nepoužívá? Navíc si můžou napsat, že těch DP je víc než u konkurence ;)

+1
-7
-1
Je komentář přínosný?

Typicky prave ma uz dnes jeden monitor jen malokdo, chapu sice, ze ty si dva monitory na GTX750Ti nemuzes dovolit, taky na co by ti byly s takovou kartou, ale jinak uz vetsina lidi ma monitoru vic. Ja treba mam monitory dva + jeste pripojenou TV a potrebuju 3xHDMI (DVI) nebot taky na starsich monitorech DP nevedu. Nastesti Asus dela GTX1060 s 2xHDMI a 1xDVI, ale je to jedinny vyrobce. Naopak konkurence od AMD ma snad u vsech karet 3xDP.

+1
-1
-1
Je komentář přínosný?
+1
-3
-1
Je komentář přínosný?

Musis koukat na referencni, tam skutecne je 3xDP, pokud ma Sapphire rozum stejne jako Asus, tak jedine dobre. Nic proti DP, akorat mi prijdou ty 3xDP prehnane, protoze vetsina lidi bude chtit zapojovat 2xHDMI treba pro monitor a TV, ktere moc s DP nejsou.

+1
-1
-1
Je komentář přínosný?

Egmhm. Mi málem zaskočilo. Tak jestli je pro vás HDMI lepší, tak pak vaše trollování s nvidií začíná dávat dokonalý smysl (pro vás lepší i v případě, že bude parametry horší).

Hrdě se tedy hlásím mezi divné existence s DP.

+1
+2
-1
Je komentář přínosný?

DP je ok a já ho mám rád pro možnost freesync. Ale je pravda, že když jsem sháněl DP kabel, tak se na mě mladí a milí "specialisté" koukali podezřívavě. Když jsem je ujistil, že chci kabel k pc a ne k tv, rekli mi, že krom hdmi, usb a kabelu pro modem nic jineho nemají a prý tuto specialitu sehnat nejlépe v obchode s počítači. Nikdo jiný krom mě to nikdy nechtěl a je to moc speciální. Nutno podotknout, že jsem DP kabel koupil v obchodě s tonery a dvd medii. Byl poslední, stál 350,- a byl stejně zaprášený (zapraseny, he he) jako dvd media.

+1
+3
-1
Je komentář přínosný?

Sám vidíte, jaká je to divnost, že to vlastně nejde sehnat.

Navíc je mi líto toto psát, ale bohužel jste takříkajíc "prohloupil", kdyby jste pořídil grafickou kartu nvidia a G-Sync monitor, mohl by jste koupit HDMI kabel třeba i za necelou stovku i v takovém supermarketu jakým je např. Alza.

Nehledě na to, že G-Sync je ve všech ohledech lepší než Freesync.

+1
-8
-1
Je komentář přínosný?

G-Sync a HDMI ?
G-Sync a lepsi ? :D
kdyz uz trolis tak poradne aby na prvni pohled nebylo zrejme ze meles nesmysly :) klesa ti uroven troleni nebo jsi dnes jen unaveny ?

+1
+7
-1
Je komentář přínosný?

Shánět DP kabel v "konzumním elektru" je nonsense, protože v TV technice se DP nevyužívá. Počítačový obchod ho má snad každý (zelenej MZák má v nabídce 25 typů základního DP-DP kabelu od 179 po 800 kč).

+1
+5
-1
Je komentář přínosný?

DP kabel nebol v krabici s monitorom? Posledne 3 monitory ktore som kupovala (HP, HP, Dell) mali pribaleny aj DP kabel.

+1
0
-1
Je komentář přínosný?

Cely ten problem je jen to, ze to chlapci z AMD oznacili za HDR. To v 8 bit pujde tezko realizovat :)

+1
-4
-1
Je komentář přínosný?

To je správná připomínka, já to negooglil, ale není problém posílat klidně metadata 1024x1024x8bit jako signál pro podsvětlovací LEDky - nezávisle na barvičkách hlavního proudu. Jestli je to tak opravdu vyřešený, to by nám mohl David udělat článeček ;)

+1
0
-1
Je komentář přínosný?

"To v 8 bit pujde tezko realizovat :)"

No tak ono i "non-HDR" zobrazování používá logaritmickou závislost jasů, takže v tom nemusí nutně být nějaký kvalitativní rozdíl, pouze kvantitativní.

+1
0
-1
Je komentář přínosný?

Delat HDR v 8-bit bude vypadat jako 15-ti bitove barvy. Prechody nebudou a nemuzou byt plynule, kdyz tam budou mezi-odstiny chybet.

+1
0
-1
Je komentář přínosný?

Nejsem si jistý, jestli víte, o čem řeč. Tady nejde o zpracování v 8bit hloubce, ale o zpracování v 10bit hloubce a následný dithering do 8bit, protože HDMI 2.0 prostě při plném rozlišení ve 4k nedokáže 10bit hloubku při 60Hz protlačit.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.