Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Jak je to s výkonem GeForce RTX 4090 a s kvalitou DLSS 3.0

Celý ten graf výkonu od nVidie mi přijde dost pochybný kvůli té nejistotě co vlastně bylo použito za nastavení.

Proč právě první 3 hry kde to vypadá na porovnání raster výkonu jsou hry sponzorované AMD a tedy optimalizované na ryzeny a Radeony je taky docela velký otazník.
Doposud se nVidia AMD sponsored hrám celkem vyhýbala.

+1
+8
-1
Je komentář přínosný?

Je to vopruz. Dřív jsem BFU vysvětloval freesync a jeho výhody. Pak jsem zjistil. že ani ten hodně blbuvzdorný a primitivně fungující freesync nejsou schopny BFU u všech her nastavovat, a tak nějak mně jsou tudíš veškeré tyto technologie u pérdele. Naprostá blbuvzdornost, 100% rozšířenost a jednoznačný přínos - všechno ostatní jsou jen nápisy na pubertálně designované krabici, kterou jako bezcennou vyhodím. Chápu že v dnešním kapitalismu je nadčasová hodnota a blbuvzdorná spolehlivost sprosté slovo, a tak mi marketingová oddělení nemohou mít za zlé, že jsem v tomto směru nihilista - to oni ho ze mě udělali.

+1
+5
-1
Je komentář přínosný?

Na PCT píše Adam, že u DLSS3 ten mezisnímek vymyšlený není. Grafika má dopředu informaci o kompletních objektových datech pro ten "vymyšlený" snímek a dopočítá jen texturu. U těch televizí se ten snímek dopočítával komplet. To je značný rozdíl.

Jak to je ve skutečnosti nevím. Nicméně divil bych se, kdyby NVidia přišla s dalším DLSS1, kterému jsme se všichni smáli. Takže spíš to DLSS3 bude pořádně promakané a bude to opravdu zase podstatné zlepšení.
Nicméně bude potřebná součinnost vývojářů her a tudíž to vývojáři hotové nemají, NVidia to neměla ani na čem testovat, když podporu žádná hra nemá. Co teda Huang ukazoval, je záhadou.
Řikám, jak to je, nevim, ale když se tu předkládají domněnky, tak by měly zaznít všechny, které o tom zaznívají.

Hlavně už vidim to nadšení vývojářů her, jak to budou implementovat na grafiky za 30+K, které si koupí pár enthusiastů a rozšiřovat se budou jen velmi pomalu. Ikdyž teda možná má NVidia vyděláno na přehnaných maržích tolik, že to bude do AAA her platit ona a všichni najednou začnou vyrábět na míru NVidii. O to je ovšem smutnější, že je nová generace o tolik dražší a NVidia na nás bezostyšně vydělává, to teda zájem nemám a podporovat to dál nebudu.

+1
-5
-1
Je komentář přínosný?

„dopočítá jen texturu“

Jestli to takto někdo napsal, tak je to blbost.

+1
+13
-1
Je komentář přínosný?

Zjednodusil jsem to, jde hlavne o to, ze to zna dopredu pohyb objektu, ty dopocitavat nemusi. Takto to tam bylo.

+1
-2
-1
Je komentář přínosný?

To asi ale bude zvyšovat input lag, ne? Když musíš spočítat nejdřív třetí snímek, abys mohl dopočítat (dovymyslet) druhý, a pak teprv ten druhý a následně třetí zobrazit...

+1
+3
-1
Je komentář přínosný?

NVidia říká, že nebude. Ale vypadá to, že asi přišli na něco ja perpetum mobile.

+1
0
-1
Je komentář přínosný?

Bude a nebude. Oni to obešli tak, že tam, kde je DLSS 3, zároveň nacpou Reflex. Takže se plus mínus autobus dá říct, že o ten půlsnímek, o který se musí ten poslední renderovaný zdržet, zároveň tím reflexem zkrátí render queue. Ve výsledku se tak dostanou na podobný čas jako bez DLSS 3 a Reflexu.

V praxi to znamená, že normálně to má lag třeba 70 ms, s reflexem to stáhnou na 40 ms, a s DLSS 3 to zase natáhnou na 65. Takže je to horší než hra s reflexem bez DLSS, ale srovnatelné s původní hrou bez reflexu.

Akorát je tam zase ještě bordel v tom, že nerozlišují mezi latencí ze vstupu (myši) a latencí při renderování snímku, bude to spíš chtít změřit latenci mezi myší a monitorem.

+1
+4
-1
Je komentář přínosný?

Ne, ono je to fakt jinak. Ještě jsem to řešil včera, jak to opravdu je. V některých materiálech to mají „tak trochu“ zavádějící, někde to bylo vysvětlováno nejednoznačně, a asi v tom budou ještě chvíli zmatky. V textu jsem to pak včera večer opravoval.

Nvidia tam při různých prezentacích a v různých materiálech používala termíny jako current frame, last frame, future frame, intermediate frames, etc. V reálu pak Nvidia zřejmě pojmem current frame neoznačuje aktuální snímek na obrazovce, ale aktuální snímek, co už je vyrenderovaný, ale na obrazovku se neposílá. Použije se na interpolaci a jde do bufferu (čímž se „aktuální“ snímek změní na budoucí :D), a před něj se ještě na obrazovku nacpe ten interpolovaný.

Část lidí to včetně mě blbě pochopila tak, že se to na základě motion vektorů a flow field generuje z aktuálního snímku o půlsnímek dopředu, zbytek lidí tak, že se to interpoluje mezi dva vyrenderované snímky

Zavádějící je v tomto ohledu i tohle schéma: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/dlss3-ai-po... , ze kterého to vypadá, že se vyrenderuje čtvrtina prvního snímku, domyslí se tři čtvrtiny, a po něm následuje snímek, který je vypočtený celý, což „dá dohromady generovaných 7/8 zobrazených pixelů“.

V reálu se ale ten mezisnímek generuje jak na základě frame 1, tak na základě frame 3, takže na generování mezisnímku nestačí 1/4, ale je potřeba 1/4 z prvního a 1/4 ze třetího. Z 1/4 vyrenderovaných pixelů, jak se to tváří to na tom schématu, kde jsou spojené snímky, by ten druhý neposkládal.

Spíš se dá říct, že ze tří snímků (12/12) renderuje 2/12 a generuje 10/12, teda 5/6. Až když je to dlouhá souvislá řada snímků, dává to těch „7/8 pixelů, co jsou generované.“ (není to 7/8, jen to jde limitně k 7/8).

A veškeré čarování s motion vektory a optical flow acceleratorem je tam kvůli tomu, aby ten interpolovaný obraz mezi snímky byl kvalitnější a ostřejší než u těch televizí, kde jsou ty mezisnímky rozmazané. A možná kvůli tomu, aby dokázal korigovat zastínění objektů, ale to se zatím moc nedaří, jsou tam duchy.

+1
+3
-1
Je komentář přínosný?

Problem celeho DLSS je že to funguje len v hrach kde si Nvidia zaplati vyvoj v hre pre DLSS.
Tak že to DLSS funguje v 1% hier?

+1
+1
-1
Je komentář přínosný?

Ale to budou ty hry, na kterých je to podstatné. Opravdu není zapotřebí zapínat DLSS na tahových strategiích. A těch pár AAA FPS her, kde to bude důležité, tak ty to mít budou.

+1
0
-1
Je komentář přínosný?

Pokud to Adam (nečetl jsem) opravdu píše, tak je to samozřejmě volovina. Kdyby to takto mělo fungovat, tak by musel engine dodat komplet informaci o geometrii scény.
Jak sama nVidia uvádí, DLSS funguje jako post-process na GPU, tzn, že pracuje jen s pixel datama. Je to další nádstavba nad DLSS 2.0. Prostě to veme výsledek z 2.0 a dál to rozšiřuje pomocí tzv. optical-flow field (generuje AI, každý si může dohledat na netu, ať to tady netapetuju).
Jako vstupy bere 4 věci, současný a předchozí vyrenderovaný snímek, výše zmíněné optical-flow field a data z enginu (motion vectors a depth). Pomocí těchto 4 vstupů vytváří zmiňované “mezi-snímky”. Pomocí toho všeho jsou schopni rekonstruovat 7/8 všech zobrazených pixelů, což už je slušný poměr.
Ta technologie se bude prostě dál vyvíjet a ten poměr se bude do určitého bodu dál zmenšovat.

+1
+7
-1
Je komentář přínosný?

Já naopak doufám, že ta technologie se umrtví. Přijde mi to stejný nesmysl jako automatické vylepšování fotek na instagramu či jinde. Proč si vymýšlet něco co není jen proto aby to byl marketingově zajímavější.

+1
+4
-1
Je komentář přínosný?

Ne nutně. To, že s tím přišla první koženková parta a klasicky si na to cpou tu jejich exkluzivitu a tím pádem uzavřenost je druhá věc. Až to zdokonalí i AMD a doufám, že to zůstane otevřené jako do teď vše od nich, zlepší se ten poměr rekonstrukce, tak bych si uměl představit, že se pak jen rozhodneš, jestli to chceš využít ke zvýšení FPS na stávajícím rozlišení o téměř dvojnásobek, nebo to využiješ vyloženě kvůli upscalingu na nějaké to Xk rozlišení, abys mohl valit vše na plné detaily s rozumným FPS. Jako budoucnost v tom je, jen to neposrat manažerským a hlavně nenažraným rozhodnutím a celé to neposlat do kytek. Což už jsme bohužel v minulosti všichni několikrát viděli.

+1
0
-1
Je komentář přínosný?

AMD má minimálně problém s tím, že i když udělá interpolaci, bude tam mít větší lag, protože nemá srovnatelnou alternativu k Reflexu.

+1
0
-1
Je komentář přínosný?

Ale do budoucna tu alternativu klidně mít může. Má totiž obrovskou výhodu kompletní platformy CPU - GPU nebo APU a ještě společný vývoj se SONY a MS na konzolích. A dokonce by na tom klidně už mohli pracovat.

+1
+1
-1
Je komentář přínosný?

Jen pro info... včera jsem si zkoušel Early access do BETA Call of Duty Modern Warfare 2 a v nastavení přibylo tlačítko pro AMD FSR... nečekal jsem, že ve výkladní skříni technologií nVidia tohle najdu... Teď už se dá říct, že se i to FSR rozšiřuje pěkně.

+1
+3
-1
Je komentář přínosný?

vyhoda fsr je ze ho muze kazdej modder inplementovat kam chce a ono to relativne funguje

+1
+3
-1
Je komentář přínosný?

Jojo to vím, kór když už to mělo DLSS, ale přeci jen jsem nečekal, že to uvidím zrovna tam. Již dlouhou dobu je Call of Duty spíš pod taktovkou nVidie, všechny jejich technologie tam vždy jsou a tak a najednou AMD FSR. Možná za to můžou i konzole, že Activision musí více spolupracovat s AMD.

+1
+3
-1
Je komentář přínosný?

Hlavne, keď to a Activision + MS vyzerá na problémy

Microsoft's Activision-Blizzard Acquisition Hits UK and EU Regulatory Hurdles
Sep 16th, 2022
https://www.techpowerup.com/298945/microsofts-activision-blizzard-acquis...

Microsoft, Activision Blizzard have days to show merger won't harm competition
Brit watchdog says what we're all thinking, motions for deeper investigation
Fri 2 Sep 2022
https://www.theregister.com/2022/09/02/microsoft_activision_blizzard_cma/

Microsoft broke British and European competition laws, UK reseller tells High Court
Redmond acknowledges £270m sueball – so the battle's on
Mon 12 Jul 2021
https://www.theregister.com/2022/09/02/microsoft_activision_blizzard_cma/

+1
0
-1
Je komentář přínosný?

ja fakt nechapu ten hype kolem dlss obecne, ty grafiky maj vykon jak krava uz ted ze zadny dlss neni potreba 4090 zvladne vsechno min 3 roky na 4k 120fps + a na 1060 ty prirustky z dlss jsou zas maly, aby to melo cenu

btw. vcera jsem zkousel s 6900xt warframe na max detaily 1440p s 165 fps a v ovladacich mi to ukazovalo 90W spotrebu po undervoltu :)

+1
+5
-1
Je komentář přínosný?

Hra má dost jednoduchou 3D scénu připomínající Quake 3 Arena a spotřeba to je jen čípu ne?

+1
0
-1
Je komentář přínosný?

jj v ovladačích jsem koukal na tu spotřebu

+1
+1
-1
Je komentář přínosný?

U AMD musíš přičíst tak 33-40% navíc. U Nvidie je to o dost přesnější (odhadem do 10%). Nevím proč to tak je(zda úmysl či neco jiného). Wattmetr za pár šupů tím stejně neoblbnou.

+1
0
-1
Je komentář přínosný?

Chtěl bych říct, že jenom odlišné pojetí (Nvidia to řídí podle příkonu celé karty, AMD jen podle příkonu GPU), ale tipuju, že za tím bude do velké míry marketing.

Protože se každý podívá do afterburneru nebo GPU-Z, a vidí, že na GeForce to ukazuje 300 W, na Radeonu 250 W, tak je AMD o 50 W lepší a basta. :D

A je to vidět prakticky v každém videu, co je na youtube, kde se ty karty srovnávají, takže nikdo nepochybuje o tom, že GeForce žerou o desítky wattů víc. :D

+1
+2
-1
Je komentář přínosný?

Podstatný detail - v Cyberpunku udělali speciální režim "ultra rt" který výkon degradoval na polovinu (na RTX 3090 jede ta hra nativně asi 40 fps, ne 20). Takže minimálně u této hry naschvál nafoukli výkon v RT.

+1
+3
-1
Je komentář přínosný?

On ten RT v CP není zrovná žádná bomba. V odrazové scéně se spousta věcí vynechává. Proč zrovna nepočítá hlavní postavu, to fakt nevim...přitom mi přijde že je to docela zásadní fail.

+1
0
-1
Je komentář přínosný?

Je to dané jednoduše výkonem. Když chcete počítat celou scénu RT potřebujete přes 16k rayů na pixel*, zatímco dnešní hadrware zvládá pouze 0.5-2 raye na pixel / frame. Zbytek se tedy dopočítá různými denoise algoritmy které rozlišení nezvýší.

*Testováno v RT only renderingu Unreal Engine 5 a v Blender Raytracing renderingu, kromě toho se kvalita velmi liší dle scény, například za polopropustnými skly se počet paprsků nutných pro realistické prokreslení násobí

+1
0
-1
Je komentář přínosný?

Vypadá to, že ty generované snímky mají ještě menší rozlišení, než originál. Což by znamenalo, že to sežere opravdu spoustu výkonu a možná se tato situace blíží hranici, kdy to už začne být výkonově nevýhodné. Pak můžeme na kartách s menším výkonem čekat ještě horší výsledky, případně tam DLSS3 pojede bez domýšlení mezisnímků.

Uvidíme.

+1
0
-1
Je komentář přínosný?

Zatím to na mě působí jako nvidiácká květinová alternativa inteláckého grafického seppuku.
Hoši z ranče U zelené sedmy si zřejmě řekli, že si můžou dovolit už úplně cokoli a zákoš jim to sežere i s navijákem. No... uvidíme. Pokud to je opravdu tak, že "jedině" RT a nv-backed games, tak to si hošíci IMHO pěkně nabíhají na vidle.

+1
+6
-1
Je komentář přínosný?

jim už o hráče nejde a je jim to v podstatě jedno, koukal jsem na celou prézu a to co dělaj pro průmysl je fakt něco z toho jsem byl víc wow než z 4x výkonější geforce i kdyby to byla pravda
jejich cíl už od turingu je zlepšovat poměr cena výkon co nejméně to jen jde
sice to teď s cenou přepálili, ale že by si amd řekla teď nasadíme agresivní cenovou politiku a necháme původní ceny s rdna2 to se fakt nestane a ten 7800XT na navi32 bude taky stát 750 - 800$

+1
0
-1
Je komentář přínosný?

Aby ses ještě nedivil... AMD to nejspíš pojede i na market share a cenová politika by mohla být docela agresivní, ta architektura je k tomu i uzpůsobena, aby to nebylo tak drahé, proč by si to zabíjeli cenou, když stejně nemají ani tak silné postavení na tom desktop GPU trhu? Z čeho předpokládáš, že zrovna AMD tady bude tak nesmyslně předražené, vždyť k tomu nemá žádný důvod. Zkama chodíte furt na tady ty nesmysly, že když zdražuje konkurence, tak musí nutně i AMD, i když tomu nic nenasvědčuje?

Navíc to vypadá, že Huang tu laťku teda nenastavil zas tak vysoko, takže by to překonat výkonově nemuselo být tas tak obtížné... nečekaně, protože s tím zaměřením na ray tracing si už Nvidie nejspíš kope vlastní hrob a už se to přehání, jak to navyšování rasterizace postupně odsunuje do ústraní a už se skoro nezvyšuje (ne že by těch 70% bylo nějak málo, ale vzhledem k tomu, o co to GPU narostlo, to rozhodně málo je)...

Vždyť AMD má chiplety, ušetří plno peněz už jen na tom, že může na část čipu použít levnější vyrobu, kde se jim to vyplatí a nebude to vadit, navíc to GPU má být menší než Lovelace i na horších nm... s tady tímto můžou cenově Nvidii klidně podlézt a stejně na tom budou furt vydělávat a pokud to bude ještě výkonnější a s nižší spotřebou... rýsuje se nám tu bez přehánění bestseller.

+1
0
-1
Je komentář přínosný?

To zalezi.. Navzdory vsem moznym nahledum, ktere vysvetluji, ze AMD ma takove a makove kapacity k dispozici, stale muze byt v realite omezena kapacitou na to, aby pokryla navic nejakou vyraznejsi cast grafickeho trhu. V pripade, ze nemaji "nafukovaci kapacitu", daji prednost tomu, na cem vydelaji vic a to budou pravdepodobne CPU a to co zbyde budou mit na grafiky..v tom pripade do cenove valky nepujdou. Mozna tomu hodi v lepsim pripade 100$ nizsi cenu, bude ta hodnejsi a to je vse.
Ale nechme se prekvapit, taky bych si pral, aby tady NV za ty ceny a chovani dostala od AMD pres frnak ;)

+1
+2
-1
Je komentář přínosný?

od Q1 2023 bude mať AMD strojnásobenú kapacitu test and packaging centra v Penangu

TF AMD will build new factory in Malaysia: Expected to be completed in 2023Q1
June 15, 2022
https://meterpreter.org/tf-amd-will-build-new-factory-in-malaysia-expect...

AMD set to Open Manufacturing Plant in Malaysia in Early 2023
Jun 14th, 2022
The facility itself is said to cover 139,000 square metres and is said to create some 3,000 jobs related to advanced semiconductor engineering. The new plant will bring TF-AMD's total manufacturing space in Penang to 210,000 square metre
https://www.techpowerup.com/295836/amd-set-to-open-manufacturing-plant-i...

a tým už počítali

AMD CEO to Negotiate 2nm, 3nm Chip Supplies With TSMC

Head of AMD to talk about beyond-2024 collaboration with TSMC.

AMD must ensure sufficient allocation at TSMC and early access to the foundry's latest process design kits (PDK). TSMC will start volume production of chips on its N2 node sometime in the second half of 2025, so it is about time for AMD to start talking about the usage of N2 for its 2026 products and beyond.
https://www.tomshardware.com/news/amd-ceo-to-negotiate-2nm-3nm-chip-supp...
https://www.digitimes.com/news/a20220921PD207/amd-tsmc.html

+1
0
-1
Je komentář přínosný?

To je hezky, ale porad nevis, kolik kapacit by AMD mohlo dostat na trh teoreticky a kolik z toho ty kapacity pokryji. Takze vlastne nevime nic :D

+1
0
-1
Je komentář přínosný?

Vieme, že to bude výrazné navýšenie
Také centrá má AMD dve a toto Penangské je väčšie. Dobre ešte si malú kapacitu prenajímajú u TSMC. Takže kapacitu nestúpne o menej ako 66%

Q2 2022
AMD Desktop Unit Share 20.6%
AMD Mobile Unit Share 24.8%
AMD’s Epyc offerings continued to outmaneuver Intel’s dated Xeon lineup, attaining ~14%

https://www.hardwaretimes.com/amds-cpu-market-share-grows-to-almost-30-a...

DC believes that unit shipments of PCs will total 305.3 million units in 2022, down 12.8% from 348.8 million units in 2021
Sales of PCDs will contract further by 2.3% in 2023 before rebounding in 2024.
https://www.tomshardware.com/news/pc-market-to-decline-steeply-in-2022

PC market experiences "sharpest decline in nine years"
Shipments were down 12.6% year-on-year during Q2 2022
https://www.gamesindustry.biz/pc-market-had-sharpest-decline-in-nine-years

Teda polročne to bude to isté.

Pri zachovaní pomeru segmentov
tak bude kapacita AMD pre rok 2023 na uspokujenie

AMD Desktop Unit Share 34,19%
AMD Mobile Unit Share 41.17%
AMD’s Epyc offerings continued to outmaneuver Intel’s dated Xeon lineup, attaining 22,57%

trhu

+1
0
-1
Je komentář přínosný?

O grafikach je tam ale prd.. :)

+1
0
-1
Je komentář přínosný?

Video Cards & GPUs
GPU market share: NVIDIA commands with 80%, leaves AMD with 20%
Sep 5, 2022
https://www.tweaktown.com/news/88307/gpu-market-share-nvidia-commands-wi...

Takže desktop marketshare vypovedá o stave trhu s dedikovanými grafikami

Teda pre grafiky bude kapacita AMD na uspokojenie 33,2% trhu pri zachovaní pomerov

+1
+1
-1
Je komentář přínosný?

Mne byz zajimalo, jak jsi prisel na to, ze AMD ma kapacitu na zvyseni podilu z 20->32%...

+1
0
-1
Je komentář přínosný?

Kapacita test a packingingu pôjde hore o 66%, Trh (TAM) sa v kusoch nezvýši podľa odhadov. Ak bude zachovaný pomer čipov medzi segmentami AMD, tak top bude 1,66*20%=33,2%.

Základný predpoklad je, že sa pomer segmentov nezmení, ten sa ale zmeniť môže

+1
0
-1
Je komentář přínosný?

"Základný predpoklad je, že sa pomer segmentov nezmení, ten sa ale zmeniť môže"
.. nebo-li i kdyby tve kalkaulace byly spravne, tak stejne stale nevime vubec nic :)
Spis se da predpokladat, ze AMD pujde cestou zvysovani podilu v Serverech a mobilnim segementu.

+1
0
-1
Je komentář přínosný?

všechno záleží na kapacitách výroby, pokud jich budou mít málo tak klidně ti daj podobný ceny jako má nvidie teď, na tom písečku si hrajou dva a když je možost si zvýšit marže tak proč ne, nehledě na to, že jim stačí momentum, že budou ukrajovat nvidii pravidelně každý kvartál z market share, oni nepotřebují do půl roka se dostat na 40%
to je stejný jako kdyby ti někdo nabízel větší výplatu s tím že budeš brát víc než kolegové, ale oni to budou vědět

+1
0
-1
Je komentář přínosný?

Když si spočítáte jen základní rozdíly výkonu v rasterizaci. U NV i AMD slušný nárůst taktů, ale u NV prakticky nulový nárůst paměťové propustnosti, zato u AMD 1,5 násobný. Ale k tomu tom model AMD 2,4x víc shaderů. Nárůst hrubého výkonu u AMD je obrovský. Vypadá to, že nárůst výkonu u AMD bude větší než u NV. Pokud k tomu AMD přidá i další SW vylepšení, tak to v kombinaci s tím výkonem a dalšími optimalizacemi architektury může být hodně zajímavé.

+1
0
-1
Je komentář přínosný?

hm... jenže .. ten průmysl bude mít takový objem objednávek, jako dokázali vytvořit hráči po celém světě? Bude nadšeně měnit každé dva roky HW jako hráči? Jako chápu, že v profi segmentu jsou jiné marže, ale vynahradí to ten menší objem?

Nvidia si s hráči v době crypta ukázkově vytřela prdel, teď si ji s nimi zřejmě hodlá vytřít znova. Asi zapomněla, kdo ji vytáhl do takové velikosti. Tak aby jí to pak nebylo líto.

+1
+2
-1
Je komentář přínosný?

No už nejakú dobu sledujem, ako sa nVidia architektonicky kompletne presúva do Enterprise a automotive segmentu (Machine Learning)....aj GPU sú robené viac na rendering a akceleráciu náhľadov v CAD ako na hranie...preto tie samostatné tensor jadrá, a masívne tlačenie RayTracing jadier. nVidia cíti, že AMD sa riadne natlačila do Gaming segmentu (konzolový a PC trh...to druhé im ide ťažšie) a je len otázka času, keď v tomto segmente začne dominovať.

Ohľadom toho DLSS je až komické, ako nVidia na jednoznačne potrebuje tensor jadrá a AMD si s FSR vystačí bez nich....uvidíme aký bude ďalší vývoj v tejto oblasti...Z môjho pohľadu sú to šikovné technológie, ktoré dokážu predĺžiť "morálnu" životnosť GPU o nejaké tie roky...rozhodujúca bude podpora a tam ako sa zdá, má rýchlejší nábeh práve FSR od AMD

+1
+4
-1
Je komentář přínosný?

Jestli si dobře vzpomínám, Radeony nové řady ani nemají mít specializované RT obvody. Tedy pokud ten únik hrubě nekecal. Ale malá velikost hlavního čipu Radeonu něčemu takovému docela nasvědčuje: Přišli jsme na to, že se při RT univerzální shadery flákají - proč jim to nesvěřit taky? A dát jim na to výkon?

+1
0
-1
Je komentář přínosný?

Nečudoval by som sa...AMD je posledné roky známe tým, že má najlepší výkon na mm2 čipu a nakoľko sa maximálne zameriavajú na herný výkon, tak to tak asi aj bude.

+1
0
-1
Je komentář přínosný?

To odpovídá přestavbě vnitřní struktury. A brutálnímu nárůstu počtu shaderů, které toho budou kromě toho víc umět. Jsem na to fakt hodně zvědavý.

+1
+1
-1
Je komentář přínosný?

Zajimave video od Coreteks
https://www.youtube.com/watch?v=_vke26sQK_c

+1
-2
-1
Je komentář přínosný?

Clickbait rulez! Tomu člověku ty žvásty někdo po těch létech ještě žere?

+1
0
-1
Je komentář přínosný?

"Výsledek tak připomíná funkce kdysi propagované výrobci televizorů, kdy měl být procesor televize schopný z 24/25/30FPS videa rekonstrukcí vytvořit plynulejší 60FPS video odpovídající obnovovací frekvenci obrazovky. Výsledky byly mnohdy pochybné vizuální kvality."

Nerozumiem, to sa dnes deje EXTREMNE intenzivne !!!!! Uz pol druhej dekady. Panely TV maju fyzicku obnovovaciu frekvenciu 50 Hz, lespie kusy 100 Hz a boli dostat kusky s fyzickou frekvecniou 200 Hz (tie uz ale asi dostat nie je).

Prosim: https://www.datart.sk/novinky/poradca/obnovovacia-frekvencia-tv-ked-nevi... !!!

Najprv sme videli hausnumera 400-600-800-1000-1200 Hz televizory. Zhruba pri 1000 Hz sa prestala pouzivat jednotka Hz, lebo do islo vypichnut oci aj tomu najvacsiemu debilovi, kedze panel s frekvenciou 1000 Hz neexistuje. Namiesto toho zacali vyrobcovia pouzivat rozne marketingove skratky ako CMR, MCI, PQI a pod. Dnes sme uz na cislach v style 4300-4700.

Napr. pri tomto PQI 4700 (50Hz) https://www.alza.sk/55-samsung-qe55qn700b-d7065342.htm skutocne netusim co a ako si televizor vymysla zvysnych 4650 snimok za sekundu. Avsak brutalne pochybujem ze to tak je aj pri brutalnom vyuzivani AI, to by totiz v jednej sekvencii bolo 94 snimok z ktorych by 93 bolo vymyslenych,dorobenych,ciernych, takych-onakych ... Su to totalne vycucuane hausnumera z prsta. Podla mna to skoncilo niekde na 400, kde si TV dovymyslal, dorabal, zaciernoval 7 z 8 snimok.

+1
+2
-1
Je komentář přínosný?

Ten odkaz na Datart jsem opravdu hodně rychle prolétl a nečetl.
1/ AFAIK výrobci v mixují dohromady obnovovací frekvenci panelu a "blikací" frekvenci podsvícení.
2/ To že panel se obnoví 200× za sekundu neznamená, že zobrazí 200 různých snímků.

Televize dostane podle zdroje nějaký počet snímků za sekundu. U klasického analogového vysílání to bývalo 25 snímků, jestli se nepletu. V případě 200 Hz panelu je jeden snímek zobrazen buď 8×, nebo elektronika v TV zkusí nějakou interpolací či kýho výra dopočítat nějaké mezisnímky. Pokud nějaké sním dopočítává, tak podle toho, kolik mezisnímků si dopočítá, tolik jich zobrazí mezi dvěma originálními snímky. Ale pochybuji, že to bude více jak 2 - 3 dopočítané snímky, zobrazené opakovaně.

Ta vysoká frekvence zobrazení a podsvícení je primárně z důvodu potlačení "blikání", které při sledování obrazovky lidem vadí (zvláště při pohybu hlavy či očí to vynikne).

+1
+1
-1
Je komentář přínosný?

Co bliká na LCD panelu s LED podsvicením? Že by nic? :-)
Co bliká na OLED panelu? Že by nic? :-)

+1
0
-1
Je komentář přínosný?

LCD panel potřebuje obovení - tím bliiká. LED v podsvícení mění jas podle potřeby. Řízení jasu se řeší "blikáním". Proto LCD displej bliká. OLED panel je panel z organických LED a bliká. Když panel bliká dost rychle, tak už to oko nepozná. Kdyby neblikal, nemělo by smysl uvádět obnovovací frekvence u displejů.

+1
+1
-1
Je komentář přínosný?

LCD panel se obnovuje pouze pri zmene obrazu. Rizeni jasu se meni PWM regulaci. Nic tam neblika.

+1
-1
-1
Je komentář přínosný?

PWM je co? PWM je rychlé přepínání stavu "svítí" a "nesvítí". Podle toho, jestli jaký je poměr mezi svítí a nesvítí, tak je vnímána úroveň jasu. Takže bliká. Jde jenom o to, jak moc vysokou frekvenci to PWM má.
LCD se opravdu obnovuje, obraz se cyklicky překresluje. Celý displej se poskládán z matice bodů a řídící elektronika postupně přepíná (adresuje) jednotlivé body a nastavuje jejich stav. Dneska se to možná nedělá po jednom pixelu doslova. Nicméně se to překreslování děje. Takže bliká.

+1
0
-1
Je komentář přínosný?

Máš pravdu, omlouvám se, popletl jsem to. Právě PWM regulace jasu je to, co v monitorech způsobuje blikání. Já chtěl říct, že samotné LCD nebliká, nemá tam co blikat. Kdyby výrobci obzvášť levnějších monitorů před časem nepřešli na PWM regulaci, nic by neblikalo.
Dřív byla v LCD monitoru jako podsvětlení zářivková trubice a ta blikala, protože každá zářivka bliká. LED dioda ale blikat nemusí. Řekl bych, ale že i dneska budou ty dražší monitory regulovat jas jinak než přes PWM a blikat to pak nebude.

+1
0
-1
Je komentář přínosný?

Já se obávám, že:
1/ Stále pomíjíš princip vykreslování obrazu na LCD, kde se ty jednotlivé pixely opakovaně znovu nastavují. Nemají jak si udržet stabilní pozici natočených tělísek a tak se musí cyklicky znovu a znovu obnovovat. Vím, že někdo s velkou slávou uváděl nějaký displej, který to nepotřeboval a svojí spotřebou se blížil eInku. Ale asi ten obraz (barvy) stál za starou bačkoru a v notebookách (běžných) nic takového není.
2/ Řídit jas svítivých diod (to jako LED) jinak, než PWM je asi technologicky mimo realitu. Rozsah jasu, rovnoměrnost podsvícení, linearita... Nejsem si jistý jestli to vůbec nějak rozumně jde jinak než v krocích "sotva svítí", "svítí", "dosvítila". Pokud vím, nikdo to nedělá jinak, než PWM. Akortá ti lepší mají PWM v řádu desítek kHz, aby nebylo vidět blikání, vyhnulo se to interferencím s audiem apod.

+1
0
-1
Je komentář přínosný?

Ještě je tam třetí finta – zhasínání podsvícení na okamžik překreslování LCD, aby byl obraz ostřejší.

U LCD není důvod obnovovat 200× za sekundu, u něj je problém spíš s tím, že jsou ty krystaly líné tak, že i když to panel překreslí 240× za sekundu, tak člověk vidí čtyři snímky pozadu.

Takhle vypadá blbé 60Hz TN na 1000 fps (nejlepší je si to pauznout a přes <> krokovat po snímku): https://www.youtube.com/watch?v=wIVlTohSfK0

U 165 Hz IPS panelu to bylo podobné, akorát to tam udrželo tři postupně blednoucí UFO. :D

+1
0
-1
Je komentář přínosný?

eInk panel se překresluje jen při změně obrazu...to si pleteš.

+1
+1
-1
Je komentář přínosný?

Jas se v monitorech s LED podsvicenim reguluje sirkou impulsu pri stalem napeti (PWM), ne velikosti napeti. Frekvence tech impulsu byvala pomerne nizka a blikani mohlo byt videt.Nez ze sebe budes priste delat debilka, neco si o tom precti:
https://notebook.cz/clanky/technologie/2017/pwm-regulace

+1
+1
-1
Je komentář přínosný?

Já to znám, popletl jsem to. Samozřejmě, že PWM bliká. Dřív se LCD přes PWM neřídily, pamatuju si, jak když přišlo PWM, jak jsme na to všichni nadávali, že zase výrobci přišli s pěkným ojebem. :-/
Omlouvám se teda všem za své mylné komentáře.
Chtě jsem hlavně říct, že není důvod, aby v LCD cokoli blikalo, je to jen ojeb kvůli ceně.

+1
0
-1
Je komentář přínosný?

OLED je na oči horší než LCD a PWM tam je svatý grál.

+1
+1
-1
Je komentář přínosný?

To jsem nevedel, pokud jsou ty OLED stale tragicke, tak potom nebrat OLED. :-/

+1
0
-1
Je komentář přínosný?

U OLED vnímám jako super tu 100% černou. V kombinaci s tmavým režimem (plus nepoužívám maximalizovaná okna) subjektivně cítím naopak menší námahu očí.

+1
+1
-1
Je komentář přínosný?

Souhlas. Zkusil jsem mobil Samsung s OLEDem a jako fakt mnohem lepší, než IPS (LCD), které jsem používal doposud. Pravda, zajímavé bude, jak ten displej bude vypadat po 3 letech užívání.
Navíc by díky tomu, že OLED nepotřebuje podsvícení a černá "nežere" proud, by měl mít menší spotřebu, než podsvícený LCD panel.

+1
+1
-1
Je komentář přínosný?

klasicke CRT vysielanie nebolo 25p snimkov za sekundu, teda nie progresive ako si to predstavujeme pri plochych paneloch, ale bolo to 25i, teda interlaced = prekladane, niekedy oznacovane aj ako 50i
https://sk.wikipedia.org/wiki/Obrazov%C3%A1_frekvencia
1/50 sekundy sa prekleslovali parne riadky a dalsiu 1/50 sekundy sa prekreslovali neparne riadky a cely obraz bol novy az za 1/25 sekudny, ale vzdy sa prekreslovalo iba po pol-snimkach kazdu 1/50 sekundy

pozerat na CRT TV sa dalo z 2-3 metrov, z nejakch 40 cm (ako pozerame na PC monitory) to bola absolutna katastrofa

+1
+2
-1
Je komentář přínosný?

Ano, to jsem si zjednodušil. 50 půlsnímků jsem přepsal jako 25 snímků. Beru.

+1
0
-1
Je komentář přínosný?

Označovalo se to 50i. 50 půlsnímků (sudé / liché řádky). 50 protože tu máme elektrickou síť 50Hz. Tam kde mají 60Hz, bylo 60i. Obraz byl plynulejší a na CRT TV nebyly vidět artefakty které touto metodou vznikaly a TV "neblikala" protože stále svítila jedna polovina řádků obrazovky.

+1
0
-1
Je komentář přínosný?

CRT TV neblikala také proto, že luminofor na vnitřku obrazovky zhasínal docela pomalu. Takže neblikala asi podobně, jako neblikala klasická žárovka, která nestíhala chladnout, žhnula dost dlouho na to, aby se další vlnou proudu opět nažhavila. :)
Pamatuji si, jak jsem jako dítě mával rukou proti TV a divil se, proč se mi ruka "rozvětví". Nebo jak po vypnutí TV obrazovka pomalu dohasínala a třeba i několik minut po vypnutí byla ve tmě patrná.

+1
0
-1
Je komentář přínosný?

Jak jsem psal jinde, tohle je dělané primárně na hry kde se postava nepohybuje moc rychle, tedy není to určeno pro esport tituly, tam pak budou vidět duchy, stíny a jiné vady,
Ale ve hrách kde je obsah hry pomalejší by to mohlo být přínosem,

Hodně bude záležet na tom kolik grafická karta bude mít předrenderovaných snímků z enginu hry které použije jako základ k vykonstruovaní nového vymyšleného, pokud grafika má dostatečnou zásobu a DLSS3.0 bude nastavena na nižší úroveň, třeba dopočítání jen každého 4 snímku mohlo by to výrazně navýšit výkon za přijatelné kvality
Dalším faktorem bude tedy počet originálních snímků,
pokud bude mít grafika v základu k dispozici 60 snímků tak určitě kvalita domyšlených snímku nebude taková jako když bude v zásobě 240 snímků

Ať počítám jak počítám, z tohoto budou nejvíce těžit paradoxně ty nejvýkonnější grafiky, místo toho aby to pomohlo těm slabším

Ale mě je to jedno, RTX4080 bude použitelná i bez DLSS 3.0 i ve vysokém rozlišení
XD

+1
-1
-1
Je komentář přínosný?

„tohle je dělané primárně na hry kde se postava nepohybuje moc rychle“

Pak by byla zásadní otázka, k čemu je dobrá technologie na zvyšování FPS, když funguje dobře jen ve hrách se statickými scénami a naopak ve hrách, kde dochází k pohybu (který v důsledku nedostačujících FPS není plynulý) ji nelze použít.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.