Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Každý Meteor Lake má dvě malá jádra v centrální (SoC) dlaždici

to vypadá jako hodně zajímavé řešení, na různé synchronizace a udržení chodu mohou dobře postačovat ale spotřeba klesne na úroveň mobilů.

+1
0
-1
Je komentář přínosný?

To by asi měla být pointa. Třeba na M1/M2 v MacOS v idle běží backgroud tasky jen na E jádrech. Když Třeba zascrolujes stránkou nebo se načítá, tukne to do P jádra. Windows se s hybridy chovají obráceně. Prvé se využívají P jádra a na E jádra to temer nesahá dokud po tom člověk nechce fakt něco zásadnějšího.

+1
+3
-1
Je komentář přínosný?

Ano, to by opravdu mohlo být docela zajímavé řešení. Když bude na I/O čipletu také iGPU, tak by šlo většinu běžných aktivit (včetně přehrávání videa) opravdu realizovat bez zapnutí výpočetního čipletu a spotřeby energie na přenosy mezi čiplety. Sám o sobě, ten koncept velkou úsporu přinést nemusí. Záleží, jak budou implementovány úsporné režimy v procesoru a jak bude bude ty úsporné režimy podporovat operační systém. To může být u Windows dost problém.

A důležitá bude o optimalizace nastavení v BIOSech. Když pustím PC s 5600G, 2x8GB RAM. PCIE 3.0 SSD a jen integrovanou GPU se základním nastavení BIOSU, tak celý počítač bere ze zásuvky 40W. Úpravou nastavení BIOSu se dá stáhnout příkon na 16W. Ale z toho dost bere 250W zdroj s nic moc účinností. Ten při pouhém zapnutí bez odběru na konektorech vezme asi 8 W.

Při použití 90W zdroje z notebooku a spínaného PICO ATX zdroje klesne klidový odběr celého počítače ze zásuvky na necelých 7W. Nevím, kolik z toho spotřebuje samotný procesor, ale kdyby to byla třeba polovina, tak velký prostor pro další snižování už nezbývá. U notebooku, který člověk používá mimo civilizaci a potřebuje vydržet co nejdéle může být další úspora klidové spotřeby možná zajímavá. Ale většina jich je obvykle napájená ze sítě a tam snížení spotřeby o 1-2W moc významné není.

+1
+2
-1
Je komentář přínosný?

Tak MacMini v idle bere cca 2,5W na zdi pokud není připojeno něco na Thunderbolt (pak je v permanenci Thunderbolt kontroler, který sám o sobě tu spotřebu cca zdvojnásobí)

https://ctrlv.cz/CrRk
takhle vypadá zátěž na M2, výkonná jádra v podstatě stojí, občas na nich něco proběhne (načtení stránky například) Od cca poloviny toho grafu vidíš konzistentní zátěž na E jádrech = pustil jsem 4k YT video

A tady máš spotřebu dle diagnostiky při přehrávání toho 4k videa (v okně, na fullscreenu je spotřeba grafiky k 0.1W):
https://ctrlv.cz/86ws

P jádra mají 0 takt, jsou vypnutá, probouzí se jen když po nic systém něco chce a úsporná jádra běží na nízké frekvenci (v max zátěži mají takt tuším 2084 MHz)

Spotřeba Grfiky je v setinách Wattu, spotřeba CPU skáče mezi cca 0.05 - 0.8W, když ťuknou P jádra tak to jde i na pár wattů na ty desítky milisekund kdy je potřebuje...

Na windows při té zátěži uvidíš že vše jde do P jader a nic do E jader...

+1
+2
-1
Je komentář přínosný?

Bohužel Windows nebude nikdy tak vychytanej, protože mu chybí vertikální integrace. Všechno se ladí až za provozu po vydání a ne vždy se dojde k optimálnímu výsledku.

+1
0
-1
Je komentář přínosný?

Nečekám zázraky, ale nevidím problém aby počítač primárně nešahal po výkonných jádrech ale po efektivních. Jednak to může nutit systém svou politikou, tak to může ovlivnit i vývojář, který může scheduleru říkat že má preferovat efektivitu před výkonem a naopak. Tohle se přesně děje na mobilech, kde jednak vývojáři říkají systému co by chtěli a stejně tak výrobce nastaví nějaké chování (třeba ty "kauzy" že benchmarkům to pustí víc, nebo že spoustu aplikací nedostane čas a nejvýkonnějším jádru SoC)

+1
+2
-1
Je komentář přínosný?

Vývojář do toho nemůže kecat, to jen autoři OS. Jak Apple, tak Google a výrobci Android telefonů hážou vývojářům klacky pod nohy. Na Windows to jde, ale vývojáři se nesnaží, protože ten ekosystém je tak různorodý, že prostě certifikuješ jen hardware, na kterým to už teď funguje dobře, tak proč se starat o "nová paradigmata".

> třeba ty "kauzy" že benchmarkům to pustí víc, nebo že spoustu aplikací nedostane čas a nejvýkonnějším jádru SoC

Před lety jsem portoval CPU benchmark bráchy a jeho kamaráda na Android a byli jsme zklamaní, že Android nás k velkým jádrům nepustil.

+1
0
-1
Je komentář přínosný?

"Vývojář do toho nemůže kecat"

A proč by nemohl vývojář ví víc než autor systému. A kecat do toho ve finále může i uživatel. Už jen hloupým nastavením Affinity, které si samozřejmě mohou nastavit i samotné aplikace.

A že se nesnaží vývojáři.. ano je to možné, to ale není problém HW ani systému, když nechce vývojář, tak to nebude ani na mobilu a že zvláště v Android světě vývojáři nemají čas řešit mraky HW konfigurací, proto pak taky ty aplikace vypadají proti těm na iOS.

A samozřejmě je na systému co dovolí. Ono to nemusí být omezení jen systému ale i uživatele. Jako uživatel bych měl mát vždy možnost říct že aplikaci omezí.

A pokud to dělá systém a vývojáři/uživateli to vadí, nní nic lehčího než změnit systém

+1
+2
-1
Je komentář přínosný?

Jak změním systém?

+1
0
-1
Je komentář přínosný?

Protoze jedina x86 E jadra jsou ta od Intelu, ktera ale nenabizi vyssi energetickou efektivitu, jen nizsi vykon. Takze je celkem logicke nechavat si ty nejhorsi pracanty na konec.

+1
0
-1
Je komentář přínosný?

Na x86 pak ale bude větší bordel než na ostatních arch. Asi jako jiné přiřazení HT jader Intel/AMD.

+1
0
-1
Je komentář přínosný?

Vyhral jste, opet.

Nemam zajem s vami diskutovat, muzete toho nechat.

Pro ostatni, je to blbost. A overit se to da snadno, Linux totiz uz davno s temihle vecmi musi pracovat. Da se pomerne snadno zjistit, jaka harakiri se musi delat na ARMu a tech jejich trech typech jader. A lze to primo porovnat s ekvivalentnim kodem pro AMD i pro Intel, vsechno je to verejne dostupne.

+1
0
-1
Je komentář přínosný?

V čem nemám pravdu? Zrovna práce s různými jádry na Androidu způsobuje nepříjemné škubnutí v aplikaci, s kterou pracujete.

+1
0
-1
Je komentář přínosný?

Prectete si, na co jsem reagoval.
Prosim na odkaz popisu te chyby, to me zajima. Jsem si dost jisty, ze i tohle je blbost. To, ze se v Androidu objevuje jakesi aplikacni skubnuti, vubec neznamena, ze za to muze CPU scheduling v kernelu. Teda pokud nemate kristalovou kouli.

+1
0
-1
Je komentář přínosný?

> Prectete si, na co jsem reagoval

Přečetl a stále platí, co jsem napsal.

> Prosim na odkaz popisu te chyby, to me zajima.

To není chyba, ale vlastnost. Co čekáte, že se stane, když přehodíte proces na jiné jádro? Že opětovné naplnění cache se na plynulosti neprojeví?

+1
0
-1
Je komentář přínosný?

"Přečetl a stále platí, co jsem napsal."
Nemyslím, že pokud jste to nepochopil doteď, tak má smysl něco dál dělat.

"To není chyba, ale vlastnost. Co čekáte, že se stane, když přehodíte proces na jiné jádro? Že opětovné naplnění cache se na plynulosti neprojeví?"
Chápu, že o těch věcech moc nevíte. Tak se alespoň zamyslete nad tím, co jste si to vymyslel. Protože to je úplná blbost. Včera, abyste mi mohl stát v opozici, tak jste musel vyjmout Vatikán ze seznamu států. A dneska se ukazuje, že vaše oko pozná výpadek jednoho snímku na hypotetickém monitoru o snímkové frekvenci 200 000 Hz. A nejen to, vy znáte dokonce i příčinu této ztráty snímku! Ale baví mě to, nutí mě to přemýšlet :-)
Tak to zrovna vím přesně. Takzvaný context switch. Context switch trvá na dnešních CPU cca 5 μs. Obnovovací čas obrazovky je cca 100 ms, tzn 20 000x více. Takže může se vám stát, že při context switchi zaznamenáte lag o velikosti 1/20 000 délky framu. Já jsem buran, 60 Hz mi stačí. Ale chápu, že cvičené oko neplynulost o délce pěti mikrosekund vyvede z míry, ostatně to je taky důvod, proč se dneska používají monitory s 200 000 Hz, kde se taková neplynulost konečně opravdu projeví ztrátou snímku.
Context switche dělají už operační systémy s multitaskingem desítky let. Obecně se má za to, že naopak čím více jader, tím méně problémů s context switchingem. Ale vy víte, že je to jinak.
Mimochodem váš telefon dělá řádově tisíc context switchů za sekundu. Můžete si to sám snadno ověřit.

Další blbost, co jste napsal. Dneska už třetí.

+1
0
-1
Je komentář přínosný?

> Nemyslím, že pokud jste to nepochopil doteď, tak má smysl něco dál dělat.

Nápodobně. Chudák Vatikán a "lidské oko nevidí více než filmových 24/30 fps".

+1
0
-1
Je komentář přínosný?

Jo, troufám si tvrdit, že problém s 5 μs nikdo u mobilních uživatelů neřeší. Další dobrá hovadina.

Mrzí mě, že nevidíte, že to, co uživatelé vnímají jako záseky, začíná na o tři řády vyšších časech než je context switch. Ono to dává docela smysl, protože přesun vlákna z jádra na jádro nebo switchnutí tasku není úplně novinka, ale hezkých pár desítek let stará věc. Bylo by zvláštní, kdyby to činilo problémy najednou teď u tisíckrát rychlejších procesorů.
Porovnat si to můžete taky třeba s latencemi pamětí nebo časem na probuzení z různých úsporných režimů CPU. U telefonu se k těmto specifikacím těžko dostanete, ale dostatečný přehled získáte už ze specifikací svého desktopového procesoru.

Těší mě, že tak nějak tušíte, že nějaký context switch existuje, a že délka jeho trvání může být problém. Ale problém je to řádově v desítkách, spíš typicky stovkách tisíc context switchů za sekundu. Typicky si to můžete modelovat na domácím routeru, skrz který někdo pošle 100k 4k paketů za sekundu. Pitomých 400 MBit, ale v případě jednoho výpočetního vlákna je to 100k context switchů za sekundu jen pro zpracování příchozích paketů, tedy na jeden context switch máte maximálně 10 μs., kdy vám ale nezbyde žádný výpočetní čas. Jakmile chcete každý paket nechat projít dalším procesem, třeba proxy serverem nebo maškarádou (říkáte tomu nejspíš NAT), potřebujete další context switche na paket. Dokážete si asi představit průšvih, který zde způsobí fragmentace, když přešvihnete MTU, nebo ztrátovost sítě. Proto taky řádově obecně platí, že na běžném OS "s Intelem" (Linux, Windows, ne BSD, ne specializovaný hardware) zpracujete maximálně kolem 10Gb/s na jedno výpočetní vlákno (ne jádro), přestože výpočetní výkon toho procesoru leží řádově výše.

Je vidět, že uvažujete, akorát předkládáte svoje domněnky jako argumenty. A vaše domněnky neodpovídají reálnému světu. 5 μs prostě není relevantní problém, který by někdo bral vážně. Ty problémy s plynulostí, které dnes řešíme, jako 480 Hz monitory, leží 1000x výše.

+1
0
-1
Je komentář přínosný?

Zív.

+1
0
-1
Je komentář přínosný?

Já vám to říkal, že už jste zvítězil.

Jestli nejste schopen uznat svůj omyl, nemá cenu dále spolu diskutovat. Opakovaně jste mimo, a tohle je vaše reakce. Rád bych se bavil s dospělým.

+1
0
-1
Je komentář přínosný?

Jaký omyl? Plácáte tu jen vy.

+1
0
-1
Je komentář přínosný?

Tohle mě fakt nebaví. Připomínáte mi program Kecal, ten taky nevnímal žádnou historii a reagoval jen na poslední zprávu.

+1
0
-1
Je komentář přínosný?

Ta poslední zpráva je součástí vlákna, které se táhne od začátku až do konce. Není důvod se vracet ke starším věcem - ty už byly ve vlákně rozebrány.

+1
0
-1
Je komentář přínosný?

Není to přesně ono, ale vyzkoušejte si to. Ta podobnost vás pobaví :-)
https://www.vicko.cz/aplikace/online/kecal-vicko/

A tohle je snad instalátor původního Kecala:
https://www.instaluj.cz/kecal

+1
0
-1
Je komentář přínosný?

Já nepotřebuju Kecala, mám vás ;-)

+1
0
-1
Je komentář přínosný?

Mě to s vámi právě už takhle nebaví (opět ta historie), takže vám nabízím adekvátního protihráče.

+1
0
-1
Je komentář přínosný?

Vy mi stačíte.

+1
0
-1
Je komentář přínosný?

Vymyšlaju somariny, cez frekvenciu je to najlepšie, taka ZEN4 si pri 4,4GHz bez vačšej zaťaži vystači s 1,6-3,2W podvoltovana na cca 0,8W prakticky nežere nič a menejnaročne aplikacie zvlada s prstom v nose. Ak potrebujem vykon jednojadrovy kratkodoby skoči to na 5,8GHz cca 16W na dobu potrebnu vačšinou su to ale len par sekund. Ak potrebujem dlhodoby vykon naskočia mi všetke 16 jadier na 5,5GHz spotreba 131W.
Ja si myslim že je to teraz ideal,
mala zaťaž windows internet 1,6-3,2W,
jednojadrova zaťaž 16-32W,
maximalna zaťaž 131W.
Riešenie na velke či male alebo nini jadra je sprostosť, lebo tie mini jadra vedia len polku inštrukcii velkych a zatial su s toho len prepady vykonu...

+1
+7
-1
Je komentář přínosný?

Problém bude pri využití FSR3
AMD FSR 3 Might Generate Up To 4 Interpolated Frames & Be Enabled On Driver-Side
May 23, 2023 12:45 AM EDT /0:45 utorok, Eastern Time (ET) je
6:45 utorok, Central European Summer Time (CEST)/
The information was revealed within the latest GPUOpen code available at GitHub

The code states that AMD's FSR 3 will have a Frame Generation Ratio of up to 4 interpolated frames which means for each real frame, the technology can generate up to 4 interpolated frames. NVIDIA DLSS 3 also has frame generation technology which will generate one interpolated frame for every single frame when enabled.
https://wccftech.com/amd-fsr-3-might-generate-up-to-4-interpolated-frame...

Keby FSR3 nezahlcovalo CPU a fungovalo dobre bolo by z toho "veľké haló", ale je to "pravde nepodobné" = nepravdepodobné, ak na tom nerobilo aj SW oddelenie z Pensando-a a Xilinx-u.

+1
+2
-1
Je komentář přínosný?

FSR3 zahlcuje CPU? Jak to chápu, tak je to věc řešená na GPU. Pravda, ten odkaz jsem jen tak zběžně přelétl, ale jinak mi to ani nedává smysl. A i kdyby, nevidím souvis mezi spotřebou CPU v klidu.

+1
-1
-1
Je komentář přínosný?

>FSR3 zahlcuje CPU?

môže a nemusí, to sa nevie priamo.

>A i kdyby, nevidím souvis mezi spotřebou CPU v klidu

Ak FSR3 využíva CPU/ RAM a FSR bude použité aj na KDE/MS Windows desktop/ GNOME/Unity ....., nemusí sa CPU dostať do kľudu nikdy, takže nemusí CPU dosiahnuť kľudovú spotrebu nikdy. A narážal som na to, že v tom prípade FSR3 "do toho hodí vidly"

+1
+1
-1
Je komentář přínosný?

Petře, ale to FSR3 se přeci nasazuje při "akci", ne? Tedy třeba při hraní her. Zde byla řeč o "idle", tedy nehraju, PC "kempí" (fláká se), jenom sem tam nejaká aktivita z pozadí OS. Možná mi něco uniká, ale tak nějak si neumím představit, že by CPU "idloval" během hraní hry. :)

+1
+2
-1
Je komentář přínosný?

To samozrejme. Preto beriem do úvahy prípad, že by sa nasadilo FSR nie len v hre, ale aj
pri vykresľovaní desktopu PC.

+1
+1
-1
Je komentář přínosný?

A k čemu přesně by to bylo dobré? Je normální že si lidé nechávají desktop generovat v násobně vyšším rozlišení než ve kterém je zobrazováno aby dosáhli lepší kvality vykreslení, nikoli naopak.

+1
0
-1
Je komentář přínosný?

Napr. pre animácie pri KDE Plasma
https://www.youtube.com/watch?v=Ig8HHo-g0RA&t=145s

by sa hodilo pridať fps.

+1
+1
-1
Je komentář přínosný?

Myslíš víc fps, než umí monitor?

+1
+1
-1
Je komentář přínosný?

Jojo, víc FPS než má monitor, se hodí. Zvlášť pokud neumí variabilní snímkovou frekvenci.

Vizte nejnižší společný násobek a největšího společného dělitele:
https://www.youtube.com/watch?v=3KM7uQbQerc&ab_channel=Isibalo

Jakmile nemáte soudělné FPS a Hz, tak získáte jitter na snímcích. Čím vyšší FPS a nižší Hz, tím nižší jitter. O tři řády vyšší, než ten váš problém s context switchem.

A jako bonus slovní úloha:
Babička vám dala 10 jablek, ale do košíku se vám vejdou jen tři jablka. Kolik potřebujete košíků, abyste mohl odnést všechna jablka najednou?

+1
0
-1
Je komentář přínosný?

A ještě úloha za domácí úkol: Mám fps vždy větší než monitor, jaký budu mít jitter?

+1
0
-1
Je komentář přínosný?

To si snad zvládnete spočítat sám, ne? Případně se nebojte použít ChatGPT, zvládne to levou zadní i s vysvětlením.
Začal bych tím, že bych spočítal nejvyšší a nejnižší časový interval mezi časem vygenerování snímku v GPU a časem jeho vykreslení na monitoru. No a rozdíl těchto dvou čísel bude jitter.
Pro získání plynulosti není potřeba ani tolik nízká odezva jako spíše její stálost..

Ale k pochopení této úlohy je víceméně nutné pochopit tu úlohu s těmi košíky.

+1
0
-1
Je komentář přínosný?

I s VSyncem? Napovím až v další odpovědi.

+1
0
-1
Je komentář přínosný?

Mrzí mě to, ale zdá se mi, že se opět snažíte oddálit se od tématu.
Úloha je zadána dost obecně, aby VSync byl jednou z věcí, kterou v ní musíte vyhodnotit sám. Doporučuji si spočítat oba případy a porovnat si rozdíl.
Pokud byste zvládl úlohu s jablky a košíky, už byste se mě takhle ptát nemusel, protože byste věděl, že pokud jsou ta dvě čísla soudělná, je to mnohem více radost. A pokud dokážete dosáhnout stavu, kdy máte stejně FPS jako Hz, tak tradá, nepřebývají vám prázdné košíky.

A protože nevnímáte historii, pokusím se vám připomenout, na co jsem původně reagoval:
"Myslíš víc fps, než umí monitor?"
Jestli jste tím chtěl říct "s Vsync to není pravda", jistě byste to zvládl napsat takhle jednoduše, a ne jako hotentot.

Protože jste chytrý chlapík, tak si jistě dokážete tu úlohu namodelovat obecně a udělat si nějakou vizualizaci, alespoň myšlenkovou. A tam jasně vidíte, že v určitém okamžiku vám vysoké FPS dosáhnou nižšího jitteru než VSync, a nejen jitteru, ale i vnímané plynulosti. A to za stejné frekvence monitoru. Pokud teda nezapomenete do toho modelu přidat neduhy v praxi používaných implementací VSync.
Budu rád, když se svými zjištěnými daty pochlubíte. Ne, že by mě to zajímalo, ale rád bych věděl, že jste taky někdy něco dělal, a nejen si vymýšlel.

+1
0
-1
Je komentář přínosný?

Ale se zapnutým VSyncem je právě fps stejné jako Hz, 1 děleno 1, c.b.d.

+1
0
-1
Je komentář přínosný?

Vy nečtete pořádně!

Stejné sice jsou, ale není stejná doba mezi časem, ke kterému se snímek vztahuje, a časem, kdy se to vykreslí na monitoru. Tím důvodem je to, že VSync neví, jak dlouho bude generování snímku trvat, a ten snímek se generuje různé časy. Proto i VSync přináší jitter.

+1
0
-1
Je komentář přínosný?

Sice neví, jak dlouho bude trvat, ale ví, kdy začne (a kdy si přečte vstup uživatele). EDIT: Možná myslíte nějakou formu generování více snímků do zásoby (např tripple buffering)?

+1
0
-1
Je komentář přínosný?

Jsem rád, že jste pochopil úlohu s košíky. Smiřuji se s tím, že zbytek vám vysvětlit nedokážu, a vzdávám se.
Opět jste zvítězil.

+1
0
-1
Je komentář přínosný?

Já vám odpověděl dřív, než jste dopsal, viz můj edit ;-)

+1
0
-1
Je komentář přínosný?

Edit jsem viděl, nic na tom nezměnil.

Chápu to tak, že teda o VSync váš spor s Fodrekem nebyl. Protože vzhledem k nevýhodám VSync a jeho praxi na Linuxu jsou jeho výhody pro plynulost Plasmy dost sporné. Jakožto desktopový efektový manažer by to mělo běhat dost svižně na to, aby VSync nebyl vůbec potřeba; jak to slušná desktopová prostředí mají.

+1
0
-1
Je komentář přínosný?

Už jen odbíháte k Linuxu a konkrétním implementacím (které mohou mít chyby, např. když se přidá nekvalitně implementovaná kompozitní plocha). Těmi slušnými desktopovými prostředími myslíte macOS a Windows? EDIT: Plasma má klávesovou zkratku pro zapnutí/vypnutí kompozice plochy (bez nutnosti restartovat aplikace apod.).

+1
0
-1
Je komentář přínosný?

Protože problematiku plynulosti jsem s vámi vzdal.

Ano, Fodrek zmínil konkrétní aplikaci. Ano, Windows a MacOS tuto podmínku plynulosti splňují. Windows nepovažji univerzálně za slušné desktopové prostředí, a MacOS prostředí na takové posouzení dostatečně neznám. iOS má výjimečně plynulé prostředí, ale o jeho implementaci VSync nevím nic, a vzhledem k možnostem se lišit klidně může být v nějaké formě implementované, aniž by to způsobovalo problémy, které má na mobilních zařízeních desktopové VSync (např. rozbití řízení spotřeby GPU).

+1
0
-1
Je komentář přínosný?

S tou Plasmou jsem konečně pochopil mírně retardovanou formu vašich odpovědí. Jste povahový typ tzv. zastydlý linuxák, který vnímá svět skrze mizérii funkčnosti Linuxu.

+1
0
-1
Je komentář přínosný?

Ne, vůbec ne. Jen dávám přednost mizérii Plasmy na Linuxu (já teda problémy s plynulostí nemám, ale jedu jen na 3x fullHD) než mizérii Plasmy na Windows. Věřte mi.

Edit: Používám i Windows. Ale to už asi víte.

+1
0
-1
Je komentář přínosný?

Aha, tak podpora multimonitoringu v Plasmě vám kurví VSync. A jsme doma.

+1
0
-1
Je komentář přínosný?

Ne, já VSync na pracovním stroji vůbec nikdy neřešil. Předpokládám, že je to vypnuté. Nemám problém, nezajímá mě to. Za podporu GPU na Linuxu AMD opakovaně chválím.

Jsem si naprosto jistý, že Fodrek myslel Plasmu na Linuxu. Plasma na Windows je opravdu peklo. Vlastně nevím, proč to existuje. Fakt je, že Plasma je (už konečně!) v defaultním stavu dobře použitelná, a já její pokročilé možnosti nepotřebuji. Fodrek to zjevně vidí jinak, a já nekoukám na jeho monitory, abych to soudil. Ale pořád nevím, s čím jste tam měl vlastně problém, protože VSync to zjevně nebyl. Tak co to bylo?

Jestli vám to nebude vadit, typologii Sinuheta si dělejte beze mě. Vnímám to z vaší strany jako pokus mě očernit, abyste tak mohl diskvalifikovat moje argumenty. Už tak je diskuze s vámi dost obtížná.

+1
0
-1
Je komentář přínosný?

Fodrek myslel obecně desktopová prostředí, proto je taky vyjmenoval víceméně všechny. Já s VSyncem problém nemám, teda kromě toho, že mi z něj padaj ty jabka ;-)

+1
0
-1
Je komentář přínosný?

Ok, tak já jsem se podíval do historie vlákna, tu jsem neznal a nebyla doteď potřeba.
FSR, respektive obecně variablní snímkovou frekvenci, považuji za mezistupeň ke stavu snímek na vyžádání, frame on demand. A rozhodně za dobrou věc, protože i jen neustále posílat dokola stejný snímek (což snad moderní DP ani HDMI už nedělají a používají bezztrátovou kompresi). A mobilní desktop řeší každý snímek, GPU už dneska umí řídit spotřebu tak rychle, že i nějaká forma spánku je těch milisekundách až desítkách milisekund smysluplná, natož pak třeba v celých vteřinách. A na desktopu je (zatím) celkem běžné, že se celé sekundy nic neděje.

Ale chtít takovou věc po Linuxu, na to si fakt netroufám. Dospěl jsem ke stavu, že používám běžný slušný stock notebook, OS v defaultním nastavení, tovární dokynu a tři kancelářské (pro mě, poloslepce naprosto dostatečné) monitory. Takže na nějaké FSR vůbec nepomýšlím.
Ale tu technologii vnímám velmi pozitivně.
A teď se v duchu směju při představě Linuxu, ve kterém funguje spolupráce frame on demand a plasmy. KDE 4 vyšlo v roce 2008, a slušně použitelné prostředí nabízí až třeba poslední dva, tři roky :-D

EDIT:
Nic to ale nemění na Fodrekovo tvrzení, kde jsem stále nedostal odpověď, s čím teda máte problém.

A už jenom to, že si dneska koupím notebook, a funguje mi na tom Ubuntu by default perfektně, je malý zázrak. A mimochodem ne pro mě, protože i když jsem si koupil výběhový notebook, v Ubuntu mi podpora řízení spotřeby Ryzenu přišla až po měsíci. Protože AMD ráčilo dodat ovladač do Linuxu až půl roku po vydání, a dalšího půl roku trvalo, než to jádro probublalo do Ubuntu. Non LTS verze, no sranda, to vám povím. Ale konečně jsem mohl fungovat v pasivním režimu, kde ten notebook tráví drtivou většinu času. Zajímavé je, že ve virtualizovaných Windows funguje řízení spotřeby, ale ten Linux to nějak neakceptuje. A protože mi na jednom monitoru běží virtualizovaná Windows, tak ten notebook stejně neztichne. Ale to už bude problém ovladače vboxu, a od AMD nelze čekat, že by ho zrovna tohle zajímalo.

+1
0
-1
Je komentář přínosný?

> Ok, tak já jsem se podíval do historie vlákna, tu jsem neznal a nebyla doteď potřeba.

A vy jste mě v jiném vlákně osočoval, že reaguju jen na poslední příspěvek ;-)

> Nic to ale nemění na Fodrekovo tvrzení, kde jsem stále nedostal odpověď, s čím teda máte problém.

Nejen já, i původní tazatel ('Petře, ale to FSR3 se přeci nasazuje při "akci", ne? Tedy třeba při hraní her.' - myšleno, že v běžné práci na desktopu se to nepoužívá).

Jinak vaše patálie s Linuxem jsou zajímavé, ale tak nějak to nevybočuje ze zkušenosti mnoha jiných s tímto OS.

+1
0
-1
Je komentář přínosný?

Ano, jsem si toho vědom. Ale tam to bylo relevantní (náš společný rozhovor), tady to relevantní až doteď nebylo. Ale máte pravdu.

Tak v tom případě je s podivem, proč vytahuje plasmu. Pokud jste měl potřebu s ním jen nesouhlasit, mohl jste mě z toho vynechat.

Pro mě je Linux nejlepším prostředím pro práci, ale ne dokonalým. A Windows je pro mě výborný firmware pro herní konzoli. Důvodem je to, že Linux je mi z mnoha důvodů sympatičtější, a v důsledku toho se mi s ním mnohem lépe pracuje. Drtivou většinu práce dělám ale přes web, tudíž musím mít nějakou formu Chromu, a tam si nemůžu nic vymýšlet. A ten zbytek trávím s MS Office a Dynamics, kde čas od času potřebuji podporu z Maďarska, a věřte, že vysvětlovat jim nějaké problémy emulace, to bych se fakt propadl do země. Takže dostanou nasdílené okno Virtualboxu, kde se občas objeví nějaké artefakty v obrazu, ale to jim vysvětlím jako problém ovladače (což je ostatně fakt).
A už jenom kvůli duševní hygieně se na pracovním stroji nehraje. A na herní stroj Windows klidně prsknout můžu, rozdíl mezi Linuxem a Windows je podobný jako mezi Windows a herní konzolí. Prostě to funguje, a pokud ne, funguje to s Googlem, a pokud i tak ne, funguje vrácení peněz.

+1
0
-1
Je komentář přínosný?

A ještě k Fodrekovi:

"Ak FSR3 využíva CPU/ RAM a FSR bude použité aj na KDE/MS Windows desktop/ GNOME/Unity ....., nemusí sa CPU dostať do kľudu nikdy, takže nemusí CPU dosiahnuť kľudovú spotrebu nikdy. A narážal som na to, že v tom prípade FSR3 "do toho hodí vidly""

První věc; skákám radostí, že další verze FSR bude umět interpolované snímky. Osobně jsem čekal spíše oblasti, ale to pro herní využití není holt tak přínosné.
Aby to fungovalo na desktopu, bude potřeba provázat kompozitor a ovladač grafiky. Tomu se na Linuxu můžu vysmát. Za deset let budou geekové tvrdit, že to perfektně funguje, a za patnáct let budu ochotný to zkusit. Na Windows to fungovat může, ale vztahy AMD a Microsoftu nejsou moc dobré, ta spolupráce dost dře. Na Macu očekávám, že to přijde, až Apple uzná za vhodné, protože pro něj je to zdaleka nejjednodušší. A další, kde se to podle mě objeví velmi snadno, je Android. Jakože Samsung, který má vlastní GPU (ne generické) a vlastní (nebo ne generické) displeje; ne Ulefone.

+1
0
-1
Je komentář přínosný?

Tapetáře Petra Fodreka můžeš v klidu ignorovat. On jen zalosuje v klobouku nesouvisejících věcí a vytáhne nějakou blbost. Jediné spojení mezi idle spotřebou a FSR3 je, že AMD je firma, která vyrábí jak procesory, tak herní grafiky.

+1
-1
-1
Je komentář přínosný?

Nejak se nemuzu zbavit dojmu...ChatGPT a spol...

+1
0
-1
Je komentář přínosný?

Ano, už jsem o tom mluvil dříve:
https://diit.cz/clanek/amd-poprve-oficialne-potvrdila-kombinaci-velkych-...

> Tapety od Petra Fodreka berte s rezervou. Odpovídá jen nejbližší výsledky ve své (omezené) databázi. Ale stejně jako Chat-GPT nepřizná, že neví.

+1
-2
-1
Je komentář přínosný?

Fodrek možná plní podobnou úlohu, jakou očekáváte od ChatGPT, ale ten původ je jinde.

Je to akademik. Je zvyklý pracovat s hromadou zdánlivě nesouvisejících informací. Nemá problém pracovat s více jazyky, a vyhýbá se zkratkám, aby nedošlo ke ztrátě nebo dezinterpretaci.
A to je to, co vám dává. Související informace dle svých možností a posouzení a jejich zdroj.

Jestli tam hledáte dojmy, názory, urážky, rychlé nebo zkratovité závěry, nebo třeba kdo se podobá jaké AI, tak to z toho moc nevytěžíte.

Já ho přeskakuji, protože se to prostě nedá číst. Což je mimochodem to, co ho na první pohled od ChatGPT odlišuje, ta se snaží být co nejpřívětivější a nejužitečnější, protože jste jejím zákazníkem. To Fodrek úplně neřeší.

+1
+1
-1
Je komentář přínosný?

Kde koupim od AMD procesor na Zen architekture, ktery na 4,4GHz zere az 3,2W?
Okamzite beru!

Misto toho prodavaji same rozerane osmijadrove obludy.

I ten muj low power Ryzen ma 15W na ctyri jadra.

+1
0
-1
Je komentář přínosný?

"ale spotřeba klesne na úroveň mobilů."

Nielen spotreba ale aj výkon.

+1
0
-1
Je komentář přínosný?

Tak ale mobily jsou dost rychlé. Brzdí je jen pasivní chlazení.

+1
+1
-1
Je komentář přínosný?

Z tých 40-50W idle spotreby desktop PC berie už teraz procesor len pár W takže ušetriť sa tam už dá relatívne málo, najviac žerie základná doska, zdroj, dedikované GPU... S integrovanou GPU a osekanou základnou doskou sa dá dostať na 10-15W, s ATX12VO zdrojom potom aj pod 10W.

+1
+1
-1
Je komentář přínosný?

Pamatuju, jak u prvních Atomů žral chipset stejně nebo možná i vic jak CPU.

+1
0
-1
Je komentář přínosný?

No desktopová 10400F což je spotřebou podobné s R5 3600 je někde na 6-7W, celé to má asi 35W na zdi 1240P v laptopu má 6W průměrnou spotřebu při celodenní práci a v idle jde na 1-1.5W.

M2 má v idle setiny W a při běžném pracovním dni udělá průměrnou spotřebu pod 1W, do toho 1W se vejde i spotřeba grafické karty.

Je to dost zásadní rozdíl, přitom všechny tři CPU jsou si relativně podobné výkonem.

+1
+2
-1
Je komentář přínosný?

Pokud máš mobil za pár korun, tak to možná problém bude, ale vlajkové mobily mají výkon vyšší než odhadem polovina počítačů, tzn cca 1,5 miliardy počítačů má menší výkon než mobily.

Ber to tak že třeba M1 od Apple je jen o 2 perf. jádra víc než iPhone. Koukni jaký výkon má M1, sniž to asi o 40% a porovnej to třeba s Skylake... Desktopová Skylake i7 je o trošičku pomalejší a Skylake je zhruba počítač s průměrným stářím (cca 7 let). A to se bavíme o hrubém CPU výkonu, nikoli o akcelerátorech nebo GPU.

+1
0
-1
Je komentář přínosný?

A to to ten M1/M2 dává v Air taky pasivně chlazené.

+1
0
-1
Je komentář přínosný?

Tak mobily až na pár výjimek jsou také pasivně chlazené.
Pasivně uchladíš i tu i7-6700. 65W není problém s adekvátním pasivem.

Pointa je že lidi si myslí že mobily jsou pomalejší než počítače, jenže to není pravda, ano počítač může být násobně výkonnější, stejně tak jsou počítače které výkonu mobilu zdaleka nedosáhnou.

Jenže mobil je plnohodnotný počítač, někdo má dokonce výkonnější mobil v kapse než počítač na stole. Rozdíl je jen UI aplikací a systému.

+1
+2
-1
Je komentář přínosný?

Ne, ten rozdíl je v hardwarových akceleracích. Při použití na desktopu je to u těch mobilních platforem znát. Podle mě za to mohou tři věci; obecně slabší singlethread výkon, obecně slabší úložiště u mobilních zařízení (někde je to fakt blivajz), a užší přístup k paměti.
Používám ty serverové ARMy od Oracle, a ty mají singlethread výkon peckovní. Jestli je to 20% nad nebo pod x86 je mi putna. Ale má to enterprise úložiště a úplně jiný paměťový řadič než mobily. A na Linuxu máte tu výhodu, že když nestačí výkon, často to prostě přenesete celé na Epyc nebo Intel, podle toho, kde zrovna bude ten výkon pro vás lepší.

Ale protože ARM to srovnává, tak do budoucna se dá čekat jediný rozdíl ve výkonu, a to podle chlazení. Ten mobil prostě prd uchladí, a efektivní je podobně jak ten Ryzen (srovnání operace na joul). Takže toho zpracuje méně. Jakmile ho šoupnete do laptopu, už uchladíte více, a jste třeba o 50% výkonu jinde.
Uživatele mobilu zajímá špičkový výkon, protože načíst tu mapu chce jenom jednou, a chce to za zlomek vteřiny. A pak se ten SoC může zase pár vteřin flákat. Desktopové OS tohle dodnes neumí, protože vývojově jsou stavěné naopak tak, aby využívaly výkon, který uživatel nespotřebuje. Tam hrozně dlouho platilo, že pokud CPU nic nedělá, nemá to žádný praktický přínos. A protože dělají bambilion hovadin na pozadí, tak toho spánku prostě mají podstatně méně. Proto vám může přijít špičkový výkon na mobilu vyšší; protože ten laptop do té úlohy vstupuje už za vyšší teploty.
No a x86 se na tomto trhu účastní jen disciplín s vyšším výkonem prostě proto, že tu úspornost neumí. Intel to zkusil, a nedopadlo to. AMD na to doteď nemělo peníze. A teď se ukazuje, že je vhodnější vydat se směrem APU a brutálních Epyců; na mobilní trh, kde jim konkuruje Mediatek s cenou $3 USD za SoC, pro ně nemá smysl se pouštět. Když už, tak do high-endu, kde to vidíme u Samsungu. Samsung si to sám vyrobí, AMD mu dodá návrh a licenci. Tam už asi prostor pro tu marži pak je. AMD prodá všechno, co jim TSMC vyrobí, nemá pro ně smysl plýtvat křemíkem. A Intel má prostě k mobilům teď nekonečně daleko. Buďme rádi, pokud s něčím alespoň smysluplným.
Ten rozdíl je propastný, protože zatímco mobilní SoC dokáže snížit spotřebu k setinám wattu, od x86 můžete očekávat přinejmenším jednotky. Neznám nikoho, kdo by x86 v klidu bez monitoru dostal třeba pod 4W. Něco takového je pro telefon nepředstavitelné, proto taky Intel neuspěl s Atomy. Některé žraly v klidu fakt málo, ale měly k sobě severní můstek s 5 W. Asus měl nějaké mobilové pokusy, kde ten severní můstek nebyl, ale i to prostě žralo nepřijatelně hodně.

Uvažoval jsem o laptopu s ARMem, a v takovém případě ale člověk chce OS k tomu určený. Android nebo ChromeOS. Což není úplně výhra. Nebo ten MacOs. Ale Windows a běžné linuxové distribuce jsou od základu postavené jinak, a na té uživatelské zkušenosti je to znát.
Naštěstí přišel Ryzen, a do laptopů doručil snesitelně nízké TDP, excelentní singlethread výkon a překvapivě výkonný grafický akcelerátor se skvělou podporou v Linuxu. Až uvidím ARM, který mi poskytne stejně plynulý zážitek ve stejném prostředí, budu o tom uvažovat. Jsem zvědavý, jak na GPU od Mediateku budu hrát přes Wine a emulaci starší hry :-D ten Ryzen toho zvládne překvapivě hodně.
To překvapení, když zjistíte, že váš nový pasivně chlazený laptop má o 50% vyšší singlethread výkon a jen o 50% nižší grafický výkon než vaše 600W workstation je k nezaplacení. Jakmile člověk začne renderovat na procesoru, po deseti minutách se situace otáčí, a oba stroje dělají přibližně podobný rámus :-)

Jsem nemocnej, a nemám co dělat, tak přemýšlím.. a třeba to někdo bude číst.

+1
0
-1
Je komentář přínosný?

Smazaná duplicita

+1
0
-1
Je komentář přínosný?

To by na tom nesměly běžet Wokna :D

+1
+2
-1
Je komentář přínosný?

"Kolik typů jader může být maximálně v procesoru?" - ptá se vývojář Pata.
"Klidně deset, hlavně aby aspoň jedno nežralo jak celá elektrárna."

+1
+1
-1
Je komentář přínosný?
+1
+1
-1
Je komentář přínosný?

PC ve smyslu desktop, ne ve smyslu notebooku.

+1
0
-1
Je komentář přínosný?

Na rok 2028 plánuje jistá firma osmijádrový procesor s jedenácti různými typy jader. Některá jádra se totiž budou podle potřeby přepínat do různých režimů. Procesor bude vyráběn procesem 0,9A.

:D:D:D

+1
+6
-1
Je komentář přínosný?

Já této politice rozumím u mobilních zařízení. Ale u desktopu a serverů ne. Už teď mají desktop CPU mimo zátěž prakticky zanedbatelný odběr v porovnání s ostatními komponentami a účinností zdroje.
Podle mě je to cesta do exkrementů. Jen to zhoršuje kompatibilitu.
U Apple je to něco jiného. Oni tomu dlouhodobě přizpůsobují celý ekosystém. Ale platformu Wintel tohle jen znovu oslabí.
Já už architektuře x86/x64 dlouhodobě (10y+) nevěřím. Jsem velmi rád, že jsem se před 6 lety zbavil akcií Intel a nakoupil akcie AMD a pak před cca rokem a půl vyměnil tyto za akcie Apple.
Je to jen můj názor, který vznikl mým poznáním světa. Naprosto chápu že někdo může mít jiný názor, zvlášť pokud ho podepře argumenty. :-)

+1
+3
-1
Je komentář přínosný?

x86-64 bude ešte dlhé roky prežívať vďaka softvérovému ekosystému aj keby ho arm/risc-v úplne prevalcoval v efektivite... A s ATX12VO zdrojom, osekanou matičnou doskou a integrovanou GPU sa môže desktop dostať v idle spotrebe aj k 5W.

+1
+1
-1
Je komentář přínosný?

Takže EMIB můstky nebudou? A já se tak těšila :-)

Na Intelu je pěkně vidět jak vytlouká klín klínem.
Nejdřív zjistil, že nedokáže víc jader, tak tam nacpal 4x menší. Teď zjistil, že neukočíruje power management spojení čipletů, tak nacpe jádra do centrální dlaždice.

Intel nepředvádí vývoj, ale damage control.

+1
+7
-1
Je komentář přínosný?

Rozdeleni a umisteni jiz trech typů jader do x86 procesoru jenom dokazuje ze intel dnes jednoduse nema skutecne novou namakanou architekturu(ale naopak jenom tlachy a sliby...) ktera by prolomila ledy tak jak se tomu udalo s revolucnimi procesory Core 2 Duo!

Intel ma dnes tech problemu daleko vic a jejich nereseni vede tuhle firmu do ukazkovych sraček, rekapitulace: vyrobni proces 10nm generace stoji stale na píču, dalsi slibovane sou v nedohlednu a jeste drze vojebava protoze intel 7 neni 7nm ale 10nm(!), dale jeho jadra zabiraji vuci jadrum AMD 2x vetsi plochu, sou k tomu zravejsi, socket LGA 1700 procesory drze a neakceptovatelne prohyba, zakaznikum arogantne vypl skrz mikrokod instrukce AVX-512 a navic uvadi intel u kazdeho procesoru jiny set instrukci AVX-512, jeho dedikovane grafiky dopadli rovnez katastrofalne, nikdo nechce byt debilnim pokusnim kralickem a tak to hnije na skladech a nebo se to pribaluje nasilu ku skutecnym grafikam od AMD a NVIDIE, co se tyka malych jader, byl to od zacatku vojeb a ted pribudou jeste menší píče, no to me potes(!), ukazkove katovani zakazniku...

Dnes vezmu jiz davno uvedenou mobilni Zen III v podobe U(15W) provedeni a zere to "smesne" watty a to dokonce pri vysokem zatizeni, cili jako koho chce intel timhle namotat(na tyhle kokotiny) a to nerikam ze jiz byla uvedena jeste vypilenejsi 6nm generace Zen III+ a Zen IV, tez jak dokazujou i realne zkusenosti zakazniku s poslednima APU serie 5000G na socketu AM4, ty procesory sou jednoduse ve spotrebe ukazkove a opakuju bavime se tu o desktopu a ne o mobilni sfere kde sou frekvence techto APU nizsi.

Ja to vidim tak ze se pripravuje uvedeni jeste debilnejsich Windows 12 a jenom ony budou tyto dalsi(treti) jadra umet ridit, pomuzou si tak vzajemne cigani a zlodeji, vysledkem je banda...!

Normalni zakaznik se dnes po intel-u ani neobhlizi, koupi Zen a ma svaty pokoj a klid(kdyz to vyrobce zakladni desky samozrejme nedojebe ale to neni chyba AMD ktera jim predtim predala svuj kod A.G.E.S.A)!

+1
+5
-1
Je komentář přínosný?

to spojenie cigani a zlodeji trafia klinec po hlavicke !

+1
0
-1
Je komentář přínosný?

No když už se AMD poučilo že má i do běžných desktopu integrovat aspoň nějaké základní zobrazovadlo s čím půjde nabootovat,
tak Intel toto posunul zase o kus dál a integruje vysoce efektivní jádra a v případě (ne-)potřeby může deaktivovat celou dlaždici a fungovat jen s 1/3 křemíku pod IHS
(To se mi líbí)

Jsem docela zvědav na tu obří paměť jako odpověď na 3Dvcache.
Procesory mají sice žravé, ale jestli se jim tyhle inovace podaří, tak zase AMD technologicky přeskočí
Je na čase aby něco předvedli, zatím předvádějí úpadek a pokud budou pokračovat tak mohou ty rozestavěné továrny za pár let rovnou odprodat

+1
-1
-1
Je komentář přínosný?

podle usmevu divciny to vypada, za je AMD v dupe :))
mno uvidime, jak se Intelu podarilo zabrat, uz je deset minut po dvanacte...

+1
0
-1
Je komentář přínosný?

takze normalne jadra, male jadra, este mensie jadra. logicky krok je este este mensie jadra, a este este este mensie jadra ...
Toto ked uvidi windows scheduler ...

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.