Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel Royal Core vypadá na Bulldozer® Done Right™: Sloučí velká a malá jádra?

Intel by měl přestat vymýšlet tyhle hyperinovativní designy když očividně nezvládá ani ty jednodušší - tedy osadit víc než 10 velkých jader bez toho aby spotřeba letěla přes 300W

+1
-1
-1
Je komentář přínosný?

Právě že musí jít cestou nových inovativních designů, protože současná arch. už není energeticky efektivní a hodně žere. Proto vznikl projekt Royal core, který to má vyřešit.

+1
+4
-1
Je komentář přínosný?

Mno jo, ale jak se mu ty hyperinovativní přístupy osvědčily? 3+ let zpoždění?

+1
+1
-1
Je komentář přínosný?

Kdyby AMD dodnes jen leštila Bulldozer (+15 % IPC za 1,5 roku), tak bychom se mohli těšit, že si letos pod stromeček nadělíme žhavou novinku o výkonu osmijádrového Zen 2. Od základu nová architektura je sice riskantní projekt, ale co má Intel dělat jiného?

+1
+4
-1
Je komentář přínosný?

Možná by se do rodiny stavebních strojů dostaly prvky, které tam od začátku měly být a třeba by jsme se dost divili. AMD přechodem z Bulldozeru a dalších na ZEN moc neriskovala.

+1
0
-1
Je komentář přínosný?

Da sa povedat, ze s P-core, ktore je na plochu ~2x vacsie ako jadro Zen uz vela neriskuje ani Intel. Ak od podlahy nova architektura ma trvat 5 rokov, tak je mozne, ze P-cores o 5 rokov uz budu tak konkurencie neschopne, ze sa z nich stanu Bulldozery, aj keby na nich nic nezmenili.

+1
+2
-1
Je komentář přínosný?

To je to samé jako říct že když architekt špatně navrhl zeď a ta popraskala tak má příště navrhnout most, jelikož zeď mu nešla..

+1
+1
-1
Je komentář přínosný?

U dlouhodobě vyvíjené architektury, což x86 určitě je, není možné dělat rychlé změny, pamatujete jak v době Bulldozeru bylo AMD vytýkáno, že nezůstali u K10? Když se podíváte na ZEN, je patrné, že AMD dělá jen malé změny, ale zato vytrvale. Kdežto Intel, který dlouho dělal ještě menší změny se najednou snaží o větší skoky než AMD, to nemůže takto fungovat. Intel spal moc dlouho, aby to dokázal rychle dohnat.

+1
+2
-1
Je komentář přínosný?

Toto je dost tupe. On Core bola svojho casu architektura celkom vhodna. Problem je v tom, ze svojho casu sa datuje do roku pane 2010. Vtedy super-najvykonnejsia vec bol 4-jadrovy procesor a najviac sa Intel asi bal Athlona64 x2. Ze odvtedy zaspali na vavrinoch a nevylepsili to tak, aby sa na tom rozumne dali upiect viac ako 4 jadra je zrejme chyba menezmentu, ktora to videla tak, ze so styrmi jadrami si vytacia najblizsiu dekadu a tak to jadro futrovali a futrovali. A potom ked im Zen zatopil, bol problem riesit, co s tym.

+1
+1
-1
Je komentář přínosný?

Je tu ještě možnost, že management byl ukolébán sliby inženýrů o schopnosti architekturu dostatečně vylepšit, kdyby bylo třeba a nikdo si včas neuvědomil, že by měli začít. A když už začali, nešlo to tak dobře a navíc už bylo pozdě. Problém managementu Intelu je ten, že AMD značně podceňovali a i když už výkon ZENu byl vidět, Intel byl klidný kvůli svým prodejům a pozici na trhu.

+1
+2
-1
Je komentář přínosný?

Když přemýšlím o budoucím směřování procesorů a nevím, tak se kouknu jak to dělá ARM, protože oni si nemohou dovolit vymýšlet kraviny. ARM neměl žádné černé díry jako Itanium, Netburst, Bulldozer, hyperthreading apod. ARM se nakonec na HT vyprdl, protože náklady na vývoj a bezpečnostní rizika za ten přínos nestála. Ukázalo se, že měl pravdu. Dokonce i dnes se najde SW, který má lepší výkon s vypnutým HT/SMT.

Závěr je, že je lepší jít cestou zvětšování velkých jader a zmenšování jejich počtu a u malých aplikovat opačný přístup. Pokud nenastane nějaká SW revoluce (dost nepravděpodobné), tak počet velkých jader klesne na 2-4 z dnešních mainstreamových 6-8. Jedinou otázkou zůstává, do jak malých jader lze narvat alespoň základní podporu AVX-512 a jestli to je vůbec nutné.

PS: Vnímám jako srandovní, že Intel se svojí, i mnou dříve kritizovanou, mantrou "4 jádra musí stačit všem a na dlouho" nebyl zase tak daleko od pravdy. Stačí k těm 4 přidat hejno prcků.

+1
-15
-1
Je komentář přínosný?

„Dokonce i dnes se najde SW, který má lepší výkon s vypnutým HT/SMT.“

Jinými slovy až na tyto výjimky dnes většina softwaru dosahuje vyššího výkonu s HT/SMT než bez něj.

AMD a Intel dává uživateli na výběr, zda jej použije nebo ne. ARM nikoli. ARM se rozhodla obejít bez SMT nikoli pro to, že by to přinášelo výhody uživatelům, ale z toho důvodu, že to na ARM architekturách nemá z hlediska potenciálního nárůstu výkonu smysl.

+1
+12
-1
Je komentář přínosný?

A to je právě divné. Čím mohutnější jádro, tím to svádí k použití HT - to platí pro všechny architektury. Masité ARM jádro lze vyvinout snáz než masité x86-64 jádro (kult 6xALU) a třeba u Applu mají prachů, že neví co s nima a stejně se na HT vyprdli. Proč zahodili tak skvělou šanci na lehké zvýšení výkonu? Protože asi tak skvělá není. Uvidíme jak se to vyvine u RISC-V, ten to může rozseknout.

+1
-7
-1
Je komentář přínosný?

Vždyť to píšu. Protože ARM architektura nedává prostor pro zvýšení výkonu pomocí SMT.

+1
+5
-1
Je komentář přínosný?

SMT se dá aplikovat různými způsoby, v různé podobě (2-4-8 vláken na jádro) a i vzhledem k tomu, jaké architektury si s SMT hrály je nepravděpodobné, že ARM architektura je něčím tak odlišná.

Samotný Intel si u Core od HT raději odpočinul a AMD s ním začala až s Ryzenem. Kdyby to bylo tak skvělé, tak by cpu měly SMT od Pentium 4 pořád, ale je to nákladné na vývoj.

+1
-5
-1
Je komentář přínosný?

Intel zpočátku na Core HT nepodporoval nikoli proto, že by si od něj potřeboval odpočinout, ale proto, že Core byl derivát Pentia III, které HT nepodporovalo. Protože použití derivátů Pentia III v desktopu byl „plán B“ v důsledku problémů Pentia IV, trvalo nějakou dobu, než do této architektury Intel HT doplnil.

„je nepravděpodobné, ARM architektura je něčím tak odlišná.“

Právě proto, že je ARM architektura odlišná. ARM je derivát RISC. Jednoduchá pipeline, která se efektivity snaží dosáhnout (ideálně) zpracováním každé instrukce v jednom taktu / cyklu a fungovat s nízkými latencemi. x86 naproti tomu pracuje se složitější pipeline, která je stavěná na práci s vyššími latencemi. SMT u x86 těží mj. ze situací, kdy pipeline čeká na data z paměti a dochází ke vzniku bubliny, takže je nevyužitá. SMT se snaží využít této bubliny tím, že má připravené druhé vlákno (jehož zpracování není spjaté s daty v paměti), které může jádro zpracovávat během této bubliny (přesunu dat). Důvodů a situací, u kterých může SMT z hardwaru extrahovat výkon nad rámec výkonu dostupného primárnímu vláknu je víc, ale tohle je jeden z těch základních. U klasické ARM proto nemá SMT z čeho těžit. Existují spousty variant ARM jader, některé se už velmi zásadně vzdalují od RISC a prostor pro SMT u nich být může, byť stále ne tak velký, jako u x86. Existují v tomto směru experimenty (Cortex-A65, Cortex-A65AE, Neoverse-E1), ale nic, co by naznačovalo nasazení mainstreamové nasazení SMT u ARM architektur v dohledné době, protože prostor pro nárůst výkonu je u nich nízký a vynaložené úsilí by neodpovídalo benefitům.

+1
+5
-1
Je komentář přínosný?

To co popisujete platilo pro první jednoduché RISC procesory, ale dosáhnout touto cestou dnešních výkonů by nešlo, co se SMT týká, ARM s podporou SMT alespoň v návrhu či prototypu existovalo a týká se to více Berkley RISC - Alpha, MIPS, nejdále se dostal SPARC. Představa o tom, že RISC jádra jsou automaticky jednodušší, už dávno neplatí. Co ale pravda je, že ta jednoduchá a slabá můžou být menší než stejně výkonná x86 či jiná CISC.

+1
0
-1
Je komentář přínosný?

Předpokládám, že jste před sepsáním reakce můj příspěvek nedočetl, tedy alespoň ne jeho poslední větu.

+1
0
-1
Je komentář přínosný?

Ale dočetl. Píšete, že ARM existuje ve velké paletě provedení od prakticky mikrořadičů po velká jádra srovnatelná x86-64. Což není žádná novinka pokud se bavíme o nasazení SMT, logicky to platí pro největší a nejvýkonnější varianty.

+1
0
-1
Je komentář přínosný?

Stále si myslím, že nečetl, když mluvíte o nejvýkonnějších variantách. Psal jsem o mainstreamovém nasazení, neboť autor prvního příspěvku, od kterého se tato diskuze odvíjí a na který reaguji, hovořil o mainstreamu.

+1
0
-1
Je komentář přínosný?

Definujte u ARM mainstream, jsou to mobily, průmyslové nasazení, síťové a web aplikace, nebo co přesně? Možná by jsme mohli jako mainstream definovat aplikaci, pro kterou se těch jader prodá nejvíc a pak by to opravdu znamenalo síťové použití a pak se shodneme na tom, že zde jádra opravdu nejsou taky výkonná, aby se SMT vyplatilo. Jenže výrobci CPU přece ty nejlepší technologie vždy uplatňují u nejvyšších modelů.

+1
0
-1
Je komentář přínosný?

Ono hlavně HT je na x86 jen znouzectnost, protože nemohou rozšířit dekodér instrukcí (počet tranzistorů roste exponenciálně). Takže místo 1 dekodér x 8 instrukcí tam musí mít 2 dekodéry x 4 instrukce. Podobný výkon v MT, ale menší v ST.

Technické detaily: V inner loops některé x86 CPU cachují 6 mikroinstrukcí, tj. chvílemi jedou jakoby s dekodérem, co umí 6 instrukcí za cykl. Dále skrze AVX-512 některé CPU umí dekódovat jednu AVX-512 instrukci za cykl, čímž aspoň ve specifických situacích SIMD to množství operací přes ten dekodér protlačí.

+1
+1
-1
Je komentář přínosný?

Toto omezení se týká Intelu, AMD nebo obou?

+1
0
-1
Je komentář přínosný?

To omezení se týká CISC ISA / x86, kde je délka instrukce proměnlivá, takže s počtem současně dekódovaných instrukcí exponenciálně roste množství kombinací instrukcí na vstupu. Apple spolupracoval s ARM na vývoji AArch64, aby tohle do budoucna nebylo úzké hrdlo (a o dekádu později to využil při svém vstupu do desktopu).

+1
+1
-1
Je komentář přínosný?

Především čistý RISC přece žádný dekodér mikroinstrukcí vůbec nemá.

+1
0
-1
Je komentář přínosný?

Ano, proto dobře škáluje přidávání dekodérů instrukcí.

+1
0
-1
Je komentář přínosný?

Samozřejmě obou.

+1
0
-1
Je komentář přínosný?

Predpokladam, ze dovod k tomu, preco ARM HT nema, bude mat nieco spolocne s tym, ze uzke hrdlo pri x86, resp AMD64 je dekodovanie instrukcii. Aj moderny Zen dokaze za jeden takt dekodovat iba 4 instrukcie. Uz aj prastary Power4 niekedy okolo roku 2003 dokazal dvojnasobok. Ale pri dlhej pipeline, register renamingu a out of order vykonavani aj tak treba viac nez 4 ALU. Lenze to potom znamena, ze dost casto sa stane, ze sa tieto ALU nudia. Tak sa na ne pusti druhy instrukcny stream.

Sirsie dekodery architektur s pevnou, resp. predpovedatelnou dlzkou instrukcie + kratsie pipeline nemusia davat priestor na to, aby sa zvysne ALU mohli flakat, takze uzitok z HT by nebol tak velky.

Sparc sice HT mal, dokonca 8x, ale tam to fungovalo stylom barrel roller. Jeden procesor mal 8 frontendov, kazdy si dekodoval instrukcie zo svojho threadu a na preskacku ich strkali do pipeline.

POWER a MIPS to vedia tiez, tam sa ale hra s prioritami threadov, takze predpokladam ze skor, nez o zvysenie vykonu tam ide o podporu RT systemov.

+1
0
-1
Je komentář přínosný?

Poněkud mi uniká, proč vidíte problém v počtu ALU, jako kdyby to byly jediné jednotky, které v procesoru něco vykonávají. Je to daleko složitější a každá architektura má potenciální úzké hrdlo někde jinde.

+1
0
-1
Je komentář přínosný?

"SMT se dá aplikovat různými způsoby, v různé podobě (2-4-8 vláken na jádro)"

Clovece ty si to predstzavujes jak Hurvinek valku. Pri dnesnom koncepte Intel Core od 8xx/9xx (t.j. od ery post-Core2Quad ktore HT/SMT nepodporovali) az po Core 13xxx, alebo AMD Zeny, pridava druhe vlakno v jadre v priemere 25% multiT vykonu. Samozrejme velmi to zalezi od specifickehjo zatazenia. Tretie spracovavane vlakno na fyzicke jadro, by pri dnesnom koncepte nepridalo absolutne nic, alebo najnizsie jednotky %. Ale v zasade nic. A stvrte vlakno by pridalo absolutnu nulu.

Aby mohlo jedno fyzicke jadro spracovavat 4 vlakna a najma aby sa to vobec vyplatilo, koncept dnesnych jadier ako jen Zen v pripade AMD za posl. 6 rokov, alebo Core za posl. 15 rokov, by musel byt riaaaaaadne prekopany. A o tom asi ma byt Royal.
Aby prve vlakno pridalo napr. 50% vykonu, druhe napr. 30%, tretie 15% a stvrte prtavych 5% (50+30+15+5 = 100). Teda jedno take jadro so 4xHT/SMT by malo 2x vyssi multiT vykon ako bez toho 4xHT/SMT. Lenze to sa musi aj vyplatit. Ak je na to treba o 80% viac tranzistorov ako na jadro uplne bez 4xHT/SMT, tak je ovela lepsie sa na to vyprdnut a robit jadra uplne bez 4x HT/SMT. Alebo najst iny koncept.
Alebo proste ostat pri dnesnych 2xHT/SMT, kde +25% vykonu prida malinke percento organizacnych tranzistorov naviac.

+1
0
-1
Je komentář přínosný?

Napadlo mne, zda Intel spíš nemyslel stejný přístup, kterým se dala IBM u Power procesorů, tedy dělené jádro na větší počet stejných HW cest, které by ale uměly spolupracovat vzájemným spojením.

+1
0
-1
Je komentář přínosný?

SMT u POWER je kvůli business aplikacím, kde většina práce je skalární. Tj. jádro, které musí umět taky vektory, se z většiny fláká. Na desktopu je ale i velký podíl aplikací, které CPU využijí více než jen nějakým účetnickým softwarem, takže to už tolik nepřináší. To "spojení cest" byla cesta Bulldozeru, kdy FPU bylo mezi 2 CPU jádry, nebo u některých prvních GPU s multitexturingem, kdy se spojily 2 pipelines, každá s jednou TMU, a vykreslily 1 pixel s 2 texturami.

+1
0
-1
Je komentář přínosný?

Bulldozer byl těžký kompromis, původně měl vypadat jinak a měl být výkonnější, jenže přišly škrty.

+1
0
-1
Je komentář přínosný?

Co vím, tak hlavní problém Bulldozeru byl, že ty jádra nedokázal nakrmit dekodérem/y instrukcí. Tj. nebyl problém, že FPU je sdílené, ale že vlastně AMD lhalo, že to jsou plnohodnotná jádra, i kdybychom řešili jen výkon v celých číslech.

+1
0
-1
Je komentář přínosný?

Měli raději mluvit o jednom zdvojeném jádře, taky prohráli soud, kde se to řešilo. Ale to je víc slovíčkaření. AMD nemělo v té době na vývoj dost peněz, proto z toho vyšla zrůdička.

+1
0
-1
Je komentář přínosný?

Soud neprohráli, jen se raději dohodli.
"AMD is pleased to have reached a settlement of this lawsuit. While we believe the allegations are without merit, we also believe that eliminating the distraction and settling the litigation is in our best interest."

+1
0
-1
Je komentář přínosný?

Preco by sa malo jadro POWER pri skalarnych operaciach flakat? Skalarna a vektorova pipeline su inac dlhe, takze skalarny kod za nicim necaka.

+1
0
-1
Je komentář přínosný?

Jádro má více výpočetních jednotek a ve skalárních výpočtech se jich většina nevyužívá (používá se více jak jedna, protože out-of-order, ale tyhle business operace často nejdou moc přerovnat pořadí).

+1
0
-1
Je komentář přínosný?

POWER (do 9. generace) Power (od 10. gen.) má několik zvláštností, kromě toho, že existuje více variant modulů podle konektivity až po šílené konfigurace, je to jediný procesor, který umí HW výpočty v dekadické plovoucí čárce - patrně se to hodí bankám. Ale navíc je HW kompatibilní se stařičkým S/360. A z toho nejspíš vyplívají i některá omezení a rozhodně nejde i čistý RISC procesor.

+1
+1
-1
Je komentář přínosný?

Protože Apple neposkytuje HW pro masivní multi-procesové(multi-threadové) zátěže. Je schopen jeden SoC (M1) dát do tabletu, ntb i pc.

+1
0
-1
Je komentář přínosný?

Apple M1 ultra má 20 jader.

+1
-5
-1
Je komentář přínosný?

Apple ty masivnější verze dost špatně škálují, proto se do výroby ani nedostala ta největší plánovaná verze.

+1
+4
-1
Je komentář přínosný?

MB 2S SP5 lze osadit dvěma Epyp Genoa s celkem 192 jádry, což je o řád více jader než 16+4 M1 Ultra. Se stokrát více RAM. To již není ani jiná liga, to je zcela odlišný sport.

+1
+4
-1
Je komentář přínosný?

To už ale není srovnání čistě wokstation HW ale porovnání wokstation a hi-end serveru, poctivější by bylo srovnání s ThreadRipper Pro, ale ani proti němu nemá Apple přímého konkurenta, protože HW Apple je spíš hi-end desktop.

+1
+2
-1
Je komentář přínosný?

TR je čistě CPU výkon, kdežto M1/M2 je kombinace CPU a GPU. V cílovce Apple se výkon GPU používá hodně, ale samozřejmě nejde pak hovořit u tzv. hrubém výkonu CPU (resp. CPU části SoC).

+1
0
-1
Je komentář přínosný?

Vím, že jde o APU, ale z toho právě plyne i řada omezení.

+1
0
-1
Je komentář přínosný?

Jenže tím, že přestal v rámci Apple Silicon platformy podporovat dGPU a eGPU se sám výkonostně deklasoval (jeho špička tj. M1 Ultra s 64 GPU core stojí více než 140 000Kč) dosahuje hrubého výpočetního výkonu mainstreamu GK.
https://browser.geekbench.com/search?k=v5_compute&q=M1+Ultra
https://browser.geekbench.com/v5/compute/search?utf8=%E2%9C%93&q=RTX+306...

https://www.alza.cz/mac-studio/18894763.htm#f&cst=1&cud=0&pg=1&prod=&par...

+1
0
-1
Je komentář přínosný?

Apple o hry nikdy moc nešlo a platforma pro CAD/CAM taky nikdy nebyla, takže v silmém GPU moc smysl neviděli. Jediné takové stroje na kombinaci CPU Intel a GPU AMD ani moc často neinovovali a zjevně neviděli moc důvod podobným konfiguracím na Windows či Linuxu moc konkurovat.

+1
0
-1
Je komentář přínosný?

Tak on M1/M2 GPU je v některých ohledech úplně mimo herní grafiky. Např v množství RAM a rychlosti komunikace mezi CPU a GPU. Jak už tu bylo řečeno, Apple posiluje tam, kde to má smysl pro práci jeho uživatelů. Hry a CAD/CAM byly na jeho platformě vždy v pozadí.

+1
0
-1
Je komentář přínosný?

Jde o obecny GPGPU vykon. Souhrnna pametova pruchodnost M1 Ultra cini 800GB/s, to je cca 70% souhrnne pruchodnosti RAM+VRAM nejrychlejsiho desktop CPU a desktop GPU. Vykon je pritom cca na 1/5. Karty jde do PC osadit klidne dve, takze nabizeny spickovy vykon je v urcitych use case na 1/10 (za podobnou cenu).

+1
0
-1
Je komentář přínosný?

Apple ve vyšších verzích APU nabízí vždy stejný poměr výkonu CPU a GPU a jen velmi malou možnost volby velikosti RAM, u které navíc maximální kapacita je v porovnání s x86-64 workstation velmi malá a o možnosti navěsit další rozšiřující karty na sběrnici si uživatel Apple může nechat jen zdát. Prostě ve stylu Apple, nelíbí se ti nabízené konfigurace? Máš smůlu.

+1
+1
-1
Je komentář přínosný?

> Prostě ve stylu Apple, nelíbí se ti nabízené konfigurace? Máš smůlu.

Takhle fungoval Apple už dlouho před přechodem na ARM a očividně mu to vychází.

+1
0
-1
Je komentář přínosný?

To je jeden z důvodů, proč mne nikdy jejich nabídka neoslovila. A jak je vidět, spoustu profesionálu stejně tak.

+1
+1
-1
Je komentář přínosný?

Záleží jak kterých.

+1
0
-1
Je komentář přínosný?

SW pro navrhování elektronických obvodů a následně desek s plošnými spoji, například. Stavební a strojařské CAD a hromada dalších. Není tajemství, že nejlépe využitelný je Mac na fotografie, video a stříhaní hudby, to opravdu není pro všechny.

+1
+1
-1
Je komentář přínosný?

Apple cílí na masy a CAD/CAM nebyly jeho doménou dlouho před přechodem na ARM.

+1
0
-1
Je komentář přínosný?

Pak ale nejde tvrdit, že je Apple vhodné pro každého.

+1
0
-1
Je komentář přínosný?

To jste tvrdil vy a já vám to rozporoval.

+1
-1
-1
Je komentář přínosný?

Kde proboha. Já že bych takovou blbost psal o Apple? Celou dobu jsem na straně PC, nemůžu za to, že na mne někdo zkoušel blbosti typu, tak si to pusť v emulaci. Laskavě si znovu přečtěte, co jsem psal.

+1
0
-1
Je komentář přínosný?

Ano, psal jste blbosti.

+1
-1
-1
Je komentář přínosný?

Pěkná blbost. Apple od začátku řady Mac cílil primárně na novináře, grafiky (měl těsné exkluzivní spojení s Adobe) a školy - těm v rámci reklamy dával počítače zdarma. Podobným způsobem dostávali počítače do záběrů filmů, aby to působilo dojmem, že Mac má doma každý Američan, což nikdy nebyla pravda. Na masy začal výrazně cílit trochu později a původně jinými produkty. Až nakonec z počítače udělali spotřební zboží, které téměř nejde opravit.

+1
0
-1
Je komentář přínosný?

Teď už jsi dost mimo, chlapče.

+1
-3
-1
Je komentář přínosný?

Co argumentovat bez marné snahy mne rozčílit?

+1
0
-1
Je komentář přínosný?

Plácáte mantry, co neplatí už deset let.

+1
-3
-1
Je komentář přínosný?

Já psal o tom, kam cílil Apple Mac od začátku. Pravda totiž je, profesionálové mají stále méně důvodů Apple kupovat, už dávno je to daleko víc značka nadšenců.

+1
0
-1
Je komentář přínosný?

Jestli těmi profesionály myslíte ty, co nikdy Apple nepoužívali (např. ten váš CAD/CAM)...

+1
-1
-1
Je komentář přínosný?

Fakt by mne zajímalo, pro jaké profese či obory je podle vás Apple vhodný.

+1
0
-1
Je komentář přínosný?

Tak třeba mezi vývojáři je velmi oblíbený.

+1
0
-1
Je komentář přínosný?

To je trochu úzké spektrum a navíc hodně známé, čekal jsem, že mne víc překvapíte.

+1
0
-1
Je komentář přínosný?

No vy jste jmenoval kde koho a obrovskou skupinu vývojářů napříč form factory jste úplně opomněl.

+1
-1
-1
Je komentář přínosný?

toto je 31. (slovom TRIDSIATA PRVA) uroven četovacieho vlakna

az po 30. (TRIDSIATE) su vsetky mierne odsadene (2-4 medzerami ci TAB), bude odsadene aj toto 31. vlakno? na tom az tak nezalezi, 30 četovacich vlakien je aj tak FASCINUJUCE !!!

+1
-1
-1
Je komentář přínosný?

32.

+1
-1
-1
Je komentář přínosný?

33.

+1
-2
-1
Je komentář přínosný?

34. lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem

+1
-2
-1
Je komentář přínosný?

35. lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem

+1
-2
-1
Je komentář přínosný?

36. lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem

+1
-2
-1
Je komentář přínosný?

37. lorem ipsum lorem ipsum lorem ipsum lorem ipsum lorem

+1
-2
-1
Je komentář přínosný?

38. no jo, za tou 30-tkou to uz zacina byt kontraproduktivne, lebo na riadok sa zmesti iba par slov a tu mozno jedno

+1
-2
-1
Je komentář přínosný?

39. lorem ipsum lorem ipsum lorem ipsum

+1
-2
-1
Je komentář přínosný?

40. no jo, stacilo srandy

+1
-2
-1
Je komentář přínosný?

Protože ve světě Apple si převážná většina nemůže finančně dovolit výkon, který potřebuje. Na rozdíl od PC světa, kde si většinou dopřejeme výkon, který ani nepotřebujeme.

+1
+2
-1
Je komentář přínosný?

Tak ten byl dobrej. Spousta Maců je na práci a rychle si na sebe vydělá. Ano, stojí víc než nějaká PC hračka, ale taky si ho kupuješ s nějakým cílem.

+1
-3
-1
Je komentář přínosný?

A pracovní stanici si někdo kupuje pro zábavu? Pocházíte z prapodivné společnosti.

+1
+4
-1
Je komentář přínosný?

Ta pracovní stanice ale už není levnější než Apple.

+1
-3
-1
Je komentář přínosný?

A kde jsem psal o ceně?

+1
0
-1
Je komentář přínosný?

Tohle podvlákno je o finančních možnostech uživatelů, takže zalez.

+1
-2
-1
Je komentář přínosný?

Zajímavé, vzniklo zmínkou o M1 Ultra. Ale nikde v celém podvláknu nic o ceně. Spíš se vám jen nelíbí, co píšu.

+1
0
-1
Je komentář přínosný?

Zajímavé. Každý může odskrolovat nahoru a uvidí jako první příspěvek od Lazara, že ve světě Apple si převážná většina nemůže finančně dovolit výkon, který potřebuje. Na rozdíl od PC světa...

+1
-1
-1
Je komentář přínosný?

Takže pro slepé
Lazar | před 9 hodinami | *
Protože Apple neposkytuje HW pro masivní multi-procesové(multi-threadové) zátěže. Je schopen jeden SoC (M1) dát do tabletu, ntb i pc.

Mirda Červíček | před 9 hodinami | *
Apple M1 ultra má 20 jader.

+1
0
-1
Je komentář přínosný?

Takže pro blbé. Mám ti udělat screenshot?

+1
-3
-1
Je komentář přínosný?

Bude sranda.

+1
0
-1
Je komentář přínosný?
+1
-1
-1
Je komentář přínosný?

Příplatek na 8TB z 512GB v Mac Mini činí 72 000Kč. Zajímalo by mne jaké procento firemních zákazníků, kteří si na to dle Vás snadno vydělají dá přednost tomuto příplatku před připojením ext. enclosure s NVMe SSD.
https://www.apple.com/cz/shop/buy-mac/mac-mini/apple-m2-pro-s-10j%C3%A1d...

+1
+2
-1
Je komentář přínosný?

Souhlasím s malou námitkou. Cena je opravdu vysoká, ale žádné externí úložiště nebude stejně rychlé a kdo žádá takovou kapacitu, patrně bude častěji pracovat s většími bloky dat.

+1
+2
-1
Je komentář přínosný?

Jenže my ve skutečnosti nevíme jak je storage v nových Macích rychlá. Nebo jste někde zaznamenal sustain zápis přes celou kapacitu, který by aspoň naznačil jaký režim zápisu/buněk SSD využívá (případné využití pSLC-cache atd).

Před pár dny jsem si omylem vyrendroval 8K timeline v .EXR formátu (při 360MB/frame tj. 6,8GB/s pro 24p záznam se na SSD dělá vír). Toho kdo pracuje s IO v řádech GB/s vnitřní kapacita 8TB nezachrání a nic rychlejšího než TB či 10GLAN si k dnešním Macům externě stejně nepřipojíte.

+1
0
-1
Je komentář přínosný?

Mirdo, koukni se na wiki, kolik vzájemně nekompatibilních architektur ARM stvořil. Mimochodem, ARM je spoluzodpovědný za krach Nokie, protože ta zůstala se Symbianem "viset" na ARMv4/5 a dvou verzích navzájem ne zcela kompatibilních Symbianů.

Dávat za vzor zrovna ARM mi nepřijde jako příliš chytré. Zrovna oni těch "kravinců" po sobě nechali v podobě nášlapných min docela hodně a Intel s AMD jsou proti tomu úplní Dušíni.

+1
+9
-1
Je komentář přínosný?

Vzájemně nekompatibilní architektura není žádný problém, to je normální vývoj v dané kategorii a pokud tím narážíš na Itanium, tak největší problém Itania opravdu nebyl v nekompatibilitě s x86.

Nokia krachla, protože management byl už úplně mimo realitu. Symbian už byl celkově odepsaný, chtělo to něco jiného a oni to mít mohli (částečně i měli).

+1
-7
-1
Je komentář přínosný?

On dokonce Qualcomm nabídl Nokii, že jim napíše zavaděč pro svůj modernější SoC, ať tam ten Symbian nebo Maemo můžou naportovat.

+1
+3
-1
Je komentář přínosný?

Hyperthreading a jeho ekvivalenty mohou šetřit režii při context switchingu. Například CMT realizovaný v pocesorech SUN SPARC T8 měl 8 threadů na core.
https://www.oracle.com/a/ocom/docs/sparc-t8-1-ds-3864201.pdf

+1
0
-1
Je komentář přínosný?

Asi to tak skvělé nebylo. SPARC je v zombie stavu, pokud tedy není úplně mrtvý.

+1
-2
-1
Je komentář přínosný?

SPARC je ze stejné rodiny RISC procesorů jako Alpha, PA-RISC,MIPS, ARM, RISC-V, Open RISC a řada dalších, takže přechod byl snadnější než třeba na Power nebo x86-64. Navíc pro ARM existuje široká paleta SW nástrojů a je možné, že právě to rozhodlo o přechodu, protože pokračovat ve vlastním vývoji a nebo přejít na příbuznou ale přesto jinou architekturu neznamená vydat o tolik víc energie na vývoj. Rozdíl je ale v tom, že SPARC byl jako workstation / server architektura přeci jen dál než ARM, takže bych řekl, že za tím mohl být tlak na snadnější vývoj zákaznického SW, který na těch superpočítačích běží.

+1
0
-1
Je komentář přínosný?

Tyhle takzvaně mrtvé architektury dál žijí v určité podobě. Fujitsu na svoje SPARC jádra namontoval dekodér ARM ISA (pro SPARC ISA se už nikomu programovat něchtělo) a udělal nejvýkonnější CPU-based superpočítač na světě (v jednu dobu nejvýkonnější i celkově, včetně těch GPU-based - dnes už nevím, jestli není něco výkonnějšího). Nemohl použít off-the-shelf jádra od firmy ARM, dokonce se podílel na vytvoření rozšíření SVE. No a lidi z Alphy šli do AMD, a tam udělali Athlon, kterým AMD rozdrtilo Pentium 4.

+1
+3
-1
Je komentář přínosný?

V kategorii čistě CPU superpočítačů stále vede ovšem na úkor vysoké spotřeby.

+1
+2
-1
Je komentář přínosný?

Tak GPU vždycky bude vést v efektivitě, ale zas +/- nezvládne jakýkoli kód/algoritmus.

+1
0
-1
Je komentář přínosný?

Především vede tam, kde je snadná masivní paralelizace, naopak algoritmy kde je nutno často větvit kód na základě vyhodnocení podmínky výkon GPU zabíjí. Proto nové AMD MI300 obsahují procesorová jádra.

+1
+2
-1
Je komentář přínosný?

Proto je i mimo HPC stále nutný dnes jako v minulosti univerzální výkon CPU, který možná ztrácí v masivně paralelních výpočtech, ale za to zvládne prakticky libovolný algoritmus. Ideální je pokud se v rámci řešení využije výhod/výkonu obou.

+1
0
-1
Je komentář přínosný?

Proto superpočítače staví na kombinaci CPU a GPU. Důvod proč AMD u MI300 integruje jádra ZEN 4 mezi akcelerační chiplety je nízká latence, což může umožnit zpracovat více universální kód na akcelerátoru.

+1
+1
-1
Je komentář přínosný?

O tom zda nějaká HW architektura přežije nebo ne, nerozhodují vždy jen její kvality. Takových příkladů nabízí historie hodně.

+1
+2
-1
Je komentář přínosný?

Rozhodně je to dost skvělé na to, aby do toho ARM šel.
Odkaz máte níže.

Se SMT nemám zkušenosti nikde mimo Intel a AMD, a můžu říct, že ve vhodném usecase je ten nárůst výkonu opravdu dvojnásobný. Jedno x86 CPU vám dá cca 10Gb/s IPv4 propustnosti (limit je v počtu paketů). Jedno x86 CPU s HT vám dá 20 Gb/s, protože zvládne 2x tolik přerušení, a jak píše předřečník, je to v důsledku šetření context switchů.

+1
0
-1
Je komentář přínosný?

To ale není nárůst výpočetního výkonu, ale počtu přerušení. Určitě bych to nezneobecňoval.

+1
0
-1
Je komentář přínosný?

Pokud to má být obecně, čím méně je jádro jedním vláknem vytíženo, tím více prostoru pro další vlákno a to samozřejmě záleží jak na architektuře, tak na typu úlohy.

+1
0
-1
Je komentář přínosný?

Samozřejmě.
Proto záleží na tom, co děláte. U SMT se o tom mluví od počátku.

Můžeme se bavit o tom, jestli dává smysl optimalizovat CPU na něco, co by měly dělat speciální obvody. A odpověď je jednoduchá, někde na začátku většinou sedí právě x86 server, který ta data bude muset nejdříve skrz svojí síťovku odeslat. Takže má.

Výpočetní výkon je jen myšlenkový koncept. Nic takového není definováno, nejde to porovnávat. SMT vám ušetří čas na context switching. Což v okamžiku, kdy máte úlohu náročnou na context switching, pomůže. Pokud nemáte takovou úlohu, nepomůže. Klidně může zvýšit výkon na dvojnásobek a ještě malinko více.
Ale taky může výkon v kombinaci nevhodné úlohy a nevhodné strategii scheduleru výkon snížit.

Přičemž výkonem tu myslím obrácenou hodnotu času, který procesor ke zpracování úlohy potřebuje.

+1
0
-1
Je komentář přínosný?

Slyším poprvé, že výpočetní výkon je jen výmysl a nejde ho porovnávat.

+1
0
-1
Je komentář přínosný?

"Slyším poprvé, že výpočetní výkon je jen výmysl a nejde ho porovnávat."
To jsem ale nenapsal. Prosím vynechte z této diskuze paní Demagogii.

Porovnávat můžete všechno, pokud máte metriku.
"Výpočetní výkon" žádnou univerzálně platnou metriku, pokud vím, nemá.
Používá pro srovnání výpočetního výkonu třeba počet operací s plovoucí desetinnou čárkou. Což se na mě nezlobte, ale je jen jednou malou složkou výpočetního výkonu. Používá se proto, že je celkem snadno definovaná, a dá se snadno porovnávat.

Pokud znáte nějakou obecně platnou metriku pro měření obecného výpočetního výkonu, tzn. celočíselný výkon, výkon s plovoucí desetinnou čárkou, výkon v IO, vektorový výkon v paralelním zpracování matic, celkovou datovou propustnost, čas potřebný na zpracování přerušení a já nevím co všechno, sem s ní. Já o takové metrice nevím.
Taková metrika samozřejmě neexistuje, a i kdyby ji někdo vytvořil, nebyla by univerzálně prakticky použitelná. Protože v praxi řešíte konkrétní úlohy, které budete zpracovávat. Ať už hrajete Crysis nebo počítáte chování kontinua vody.
Proto v recenzích najdete bambilion různých testů. Každý test řeší něco trochu jiného, a čtenář si může vybrat, který test nejlépe odpovídá jeho využití. Nebo dojít rovnou na konec, kde je nějaký shrnující graf, což čtenář rád vidí, ale recenzent samotný tyhle rychlé závěry nemá většinou rád; protože při recenzi přijde na věci, které v tom grafu prostě nemohou být vidět.

+1
0
-1
Je komentář přínosný?

Tak např. pro vás je hlavní metrika context switching. To ale pro většinu uživatelů asi nebude.

+1
+1
-1
Je komentář přínosný?

Pro většinu uživatelů asi ne. Já si dokonce myslím, že drtivou většinu uživatelů výkon CPU prakticky netrápí. Zajímá je videoakcelerace, IOwaity a software. Tady v diskuzi máme dost specifickou skupinu uživatelů.

Context switching někdy tvoří podstatnou část procesorového času. Potkal jsem se se servery, které díky context switchingu už nedělaly vůbec nic jiného, tudíž jejich výpočetní výkon byl takřka nulový. Stačí na něj narvat dostatek úloh, a uswitchuje se vám k smrti.
U torrentů může context switching dělat klidně 40% procesorového času. To je 40% času, kdy procesor nedělá nic, nemůže dělat nic, a jen čeká. Kdyby to bylo jen 20% času, tak by najednou měl 20% času volna :-)

A v některých úlohách, možná i většině, je context switching naprosto nepodstatná část. Je to tak.

+1
0
-1
Je komentář přínosný?

No a někdy context switching netvoří podstatnou část procesorového času. Třeba když si zobrazíte náročnou webovou stránku (nebo s vícero reklamami). To je docela typický usecase běžného uživatele. Jinak k čemu mi je server, který má ve výsledku výkon takřka nulový? To ho můžu rovnou vypnout.

+1
0
-1
Je komentář přínosný?

Ono totiž je pro některé nadlidský výkon, ten server nakonfigurovat podle typu zátěže správně. A nebo by to asi uměli, ale není na něj dost peněz.

+1
0
-1
Je komentář přínosný?

Většinou ne.
To je patologický stav. Ten server je vám k tomu, že vám vydělá peníze. Je to poruchový stav, a vy jste tam od toho, abyste našel příčinu a vyřešil ji.
To se prostě občas stává. Může to dělat špatně nakonfigurovaná síťovka, vadné úložiště, ale prakticky i kterýkoli jiný hardware a bohužel i software.

+1
+1
-1
Je komentář přínosný?

Takže obecně cokoliv, stejně jako u jakéhokoliv jiného počítače.

+1
0
-1
Je komentář přínosný?

Taková metrika dávno existuje a kategorií podle kterých srovnává, je celá řada. Navíc je multiplatformní a dobře si poradí i s řádovými rozdíly ve výkonu nebo počtu jader či vláken. Dost se užívá u superpočítačů už desítky let.

+1
0
-1
Je komentář přínosný?

A dost, mám vás plné zuby.
Univerzálně platná asi nebude, když je celá řada kategorií. O tom přesně píšu.
Pořádně mě nečtete, potřebujete hlavně nesouhlasit, a nic konkrétního z vás nevypadnete. Diskutujte si sám.

+1
0
-1
Je komentář přínosný?

Nenapadlo vás, že to asi nebude problém, protože jinak by to už někdo řešil?

+1
+1
-1
Je komentář přínosný?

Jenže on to řešil.
A tak vznikly benchmarky. Nejuniverzálnější je asi Linpack. Ten vám porovná superpočítač s kalkulačkou.
Ale v extrémně omezeném spektru úloh, takže ten výsledek je většinou nic neříkající, a slouží zejména k umístění stroje do žebříčku superpočítačů.

Česká Republika používá ve výběrkách často třeba Geekbench, kde si specifikuje minimální počet bodů. Pokud trochu čtete recenze, je vám jasné, jak zavádějící to může být. Není to ideální metrika. Ale k danému účelu je snesitelná. Ne univerzálně platná.

+1
0
-1
Je komentář přínosný?

A právě o Linpacku jsem psal, pouze jsem záměrně neuvedl název. Co jsem se díval na spektrum úloh, dá se fakticky modifikovat i pro specifické měření. Spíše je otázka, zda se právě rychlost přepínání vláken dá měřit, aniž by samotné měření nemělo vliv na rychlost přepínání.

+1
+1
-1
Je komentář přínosný?

Ani Linpack není univerzálně použitelná metrika.

Napsal jsem:
"Pokud znáte nějakou obecně platnou metriku pro měření obecného výpočetního výkonu, tzn. celočíselný výkon, výkon s plovoucí desetinnou čárkou, výkon v IO, vektorový výkon v paralelním zpracování matic, celkovou datovou propustnost, čas potřebný na zpracování přerušení a já nevím co všechno, sem s ní. Já o takové metrice nevím."

Vy jste napsal:
"Taková metrika dávno existuje a kategorií podle kterých srovnává, je celá řada. Navíc je multiplatformní a dobře si poradí i s řádovými rozdíly ve výkonu nebo počtu jader či vláken. Dost se užívá u superpočítačů už desítky let."

Pokud jste měl na mysli Linpack, pak to není to, co jsem chtěl. Vůbec mi nesrovná třeba výkon pro herní grafiku. Netuším, komu by byl v praxi dobrý. Nakoupím podle něj počítač do školy? Router? Mobil? Server? Tiskárnu? Je mi k ničemu.
Pokud o takové metrice víte, sem s ní. Linpack to fakt není.

+1
0
-1
Je komentář přínosný?

Rychlost přepínání vláken se měřit bezpochyby dá, a to statisticky. Úplně stejně, jako se měří třeba latence cache. Jak přesně se to dělá, to nevím.
On ten context switch taky nebude mít konstantní délku trvání. Záleží na tom, odkud se data tahají, jestli z paměti, z jaké úrovně cache, a nejspíš i na spoustě dalších věcech, kterým zbla nerozumím.

+1
0
-1
Je komentář přínosný?

Neni to spise Passmark?`

+1
0
-1
Je komentář přínosný?

Celou dobu jsem měl na mysli Linpack. Passmark není tak universální a nepoužívá se na superpočítače.

+1
0
-1
Je komentář přínosný?

Myslel jsem to vykonove kriterium do Verejnych zakazek. Parkrat jsem v nich potkal zminene minimalni score Passmarku, ale nikdy ne Geekbenche.

+1
0
-1
Je komentář přínosný?

Veřejné zakázky u nás jsou svět sám pro sebe, kocourkov na druhou řekl bych.

+1
0
-1
Je komentář přínosný?

Řekl bych, že výkonné procesory byly vždy navrhovány s ohledem na výsledný výkon. Ale tvrdit, že na začátku sedí x86 server, je hodně odvážné. Myšlenka na multithreading se zrodila v hlavách tvůrců RISC procesorů a navíc v době, kdy architektura x86 rozhodně serverům nekralovala.

+1
0
-1
Je komentář přínosný?

Je rok 2023, 99% či více paketů pochází původně z x86 mašiny. Už jenom proto, jak velkou část provozu internetu dělají streamovací služby, které jedou na x86 úplně všechny kromě Amazonu, který to má trochu míchnuté s ARMem.
Mašiny s Power procesory, SPARCy a dalšími exotikami většinou přes internet moc nekomunikují, a už vůbec ne s koncovými uživateli.

Vracet se do sedmdesátých a osmdesátých let je sice supr nápad, ale tak už dneska fakt nefunguje.

Pokud máte informace naznačující, že 50% a více internetové komunikace nezačíná nebo nekončí v x86, sem s tím, to by opravdu převrátilo mé vidění světa. Ale možné to je, mýlíl jsem se tisíckrát, a ještě tisíckrát se mýlit budu.

+1
0
-1
Je komentář přínosný?

Tak jestliže jste si vzpomněl na ARM v Amazonu, tak už nemůžete napsat, že x86 je 99 %.

+1
+1
-1
Je komentář přínosný?

To je sice hezké, ale od vás přišlo, že multithreading je patrně vhodný je na jeden typ zátěže, tak jsem vám chtěl ukázat, kdy a za jakých okolností ta technika vůbec vznikla. Vidíte věci moc zúženým pohledem a nevidíte proto celek a všechny souvislosti. Jsem si jistý, že kdyby se to vyplatilo, je možné navrhnout pro síťové aplikace speciální procesor s velkou hustotou jader, který by pro jiné použití nedával smysl. Ale zjevně není, kdo by to zaplatil, takže to takový problém není.

+1
0
-1
Je komentář přínosný?

Ten speciální procesor několikrát v historii vznikl. Třeba Tilera, která se nakonec ukázala jako života neschopný koncept, protože se osvědčila právě pro dvě konrétní využití:
- Síťová krabice dělající maškarádu pro tisíc a více zákazníků, z nichž nikdo z nich nemá více než 300 Mbit
- Apache server pro statické webové stránky

Můžete ji koupit, na ebay je jich mrtě za pár kaček, svou slávu prožívala v letech, tuším, 2009 - 2012.

Ve všem ostatním to byl procesor na baterky. Byl určený právě jen pro sítě. Takže to vzniklo.
Místo toho se používají FPGA. Případně ASIC. Drtivá většina síťových krabic, co jsou černé, hranaté, a mají cenu přes 10k Kč, v sobě ve skutečnosti schovává nějaký primitivní procesor pro management, a veškerou práci odvede právě buďto programovatelné FPGA nebo k tomu konkrétnímu účelu vyrobený ASIC.

Ocenil bych, kdybyste neřešil můj úzký pohled, ale spíš přidal více kontextu, aby bylo jasné, co jste tím chtěl říct, a zabýval se argumenty, než mojí osobou.

+1
0
-1
Je komentář přínosný?

A právě to, že se Tilera neprosadila, jasně dokazuje, že v serverech je třeba více universální výkon. Pokud tu má někdo úzce zaměřený pohled, jste to právě vy. Celou dobu tvrdíte, že mimo síťové aplikace a content switching je multithreading k ničemu. Potom ale nevím, proč by multithreading používalo tolik procesorových architektur? Proč třeba Intel nenechal HT jen pro servery a cpal to do desktopu?

+1
+1
-1
Je komentář přínosný?

Ještě jednou, vyhněme se těm osobním záležitostem, k ničemu to není.

Já se docela ztrácím v tom, co řešíme. Moje reakce na Červíčka byla o tom, že to, co napsal, není pravda. Teď jsem dost daleko od toho, co jsem chtěl řešit.

"Celou dobu tvrdíte, že mimo síťové aplikace a content switching je multithreading k ničemu."
TO JSEM NAPSAL KDE A KDY?! To jsem musel být hodně pod vlivem něčeho velmi dobrého. Bohužel si to nepamatuju. Jestli jste mě v tomto stavu potkal, pak se omlouvám, ale musel jsem být hodně mimo, protože je to naprostá blbost.

Jestli jsem se takhle vyjádřil, rozhodně jsem to tak nemyslel, a bylo to špatně interpretováno.

+1
0
-1
Je komentář přínosný?

Sinuhet | před 20 minutami | *
Pro většinu uživatelů asi ne. Já si dokonce myslím, že drtivou většinu uživatelů výkon CPU prakticky netrápí. Zajímá je videoakcelerace, IOwaity a software. Tady v diskuzi máme dost specifickou skupinu uživatelů.

Context switching někdy tvoří podstatnou část procesorového času. Potkal jsem se se servery, které díky context switchingu už nedělaly vůbec nic jiného, tudíž jejich výpočetní výkon byl takřka nulový. Stačí na něj narvat dostatek úloh, a uswitchuje se vám k smrti.
U torrentů může context switching dělat klidně 40% procesorového času. To je 40% času, kdy procesor nedělá nic, nemůže dělat nic, a jen čeká. Kdyby to bylo jen 20% času, tak by najednou měl 20% času volna :-)

A v některých úlohách, možná i většině, je context switching naprosto nepodstatná část. Je to tak.

+1
0
-1
Je komentář přínosný?

Sinuhet | před 43 minutami | *
Rozhodně je to dost skvělé na to, aby do toho ARM šel.
Odkaz máte níže.

Se SMT nemám zkušenosti nikde mimo Intel a AMD, a můžu říct, že ve vhodném usecase je ten nárůst výkonu opravdu dvojnásobný. Jedno x86 CPU vám dá cca 10Gb/s IPv4 propustnosti (limit je v počtu paketů). Jedno x86 CPU s HT vám dá 20 Gb/s, protože zvládne 2x tolik přerušení, a jak píše předřečník, je to v důsledku šetření context switchů.

+1
0
-1
Je komentář přínosný?

Já to tam furt nevidím.
Vzhledem k tomu, že si rozhodně nemyslím, že SMT je mimo síťařinu a přepínání kontextu k ničemu, to tam podle mě ani nenajdete.

Červíček tvrdí, že SMT je k ničemu. Na to jsem reagoval tím, že jsem konkrétně uvedl, kdy není, a odkázal ho na ARM se SMT, o kterém tvrdil, že neexistuje.
Nevím, proč bych měl někde tvrdit, že SMT není k ničemu jinému dobré, to je totiž nesmyslm a je to i v rozporu s mým praktickým životem.

+1
0
-1
Je komentář přínosný?

Možná jsem opravdu reagoval na něj a pak si to spojil s tím, že píšete o síťařině. Za to se omlouvám.

+1
0
-1
Je komentář přínosný?

Já si zase popletl vás a Ladise, to je taky docela trapas.
Každopádně máte k věci co říct, a toho si vážím. Díky.

I v těch vláknech jsem se, koukám, ztratil, omlouvám se.

+1
0
-1
Je komentář přínosný?

Právě v době, kdy jsem začínal se servisem PC, Intel uváděl nejdříve HP, potom AMD první dvoujádra, Intel dvoujádra a také dvoujádra s HT, která ovšem pro běžné smrtelníky nebyla dostupná. Tehdy se o hyperthreadingu dost diskutovalo, že ten vývoj začal dřív a vůbec nebyl spojený s Intelem, jsem zjistil až později.

+1
0
-1
Je komentář přínosný?

HT mělo překvapivě velký smysl u P4, protože tam bylo jádro jenom jedno. Pokud čekalo na úložiště, než disk pohne s hlavičkou, klidně 10 ms mohlo být úplně zablokované IOWaitem. Zejména u disků s vadnými sektory. To si určitě pamatujete, kopíroval jste data, a začal se sekat kurzor.
Pokud jste na takové CPU nacpal dvě paralelní výpočetní úlohy, pak se zjednodušeně praly o tranzistory, což zase žralo další režijní výkon, a ve výsledku byly (vzácné) scénáře, kde opravdu dávalo smysl HT vypnout.
(bavíme se o době, kdy i IRQ z myši řešilo CPU...)
Jakmile se objevilo "dvouvlákno", tak scheduler mohl nechat to "virtuální jádro" v IOWaitu, a ostatní úlohy přehodit na to druhé. Tak se mnohem efektivněji využily zdroje, tranzistory se neflákala, úlohy jely, a současně se i čekalo. Tehdy se počítače "přestaly sekat", nebo jak to říct.
Čtyřjádra či dvoujjádra se SMT byly snad až Core iX řada. Ovšem už před tím to Intel použil tuším u Itania (kdyžtak ověřte na wiki). A pracovalo s ním třeba i IBM, jehož současná Power generace provozuje dokonce 8 vláken na jádro (SMT 8).

+1
0
-1
Je komentář přínosný?

Omyl, ještě před Core iX mělo HT Pentium D, což byly v podstatě dvě P4 v jednom pouzdře. Máte pravdu.

+1
0
-1
Je komentář přínosný?

Pentium D nemělo HP, byly to prostě dvě jádra. Sám jsem ho měl v počítači.

+1
0
-1
Je komentář přínosný?

Ale byly to dva prskoty, prostě slepené P4. Podobně jako dnes AMD, prostě dva křemíky v jednom pouzdře. HT to fyzicky umět mohlo, nic tomu nebránilo, a Intel to zapnul možná jen u té Extreme edition, na kterou odkazuji vedle.

+1
0
-1
Je komentář přínosný?

Dvoujádro s HT bylo ještě v řadě P4 - Extreme Edition, nejvyšší model dosahoval 3,7 GHz, tuším měly větší cache a vycházely ze serverových CPU.

+1
0
-1
Je komentář přínosný?

Ten má zrovna jen jedno jádro. Ale určitě bylo:
https://www.anandtech.com/show/1656/2

+1
0
-1
Je komentář přínosný?

Člověk se s touto řadou běžně nesetkal.

+1
0
-1
Je komentář přínosný?

Bude to tak. Ne všechna Pentia D měla HT, Intel to tehdy zapínal jen u dražších procesorů (což dělá dodnes, nejvíc mě to štve u ECC, fujtajxl. AMD tyhle blokace instrukcí a featur procesoru nikdy tolik neaplikovalo.)
Ale nějaká určitě byla.

+1
0
-1
Je komentář přínosný?

Pentia D byla DUO, neměla nikdy HT. HT měly jen jednojádra a nebo právě ty serverové.

+1
0
-1
Je komentář přínosný?

Pořád věřím, že to byl stejný křemík. V Extreme edition i Pentium D. Ale žádné Pentium D to neumělo, máte pravdu.
Možná byl třeba serverový chipset?

"Contrary to what we've reported earlier, the only difference between the Pentium D and the Pentium Extreme Edition is the presence of Hyper Threading; mainly, the Pentium D doesn't have it, while the Extreme Edition does. Both chips will only use a 800MHz FSB, they both have the same cache sizes, and they only differ in the presence of HT. " (z toho odkazu)
Serverové procesory mají typicky větší cache. Kdyby to byl speciálně serverový die, měl by větší cache. Pokud ji Intel uměle nezmenšil.

+1
0
-1
Je komentář přínosný?

Tehdy jsem byl zrovna na Invexu, když jsem se o nich dozvěděl. Měly i přezdívku: extremely expensive.

+1
0
-1
Je komentář přínosný?

Ještě mě napadá jak to ověřit. Kromě odkrytí die a vyfocení by o tom vypověděla ještě latence cache. Ta bude u serverového die o malinko vyšší, ale měřitelně. I u uměle snížené cache, je to dané prostě její celkovou velikostí, čím větší, tím vyšší latence. I když ji pak polovinu odříznete.
Takže screenshoty z Everestu nebo co tehdy frčelo. Ale hledat se mi to nechce. Intel to prostě uměl už v té větvi, kde byl Prescott, což je pro mě symbol P4. Core architektura byla návrat k P3, kde se to rozštěpilo. Baví mě, že i tehdy bylo možné, aby je překvapila frekvence, které dokázali u té architektury dosáhnout po odlazení výroby. I když dosahovala i na konci zhruba jen třetiny frekvence P4, měla mnohem větší IPC. Po nějakých frekvenčních optimalizacích dosáhli na dvojnásobek, ~2 Ghz, pořád se stejně dobrým IPC, ale nižší spotřebou než to P4. To je moje značně zjednodušená verze. No a prostě chvíli trvalo, než tam nacpali HT; mohli si totiž dovolit dát dvě jádra do běžného procesoru, a to byla úplně jiná třída.
Jedno Core Duo (bez 2) jsem měl. Byl to vtipný procesor. Jen 32 bitů, ale zvládal až 64 GB paměti. Na tom by nebylo nic divného, od Pentium Pro mělo všechno od Intelu PAE. I tohle. Ale Intel tam záměrně vnesl chybu, a ten procesor PAE nepropagoval, takže ho OS odmítal použít. Měl jsem tam tuším 4,5 GB paměti, a vybojovat ten poslední cca gigabajt mi pár dní na Linuxu zabralo. Výkon nic moc, ale zato skvělá spotřeba. 13" tehdy nebyla běžná velikost, tehdejší notebooky s P4 proti tomu připomínaly parní stroje. Já to koupil až kolem roku 2010 jako "nářadí do terénu", boží stroj.

+1
0
-1
Je komentář přínosný?

Mám kódové označení jádra i model Xeonu, od kterého měl být model, který jsem myslel odvozen. Dempsey a Xeon 5080. "Dempsey" (65 nm)
Based on NetBurst microarchitecture
All models support: MMX, SSE, SSE2, SSE3, Hyper-Threading, Intel 64, XD bit (an NX bit implementation), Intel VT-x
All models support dual-processor configurations
Die size: 2× 81 mm²

+1
0
-1
Je komentář přínosný?

Tak to je zajímavý kousek křemíku, o tom jsem netušil.

+1
0
-1
Je komentář přínosný?

To není pravda, ARM SMT (hyperthreading) dělá. Například:
https://www.arm.com/products/silicon-ip-cpu/cortex-a/cortex-a65

SMT se hodí tam, kde máte hodně přerušení. Třeba do síťových zařízení.

Vzhledem k tomu, jaké boty ve svých komentářích děláte, člověk neví, co může brát vážně, aniž by každý jeden detail ověřoval. Takže pokud se nechcete vykašlat na to, že si části svých příspěvků budete vymýšlet, ocenil bych, kdybyste je zdrojoval.

+1
0
-1
Je komentář přínosný?

Bulldozer - už mi je to jasné. AMD mala svoj Bulldozer, teraz je na rade Intel :-)

+1
+5
-1
Je komentář přínosný?

Ale ten Intel bude vyladěný, funkční a efektivní, AMD bude díky tomu mít dost solidní problém.

+1
-4
-1
Je komentář přínosný?

Beriem to ako fór.

+1
+3
-1
Je komentář přínosný?

Ano. A Elvis vstane z mrtvých a začne zpívat valašské lidovky.

+1
+3
-1
Je komentář přínosný?

Bojuj Karle! :D

+1
0
-1
Je komentář přínosný?

Ano, víme, pamatujeme.

https://diit.cz/clanek/amd-uzavrela-spor-o-pocet-jader-bulldozeru

A když každé "jádro" bude mít dvě nebo i víc vláken a nějaký markeťák to šikovně pronásobí, tak s tím porazí i Epyc. Na papíře, ovšem.

+1
+1
-1
Je komentář přínosný?

Vysledkem fuze byva (i) vybuch. Takze vi buh... :-)

+1
+4
-1
Je komentář přínosný?

Ano, intelí jaderná fúze. Bude to pecka. Radši si zacpěte uši :)

+1
+3
-1
Je komentář přínosný?

Jinými slovy si Intel uvědomuje, že bigLITTLE architektura je znouzecnost, kterou by nejraději nepoužíval, ale kvůli extrémní spotřebě musí.
A je hezké, že u Intelu nelení a hned začali vyvíjet něco, kde žádný zkriplený bigLITTLE nebude. To, jestli bude Intel ve vývoji úspěšný a podaří se mu tím zvýšit výkon a rapidně snížit spotřebu, je druhá věc.
Každopádně aspoň to zkoušejí, to ARM rezignovalo a nikam výš se svou bigLITTLE nemíří než do těch mobilních telefonů.

+1
+2
-1
Je komentář přínosný?

No zatim to vypada na bLITie.

+1
+2
-1
Je komentář přínosný?

ARM nic riskantního zkoušet nemusí. Narozdíl od Intelu mu roste podíl a jestli se něčeho bojí, tak je to RISC-V a ne dožívající x86-64.

+1
-4
-1
Je komentář přínosný?

Předpokládal bych, že značnou část příjmu ARM Holding tvoří poplatky za jádra SoC v embedded zařízeních, tedy v oblasti kde může RISC-V jen překvapit. Poplatek 0,25US$/core (či kolik) možná nevadí u špičkových SoC od Qualcommu, ale je kritický z hlediska konkurenceschopnosti pro párdolarové SoC.

ARM architektura toho zatím moc v oblasti ntb/pc/serverů nepředvedla ať již z hlediska výkonu/ceny/dostupnosti/podpory/otevřenosti či kompatibility.

+1
+1
-1
Je komentář přínosný?

Ten poplatek je jednotný bez ohledu na typ jádra? To totiž vůbec nedává smysl.

+1
0
-1
Je komentář přínosný?

V žádném případě.
Zběžně; MSP430 stojí na eshopu TI USD 0.26$ v koncové ceně. Kdyby se z toho měl platit 0.25 $ poplatek, tak to asi moc nefunguje. To jste si mohl ověřit sám na eshopu General Electrics, třeba.

ARM se licencuje různě, je to otázka velkoobchodní dohody. Apple má licencováno něco jako instrukční sadu, ostatní ale většinou kupují licenci na konkrétní jádro, které si pak sami implementují. A těch jader má ARM v nabídce hromadu, od velkých a výkonných přes takové ty middle jádra pro mobily, až po Cortex M0, což je nejúspornější jádro určené pro mikrokontroléry.

+1
+1
-1
Je komentář přínosný?

Když vezmu v úvahu změny vlastnických poměrů ARM, je možné, že to silně nahrává vývoji RISC-V nebo OpenRISC. Ale hotová jádra celou šíři poptávky nepokryjí. Je rozhodně otázka, co se během pár let bude dál dít.

+1
0
-1
Je komentář přínosný?

RISC-V má podle mě reálnou šanci existovat. Podobným způsobem, jako GNU konkurovalo tehdejším korporátům někdy v osmdesátkách. Tam je zhruba dneska. V roce 91 přišel Linux, který celé GNU vystřelil do nebe. Otázka je, jestli RISC-V najde svůj Linux.

GNU byla v osmdesátkách základní sada nástrojů v operačním systému. Tak, aby fungovala v libovolném Unixu. Vyvíjely se i nějaké GNU Unixy, ale to se dodnes nijak neprojevilo.
Dneska máme spoustu hotových RISC-V "modulů". Co chybí, je to výkonné jádro. To je cenná věc, kdo to umí udělat, nechce (a nemusí) to dát zdarma. Zároveň máme docela levnou výrobu, navrhnout a nechat si vyrobit vlastní malé čipy na 130 nm už dneska zvládne i střední firma. Můžete si poskládat vlastní RISC-V CPU z komponent a nechat si ho vyrobit. Ale bude to takový Minix. Hmm. Jde to, no.

RISC-V má obrovskou podporu a zájem ze všech stran. Zatím ještě pořád roste. Naděje je velká. A občas se objeví záblesk, že nějaké to jádro s výkonem cca starého smartphone bude široce dostupné (už jako fyzický procesor). I software to podporuje, teoreticky si k tomu můžete připojit AMD grafiku, 6 monitorů, a v tom si v Ubuntu s Kdenlive střihat 4k video. Pustit si Chromium a bez omezení prolézat web. Podpora je dost dobrá.
Ale to výkonné jádro chybí, a kdo ví, může chybět i dalších 10 let.

V mikrokontrolerech se Risc-V už uchytilo. ESP32 ho používá v mnoha variantách jako ultra low power jádro, a nepovažuje se to za nic exotického. Tam už nějakou dobu jistě zůstane.

+1
0
-1
Je komentář přínosný?

Právě to výkonné jádro je pro rozšíření mimo low-end dost zásadní. A jak dnes vidíme u ARM, ta nejvýkonnější jádra si jejich tvůrci nechávají pro sebe, u RISC-V se může stát totéž.

+1
+1
-1
Je komentář přínosný?

Je to tak.
Linux se adaptoval tak, že vzbudil počáteční nadšení, svět na něj v podstatě čekal, a chytily se ho hned komerční firmy, což vytvořilo celý řetězec garantovaných služeb podobně, jako to mají korporátní řešení. Linux byl najednou i komerčně adekvátní alternativou. Jeho vývoj financují nebo realizují z největší části korporáty (i menší společnosti), co prostě chtějí podporu pro svá řešení v Linuxu. Pak je tu spousta přerozdělovacích neziskovek, čímž se řeší financování řízení celého projektu a jeho směrování i z hlediska budoucích featur nebo dlouhodobé podpory. Aby vás Linux podporoval, nemusíte mu platit, můžete si to udělat v garáži sám. Tu cestu do komerčního prostředí se zachováním svobody se povedlo najít. I když má Linux "1%", je to konkurence, je to minimální laťka, všichni, kdo chtějí za svůj software peníze, musí nabídnout něco víc. To je jeho hlavní role, je to konkurent.

Jestli se tohohle podaří dosáhnout Risc-V, to fakt těžko odhadovat. Ale jsem si jistý, že ty snahy jsou. Intel určitě nechce, aby se Risc-V rozmohlo. Ale třeba Rusku a Čině by to udělalo velkou radost, protože jsou teď pod tou předpokládanou minimální laťkou, nemají ani řádově srovnatelné procesorové technologie. Oba jsou to totalitní státy, jeden neobhajitelně napadl svého souseda, druhý nuceně odebírá vaječníky ženám na základě národnosti. Tak těm Risc-V pomůže, a na jeho vývoji se dávno podílí.
Taky pomůže v mnoha dalších oblastech, není to jen negativní. Bude o mnoho řádů levnější postavit si důvěryhodný procesor, což je jeden ze zlatých grálů opensource.

+1
0
-1
Je komentář přínosný?

Pokud se bavíme o Číně, ta si s licencí, patentem a podobně nikdy hlavu a pokud na tom bude stavět produkty pro domácí trh nebo přímo státní správu, západ s tím nic neudělá.

+1
0
-1
Je komentář přínosný?

Nesouhlasím.
Pokud by Čína teď vzala, a udělala vlastní klon moderního Intelu, dostala by se do takové obchodní blokády, že by to pro bylo těžce nevýhodné. Proto to neudělá, i kdyby třeba mohla. Alespoň prozatím.
Ovšem pokud "američané" vyvinou dobré svobodné Risc-V jádro, Čína ho implementuje a nechá si ho vyrobit třeba u Samsungu, pak žádné spory nehrozí.

+1
0
-1
Je komentář přínosný?

Tak Čína si udělala svoje nové x86 CPU pro svoje potřeby, např státní správy. Výkonem samozřejmě pozadu, stejně tak výkon/cena, ale furt v poho a hlavně má to aktuální I/O, takže jde používat moderní RAMky a PCI karty.

Ohledně implementace amerického RISC-V jádra to bude stejné jako s ARMem. Ačkoli ISA je free, implementace nemusí být. I kdyby byla free, tak může být zatížená patenty, které znemožní takové jádro vyrábět v Číně. Koneckonců to se stalo už s ARMem - moderní highend jádra jsou z části vyvinuté v USA, takže je Čína nemůže vyrábět. Tímhle odřízli tehdy Huawei. Podobně v některých linuxových distribucích chybí třeba některé kodeky.

+1
0
-1
Je komentář přínosný?

Jenže si je licencovala. Zhaoxin nejdřív navázal na architektury od VIA (Centaur), pak udělali joint venture s AMD, a vyrábí procesory na Zen+ architektuře. Není to jejich vývoj x86.
Je to tak, ale pokud se objeví takhle licenčně zatížené jádro, nebude to úplně to, co jsme si od Risc-V slibovali.

+1
0
-1
Je komentář přínosný?

A jak asi by Čína dokázala moderní klon vyrobit? To je opravdu hodně hypotetický stav.

+1
+1
-1
Je komentář přínosný?

Předpokládejme, že má návod. Získala informace od Intelu, ví jak na to.
Tak pak se to dělá tak, že zvednete telefon, a zavoláte do nejbližší pekárny, a necháte si to upéct.
V případě Číny se nabízí jejich vlastní SMIC, Samsung a TSMC.
Není to samozřejmě bez práce, ale schopných lidí na tohle má Čína dost, a kdyby nestačili, zbytek koupí.

Ovšem ta reakce ze strany USA by byla brutální (po obchodní stránce), rozhodně by za to nestála. Tohle není směr, kterým se Čína chce vydat.

+1
0
-1
Je komentář přínosný?

A ony čínské továrny jako dokáží vyrobit totéž, co Intel? Máte hodně zjednodušenou představu. Byly by tam nejméně dva problémy. Vyrobit bez chyb potřebné masky a zjednodušit daný procesor tak, aby byl vůbec v daných továrnách vyrobitelný a to je hodně práce a hodně potenciálních chyb, i tak zdánlivě jednoduchá věc by trvala několik let.

+1
0
-1
Je komentář přínosný?

Bavíme se o hodně hypotetické představě.
Celé to píšu jako důkaz toho, že Čína tohle udělat nemůže.

Ano, tak zdánlivě jednoduchá věc by trvala několik let, výsledek by stál za starou bačkoru, a průšvih s USA za to nestojí. I kdyby se jí to nakrásně povedlo, jakože sám víte, že to není jen tak. Takže i když je to technicky možné, nestane se tak. A ten důvod jsou licence; reagoval jsem totiž na to, že s licencemi si Čína hlavu nedělá.

Ten samý problém s výrobou bude mít i u Risc-V. TSMC jim asi nebude chtít vyrábět, Samsung asi taky ne, ale SMIC je se svými 16 nm nebo tak něčím zachrání.

+1
0
-1
Je komentář přínosný?

Dokázala vyštípat Intel z mobilů a naopak Intel nedokázal vyštípat ARM ze serverů, kde dokonce roste. Více firem investuje do ARM než do x86-64. Dokázali dost a našlápnuto do budoucna mají dobře.

+1
-1
-1
Je komentář přínosný?

Na některé typy úloh je ARM vhodnější, ale stále není dost universální a i když roste, v celkových číslech stále spíš paběrkuje.

+1
0
-1
Je komentář přínosný?

Ani x86 není dost univerzální. Proto ho ARM v mnoha oblastech vytlačuje.

+1
0
-1
Je komentář přínosný?

Především tam kde záleží na malých rozměrech a nízké spotřebě. I když AMD udělala v tomto dost velký pokrok.

+1
0
-1
Je komentář přínosný?

Nejen tam.

+1
0
-1
Je komentář přínosný?

Každá architektura má své optimum, ARM nemá znaky opravdu výkonných procesorů, je to daleko víc úsporné řešení. Ne že by neměla potenciál růst, jen zatím nebyl tolik využitý. A kromě toho, žádnou z těch nejsilnějších variant doposud nepřipravila přímo domovská firma, vždy šlo o soukromé akce, pro konkrétní použití, které nebyly nabízeny k prodeji a tím to celou rodinu procesorů ještě víc tříští.

+1
0
-1
Je komentář přínosný?

AMD je taky soukromá akce na poli x86? A Apple snad svoje procesory nedovolí koupit (jako součást zařízení, která ale oficiálně umožňují používat i vlastní OS)? Jinak v čem nemá ARM znaky opravdu výkonných procesorů? V prakticky unlimited šířce dekodéru instrukcí? Nebo v délce vektorů?

+1
+1
-1
Je komentář přínosný?

Samostatně si procesory Apple koupit nikdo nemůže a jsou integrovány do systémů, u kterých si zákazník nemůže nic vyměnit nebo rozšířit a to včetně SSD. U NTB nižší třídy bych to ještě chápal, výš už ne. Zato od AMD i Intelu si procesory i čipové sady pro vlastní design základní desky si může koupit každý, kdo si na to troufne.

+1
+1
-1
Je komentář přínosný?

Nevím, kde jsi spal, ale i většina notebooků PC má nevyměnitelný CPU a GPU. Už dost z nich i RAM (často je ale jeden slot k dispozici) a některé dokonce i úložiště. Spoustu modelů AMD a Intel si samostatně taky nekoupíš.

+1
0
-1
Je komentář přínosný?

Stále existuje kategorie větších modelů, kde je RAM plně vyměnitelná a tyto stroje jsou při objednávce dobře konfigurovatelné, pravda jsou dražší. Mne ovšem daleko víc zajímají stolní počítače a to primárně kvůli velikosti display (taky se mi nechce platit za mobilnost, kterou nevyužiji) a počítače PC jsou v porovnání se současnými Apple přímo královsky konfigurovatelné.

+1
+1
-1
Je komentář přínosný?

Víš, že desktopové periferie, včetně monitoru, můžeš připojit i k notebooku? Dokonce k tomu od Apple? Místní skvadra dokonce tvrdí, že je to primární použití notebooku.

+1
-2
-1
Je komentář přínosný?

Ano a budu platit dva display a akumulátor navíc, k čemu? Když to nepotřebuji přenášet?

+1
0
-1
Je komentář přínosný?

Jestli řešíš budget PC z popelnice, tak to chápu.

+1
-3
-1
Je komentář přínosný?

Bez urážek. Dochází vám argumenty?

+1
0
-1
Je komentář přínosný?

Nedochází.

+1
-3
-1
Je komentář přínosný?

Ve světě x86_64 ntb/PC můžeme obětovat hlučnost a spotřebu na úkor vyššího výkonu. Příznivci Apple světa o tuto svou minulou možnost přišli a dnes se tváří jako by jí nikdy neměli/nepotřebovali.

Možná se ta jejich iluze stane skutečností pokud Apple třídu WS (Mac Pro) zcela vzdá. A i když ne, bude to pro ně patrně finančně natolik nedosažitelné že to bude jako by vlastně neexistovala.

+1
+1
-1
Je komentář přínosný?

Mac pro podle mne Apple pohřbil sám už jen tím, že jej dlouho neinovoval, je ovšem pravda, že kvůli fixaci na Intel ani neměli nač inovovat.

+1
0
-1
Je komentář přínosný?

Jde o to, že když se dosáhne "kritického množství výkonu" umožní to někdy změnu paradigmatu. Například práce v NLE přímo s originální footage (např. Raw formáty), tj. rozhodování a korekce přímo na originálním materiálu v plném rozlišení bez nutnosti využití proxy (přímo, nebo dodatečně vzniklé verze záběrů v nižším rozlišení/kvalitě/formátu). V řadě kroků WF mohou proxy-based rozhodnutí vést k chybnému výsledku při finálním rendereru z originálního formátu. Pokud se toto (no-proxy WF) stane v budoucnu base line, není cesty zpět. Řešení jež toto nenabídnou budou stát mimo. Ani předpokládaný výkon M2 Extreme na toto stačit nemusí a na zbytek use case může být předraženým overkillem.

+1
+2
-1
Je komentář přínosný?

Řešením této situace je integrace FPGA.
Intel na tom pracuje, AMD na tom pracuje. Takovým našlápnutím jsou AI koprocesory, které jsou dost k ničemu, ale vlastně se ukázalo, že mít takový trochu jiný mikroprocesor pro speciální úlohy dává smysl i jinde než u GPU. Intel koupil Alteru. AMD Xilinx, nebo obráceně, každopádně oba mají největší hráče FPGA na trhu, a chystají na trh FPGA integrované s CPU v jednom pouzdře. Byť to bude asi hodně moc drahé.
V té chvíli máte úlohu. Vůbec té vaší nerozumím, je tam prostě hodně dat, které jde částečně zpracovat paralelně, částečně ne, a bude se tam pracovat s vyšší přesností, minimálně 64 bitů. Budou se hodit vektorové široké instrukce (SIMD), velmi rychlý přístup k většímu množství dat, řádově gigabajty, a co největší propustnost celého řešení, aby to bylo co nejrychlejší.
K dispozici máte CPU, které je už dneska na takový typ úlohy docela dost dobré. Ale proč čekat na render minuty či hodiny, když můžete přidat koprocesor, a offloadovat to na GPU. No jo, jenže GPU je obrovské, je pořád moc univerzální.
Na encoding a decoding videa přidáte HW akcelerátor. Šupho, garantované encodování 8k videa 120 FPS 500Mb/s v osmi kanálech současně. Bomba. Jenže pak změníte algoritmus, a končíte zpátky na CPU, se štěstím na GPU.
A pak je tu FPGA. Pošlete na něj plán svého koprocesoru, a ono se jím stane. A v následujících vteřinách máte k dispozici ne moc velké množství tranzistorů, ale za to libovolně programovatelných. A můžete čarovat.

Bude to drahé postavit. Bude to drahé naprogramovat. Bude drahé prosadit nějakou standardizaci, aby se to uchytilo. Ale je to podle mě naprosto logický směr, kterým se to vydá. Křemík moc zmenšovat nejde, architekturu zlepšovat je drahé a pomalé, a vyměnit celou platformu taky není očividně řádově lepší. Jestli má uživatel dostat znatelně vyšší výkon, což zpracování stovek gigabajtů bitmap prostě je, tak tohle je jediná možná cesta.

Alternativou je outsourcing do cloudu, ale to jste vyloučil.

+1
+1
-1
Je komentář přínosný?

Zní to logicky a každé nové řešení zpočátku bylo drahé, ale časem zlevní.

+1
0
-1
Je komentář přínosný?

Jenže FPGA je drahé podle počtu tranzistorů. takže poměr výkon/cena bude vždycky slabý proti ASIC.

+1
0
-1
Je komentář přínosný?

Jenže mu na ASIC chybí ta univerzálnost. ASICy už v čipsetech máme, HW video dekodér není nic jiného než ASIC, který je však integrovaný do die a nemá samostatný čip ani pouzdro.
Malá FPGA jsou dost levná, v některých usecasech neporazitelná. Otázka je, nakolik je možné nacpat do toho algoritmy pro zpracování třeba obrazu. Při těch velikostech FPGA, kdy to ještě dává smysl. A jak to výkonově pomůže. Pokud to někdo do FPGA implementuje. To uvidíme, až se konečně první CPU s integrovaným FPGA dostanou na trh.

+1
0
-1
Je komentář přínosný?

No když jsem viděl to obrovské drahé FPGU s *větráčkem*, co NVidia potřebovala pro druhou generaci GSync, tak si nedělám naději. Holt univerzálnost a výkon jdou proti sobě.

+1
0
-1
Je komentář přínosný?

A když jsem tak předpověděl budoucnost, tak přidám.
Moje vize je modulární procesor složený ze specializovaných jednotek. Podobně jako dnešní velký switch má malinkaté CPU, pak obrovský specializovaný procesor, ASIC, který má k sobě leckdy programovatelné FPGA, aby bylo možné doplňovat funkce, a pak stovky malých jednotek řešící specializované úlohy (např. ethernet řadič). Ale v jednom pouzdře. Budete si chtít zahrát novou hru, budete potřebovat jednu miliardu tranzistorů FPGA, 100 GB paměti s přístupem alespoň 1TB/s, a to budou její minimální požadavky :-) obrazně řečeno. Vedle poběží CPU, které se bude starat o běh operačního systému, IP stack a kdovíco všechno, ale už ne ten specializovaný software. Ten ho použije jako periferii nebo "CPU akcelerátor " :-) .

+1
0
-1
Je komentář přínosný?

Jak Apple tak IBM už kombinuje CPU se speciálními koprocesory v jednom pouzdře, ostatně Intel a AMD v menší míře taky. O integraci FPGA představitelé AMD přímo mluvili. Takže takové věštění není nijak náročné.

+1
+1
-1
Je komentář přínosný?

Jasně, nejsem žádná vědma, trochu jsem se odvázal.
Koprocesory v jednom pouzdře je v podstatě každý dnešní mobilní SoC. Každý telefon má videoakcelerátor, GPU, a nejspíš i AI akcelerátor. Apple nemá nic navíc (akorát je všechno objektivně lepší, ne že ne), jen to nacpal do notebooků a desktopů, kde se dosud usadilo jen GPU (a v omezené míře videoakcelerátory).
Intel má FPGA v jedné generaci těch svých obřích superdlaždicových procesorů, u kterých nevěřím, že kdy vyjdou, protože je to komplexita jako kráva. Takže jistě budou.
Předpověď spočívá v tom, že FPGA bude hrát roli nejvýkonnějšího a zároveň univerzálního akcelerátoru, což někdy od devadesátek bylo CPU, a pak se dělilo a dodnes dělí s GPU. To je otázka třeba dvaceti let.

+1
+1
-1
Je komentář přínosný?

Problém FPGA v běžných počítačích (desktop, mobil, ...) je multitasking. Jiné aplikace/služby budou chtít jiné optimalizace. Ono i ty GPU nebyly moc rozšířené, dokud nepřidaly multitasking (aby šlo spouštět různé programy vedle sebe). A ten koprocesor vydrží pár let, a než by se dostalo ke slovu FPGA ze stejné doby, tak už bude stejně použitelné asi jako pustit fallback na CPU.

+1
0
-1
Je komentář přínosný?

Jasně, budou chtít jinak naprogramované FPGA. Od toho je to FPGA, aby to šlo.
Přeprogramovat FPGA trvá řádově desetiny až jednotky sekund. Takže klasický multitasking na tom za současného stavu možný není. Určitě je ale možné přiřadit to FPGA jedné aplikaci, která ho bude využívat, jak jsem popsal.

+1
0
-1
Je komentář přínosný?

Tohle jsme měli třeba v začátcích 3D karet. Původně jen jedna aplikace mohla kreslit 3D.

+1
0
-1
Je komentář přínosný?

Řešení existuje již dnes. Jsou to WS s dostatečným počtem core se slušnou IO/RAM průchodností umožňující osazení jedné (více grafických karet) pro GPGPU výpočty (ty akcelerují decoding např. B-Raw, R3D). Akcelerované výpočty například v Davinci Resolve jsou prováděny skrze OpenCL/CUDA rozhraní, takže by asi nic nebránilo využití obecných OpenCL akcelerátorů na jiné bázi než GPU.

Výstupní encoding je asi poslední starostí, čím vyšší nároky na kvalitu výstupu tím se používá bezeztrátovější (výpočetně nenáročný) codec (je to spíše o dostupné kapacitě a sustain write GB/s).

FPGA od Xilinxu jsou již řadu let využívány například v kamerách BlackmagicDesignu.
https://www.prnewswire.com/news-releases/xilinx-all-programmable-devices...

+1
+1
-1
Je komentář přínosný?

Není dost univerzální ve srovnání s čím? S x86-64?
ARM - od neskutečného mrňouse v hodinkách (IOT jsou ještě menší) až po HPC.
x86-64 - od notebookotabletu až po HPC.
Větší rozsah-univerzálnost má ARM.

+1
-4
-1
Je komentář přínosný?

Nejmenší ARM jádra jsou ještě menší, nicméně do osobních počítačů se ARM dostal jen na začátku vývoje a potom až po dlouhé době, ovšem zde šlo vždy o okrajovou záležitost a i když se podívám na servery, i zde jde o okrajovou záležitost. Takže ano AMR má velmi široké použití, ale nejvíc se uplatňuje v síťových prvcích, internet věcí a mobilech, což je z hlediska použité varianty jader hodně podobné. Tvrdit, že ARM je rozšířená a v desktopu je podobné jako tvrdit, že desktopu kraluje Linux.

+1
+6
-1
Je komentář přínosný?

Jedny z nejprodávanějších notebooků na světě jsou ty od Apple. Okrajová záležitost? Amazon je cloudová jednička. Okrajová záležitost?

+1
-6
-1
Je komentář přínosný?

Servery Amazonu si nikdo nekoupí a Apple jako značka mne nikdy neoslovila, nicméně bych docela rád viděl prodejní čísla i kdo je uvádí.

+1
+1
-1
Je komentář přínosný?

"Cloud mě nezajímá, počítače Mac mě nezajímají. Suma sumárum ARM nikdo nepoužívá." :-)

+1
-5
-1
Je komentář přínosný?

ARM je velmi používaná architektura, ale ne na PC platformě. V síťové infrastruktuře jí trochu konkuruje příbuzná MIPS, ale to je vše. Jenže jako zákazníkovi mi může být jedno, co tu krabičku pohání. V případě počítače, je to ale jinak, protože na tom závisí výběr SW, který tam nativně spustím. Čemu na tom nerozumíte?

+1
+3
-1
Je komentář přínosný?

Na všech platformách závisí výběr SW na CPU architektuře. Ledaže je to nějaká uzavřená krabička, kde vás nezajímá, ani jestli to stahuje security updaty. Jinak např. na tom Macu jde spustit spoustu nenativního SW. Některý běží dokonce rychleji než na nativním CPU x86.

+1
-4
-1
Je komentář přínosný?

Pokud je ta aplikace omezena velikostí RAM a poté dochází k rychlé ztrátě výkonu a s ohledem na to, maximální velikost RAM je dost nízká pro některé aplikace, proč bych proboha kupoval Apple a na něm tu aplikaci pouštěl v emulaci?

+1
+1
-1
Je komentář přínosný?

Jakou má ta pohádka o velikosti RAM souvislost s emulací? Jinak Apple má hardwarovou kompresi RAM, ale to je jen technický detail (více fyzické RAM se vždy hodí).

+1
-4
-1
Je komentář přínosný?

Na dvojnásobek RAM se i tak nedostane. To že existují pracovní stanice vyloženě na serverové platformě má své důvody, ti lidé neutrácí statisíce jen tak pro zábavu. Vy se neustále snažíte stále dokazovat, že na vašem milovaném Apple jde dělat vše, jenže za cenu kompromisů, které na vhodně zvolené sestavě nebudou.

+1
+1
-1
Je komentář přínosný?

Tak sám potvrzuješ, že mluvíš o workstationu postaveném na serverové platformě, což je mimo záběr Apple.

+1
-3
-1
Je komentář přínosný?

Vtip je v tom, že na PC platformě je těch možností víc, Apple nabízí jen omezený počet konfigurací a o tom celou dobu píši. PC představuje širokou škálu od úsporných malých krabiček až po hotová monstra, zatímco Apple se víc drží mainstreamu a výrazně výš ani níž se nepouští.

+1
+1
-1
Je komentář přínosný?

Vtip je v tom, že na ARM platformě je těch možností víc, Intel/AMD nabízí jen omezený počet konfigurací a o tom celou dobu píši. ARM představuje širokou škálu od úsporných malých krabiček až po hotová monstra, zatímco Intel/AMD se víc drží mainstreamu a výrazně výš ani níž se nepouští.

+1
-3
-1
Je komentář přínosný?

Když pominu síťové "krabičky", najdete x86 od NASů po superpočítače. Samozřejmě můžete argumentovat tím, že ARM taky. Pak se ale podívejte, kolik serverů a superpočítačů je postaveno na ARM a kolik na x86. Kolik výrobců staví výkonný desktop a pracovní stanice na které platformě. Realita je totiž taková, že právě platforma Windows, Intel doplněna o první Quadra od Nvidie porazila do té doby kralující RISC / UNIX pracovní stanice u řady výrobců a od té doby stále x86 kraluje, ať se vám to líbí nebo ne.

+1
+1
-1
Je komentář přínosný?

No vidíte, a u toho ARMu nemusíte nic pomíjet. Jinak Unixy umřely na levnější komoditní hardware platformy PC.

+1
-2
-1
Je komentář přínosný?

Cena HW hrála roli to ano, ale dokud na PC komponentách nebylo možno postavit dostatečně výkonný stroj, výrobci pracovních stanic se bát nemuseli. Ono nešlo jen o výkon procesoru, ale o řadu dalších parametrů. Silicon Graphisc krátkou dobu kombinoval své proprietární řešení s Intel procesory ve vyšší řadě a v nižší Intel a Nvidia. Ale to už byl začátek konce. Paradox je, že Nvidii založili inženýři SGi.

+1
0
-1
Je komentář přínosný?

Ano, komoditní hardware zabil Unix.

+1
-1
-1
Je komentář přínosný?

Jenže díky tomu HW máme dnešní výkon. Výrobci pracovních stanic by mohli přežít, ale dlouho si mysleli, že nic nehrozí a tak nepodnikli patřičné kroky, když uvážím, že tehdejší RISC procesory s vyjímkou Power byly architektonicky dost příbuzné (měly původ na stejné universitě), mohli se klidně spojit a ušetřit nemalé peníze za vývoj, ale to je ani nenapadlo.

+1
0
-1
Je komentář přínosný?

Tehdy lidi ve vedení uvěřili komoditnímu HW, takže nebyl budget pokračovat ve vlastním vývoji. V posledních letech se ale situace opět vrací ke specializovaným procesorům.

+1
0
-1
Je komentář přínosný?

Tak snadné to nebylo. Někteří výrobci se snažili konkurovat. Ty stroje stále měly možnosti o kterých se PC nezdálo. Konkrétně DIGITAL se i vlastní vinou dostal do situace, kdy byl prodán. SGi zrušila vývoj HW, ale dál existuje. IBM přestal vyrábět pracovní stanice, ale u serverů a mainframů zůstal a totéž Fujitsu a tak se dá pokračovat. Byl to do jisté míry svět sám pro sebe, ale bez něj by některé dnešní technologie neexistovaly a nebo vznikly až později. Navíc díky těmto výrobcům tehdy existovaly servery a první superpočítače i internet.

+1
0
-1
Je komentář přínosný?

Pro mě byl prvním dnem konce grafických UNIX stanic, když jsem na výstavě Intergraf? (patrně půlka devadesátých let) viděl demonstraci WS na bázi dual Pentia-Pro a OpenGL akcelerátoru.

Myslím, že šlo konkrétně o toto.
https://www.itprotoday.com/compute-engines/intergraph-studioz-workstation

+1
+1
-1
Je komentář přínosný?

V podstatě Intergraph a SGi udělali nezávisle na sobě stejnou věc, jen se přiznám, že nevím, na jakém HW Intergraph fungoval před tím, tuto firmu jsem nikdy moc nesledoval, podobně jako třeba stanice SUN.

+1
0
-1
Je komentář přínosný?

Podle Wikipedie to vypadá, že využívali Clipper architekturu. Za těch pět let do toho dual PPro by tam asi již nic nevmačkli.
https://en.wikipedia.org/wiki/Clipper_architecture

+1
0
-1
Je komentář přínosný?

Další málo známá RISC jen málo úspěšnější než Motorola 88k.

+1
0
-1
Je komentář přínosný?

Odkdy? To není nic jiného než čistá lež.
Takové pracovní stanice Apple prodává. I právě teď si ji můžete koupit.
https://www.apple.com/shop/buy-mac/mac-pro/tower
Tohle je workstation "na serverové platformě" od Applu.
A nemá za ni ARM náhradu.

+1
0
-1
Je komentář přínosný?

Myslíš, že někdo kupuje 3-4 roky starý počítač? Řekl bych, že M2 už je výkonnější a není třeba si připlácet za kategorii Mac Pro.

+1
+1
-1
Je komentář přínosný?

Ten počítač je nový a Apple ho má v nabídce.
Vy jste tvrdil, že je to mimo záběr Apple, což pak nechápu, proč ho prodává.
Jistě najdete nějaké vysvětlení i pro to. Ale nic to nezmění. Napsal jste prostě hovadinu.

+1
-1
-1
Je komentář přínosný?

Ten počítač je "nový" 3-4 roky a mimo Apple jde koupit jako refurbished. Apple ho nabízí jako placeholder, protože se asi zatím nechce této kategorie vzdát.

+1
+1
-1
Je komentář přínosný?

Vyvoláváte ve mě úsměv. Díky.

Vy: "Tak sám potvrzuješ, že mluvíš o workstationu postaveném na serverové platformě, což je mimo záběr Apple."
Taky vy: "Apple ho nabízí jako placeholder, protože se asi zatím nechce této kategorie vzdát."

Tak si vyberte :-D

+1
0
-1
Je komentář přínosný?

Taky ve mě vyvoláváte úsměv. Vždyť si ta prohlášení neodporují. Na žádné aspoň trochu aktuální serverové platformě Apple nic nenabízí. Tahle vykopávka je jen, aby v té kategorii něco bylo (třeba má v plánu se do ní vrátit).

+1
0
-1
Je komentář přínosný?

No ale to, že tvrdíte, že je to mimo záběr Apple, a Apple to prodává, to si odporuje.
A následně to, že tvrdíte, že je to mimo záběr Apple, a proto tam umístil placeholder; to si taky odporuje. K čemu placeholder něčeho, co je mimo můj záběr, že?

Ale kroutíte se v tom pěkně.
Osobně dávám přednost faktům před dojmy, a tahle diskuze s vámi o faktech zjevně není, je to o vašem kroucení, protože nechcete přiznat chybu. To má něco do sebe, začíná se to dost vyčerpávat. Snad přijdete s něčím novým.

+1
0
-1
Je komentář přínosný?

Neodporuje a kroutíte se tady jen vy. Apple se nechce vzdát kategorie Mac Pro, ale Mac Pro není definován jako hardware postavený na serverovém CPU. To, co tam je teď, je 3-4 roky stará vykopávka, která čeká na nahrazení a nikdo ji nekupuje. To jsou fakta, vy jeden dojme.

+1
0
-1
Je komentář přínosný?

V nejlepším se má přestat.
Díky za představení, snad se zase potkáme :-)

+1
0
-1
Je komentář přínosný?

Vy tu argumentujete jen dojmy. Proto se nemůžeme posunout.

+1
0
-1
Je komentář přínosný?

Pokud se nepletu tak poslední generace Mac Pro je z roku 2019, což byl i rok uvedení Thr 3970X (3990X 2/2020). Takze po vykonostni strance byly Xeony v MacPro prakticky obsolete HW ani nezvažujíc je cenu.

Apple je především firmou vydělávající peníze, potřeby relativně malého počtu uživatelů nechaných pět let bez nástupce asi nemají dostatečnou váhu. Na bázi Ryzenů & tu vznikali Hackintoshe, takže by tu nepřekonatelná technicka prekážka asi nebyla. V té době snad již bylo asi rozhodnuto o opuštění x86_64 a srovnání s generací 2019 se bude lépe vyjímat na prezentacích při případném uvedení.

+1
+1
-1
Je komentář přínosný?

Vím i v Česku o firmách, kde kupovali "popelnice" a ani je nevybalovaly. Místo toho si nainstalovali ty Hackintoshe. Uvidíme, jak dlouho bude podpora x86 v macOS. Protože pokud si tam můžete HW zvolit, tak Apple Silicon nemá šanci ani bez ohledu na cenu.

+1
0
-1
Je komentář přínosný?

Ať to není spíš zas jen další průser. Akorát teď už by byl korunovaný.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.