Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Apple si zapřeháněl, GeForce RTX 3090 zůstává o 19-159 % rychlejší než M1 Ultra

Mohl by mi prosím někdo vysvětlit jak se má dle Apple interpretovat tento graf? :-)

https://www.appliste.cz/wp-content/uploads/2022/03/m1-ultra-performance-...

+1
0
-1
Je komentář přínosný?

Vykon m1 ultra a rtx 3090 pri danej wattazi (teda cca 120W pre m1 ultra a 320W pre rtx 3090) by mal byt +- rovnaky (?)

ale 3090 asi nikdy nebezala na 320W pri max zatazi :D

+1
0
-1
Je komentář přínosný?

No jasně. Apple vztahuje výpočetní (grafický) výkon k příkonu. Ale to si podle mého názoru pro porovnání s 3090 matematicky extrapoloval z dat M1 supermegaultra podle nějakých svých dílčích měření až do absurdna :)

+1
-1
-1
Je komentář přínosný?

tak urcite :) este som ti tam dodal otaznik, ktory by ti mal nieco naznacovat :)

ale vidim, ze tvoj hate voci applu ti zatemnuje mozog a racionalne rozmyslanie u teba teda neexistuje :)

pekny den

+1
-3
-1
Je komentář přínosný?

Nevím, jak jsi přišel na tu nenávist vůči Applu. Pro mě jsou jen více "poš", než jiní, ale to přeci není nic proti ničemu. :)
Jako mě by se ten Mac Studio či Pro, nebo jaké to má označení s M1 Ultra líbil. Ale ta cena to (pro mě) zabíjí. Takže holt spíše PC skládačka s možností průběžného a postupného obměňování (upgrade) HW.

+1
+1
-1
Je komentář přínosný?

Mám 3090 RTX (kvůli komerčnímu renderingu v Unrealu kde potřebuji co nejvíce VRAM) a podle mého názoru a měření podává při 340W ~95% výkon. Tento graf mi tedy připadá už ne marketingový ale vyloženě lživý. U AMD by to pak dopadlo ještě více lživě.

*omlouvám se peca za podobnou přezdívku, jsme dvě různé osoby

+1
0
-1
Je komentář přínosný?

heh ani som si nevsimol ten rozdiel v pismene :D

samozrejme, rtx3090 ide az moc, ale zasa su aj verzie, ktore davaju aj 400W a tam je zas posun, mozno nejakych 5% ak dobre pamatam

tak ci tak, toto je 320W (ak dobre pozeram), teda ak tvoja gpu ma cca 95% vykonu pri 340W, tak cca 93% pri 320W ?

zaroven, nevieme na akom sw to merali, preto to treba brat s rezervou

+1
0
-1
Je komentář přínosný?

A to je přesně ono, Apple nenapsal co testoval. Určitě se srovnávalo něco co poběží na obou, hry to ale jistě nebyly, ani syntetické benchmarky, které člověku fakticky nic neřeknou.

Jedna z domněnek je že to mohl být například 3D render v nějakém SW který je již optimalizovnaý pro Apple silicon a zároveň pro ten render bylo potřeba více než 24GB RAM, v té chvíli bude ta 3090 výrazně bržděná malou pamětí, kdežto ultra může v klidu použít 128GB

+1
-3
-1
Je komentář přínosný?

> kdežto ultra může v klidu použít 128GB
blbost, zdroj?

+1
+1
-1
Je komentář přínosný?

U M1 snad platilo, že při 8GB RAM mohlo být pro GPU operace použito až 5,5GB. Takže v podobném případě kdy pro MacOS a aplikaci bude stačit 2,5GB "RAM" se u M1 Ultra se 128GB nejspíš VRAM může roztáhnout přes 120GB. Je podstatně víc než ve světě PC, kde maximální velikost VRAM je u GK s obrazovým výstupem 48GB (RTX A6000) a u výpočetního akcelerátoru bez video výstupu 80GB (A100). U dvou RTX3090 lze údajně při propojení NLink můstkem docílit spojení VRAM (48GB), byť s přístupem do VRAM druhé GK asi pomalejším.

+1
0
-1
Je komentář přínosný?

Samozřejmě že Apple lže a ne jenom teď, dělá to už roky. Ovšem díky jeho finanční síle, obřímu právnímu oddělení a armádě věrných iOvcí mu to doposud procházelo. Ovšem už když jsem četl přepis té jejich prezentace, tak jsem věděl, že zde to shnilé jablko přepísklo. Prvně proto, že zalhalo až moc neuvěřitelně a za druhé proto, že do lži nevědomky vtáhlo zelené zlo a jeho zástupy věrných nvidiotů.

+1
+1
-1
Je komentář přínosný?

Je pravda že jsem roky kupoval nVidii nicméně v práci jsme teď aktivně zvažovali jestli nekoupit nějaký předražený mac z důvodů toho že má vlastně "až" 128G VRAM abychom mohli trénovat neuronové sítě. V kombinaci s domnělým sdělením že výkon je vlastně nad 3090 to znalo jako super nápad. Nyní vidím, že to prostě není pravda.
Jinak jsem dřív jel na Intelu ale s 5950x jsem zažil nejlepší upgrade procesoru ever. A teď si počám i na první čipletové GPU. Prostě AMD mně celkem úspěšně přebarvuje ze zelenomodré do červena :-)

+1
+10
-1
Je komentář přínosný?

Ale s neuronovou sítí ti u M1 Ultra pomůže 32 jader neural enginu… o tom si může každý x86 nechat zdát, kdežto AI akcelerátory jsou dnes i v levných armových soc

+1
-6
-1
Je komentář přínosný?

Zde je srovnání testů Deep Learningu na M1 Max a RTX 3090. RTX měla cca 8x vyšší výkon při 8x vyšší spotřebě. Na M1 Max asi bylo k výpočtům využito GPU, u RTX patrně Tensor Core.
https://tlkh.dev/benchmarking-the-apple-m1-max

Je otázkou zda by běh úlohy na Neural Engine přinesl výrazný rozdíl výkonu, pro M1 Ultra GPU je deklarován výkon 21TFLOPS, pro Neural Engine 22TOPS (u M1 Max 10,4TFLOPS versus 11TOPS).

+1
+1
-1
Je komentář přínosný?

Nevím jak to soudruzi v Apple měřili ale dnes vyzkoušel sám, a moje GPU 3090 při 202k bodů nepřesáhlo příkon 200W http://skygazer.eu/filez/opencl-3090.png (mám nepatrně sražené limity aby to tolik nežralo). Skoro to vypadá, že i rozumně nastavená nVidia na 8nm může mít lepší GPU výkon na watt než Apple A1 Ultra na 5nm.

+1
0
-1
Je komentář přínosný?

MKBHD, asi najrespektovanejsi techtuber prave tento graf “opravil” (pretocit na 7:10)
https://youtu.be/wvhP1al3Ur4

+1
+1
-1
Je komentář přínosný?

A proto nás na škole nutili popisovat osy i s jednotkami. Btw ten výkon je relativní vůči čemu, tušíme?

+1
0
-1
Je komentář přínosný?

"„Apple v prezentaci prohlásil, že M1 Ultra překoná GeForce RTX 3090 od Nvidie. Netuším, kde to Apple vzal..."
The Verge nevie interpretovať vlastný graf. V Metal má Mac Studio (Ultra) 102,156 a 3090ka nulu! :-)

+1
+3
-1
Je komentář přínosný?

Barva v grafech je zvolená natolik výborně, že mi přijde naprosto zbytečné ji kazit různými odstíny. Ne šlo to příště jenom jedním odstínem "lososové"? Myslím, že by to bylo mnohem přehlednější....
;)

+1
+1
-1
Je komentář přínosný?

To směřuj na The Verge, určitě budou za zpětnou vazbu rádi...

+1
0
-1
Je komentář přínosný?

ono tie grafy aj tak prd znamenaju, ak tam nie su udaje spotreby

co som pozeral yt videjko, kde ukazovali aky vykon to ma pri akej spotrebe, tak m1 ultra (konretne gpu cast) nikdy nepapala viac ako 80W, vacsinou sla okolo 60-70W

apple ukazoval ale graf pri 120W (cca), teda ak predpokladame idealny scenar, ze linearne s wattazou ide i vykon (co pri m1 je bezne) tak vidime cca 50-60% vykonu ultra

otazne je, preco apple limituje m1 ultra

+1
-3
-1
Je komentář přínosný?

'' predpokladame idealny scenar, ze linearne s wattazou ide i vykon (co pri m1 je bezne) ''

lol lol lol..

+1
+6
-1
Je komentář přínosný?

nejaky dokaz, ktory toto tvrdenie vyvracia? :) ci si iba obycajny lolista? :)

+1
-5
-1
Je komentář přínosný?

Na to snad není třeba důkaz, na to stačí normální common sense, tedy selský rozum.
Že se ohledně toho sháníte po důkazu o vás cosi vypovídá :-p

+1
+4
-1
Je komentář přínosný?

Tak "common sense" z CMOS elektroniky to říká ve většině případů. Jediný rozdíl může udělat silně adaptivní voltáž (jak silný rozdíl to je bude ovšem závislé případ od případu).

+1
0
-1
Je komentář přínosný?

common sense aj napovie, ze je tam "idealny scenar". Ale to by som od vas chcel vela, ze? :)

+1
-5
-1
Je komentář přínosný?

Ani Apple se ve svém grafu nesnaží skrývat, že závislost výkonu na spotřebě vyjadřuje křivka, nikoli přímka, takže by naopak bylo potřeba doložit tvrzení, že závislost je lineární.

+1
+8
-1
Je komentář přínosný?

Ale on říkal že je to běžné pro apple m1 ne že to odpovídá realitě :0)

+1
+7
-1
Je komentář přínosný?

co jsem videl tak gpu se dostalo max na 84w. podle apple grafu by melo jit nad 100. pravdepodobne si s tim jeste plne nerozumi sw.

+1
-3
-1
Je komentář přínosný?

Jedna otázka - ví se, kde Apple to GPU vzal? Jestli je to něco od PowerVR (od níž léta bral GPU), nebo je to licencované od někoho jiného, nebo je to opravdu celé in-house navržené od píky? Protože v tom posledním případě by výkonem docela vytrolil Intel s jeho slavným Xe

+1
0
-1
Je komentář přínosný?

Jo, ví. Základ je od Imagination Technologies (neboli PowerVR) a následně vlastní vývoj.

+1
+2
-1
Je komentář přínosný?

Jestli je to vlastní vývoj, tak je to moc hezký výsledek v tom Shadow of Tomb Rainder (pokud to je reálné), být jen 19% - 31% za Geforce 3090. Chudák Intel se svou Xe/Arc míří na GeForce 3060 Ti - GeForce 3070 Ti, což je cca 25% - 40% za Geforce 3090, čili ani po všech těch velkohubých prohlášeních nedožene Apple, který dopředu nic moc neřekne, ale pak se pochlubí výsledkem.

+1
+2
-1
Je komentář přínosný?

Podle tech hodnot to vypada, ze kvalita SOTR benchmarku byla patrne nastavena na Medium. Pri High snad dava ve 4K RTX3090 pouze 106fps. Mozna pri vyssi komplexnosti/kvality by rozdil by jeste vetsi.

V GPGPU ulohach, kde je vyznamny podil CPU a GPU operaci muze M1 Ultra diky unifikovane pameti (bez nutnosti IO PCIe prenosu vstupnich/vystupnich dat) i pri cca 60% vypocetnim vykonu RTX3090 dosahnout vysledneho vyssiho vykonu. Napriklad BlackMagic Raw Speed Test (dekodovani B-Raw formatu se RTX3090 vyrovnal prakticky jiz M1 Max s GPU 32c). M1 Ultra bude patrne podstatne vyse.

https://youtu.be/-j_7kUJ8vvA?t=32
RTX 3080 pro srovnani (RTX 3090 jsem nesehnal ale byl snad take nekde okolo 160-170fps pro 8K)
https://www.reddit.com/r/davinciresolve/comments/k96ykb/blackmagic_raw_s...

+1
+1
-1
Je komentář přínosný?

sottr ma ale nevýhodu - bezi v překladu přes rosseta, neni to nativni arm build a nejsem si ani jistý že využívá metal api.

+1
-3
-1
Je komentář přínosný?

Tento nekonečný flame war Mac vs PC je zábavný. Kto rozmýšľa, dokáže si vybrať podľa svojich potrieb a priorít, bez ohľadu na klamlivú reklamu. Takto poznám ľudí, ktorí sa živia grafikou, prípadne multimediálnou tvorbou a volia jednoznačne jablko a takisto poznám ľudí, ktorí potrebujú na prácu CAD aplikácie a volia PC. Kto vyberá na základe reklamy, alebo obhajuje jednu, alebo druhú stranu nevie, na čo sa IT okrem vypisovania na FB používa....

+1
+1
-1
Je komentář přínosný?

Problém je že marketing nefungeje na základě rozumu ale "citu" ... Což vychází přímo z toho jak se většina lidí rozhoduje při nákupu. Bohužel...

+1
0
-1
Je komentář přínosný?

řekl bych ze cilovka bude vybírat dle vykonu. treba kompilace jsou neskutecne rychle. prace s videem taky.

+1
-3
-1
Je komentář přínosný?

Mnohdy lidem diktuje HW výrobce SW, napřiklad Pinacle studio neumí HW akceleraci renderingu na AMD grafikách, na Nvidii bez problémů. Podobně Autodesk neuměl renderovat na AMD, nevím, jestli už to napravili.

+1
0
-1
Je komentář přínosný?

zbytečný článek. Jedna skupina lidí to již dávno věděla a ta druhá bude věřit dále i bez ohledu co se změří/napíše

+1
-1
-1
Je komentář přínosný?

Ten čip má na svou spotřebu a dobu vývoje krásný výkon. Absolutně nechápu, proč musí vytvářet lživé grafy. Kdyby Apple prezentoval pravdu, pořád budou všichni žasnout a tleskat. Absolutně zbytečné kroky PR.

+1
+4
-1
Je komentář přínosný?

proč by nemuseli (lživé grafy): kdyby ten Apple stál 50-60Kkč
proč musí: s cenou za 120+K, za kterou pořídíte systém s dvěma 3090 ve SLI už ten jejich výkon nevypadá vůbec dobře

Ale zapomněl jsem, u některých Apple zákazníků nezáleží na ceně. Ano pro ty to skutečně smysl asi má a na stole to vypadá hezky. Naneštěstí do této kategorie v ČR nespadají ani lidé s trojnásobkem průměrné mzdy v této republice, takže já teda jako ta "socka z příkladu" raději to 2x3090, sorry Apple. Roztomilé na tom všem je, že i jako "socka" ta jejich zařízení můžete překonat výkonem. Pak obvykle nastupují u obhájců známé kecičky, že výkon není vše a tedy se začínáme nacházet v kategorii ve které nezáleží tedy ani na ceně, ani na výkonu, tedy v kategorii luxusních prostitutek (celebrity, děti boháčů atd.)

+1
+2
-1
Je komentář přínosný?

Pozn. Myslím, že v hladině ~120kKč je Apple Studio M1 Ultra pouze s 48c GPU, za plnohodnotné Apple Studio 64c GPU M1 Ultra je třeba vypláznout o cca 30kKč víc. Za těch 146 000Kč se už dá v PC světě postavit docela dost. Apple Studio zůstane každopádně výhoda větší "VRAM".
https://www.apple.com/cz/shop/buy-mac/mac-studio/20j%C3%A1drov%C3%A9-cpu...

+1
0
-1
Je komentář přínosný?

pokud vím, tak právě dvě propojené 3090ky umí svou VRAM sdílet, tzn. dohromady 48GB. Ale chápu, že to může být omezující

+1
0
-1
Je komentář přínosný?

Problém je, že NVLink v této generaci 3.0 u RTX3090 má snad průchodnost obousměrně v součtu cca 112GB/s, což je proti 900GB/s u vlastní VRAM přecijen rozdíl. Na druhou stranu při nedostatku VRAM nemusí úloha proběhnout vůbec.

+1
0
-1
Je komentář přínosný?

Nez 2x3090 nebude lepsia 1xA6000 s 48GB VRAM? Cena je cca 115 000,-

+1
0
-1
Je komentář přínosný?

mě dost překvapuje ten herní výkon na integrovanou grafiku je to hodně dobrý

+1
0
-1
Je komentář přínosný?

Tak ona je to spíš grafika s integrovaným procesorem (celé pouzdro má rozměry jako Threadripper) s rozpočtem tranzistorů násobně vyšším než ona GeForce RTX 3090 a k tomu s 1024bit LPDDR5 sběrnicí.

+1
+4
-1
Je komentář přínosný?

čili oproti hypotetické 3090 na 5nm katastrofa. Na druhou stranu to jejich APU běhá asi na menších taktech a má mnohem lepší poměr spotřeba/výkon než 3090 nebo ani to ne?

+1
0
-1
Je komentář přínosný?

Ano, více tranzistorů + nižší takty + o 1,5 generace novější proces = nižší spotřeba.

+1
+2
-1
Je komentář přínosný?

Vyzera to tak, ze Apple zvolil trochu inu strategiu pri navrhu chipov ako pozname od Intel/Amd/nVidia.

Na chip daju viac vypoctovych jednotiek (viac tranzistorov, vacsia plocha chipu), ktore budu behat v energeticky optimalnom pasme (nizsie frekvencie, mensia spotreba, menej tepla). Celkovy vykon bude dobry, spotreba a teplo bude tiez fajn. Cena chipu bude ale vyssia (menej chipov na wafer), co sa ale u cien Apple produktov strati.

Intel/Amd/nVidia davaju mensi pocet vypoctovych jednotiek (menej tranzistorov, mensia plocha chipu), ktore ale potlacia na vyssie frekvencie aj za cenu horsej efektivity (vysoke frekvencie, vyssia spotreba, viac tepla). Celkovy vykon je dobry, spotreba a teplo sa v PC stratia (ludia si zvyknu). Cena chipu bude rozumna (viac chipov na wafer).

Keby Intel robil chipy prvou strategiou, s ich velkostou by zrejme dost narastla aj ich cena co by sa samozrejme horsie predavalo pri porovnani s konkurenciou (vyssia cena, alebo nizsia marza).

+1
0
-1
Je komentář přínosný?

Cena čipů je pro Apple nízká, procesory od Intelu je stálý víc než je stojí výroba vlastních. Takže i když spotřebují více místa na wafferech, výsledek je pořád levnější než brát něčí hotové čipy. Teď už mrskají M1 čipy ve velkém, když už to dávají i do středního iPadu. Nejlevnější přístroj s M1 čipem, dokonce v plné konfiguraci za 16 tisíc. Ne že by v tom bylo vůbec takového výkonu potřeba, ale evidentně je to tak levné že nemá smysl dělat extra čipy pro iPady tak jak dříve čipy pro iPady Pro.

+1
-4
-1
Je komentář přínosný?

Az taka nizka nie je. Novsi 5nm wafer od TSMC je znacne drahsi ako napr. 7nm wafer (pre procesory Amd). A ked z neho maju menej chipov, tak je cena jedneho chipu este o to vyssia. Intel si vyraba chipy sam takze je oslobodeny od marze TSMC.
Skor som ale chcel porovnat rozne pristupy. Keby napr. Amd zvolilo pristup ako Apple, velky chip beziaci pri vyssej efektive, tak by zrejme stal o dost viac ako teraz.

+1
0
-1
Je komentář přínosný?

Celým pouzdrem se myslí odhalený Ultra na desce Mac Studia? Když člověk koukne kde je termovodivá pasta - je to jen úzký pruh na heatspreaderu, tak to je místo kde je samotný čip, zbytek zabírají paměti, které jsou taky schované pod tím tepelným rozvaděčem. Na desce jsou pak už jen fakticky obvody pro napájení a konektory na disky a další porty. Mají to udělané hodně dobře, Thunderbolty, čtečka, usbčka, lan konektor, vše jde samostatně odejmout a vyměnit bez pájení, vše je na konektorech.

+1
-4
-1
Je komentář přínosný?

To pouzdro mozna velikosti pripomina TR, ale prakticky to ma blize k intelovmu Phi x200 - kde byl taky centralni procesorovy cip obklopen pametovyma cipama. Male rozdily v pouzdreni se samozrejme najdou: pameti maj u applu jeste sve vlastni 128 bit pouzdro, takze lze jednoduseji vyrabet variace na velikost RAM - na levnejsi lince.

+1
0
-1
Je komentář přínosný?

Ja tam rozpor nevidim. Jen nekdo neumi cist grafy. Porovnava wattaz a relativni vykon k te wattazi. To znamena, ze pri stejnem prikonu je m1 vykonejsi. Kdyz si z toho cipu apple odecte vykon cpu, pak mu vyjde treba cca 80w na grafiku a verim, ze kdyz 3090 date max 80w, tak ji apple prekona. Uz jen proto, ze neni na takovou spotrebu dimenzovana. Takze kdyz to shrnu, grafy jsou ok, nicmene jsou nesrozumitelne a minimalne zavadejici, protoze ani omylem nesrovnavaji jablka s jablkami. To je jako srovnavat atom a theadpiper pri spotrebe 10w, to by atom mozna take vyhral:)

+1
-1
-1
Je komentář přínosný?

Základni rozpor je v samotném grafu. Mám-li na jedné ose jakoukoliv relativní veličinu, nutně musí bý uvedena ta jednotková veličina, ke které se to vztahuje, aby byl graf vypovídající. Tak, jak je ten graf nakreslený, nevypovídá vůbec nic, a jediná interpretace je, že buď jsou tupí markeťáci, nebo dělají tupce z nás. Na ose y vynesená hodnota 120 % je nesmyslný údaj (bez uvedení, k čemu se to vztahuje), jakákoliv jiná hodnota tam by měla stejně nulovou vypovídací hodnotu.
Jakákoliv vášnivá diskuse nad tím grafem je zbytečná, je to paskvil marketingového grafika, který je, jak bývá poslední dobou, bez aspoň základního technického rozhledu.

+1
0
-1
Je komentář přínosný?

Prakticky všechen křemík od kohokoliv v top výkonu jede daleko za hranicí energetického optima. Takže i RTX od nVidia by s menším limitem a nižším napětím měla lepší relativní výkon a spíš by to byla plus mínus plichta nebo mírné vítězství jablka protože těch několik wattů ušetří na procesu s méně manometry.

+1
0
-1
Je komentář přínosný?

To je zase hejt proti Applu, pritom kdyz si odmyslime ty lzi Applu, tak je to super. Vzdyt ten M1, coz je APU prekonava s klidem RTX3050 a to je na APU slusny vykon!

+1
0
-1
Je komentář přínosný?

To nevíme, dokud nám neřeknou, co přesně na té ose je.

+1
0
-1
Je komentář přínosný?

Prepocti to na vykon/cena, pak zjistis ze Apple je nekde mimo.
A pokud to prepoctes na vykon/marze, tak si uvedomis jak Apple doji sve ovecky :-)

Pak to jeste znasob neopravitelnosti a pravidelne nucenou obnovou zarizeni.. a fakt nechapu ze jim na to lidi skoci.

+1
+1
-1
Je komentář přínosný?

Ukazalo se, ze u Mac Studio jsou flash memory v M.2 socketech (radic je na MB), takze je tu asi teoreticka sance na vymenu Flash po opotrebovani v servisu u Apple (sance pro sekundarni trh). Oficialni stanovisko k tomu snad zatim neni.

+1
0
-1
Je komentář přínosný?

Zrovna vysla tato analyza:
https://www.youtube.com/watch?v=MANlo9fV9yI

Ty sockety jsou mozna M2, ale protokol neni NVMe do toho cipu, ale nejaka mezi-uroven. Rekl bych ze je to chytrejsi raw-nand, ale hlavni logika radice, ktera pak poskytuje nvme api je integrovana do cpu die. Timpadem muze SSD pouzivat na cachovani cast hlavni pameti, i kdyz je to HW reseni.

Co se vymeny tyce.. vyzaduje to "low level format" / inicializaci onoho uloziste, i kdyz prohodite dve storage mezi sebou (podobny lock jako snad u iphone kamer, ktere taky nejdou prendavat)

+1
0
-1
Je komentář přínosný?

Proto jsem zmiňoval servis Apple, předpokládal bych, že nové/jiné úložistě se bude muset "spárovat" s "T2 chipem".

+1
0
-1
Je komentář přínosný?

Na to, ze jsou to GPU podobne velikosti jeden na TMSC 5nm a druhy na Samsung 8nm to zase takovy zazrak neni.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.