Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel Lakefield (Foveros) vydán jako Core i5-L16G7 a Core i3-L13G4

V názvech Intel procesorů už chybí jen písmeno Fň a nějaké ty egyptské hieroglyfy. Proč to neoznačují přímo nějakým GUIDem... :-)

+1
+12
-1
Je komentář přínosný?

Rozumný označení jim už došla :D

+1
0
-1
Je komentář přínosný?

Snad radši ať už jsou nativně (bez výkonostní penalty) podporovány ARM čipy včetně zásoby programů ( i na Windows) . Tenhle mezičlánek je takový Quasimodo.

+1
0
-1
Je komentář přínosný?

Tohle bude spis takovy "prototyp" Intelu pro urcity druh zarizeni. Verim, ze dalsi generace postavena bud s Wilow Cove nebo Ocean Cove jadrem(jadry) bude zajimavejsi.
Pro desktop/notase/widle nejsou ARM moc vhodne, prave z duvodu chybejiciho SW ekosystemu a zatim takrikajic nulove podpory vyrobcu HW.

+1
-1
-1
Je komentář přínosný?

Já bych tomu dal šanci. Tady tomu procesoru podle mě chybí druhé velké jádro, uvádět dnes "jednodádro" mi přijde už trochu za hranou, kdybych to dělal já (ha ha), tak bych tam spíš nacpal tři až čtyři velká jádra a třeba dvě malá na servisní úkoly, u kterých je víceméně jedno, jak dlohou poběží. Ale dokud mě to nikdo nenutí kupovat a pokud to bude mít zákazníky, tak proč ne.

+1
+1
-1
Je komentář přínosný?

To je poměrně jednoduché. ARM je totiž velmi nevhodný procesor pro otevřenou architekturu. Jasně, pokud můžeš program prohnat skrze větvenou a specifickou ALU (jak nám tady jeden onanista stále zdůrazňuje) a nebo využít jiné akcelerační obvody, tak se s tím dá docela solidně fungovat. Jenže co když takhle masivně paralelizovat nejde? Limity armu se ukážou vždy, když vezmeš nějaký use case, který není pro ARM těžce optimalizován (na mobilech typicky operace se soubory a konkrétně komprese/dekomprese; nebo encoding videokodeku, pro který chybí akcelerační obvody;nebo DTP nějakých komplexnějších dokumentů, například diplomek). Tam se nebavíme o násobcích, ale řádech, jak je ARM na jádro pomalejší.

Takže by tvůj UE byl velmi, velmi špatný a koho by jsi z toho vinil? Blba Gatese, že vůbec vydal Windows on ARM? Blbce z vedení OEM podniků, že vůbec použili ARM v notebooku nebo PC? A nebo blba sebe, že jsi naletěl na marketingové vějičky blbů zejména z Apple, že ARM se snad může někde rovnat "X86" platformě?

Všechny moje pokusy používat ARMy seriózně vždycky zhebly na tom, že ani nejvýkonnější ARMy neposkytují "komfort" dvoujádrových 15W Intel procesorů (v uvozovkách, protože na nich dělat bylo nepříjemné už před 5 lety). Jakmile prostě chceš heavy multitasking a neakcelerovaný výkon, tak potřebuješ bohužel dospělé procesory s jejich neduhy. Samozřejmě, pokud ti stačí reálně singletasking a jedeš jen akcelerované věci (hry+akcelerované video), tak se to tak nějak dá.

I když měl jsem v prackách Chromebook a původní "héj, to se pro BFU dá" nakonec vystřídalo rozčarování, že prostě ty proklínaná windows nejsou zase tak špatná :-) Takže to nakonec nebude jen o ARMu:-)

+1
+11
-1
Je komentář přínosný?

Přesně... Pokud se má použít "hrubá síla", tak jedině "dospělé" jádra amd64, případně i jiné architektury (Power nebo SPARC, ostatní už jsou asi mrtvé). Na druhou stranu asi by šlo vyrobit dospělé jádro architektury aarch64 , akorát to asi ještě nikdo neudělal ;-)

+1
+2
-1
Je komentář přínosný?

Jéjda, to je kravina. ARM už dospělá jádra má. A78 a X1. Prej SPARC nebo Power....s těmi se už moc nepočítá - je to vidět na počtu serverových a HPC projektů. Samotný ARM je porazí oba dva.

+1
-3
-1
Je komentář přínosný?

Jéjda to je kravina. A78 a X1 jsou dospělá jádra asi jako Goldmont :-D A zmíněné architektury jsou možná na okraji zájmu, ale všechny strčí do kapsy jakýkoliv dnešní ARM...

+1
0
-1
Je komentář přínosný?

Nekecej...
Fujitsu: Why we chose 64-bit ARM over SPARC for our exascale super

+1
-1
-1
Je komentář přínosný?

To je spíš tím, že Oracle už nebere tolik procesorů od Fujitsu a tím se prodražuje vývoj. Vzhledem k tomu, že Fujitsu-Siemens v podstatě zařízlo vlastní servery a spojilo osud Sparc64 se Sunem, resp. s bundlem Solarisu, tak to je očekávatelný vývoj. Tím myslím opuštění Sparc64.
Jinak ten exascale počítač už měl být hotov ne? Nějak jsem se po tom poslední dobou nepídil ...

+1
0
-1
Je komentář přínosný?

Na důvodech nezáleží. Uvedl jsem to jako důkaz toho, že ARM CPU může být výkonný a ne žádná chudinka jak tady někdo píše. Do HPC strčíš ARM místo SPARC, protože je ten ARM šunka co je násobně pomalejší než božské x86? Blbost.

+1
-1
-1
Je komentář přínosný?

samozřejmě že ano. Snad si nemyslíš, že v kapitalizmu vyhrává nejlepší řešení. Tak naivní (nebo blbý) nejsi snad ani ty.

+1
0
-1
Je komentář přínosný?

Nějakej Černák vs rozhodnutí mnoha zainteresovaných lidí, které to živí (Fujitsu atd.). Budu věřit těm profíkům, vidí do toho víc a jde o jejich prachy.

A ano, v kapitalismu často nevyhrává nejlepší řešení, příkladem je vítězství x86 v některých segmentech trhu. Pronikání ARM a jiných architektur do působišť x86 je naopak znakem ozdravného procesu.

+1
-2
-1
Je komentář přínosný?

Víš o tom pendrek. Podstatně větší než já. Ovšem sebevědomí ti nechybí, to je pravda.

+1
0
-1
Je komentář přínosný?

Klidně uznám, že o tom vím méně než ty (neznám tě), ale abych uznal, že o tom víš víc než lidé z Fujitsu, Amazonu, Applu atd. atd,? To nemohu. ARM CPU na tom evidentně nejsou tak blbě jak píšeš.

+1
-1
-1
Je komentář přínosný?

Odpovím ti tady.

ARM cpu na tom blbě jsou jak píši (blbě pro vysoké výkony, pro mobily jsou ideální). Ale mají jednu výhodu, jsou totiž dost levné. Zejména když si je děláš sám. Například Snapdragon 855 se prodával za 53 dolarů při objednávce 1 milion kusů. Na to, že to je SOC, takže má nejen CPU, ale i GPU, čipset, řadič disků, řadič ram, a ještě pár dalších blbostí integrovanýcch na jednom čipu je cena víc než zajímavá.

V HPC to Fujistu nasazuje z politických důvodů, i když fakt je, že v HPC stejně vykonávají hlavní činnost ASICy a procesory jsou tam jen jako obsluhovače těch ASICů a interface mezi nimi a operátorem. Takže pro clusterizaci takového řešení jsou ARMy i vhodné (je lepší mít u každého ASICu jeden slabý ARM, nežli mít jeden silný Intel, který musíš rozvést k jednotlivým ASICům pomocí velmi drahých sběrnic). V případě Amazonu je to dtto. Nepohodli se s Intelem a to dost, protože Bezos je čůrák, který bere za samozřejmé, že může odírat ostatní, ale chraň Bůh, když by někdo měl odírat jeho. Takže když intel odmítal snížit svoje marže, protože přece za ním přišel pan Božský a chce toho hodně (přitom Amazon byl tak 7-8 v počtu objednávek za rok). A fakt je, že na činnost, na kterou to Amazon potřebuje (tedy provozování mikrotransakčního prostředí pro jejich ekosystém) se opět hodí ASICy. V tomto případě to naroubovali přímo do procesoru samotného.
Co se Applu týče, jejich vyčůranost je jejich brand. A protože iOvce snesou všechno, tak si můžou Jablka dovolit hodně i na poli GPU a CPU. Například proč nejsou v Macích nvidie asi víš, že? Tam to není o ekonomickém rozhodnutí a technicky byla nvidia rozhodně minimálně rovna AMD (i když nyní AMD přišlo s exkluzivitou pro Apple, výkon RTX 2070 Max-Q s 50W spotřebou (oproti 80W u té nviddie). Ale tam si doslova ti dva dementi ve vedení těch firem nesedli osobně. Ale přesto všechno, že Apple leje už cca 6 let nekřesťanský peníze do big ARMu se snahou, nahradit Intel, a přestože v cinklých benchmarcích už Apple od A11 "drtí" úsporné Core procesory, tak zatím nenašli odvahu ho nasadit ani do Macbook Air! A znovu opakuji, tohle je Apple. Když by tahle firma zavedla, že s každým novým nákupem iOvce souhlasí se Zákonem překvapení (Zaklínač), tak jí to u těch iOvcí projde. Tedy to, že by v Macbooku byla relativní šunka by nebyl žádný problém. Přesto na to ani oni odvahu nenašli.

+1
+2
-1
Je komentář přínosný?

Vždyť ty odporuješ sám sobě.
„Ale mají jednu výhodu, jsou totiž dost levné."

A jinde píšeš o tom, jak bude stát desetijádro ARM X1 4x tolik co šestijádro Ryzen.

Macbooku s ARM se dočkáš tenhle měsíc. Když liješ miliardy do projektu velkého jádra pro mobily, tak to nějakou dobu trvá, než se dostane i do notebooků.

+1
-2
-1
Je komentář přínosný?

Ten ARM v Macbooku mají teprve ohlásit. Reálně se má dostat k uživatelům snad až příští rok.

+1
0
-1
Je komentář přínosný?

Jistě, chápu že to nechápeš. Je to totiž už těžší na pochopení. Takže pokud ti výkon ARMu stačí a nemusíš ho dávat po kvantech, tak je ARM opravdu levný. Ušetří se totiž poměrně hodně za vývoj a implementaci. A to platí v omezené míře i o specifických počítačích, jako jsou Fujitsu HPC. Ovšem pokud chceš dorovnat čistým univerzálním výkonem dospělý procesor (Ať už x86, SPARC, Power nebo Elbrus), tak potřebuješ komplikované drahé jádro a navíc jich mít hodně pohromadě (tj. hodně vysoce kvalitního křemíku). A tam už začneš s cenou narážet. Je to obnobý problém u intel monolitů. 4 Jádra? Za pár kaček, protože výtěžnost je ohromná. 10 jader, drah, protože výtěžnost je malá. AMD to právě ochcalo grupováním malých jader, ale nikdo jiný zatím tuhle technologii nemá.

mimochodem nevím to jistě, ale vsadil bych se, že že většina peněz u Snapdragonu 865 jde po grafice na to jejich jeedno jediné superjádro, které táhne většinu CPU výkonu celého jinak osmijádra.

Co se týče Apple a ARMu. Uvidíme co to bude a jestli to bude. Nicméně znovu opakuji, v cinklých benchmarcích typu Geekbench se Apple holedbal, že dává v singlu notebookové core i7 už od dob A11. Tj. řekl bych, že od roku 2017 měl Apple procesor údajně výkonnější než core i7 xxxxHQ se spotřebou 1/4 toho intelu. S ohledem na to, kdy vývoj CPU obvykle začíná, musel mít Apple projekce výkonu už v roce 2013. Snad si nebudeme lhát do kapsy, že by Applu trvalo upravit MacOS (velmi uzavřený a neuniverzální operační systém) na ARM 7 let, když Microsoft zvládl dtto za 2 roky, včetně úpravy vlastního portfolia aplikací a zajištění interoperability (jakž takž) na windows for x86.

+1
+3
-1
Je komentář přínosný?

Desetijádro od Intelu je drahé kvůli marži Intelu. Grafika v tom Intelu zabírá plochu dalších 4 jader a většina zákazníků by ji tam ani nechtěla. Kdyby měli zásadní problém s výtěžností, tak není sebemenší problém odstranit iGPU a citelně tím snížit plochu čipu. Dále je tu ten fakt, že cenová výhoda čipletového designu AMD se hodně projevuje až u 12 a více jader - ovšem stále jen proti Intelu, protože ARM i tak vychází levněji, jinak by se neprosadil.

ARM 10 jader X1 by tudíž nebylo 4x dražší než šestijádro AMD - to jsou dost šílené odhady, stejně jako ty odhady výkonu a spotřeby (150W ARM na úrovni 35W x86 - do toho by Apple ani nikdo jiný nešel).

+1
-1
-1
Je komentář přínosný?

Macbook s ARMem opravdu tenhle měsíc nebude. Tenhle měsím má Apple oficiálně vyhlásit, že příští rok bude Macbook s ARMem. (protože doteď bylo vše o ARM Macbooku jen šuškanda, nic oficiálního)

+1
0
-1
Je komentář přínosný?

To stačí. Je jasné, že se Apple neztrapní nějakým šnekem se kterým by uživatelé trpěli.

+1
-3
-1
Je komentář přínosný?

Ja si nejsem jisty, jestli v jeho pripade se da mluvit jen o sebevedomi..
;)

+1
0
-1
Je komentář přínosný?

Ano, například jsem měl telefon, docela slušný z kovu, ale neměl stabilizovaný foťák, nicméně tam kupodivu byla možnost ad hoc to softwarově stabilizovat v té jejich vendor camera aplikaci (a to tleskám, díky za tu možnost), ale bylo to pomalé pomalé... minuta videa tak 4 minuty stabilizování... nějaký 8mi jádro A53 na 2 GHz si matně vzpomínám. *

*
https://mobilni-telefony.heureka.cz/xiaomi-redmi-note-4-3gb-32gb/specifi...

+1
0
-1
Je komentář přínosný?

Ano, to je dobrý příklad use case, kde ARM nemůže využít žádné zákaznické obvody, protože s tím nikdo nepočítal. Ovšem nutno uznat, že to se týká opravdu asi jen mobilů. Na notebooku nebo i tabletu stabilizaci obrazu bude řešit málokdo :-D

+1
0
-1
Je komentář přínosný?

Je to prostě SIMD robota a Apple si toto pohlídá, aby to šlo přes grafiky, jinými slovy podepisuju akceleraci. Horší ve Windows světě, kde 300 milionů lidí používá Zebra Photoshop Benchmark nebo něco obskurního krát OpenCL versus CUDA versus nevim co na ARMU... a kompiluješ a kompiluješ (myšleno píšeš knihovnu pro každou možnost). Prostě a například viz Surface Go (ihned cz technoblb, notebookcheck net)

+1
+1
-1
Je komentář přínosný?

LOL, nebudeš tomu věřit, ale ARM má i lepší jádra než zoufalé A53.

+1
0
-1
Je komentář přínosný?

zase nepřeháněj. Snap 625 je docela slušný procesor. Aktuální vlajkovka Snapu 865 je cca 2-3 výkonnější. A protože jssem to koupil otci, tak vím, že ani dvacetkrát vyšší výkon, by tomu nepomohl, aby to mohlo fungovat dobře v otevřeném systému. V grafické části to je sice desetinásobek. Ale v procesorové prostě ARM nemá k dispozici nic, co by se mohlo podívat "X86" do očí, prostě nic.

+1
+3
-1
Je komentář přínosný?

Pokud srovnáváš ARM z mobilu s desktopem x86 (což srovnáváš), tak zcela jistě.

+1
+1
-1
Je komentář přínosný?

On to nemá ani v tom desktopu. Oh wait, to možná bude ono. ARM prostě nemá nic v desktopu, protože na to nemá výkon. On nemá výkon ani aby konkuroval notebokům. Proč myslíš, že Chrome přešel z ARMů na intely? Na původních Armích chromebocích se totiž nedalo nic seriózního dělat. A to byly hodně silné ARMy, kde se se spotřebou alá mobil hlavu nedělali.

Pochop, že ARM jako je A13X nebo Snapdragon 865+ se ti zdá silný jenom proto, že se testuje v optimalizovaných benchmarcích, které masivně využívají akcelerační obvody. Pro srovnání, zatímco GPU část dává 1000-1200 GFLOPS v SP, CPU část dává desetinu a to k tomu používají 8 jader (apple 4+4, Qualcomm 1+3+4). Procesory architektury Skylake nebo ZEN2 dávají na JEDNO jádro až 128GFLOPS v SP při 4 GHz. Násob to počtem jader (zejména u ZENu). A to ty mnou vyčtené army už žerou 10-15 W. Zejména v případě ZEN2, kdy 16 jádro žere cca 105 W, je efektivita AMDčka výrazně vyšší než ARMu. Mimochodem v MIPSech je to obdobný masakr. 16 jádrový 4950X dává nějakých 800 GIPS, cca 15 tolik než Snapdragon 865+ a to přes to, že RISC architektura má podstatně jednodušší instrukce a tak by měla dominovat. Finta je v tom, že reálně velká část instrukčního výkonu leží na bedrech Kryo 585 Prime na 3 GHz. Což by bylo teoreticky povzbuzující pro desktop. Ovšem na něm leží také většina spotřeby, takže už to taková hitparáda není.
A přidej k tomu frekvenční strop efektivity, který je pod 3GHz pro ARMy a je vymalováno.

ARM to prostě nedá, nezávisle na tom, že se do jeho vývoje sype více peněz, než do všech áemdéček a intelů dohromady.
Proto se jede na ARMech na akcelerační zákaznické obvody. S nimi to totiž není zdaleka taková tragédie.

+1
+2
-1
Je komentář přínosný?

K těm zákaznickým obvodům: Ano, jedna věc je néjaká obecný generický výkon, který je docela potřeba ve Win a desktop GUI systémech. Na druhé straně je masivně paralelizovaný výkon pro zpracování dat, což x86 architektury řeší od 3Dnow přes SSE po AVX a SW využívající GPU. Tam by se přece měly uplatnit DSP ARMu. Nač dává Qualcomm do Snapragonů ty své Hexagon DSP? Nač všichni v novějśich implementacích ARM melou o AI akcelerátorech? Který SW to dnes využívá?

+1
0
-1
Je komentář přínosný?

No máš samozřejmě pravdu, i x86 procíky už dávno mají akcelerační zákaznické obvody, ale právě ty AVX jsou velmi dobrý případ. Mají velmi velký měrný výkon, ale používají se žalostně málo (v reálných aplikacích). A na rozdíl od jiných jednotek v x86 procesorech je tyto neumí využít vnitřním kompilátorem. Proto jsou tam užitečné jen pro malé množství uživatelů, obvykle jen těch co pracují s videem a vědců výpočtářů.

Důvod je IMHO lenost vývojářů pro Windows. Jestliže mají tito povědomí o tom, že hrubý výkon procesoru se s neoptimalizovaným kódem nevyužívající akcelerační obvody bez obtíží popere, tak se samozřejmě nebudou snažit. Protože optimalizace jsou čas, který jim nikdo nezaplatí.
Pokud máš výkon omezený a tak ti nezbývá než optimalizovat a akcelerovat, jinak z aplikace uděláš lagfest a to už bude mít dopady na prodeje.

Pamatuji si, když AMD přišlo s prvními APU. Tehdá jeli hype, že to sice stojí na málo efektivním (proti Core) Buldozeru, ale že díky využití grafické části pro akceleraci, tyto bez problému Core procesory rozmetají. No realita byla taková, že co nenaprogramovali lidi z AMD, to nebylo. Programátoři třetích stran tu možnost využít masivně paralelní výpočty skrze grafické jádro houfně odmítali řešit a to dokonce v takovém stavu, že se dělali s GPU akcelerací pro dGPU, ale vykašlali se na jakoukoliv funkčnost na iGPU (typicky CAD/CAM a video studia).
A je také fakt, že se dtto děje na ARMech. Pamatuji doby, kdy iOS svižně běhal na iPhone 2/3G na 400 MHz jednojádru se 128 MB ram a byla to krásná grafika GUI na pohled. Doba pokročila, iOS dnes potřebuje na ekvivalentně svižný chod osmijádro na 1800-2700 MHz s 4GB RAM. A android? Tam je dnes 8 jader na 2,5 GHz a 8 GB ram málo :-D Když si vezmu, že původní iphone měl výkon zlomkový...

+1
+2
-1
Je komentář přínosný?

Hlavní problém na ARMu je neoptimalizovanost. Na x86 je spousta knihoven optimalizovaných (konkrétně třeba zlib) na aarch64 zatím moc ne (když se použije googlí optimalizovaný fork, boost je docela zásadní).
Další problém vidím v masivním používání z principu neefektivních věcí, jako Java, kde se problém násobí (neoptimalizované knihovny, neoptimalizovaný runtime...). Co jsem testoval A72 na svém generickém kódu, tak poměr byl tak 1:0.70 (vůči sandybridge) což mi tedy vůbec špatné nepřišlo. Celé je to o těch optimalizacích a dnes už líných vývojářích.

+1
0
-1
Je komentář přínosný?

Tak jasny, s tím neexperimentuju co půl roku, ale na udělání si obrázku mi to (před třemi lety) přišlo (a doteď přijde) ideální - 64bit OoO 8 x 2 GHz štíhlá varianta jádra.

+1
0
-1
Je komentář přínosný?

V desktopu bys mohl mít 10 jader X1 na 3,5 GHz, což je proti těm malým jádrům neporovnatelný výkon. Ano, zatím to nikdo nevydal, uznávám.

+1
0
-1
Je komentář přínosný?

To není tak jednoduché. ARMy včetně X1 používají monolity alá intel. Takže fakt není sranda nacpat 10 jader se spotřebou 10-15W jádro na tak malou plochu. Intel by ti mohl povídat, přitom 10 jader X1 na 3,5 GHz by bylo někde mezi 4-6 jádry ZEN2. Před pěti lety by to bylo super, ale dnes už tím nikoho neohromí.

+1
0
-1
Je komentář přínosný?

Intel by mně řekl, že dělá deset jader se spotřebou 300 W, takže představa ARM desetijádra se spotřebou 150W není nic extrémního.

+1
-1
-1
Je komentář přínosný?

S výkonem nanejvýše 35W šestijádra za čtvrtinovou cenu od AMD? To bych řekl, že extrém je.

+1
+1
-1
Je komentář přínosný?

Když jsem ti vyvrátil blbou teorii o monolitech a spotřebě, tak utečeš někam jinam - klasika. Ta čísla sis vycucal z prstu, kdyby na tom byl ARM jak píšeš, tak by NIKDO neinvestoval do ARM projektů spojených se servery/HPC. Nemám potřebu tvoje bludy vyvracet.

„výkonem nanejvýše 35W šestijádra za čtvrtinovou cenu od AMD"
Aneb 150W ARM X1 desetijádro by se dle génia vyrovnalo sotva 35W šestijádru od AMD, které ještě k tomu stojí čtvrtinovou cenu. LOL.

+1
-1
-1
Je komentář přínosný?

ehm, 10W max na jeden 4gb modul? vzdyt jeho spotreba je cca do 1.5W na 2133mhz ...

+1
0
-1
Je komentář přínosný?

1,5 wattu je obvyklá spotřeba pro modul postavený na nových čipech vyráběných technologií blízkou 10nm. DDR4 v době uvedení technologie měly specifikovánu maximální teoretickou možnou spotřebu ~10 wattů na 4GB modul. Oba údaje se týkají teoretického maxima, srovnání údajů pro různé situace by jaksi postrádalo smysl.

+1
0
-1
Je komentář přínosný?

7W u Intelu znamená PL2 na ~25W :-D . A ta cena toho zařízení je šílená - Intel to asi uvedl jen tak jako "že to jde"

+1
+2
-1
Je komentář přínosný?

Pokud tohle vrazí do Compute Sticku a bude to za 4-5k kč tak by to mělo smysl :-)

+1
0
-1
Je komentář přínosný?

To myslím neklapne, Compute Stick měl Atomy dimenzované na ~2W SDP, kdežto toto jsou 7W čipy, tzn. s cca 3× vyšší spotřebou.

+1
0
-1
Je komentář přínosný?

Tak by sa vrtuľka točila trošku hlasnejšie a nemalo by to 38 mm, ale 58...

+1
0
-1
Je komentář přínosný?

Myslíš jako že by to unesl dron? ;) Bacha padají jezera na pole ;)

Ono už ten samotnej název, když se nad tím poeticky zamyslím... jezerní pole. Tak doprdele když chci pole, tak tam nebudu jezdit na lodi a když si chci zaplavat v jezeru, tak bych nerad potkal do xichtu traktor... anebo počkat, to asi už i marketing vymýšlí v Indii.

+1
+3
-1
Je komentář přínosný?

Nejnovější iPhony a Samsungy uchladí přes 8 W a dá se to držet v prackách. Takže pokud by CS měl kovové žebrovité tělo, tak by se to IMHO dalo. Za dávných časů, v dobách čtyřiosmšestek byly ty procíky jen v pouudře bez jakéhokoliv byť jen pasivu a maximální TDP měly přes 6 W. Tj. jestliže nějakých 25cm2 stačilo na uchlazení 6 W, tak by násobně větší CS měl stačit na uchlazení 10 W (započítávám i RAM a SSD).

+1
0
-1
Je komentář přínosný?

Tehdy ale TDP bylo chápáno jako maximální možná spotřeba, které zpravidla v praxi nebylo dosahování ani v zátěži. Dnes je TDP hodnota až 3,5× nižší než reálně dosažitelná spotřeba.

+1
+2
-1
Je komentář přínosný?

Akorát ta 486ka měla půl centimetru tloušťku (křemíková dlažební kostka) a plošnou velikost velikou (nebudu hledat). A to ani nebudu radši připočítávat kvantum mechanickou konstantu, že lépe se do tepelné energie přeměňují (disipují) pomalejší vlny 25 MHz než "ostré" vlnění 5 GHz.

+1
0
-1
Je komentář přínosný?

Hledat nemusíš, bylo to těch 25cm2. Compute stick má přes 100 cm2 a pokud ho pokryješ pasivem, tak násobně více.
Ta druhá věta je technicky blbost. Vím co myslíš, ale to není situace ztrát na přechodech a vodivách cestách, které tvoří drtivou většinu tepelných ztrát. Prostě ti tam vznikne teplo a teprve pak vstupuje do hry přenos tepla plochou nebo tepelnou propustností materiálu/chladiče.

+1
0
-1
Je komentář přínosný?

7W se pořád dá uchladit pasivně, ale máš pravdu že by to muselo být těch poctivých max 7W :-)
Tak alespoň do NUCu by to mohlo být dobré, ale tam to zase osolí na ceně :-/

+1
0
-1
Je komentář přínosný?

Nevím proč by to neklaplo .. dělají se i compute sticky s Core m3 .. jen vyžadují 12,5W jako minimum. Za mě ten formfaktor nedává smysl, když to vyžaduje napájení co samotná televize ani spoustu monitorů (ano vím, že některé mají quickcharge atd. ) nezvládnou. Navíc compute sticky mívají druhý usb port v nabíječce :D No prostě když není možné použít krátký usb kablík a napájet to z TV, tak za mě není důvod proč by to nemohla být krabička s hdmi kabelem.

+1
0
-1
Je komentář přínosný?

Naprosto zbytecna intelí kokotina, slabe pojebane Atomy parovane az s jedinym(!) skutecne vykonnym/poctivym jadrem, nechapem k cemu je to dobre, tohle hrave zabije Athlon 3000G za 57€.

+1
0
-1
Je komentář přínosný?

Trochu prr. Já sice mám pod TV Asrock DeskMini A300 s 3400G, ale pokud by se tohle dalo dát do compute sticku, tak bych to zvážil. Píchnutý do HDMI telky, ale asi nebude stačit napájení z USB telky.

+1
+1
-1
Je komentář přínosný?

Procesor stojí 281 USD. 7 W je moc na nakrmení z USB. DeskMini je super, už aby byla nová verze na Renoir.

+1
+1
-1
Je komentář přínosný?

Prý bude (:

+1
0
-1
Je komentář přínosný?

Zatím počkám.

+1
+1
-1
Je komentář přínosný?

Tak dělají i Core M3 variantu, ale jak tak koukám to má standardní TDP 4,5W a 7W je nastavitelné TDP UP. Pokud tohle má standardní TDP 7W tak už nevím jestli to uchladí compute stick popř. čím by to vůbec krmili, protože ta Core M3 varianta vyžaduje 5V * 2,5A .. možná kvůli periferiím, to nevím :D

+1
0
-1
Je komentář přínosný?

Já se na to také těším, ale grafický posun asi tak velký nebude. Což je škoda, protože tak malé multimediální PC co by nejelo na 80 nebo víc procent při přehrávání 4K HDR high-bitrate videí by byla bomba.

+1
0
-1
Je komentář přínosný?

Zabije, ale taky spotřebou.

Atomy jdou bez obtíží používat jako ARMy. A v momentě, kdy je třeba seriozní výpočetní výkon, který nelze akcelerovat speciálními obvody (typické pro ARMy) tak se probudí to dospělé jádro a zachrání den.

+1
+2
-1
Je komentář přínosný?

„Atomy jdou bez obtíží používat jako ARMy."

Tak úplně bez obtíží to nebylo, když ARM vystrnadil Atomy z mobilů.

+1
0
-1
Je komentář přínosný?

Ano .. to jsou jablka a hrušky . TDP 35W vs 7W (ačkoliv tedy intelovských) .Lakefield má být primárně do přenosných zařízení, aby umožnil běžet nativně x86 aplikacím se spotřebou při idle,standby a nízké zátěži bližší ARMu. S tím že to jedno U-čkové jádro snad boostem zvládne nárazovou zátěž. Za mě by to bylo perfektní v něčem jako je GPD Pocket, jenže nehodlám oželet touchpad a GPD P2 max je už moc velké. Kdyby někdo vymyslel klávesnici na které by se v rámci možností dobře psalo, ale zároveň by třeba detekovala přejíždění prstem (něco jako měly blackberry telefony) Ale vzhledem k tomu že ntb klávesnice nebývají kapacitní a pro dobré psaní je potřeba alespoň náznak zdvihu kláves a mezer mezi nimi ... asi to nejde.

+1
0
-1
Je komentář přínosný?

Tak nejspíš to víc než 7W mít nemůže, protože by to asi usmažilo tu paměť - docela by mě zajímalo, jak se ta složenina chladí...

+1
+2
-1
Je komentář přínosný?

no co...pojede par sekund na kulervoucich 7W a pak bude throttlit dokud se neochladi...takovy Netflix and Chill jinak :)
Jsem ponekud skeptik, ze by tohle vubec utahlo plynule vic nez full HD datovy tok z netflixu :D

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.