Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nadešel u Apple čas na velkou změnu?

> Nadešel u Apple čas na velkou změnu?
ne

+1
+4
-1
Je komentář přínosný?

Hmm, a co kdyz apple prejde k sobe? A9X je uz dost vykonny.

+1
-12
-1
Je komentář přínosný?

Pro NTB nebo Mac Pro je to slabé, ale hlavně, všichni dodavatelé SW by museli měnit své programy. Práce přes Rosetu byla fajn, protože značně vyšší výkon HW kompenzoval ztráty na emulaci. Ale dělat to dnes? Ax může v pohodě fungovat v mobilním segmentu, Intel v NTB, iMac, Pro. V rámci ekosystému to není pro uživatele problém. Tak jako dnes většina spotřebitelů neřeší co leží pod kapotou auta, tak u počítačů je to stejné. Řeší to jen minoritní skupina pařanů nebo kutilů/ hobbystů.

+1
+4
-1
Je komentář přínosný?

A9X je na úrovní Core M -> Učková řada Haswellů.
Jediné co s takovýmto výkonem může efektivně odstřihnout jsou ty jejich 12" parodie na netbooky, které se kdysi pyšnily jménem Macbook.

PS: Stačí se podívat na stav ios platformy a nulovou snahu Applu o invenci (vyjma Vulcánu, za to u mě mají velké plus). Dle toho bych usuzoval, že se žádná změna v dohledné době nekoná.

+1
-3
-1
Je komentář přínosný?

A9X je samozřejmě vzhledem k TDP 3.5W nemůže soupeřit s něčím jiným než U, ale daří se jim to velice slušně, protože jsou v rychlejší per watt. Dokonce bez ohledu na to, že mají u TSMC o generaci starší výrobní technologii než Intel. Architektura samotná je nepochybně lepší než vousatá X86. Ale není to tak zásadní aby to mělo cenu škálovat u počítačů. Zase jich neprodají tolik aby se jim to vyplatilo.

iOS 8.0 a 9.0 naopak obsahuje velké množství interních změn. Zejména směrem k bezpečnosti, oddělení šifrování od software, věci typu adaptivní layout, otevírání dříve nemyslitelných app extensions, split-screen multitasking, zásadní urychlení refreshe displeje, Swift a vůbec nový runtime, přechod na LLVM IR, a milion dalších věcí. Takže říkat že se tam nic neděje není úplně přesné.

Naopak Android M je ze strany Google pouze drobný catch-up. Takže si možná pletete iOS a Android v tomhle směru.

Dokonce ani to za co je chválíte není pravda, protože Vulkan odmítli a jak známo šli předloni vlastní cestou (Metal).

+1
+1
-1
Je komentář přínosný?

Máte právdu Vulcan a Metal jsem popletl mezi sebou.
Jinak bezpečnostní věci stranou, jakož to uživatel androidu i ios mám s platfomami jistou zkušenost a například multitasking je v provedení Applu cokoliv jen ne použitelné řešení. Hromada aplikací s tím pracovat neumí - např. Steamchat, Hangouts. Youtube neumí floating window, jen Apple video přehrávač (který je k ničemu).
...
Když tak o tom píšu, tak vlastně ani nejde přimou o kritiku Applu, ale více vývojářů pro ios, kteří nevyužívají funkce operačního systému a chovají se k ios pomalu jak k mrtvé platformě.
Do teď nebylo x aplikací přizpůsobeno iPadu Pro, do teď nevyšly "pro" aplikace atd.

S androidem rozhodně ios nesrovnávám (v původním příspěvku), ale ano android je rozhodně můj oblíbenější OS (blbý zvyk předělat si vše podle sebe).

+1
+2
-1
Je komentář přínosný?

Youtube umí floating window, ale jen v rámci aplikace. Důvod je jednoduchý, Google potřebuje přehrávat sám, aby mohl ukazovat reklamy a vytěžovat aktivitu, takže chtějí aby lidi pokud možno zůstávali uvnitř v Youtube. Ale časem to vzdají podle mě, protože to není udržitelné. Všechny aplikace, které používají nativní API samozřejmě floating window umějí (nebo postupně tak jak developeři přebuildovávají aplikace).

No já jsem teda vývojář (jak pro iOS tak pro Android) a vidím to přesně naopak. Na iOS je nástup nových věcí extrémně rychlý a aplikace dávají věci typu 3D Touch prakticky okamžitě v rámci týdnů po zveřejnění. Uživatelé aktualizují ještě rychlejí. Koneckonců z iOS jde 70% příjmu z aplikací a z Androidu i přes větší počet instalací jen malá část a podpora nových věcí je jedinou možnosti jak se diferencovat. Podobně iPad Pro. Tam se stalo něco co Apple asi nečekali. Místo toho, aby si to kupovali kreativní profíci tak to kupují poměrně masivně především normální uživatelé a business a vytlačují tak trochu malé notebooky. Naopak na Androidu je mrtvo tam trvá integrace nových věcí věčnost. Moc rád bych třeba používal nové věci, třeba nový permission model z 6.0, ale když se podívám na analytická data tak to má jen zlomek zákazníků. Drtivá většina zůstává na prehistorických verzích a vývoj tam jde pomalu. Podobně třeba některé věci jsou specifické jen pro Samsung, tak se na to vykašlu a počkám až to bude v Android SDK, což trvá měsíce až léta pokud vůbec. Na iOS je vše podstatně rychlejší.

Řekl bych že split-screen má dnes drtivá většina iPad aplikací, které jsou aktivně vyvíjené a kde to má smysl (tzn. ne třeba hry). Já to používám denně. Obrovská vlna updatů byla už jen několik dní po vydání iOS 9. Tohle je na Androidu nemyslytelné.

+1
-5
-1
Je komentář přínosný?

Asi opravdu používám "špatné" aplikace. Prosím, které aplikace umí splitscreen?
Sám bych totiž čekal, že komunikační platformy, přehrávače hudby, poznámky, kreslení, teamviewer atd. budou tuto funkčnost podporovat, ale jedná se spíš o světlé vyjímky, když na takovou aplikaci narazím.

PS: Není omezení Youtube jen pro to, že nejde přehrávat video "na pozadí". Tzv. floating window je naprosto ok, ale ... jak bych to popsal ... styl mutlitasking třeba na Blackberry není. To je blbá definice ... že se video nepřehrává, když není aktivně vidět na ploše tabletu?

+1
+5
-1
Je komentář přínosný?

Tak to by byl dlouhý seznam. Samozřejmě všechny zabudované (tzn. browser kde je to asi nevíc potřeba), mapy, email, atd. Pak všechny office od Microsoftu. Komunikátory jako twitter, slack, Skype, atd. Zkrátka běžně člověk používá na iPadu (tj. obvykle je to browser s něčím druhým). Slabší je akorát u her, ale to se dá chápat.

Osobně to používám neustále a pokud nějaká aplikace nepodporuje, tak okamžitě hledám alternativu. Samozřejmě nějaké staré neudržované aplikace to mít nebudou.

Vedle plného "split-view" je ještě "slide-over" multitasking a tam to podporuji všechny.

Ono není moc důvodů proč to nepoužívat, pokud aplikace používá autolayout, tak je to co do implementace skoro zadarmo pro developera, takže je adopce celkem rychlá.

Ohledně videa na pozadí. Ta funce se jmenuje PIP, je to jedna z těch věcí v iOS 9.0. Na iOS není plný multitasking a aplikace na pozadí se suspenduje. Apple s každou verzí povoluje úzce vymezené činnosti co mohou aplikace na pozadí dělat. Nově je to přehrávání videa v plovoucím okně. Aplikace nemusí dělat nic, takže to podporují všichni (s výjímkou Google Youtube, který to nechce primáeně kvůli nemožnosti trackování uživatelů a reklamě).

+1
-1
-1
Je komentář přínosný?

Jenom by mne zajímalo, proč je x86 o tolik vousatější než ARM (ARM má počátky někde kolem 1980, x86 spatřil světlo světa 1978). Ano, ARM prošel vývojem, x86 ovšem taky. Základ architektury byl ale položený v té zmíněné době.

+1
0
-1
Je komentář přínosný?

x86 ISA byla kdysi navržená tak, aby se pro to především dobře programovalo (což znamenalo původně ručně v assembleru nebo pomocí primitivních vyšších kompilátorů). ARM ISA je naopak optimalizovaná pro strojově generovaný kód kde optimalizuje moderní kompilátor z vyšších jazyků. Tím je daná instrukční sada, struktura, počet operandů, počet registrů, délka instrukcí a další aspekty. Moderní kompilátory (třeba ty v LLVM) jsou podstatně dokonalejší než byly ty dříve letech a dokáží optimalizovat a konzistentněji účinněji než člověk (viz známá CISC vs RISC debata v devadesátých letech). V assembleru už dneska (až na výjimky) nikdo nepíše a pokud ano tak by spíš neměl kdyby věděl co už LLVM všechno umí.

Intel to časem (v půlce 90 let) vyřešil tak že přestal přímo vykonávat x86 a do CPU předřadil dekodér a interně CPU vykonává jednoduché instrukce. Pak v AMD o fous zvedli počet registrů, přidali moderní jenoúčelové instrukce, odstranili největší šílenosti (typu stack based x87 FPU). Ale pořád to potřebuje ten zadrátovaný dekodér, který logicky nemůže optimalizovat tak dobře jako špičkový kompilátor a přidává to další úroveň abstrakce, která stěžuje práci moderním kompilátorům.

Pokud bys vzal ideální x86 a arm8 CPU se stejným počtem tranzistorů a výrobní technologií, tak ARM bude lepší, protože ty opičárny navíc, které bude x86 potřebovat si na sebe bude vázat část kapacity CPU, kterou bys mohl využít jinak (třeba na cache, víc jednotek nebo menší počet tranzistorů a nižší spotřebu). Atd u výkonných procesorů pro dekstopy to nevadí, protože ten poměr nutný pro udržení kompatibility je nepatrný než aby se to nějak projevilo. Ale u mobilních CPU, které mají menší počet tranzistorů je to pořád patrné. Koneckonců vidíme to v přímém přenosu, kdy se intelu nedaří v mobilních čipech i přes jeho o generaci lepší výrobní technologii.

+1
+4
-1
Je komentář přínosný?

Technické detaily znám, každá architektura má svoje výhody a nevýhody, jenom mi připadá úsměvné označovat x86 za vousatou, když ARM je vousatý stejně :-)

+1
-2
-1
Je komentář přínosný?

Nejde ani tak o rok (i tak je ARM mladší), ale spíš o designové paradigma a prostředí do kterého přišly. x86 je zastaralý design v průběhu let vyspravovaný tak aby se ty původní nedostatky komenzovaly při zachování zpětné kompatibility. ARM byl naopak funkčně omezený v době svého vzniku a postupně se vylepšoval bez držení kompatibility. Nikdy tam třeba nebyla podpora 16bit, atd.

Moderní kompilátory pracují s odděleným frontendem/backendem a modelem ideálního jednoduchého CPU a architektura x86 jde proti tomu, protože komplikuje složité optimalizace a emitování kódu tak jak se bude CPU vykonávat. Intelu se podařilo už jednou utéct z lopaty tím jak to rozdělili zpracovávání od dekódování. Ale v posledních letech je začíná to dědictví znovu dohánět tím jak se radikálně zlepšily technologie na straně kompilátorů. Dnes jim pomáhá především jejich perfektní technologie výroby. Pokud by výrobci ARM čipů měli možnost vyrábět u Intelu jejich procesem a ne Samsung/TSMC, tak by se to ukázalo naplno.

+1
+2
-1
Je komentář přínosný?

Jenže ono to "někde kolem roku 1980" je 1983 (zahájení prací na vývoji) respektive 1985 (první prototypy), x86 pak má stejná data 1976 (zahájení vývoje) a 1978 (první kusy), což mi dává sedm let náskoku v návrhu instrukční sady a dalších. Sedm let v době, která znamenala na jedné straně první a primitivní domácí počítače a na straně druhé dobu počátku desktopových pracovních stanic s GUI a unixovými systémy. Myslím, že to bude ta "fousatost" která se mezi návrhy obou procesorů tak často zmiňuje, každý byl původně navržen pro úplně jinou počítačovou éru.

+1
-2
-1
Je komentář přínosný?

Apple opustil PowerPC z velmi prozaického důvodu - Intely měly v té době téměř dvojnásobný výkon a Applu ujížděl vláček. Pochybuju, že by současné PowerPC zavdávaly důvod k návratu...

+1
0
-1
Je komentář přínosný?

Desktopové PPC CPU rozhodně neměly v roce 2005 poloviční výkon. Spíš naopak. G5 byl rychlejší a úspornější procesor než tehdy srovnatelné Intely. Všichni si nejspíš pamatujeme trampoty Intelu v té době s Netburstem, Cedar Mill a podobné kousky.

Odešli kvůli chybějící nabídce mobilních CPU (tehdy pentium M a plánované Merom), protože prodávali především notebooky, nikoliv kvůli výkonu v desktopovém segmentu. IBM pro ně neuměl škálovat G5 směrem dolů a Intel to zvládl.

+1
-1
-1
Je komentář přínosný?

G5 žrala a ne že ne - TDP se u Applem přetaktovaných kusů blížilo ke 100W - a prokazatelně rychlejší než soudobý Intel byla jen v době uvedení, tj. v roce 2003. Pak už to bylo víceméně nastejno a poslední netBursty těsně před uvedením Core2 byly jistě rychlejší. Jenže je třeba mít na zřeteli, že za ty necelé dva roky co Apple G5 používal nedošlo k žádnému zásadnímu vývoji procesoru (v podstatě jen 130nm->90nm a pak slepení dvou jader na jeden čip), zatím co netBursty zvládly možná dvě generace.
O dvojnásobném výkonu Intelu vůči G5 ale také úspěšně pochybuju. Mám doma hned několik zástupců obou platforem a benchmarky jsem si to prohnal sám, abych si ověřil, jak to vlastně bylo.

+1
-1
-1
Je komentář přínosný?

NetBursty ale fakticky žádný vývoj, který by je zásadně vylepšil, už po Northwoodu neprodělaly. Zmenšení na 90nm jim moc nepomohlo. Výsledkem byl rozežraný Prescott kde TDP 100W nebylo nic zvláštního a u PentiaD, taky jen slepeniny, to bylo ještě horší. Intel zachránilo až C2D.

+1
-4
-1
Je komentář přínosný?

mohli by migrovat na AMD hw :-)
Třeba konečně dokázali dotáhnout vizi Fusion dokonce a ohromili zástupce Apple. Sice by zakázka pro Apple vytížila továrny skoro naplno, ale zachránila by AMD které peníze potřebuje jak koza drbání. Po dlouhé době se AMD dostává na stejný výrobní level jako Intel. A navíc je podezřelá ta dlouhá pauza, kdy jsou výrobky hotové a byly prezentované. Že by v továrnách Samsungu a GF byli takoví lemplové i přes mohutné finanční injekce oproti Intelu....? Odhadl bych to že už se v utajení mohutně vyrábí.
Vím, vypadá to fantasticky, jenže Intel se prakticky nikam nehýbe, ale o to víc zdražuje. Situace se dost podobá té s IBM které těžce nestíhalo.
Důvody uvedené v článku jsou dost logické, tak o to větší šok by byl z odchodu od Intelu.

+1
+12
-1
Je komentář přínosný?

:-)) Přesně tohle mě taky napadlo jako první. Aplikační kompatibilita by zůstala zachována, místo předraženého IrisPro by šlo nasadit Zenovskou architekturu a hlavně AMD by mohlo začít tím, že bude o dost levnější než Intel, protože jednoduše musí a potřebuje zakázky. Navíc u AMD mají technicky pokryty skoro všechy výkonové segmenty, podobně jako Intel.

Jediný problém vidím v kapacitách AMD a jeho dodavatelských továren a samozřejmě v tom, zda je opravdu schopné už dnes nebo v blízké budoucnosti vyrábět. Už jen to, že AMD má zakázky na grafiky pro MacPro svědčí o tom, že spolu obě firmy "kamarádí", dokonce mě nejprve napadlo, že by Apple mohl AMD koupit, nebo do něj alespoň částečně majetkově vstoupit.

+1
+7
-1
Je komentář přínosný?

Uvidíme se Zenem (snad se povede), zatím bych plné AMD řešení neviděl jako možnost.
Už teď mají problém s uchlazením kombinace Intel + AMD, představte si jen AMD + AMD.
Museli by mírně zvýšit šířku svých zařízení a to není zrovna strategie Applu, kterou jsme viděli za poslední roky. Přestat se tupě hnát za tenkostí přístoje - chlazení, ergonomii a výdrž čert vem?

PS: Ty grafiky v Macbook Pro to je věc, to už by tam mohli rovnou švihnout Intel s Irisem a výkon bude stejný :(
http://www.notebookcheck.net/AMD-Radeon-R9-M370X.142763.0.html

+1
-7
-1
Je komentář přínosný?

Pozor, neplést Macbook Pro a Mac Pro, kde jsou AMD FirePro D300/D500.

+1
+1
-1
Je komentář přínosný?

Pravdu díte. S kámošem, uživatelem Macbook Pro se zmiňovaným radeonem, jsem nedávno probíral nedostatek grafického výkonu a nějak jsem se v tomto tématu očividně zasekl.

+1
-3
-1
Je komentář přínosný?

plus D700, navíc dvakrát Crossfire

+1
-2
-1
Je komentář přínosný?

Pokud Apple AMD nekoupí tak třeba za pár let (ho už koupit moci) nebude.

+1
-1
-1
Je komentář přínosný?

"Aplikační kompatibilita by zůstala zachována"
No, ano i ne. Apple dost tlačí u svých výrobků na maximální využívání potenciálu HW, aby byl i na slabším stroji rychlejší než widle. Stejná optimalizace by musela proběhnout i pro AMD. Výsledkem bude to, že novější OS už potom nebude na starších strojích šlapat až tak dobře. To by naštvalo spoustu uživatelů.

+1
-5
-1
Je komentář přínosný?

Snaží se, ale moc mu to nejde, Windows jedou rychlejc (a je v nich míň bugů):
http://www.kaycircle.com/Performance-Shootout-Mac-OS-X-10-6-Snow-Leopard...

Novější srovnání jsem nenašel, ale zlaté pravidlo stejně zůstává - pokud je váš Mac pomalý, opraví to instalace Windows.

+1
-8
-1
Je komentář přínosný?

Hodně by mě překvapilo, kdyby letos Steve Jobs oznámil nějakou zásadní změnu u Applu. Jsem ochotný se i vsadit, že se to nestane.

+1
+20
-1
Je komentář přínosný?

No třeba jen fingoval smrt a teď se zázračně vrátí, větší halo efekt by těžko dokázal udělat jinak...

+1
+2
-1
Je komentář přínosný?

Fyzicky skutecne umrel, ale predtim ho zkopirovali do noveho apple hardware :-)

+1
0
-1
Je komentář přínosný?

No tak šup do ruky lopatu a dem kopat.

+1
+3
-1
Je komentář přínosný?

Joooj Power PC G5. To jsem si proste tenkrat musel poridit.

2x 2,5 Ghz dvoujadrova G5, kazda s odberem 270W, od vyrobce s vodnim chlazenim (naplnenym smradlavym glykolem co se se musel kazde 3 roky menit a navic to korodovalo tak, ze to po par letech vyteklo primo do zdroje). K tomu 1000W zdroj, IDE mechanika a dva SATA disky.

V tehle situaci proste musel Apple prejit na Intel.

A ano, ta masina ma dvouapul nasobnou spotrebu nez dnesni AMD FX-9xxxx. Krasnych 700W v plne zatezi CPU i GPU.

+1
-3
-1
Je komentář přínosný?

Už jsem to tu psal pod jiným článkem: 270W na jeden procesor nevěřím ani náhodou. Proč?

1. Znám dost lidí s tímto počítačem, mají wattmetry, nikdy se k takovému příkonu ani nepřiblížili.
2. Apple zdroje naddimenzovával, sám mám obyč G5 se zdrojem 604W a i když tam byla grafika, která žrala 50W, dva diky, osm paměťových modulů a DVD mechanika tak se počítač v loadu neblížil ke 400W, psal jsem si v linuxu utilitu, která měřila aktuální příkon k procesorům, maximum bylo 89W na CPU a to jsem měl první 130nm generaci.
3. Oficiální datasheet říká u 970MP 59W na 2GHz při 65°C v loadu. Ano, Apple prodával procesory po vlastní úvaze přetaktované, maximum od IBM bylo vždy jen 2GHz ale skoku na čtyřnásobek při zvýšení taktu o 25% nevěřím.

Apple přejít nepochybně musel, kdyby nemusel, tak by to nedělal. Důvody ale podle mě byly čistě finanční.

+1
-3
-1
Je komentář přínosný?

Ten bod 4 je také důvod proč jdou prodeje PC dnes do kopru, výkon x let počítačů totiž stačí na většinu věcí, které člověk dělá, pokud tedy nepaří poslední herní výstřelky, nestříhá video anebo nesimuluje výbuch jaderné bomby. Dokud nebude viditelná potřeba většího výkonu (například pro VR, ovládání hlasem nebo opravdovou umělou inteligenci - nevím, jestli ji vůbec někdy chci vidět) tak není důvod měnit PC tempem jako v 90.letech, kdy byl člověk pomalu rád, že ve hře slyší nějaké skřeky přes Sounblaster 16 a pařil první 3D hru Wolfensteina na 386 procesoru.

+1
-1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.