Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Zájem o výrobu čipů u Intelu roste

že by grafická divize AMD? ;-) No to by byl gól, i když se mi tohle zdá extrémně nepravděpodobné. ;-)

+1
-1
-1
Je komentář přínosný?

To sice ano, na druhou stranu by 22nm proces intelu umožnil dostat pod kontrolu ty žravé grafické čipy. A protože 14/16nm procesy jsou zatím leda tak v tapeoutech, pak by 22nm ha Haswellech prověřený proces mohl snížit TDP a spotřebu AMD grafik.

Byli by blbí, kdyby to nezkusili... na druhou stranu Intel AMD asi neumožní dělat APU na techto linkách. Ale v GPU by si nekonkurovali...

+1
+7
-1
Je komentář přínosný?

mno já teda (už) nejsem žádný odborník, poslední technologii co jsem si nastudoval byla onehdá převratná 130nm, ale řekl bych, že říct "a od dneška děláme tohle u Intelu a na 22nm" není zase až tak jednoduché.

Navíc, prakticky by se jednalo výlučně o GPU (které se vyrábějí typicky jiným procesem než CPU), jinak tam je vždy konflikt s portfoliem Intelu (a tedy problém konkurence) - ať se už jedná o CPU nebo APU.

+1
+5
-1
Je komentář přínosný?

<em>Jak Intel si vybírá zákazníky? Dyskrymynace! Šabatovou na něj!</em>
;-)

+1
+19
-1
Je komentář přínosný?

Myslím, že ve starých dobrých časech by antomonopolní úřad už Intel dávno rozdělil na divizi vyrábějící čipy, a na divizi navrhující x86 čipy a okolí. Tedy ve starých dobrých férových kapitalistických časech. Tak, jak se to třeba stalo AT&T a dalším.

Dnes už USA řídí korporace, nikoli vláda firmy, tak se to stát už nemůže.

Navíc si myslím, že to že existuje antimonopolní úřad USA, a potřeba záminky, že nejsou monopol, je jediným důvodem, proč stále ještě existuje AMD. Intel si ho drží, a když má AMD na kahánku, tak se s ním „mimosoudně dohodne“ a nějaké ty finance mu vrazí a nechá si podepsat, že AMD nemá vůči Intelu již žádné soudní nároky.

Jak Intelu, tak USA, by se dlouhodobě vyplatilo řešit téměř monopol Intelu na x86. Drahota x86 procesorů je mimochodem důvodem, proč se x86 čipy až tak moc nerozšiřují mimo PC a servery. Proto vzniká nika pro ARM a další. Vzpomínám si, že dříve existovaly mobilní zařízení na bázi x86 procesorů (například PSION), dnes v době faktického monopolu je třeba volit ARM, MIPS a jiné.

+1
+13
-1
Je komentář přínosný?

...z potřeby udržet AMD nad vodou by plynul důvod pro Intel, proč AMD nabídnout 22nm proces hned teď, dokud ho nVidia nemá. Ale to samozřejmě sním...

Nicméně AMD by to zvedlo, byť přepracovat čip na jiný proces není triviální ale kua složité a nákladné a hráčům by to pomohlo. Konkurenci v diskrétních grafikách to Intelu dělat nebude a o tom, že si to od AMD nechá zaplatit také žádná.

Já tu vidím jen pozitiva pro oba hráče - problém je, zdali nVidia nenasadí všechny páky, aby právě tohle nedopustila. Bůh totiž ví, jak ty nové 14/16nm procesy dopadnou. Budou-li mít leakage jak "střelená svině", pak good-bye energetická efektivito a budeme potřebovat ještě lepší chladiče...

+1
-3
-1
Je komentář přínosný?

trosku ti to hapruje pac zrovna u Nvidie ty lepsi chladice as tak treba nejsou, jedine kde je treba chladit vic je high-end

+1
+1
-1
Je komentář přínosný?

„Já tu vidím jen pozitiva pro oba hráče - problém je, zdali nVidia nenasadí všechny páky, aby právě tohle nedopustila.“

Jedno je jisté, trh externích grafických karet pomalu končí. Jednou na ně budeme vzpomínat jako na historii stejně jako děrné pásky či psací stroje. Integrované grafické karty stačí většímu a většímu počtu lidí. Upřímně si myslím, že v Česku externí grafiku potřebuje kupovat max. 1000 lidí za rok, ostatní ji mají zbytečně, protože jim „odborníci“ vysvětlují, že ji mít musí.

Nvidia nemá nic jiného, a zcela jistě ví, že doluje poslední peníze ze zanikajícího trhu externích grafických karet. A že nic jiného nemá, že se zánikem tohoto trhu zanikne nejspíše i ona sama. Proto se snaží seč může trh ještě podojit, a zároveň vyvolávat hype a stříkat různé steroidy a vyvolávat emocionální dojem, že externí grafika je ještě třeba. Ale všeho do času.

Takže nvidia bude hrát i podpásově. Ostatně tak už roky hraje.

fffffffffffffffffffffffffffffffffffffffffffffffffffffffff

„Bůh totiž ví, jak ty nové 14/16nm procesy dopadnou. Budou-li mít leakage jak "střelená svině", pak good-bye energetická efektivito a budeme potřebovat ještě lepší chladiče..“

Dopadnou stejně jako předchozí. Leakage jako svině je všude. Ostatně proto čip počítá automat, a není to v silách člověka navrhnout ručně.

Už hodně dlouho čipy na nižších nm nejsou dráty a součástky, ale elektrická a magnetická pole počítaná kvantovou fyzikou se značnými leakage a přeslechy. Ostatně se to dá i využít, například celý princip SSD disku není o ničem jiném, než o „leakage“ a dostání elektrického náboje tam, kde by podle klasické fyziky vůbec neměl být.

Vše se dá spočítat, fyzika je dnes velmi dobrá. Je to jen o dobrém modelu.

Problém je ten, že díky leakage už asi od 40 nm spotřeba čipů neklesá, protože co se uspoří, to si vezmou různé parazitní jevy. Takže nižší spotřeba procesorů je pouze otázkou lepší architektury a návrhu toho procesoru, nikoli nižších nm.

Já osobně bych raději měl procesor vyrobený technologií 50–100 nm, protože nižší nm znamenají také vyšší chyby třeba přirozenou radioaktivitou (proto moderní procesory nemůžou do vesmíru a nejsou schopny tam rozumně fungovat). Ostatně mé AMD X4 Phenom II je 45 nm a to je tak akorát. Spotřeba procesoru 19,5 W, spotřeba celého počítače i s monitorem, routerem je podle měřáků 65 W, oficiální TDP procesoru 125 W (jak jsem už psal, TDP o spotřebě neříká vůbec nic, TDP je údaj vycucaný marketinkem z prstu).

+1
-1
-1
Je komentář přínosný?

Nvidia má ARMy Tegra - ale nijak velkou díru do světa s nimi neudělala.

+1
+2
-1
Je komentář přínosný?

zezacatku jeden velky nesmyslny hate na Nvidii od AlanCox :D

trh s dedikovanyma VGA nekonci a hned tak nezkonci, neni to jen o hracich, ale i o lidech co pouzivaji PC k praci, ne opravdu si nedovedu predstavit ze by ty tisice lidi v CR (ano jsou jich tisice) pouzivali na grafickou praci integrovana reseni, vzdyt soucasne integrovane VGA v APU a CPU sotva stihaji desitky tisic poly, takze jak by asi tak zvladali stovky milionu poly v pripade vizualizaci, reklam a filmu? a co si budem nalhavat ani hry nejsou pozadu, kdejaky vyvojar a to i na smartphony a tablety si dnes proste s integrovanym resenim nevystaci

mas jeste nejaky zajimavy moudra AlanCox? pac zasmat se je zdrave a u tveho postu se da zasmat fakt hodne :)

+1
-1
-1
Je komentář přínosný?

Není tak dávno doba, kdy si lidé nedokázali představit, že by si nemusei kupovat zvukovou kartu. A dnes už jí kupuje jen statisticky nevýznamný počet lidí.

Já chápu dnešní způsob, kdy působíte na emoce, a když nejste schopen dostatečně argumentačně podpořit svůj názor, tak začnete nálepkovat slovem hejt a pod. Beru to jen jako výraz vaší slabosti a nedostatečnosti. Nebo řeči o zasmátí. To dělají pouze ubozí lidé bez argumentů.

Já si to dovedu představit. Grafické karty v integrovaném provedení mají dostatečný výkon pro 99,99 % lidí. Výkonnou externí kartu potřebuje naprosté minimum lidí. Příští rok bude mít integrovaná karta třeba několikanásobný výkon, než letos a externí kartu bude potřebovat ještě méně lidí. A za několik let už fakticky nikdo.

Postavil jsem či navrhl počítač mnoha lidem včetně sebe – a v žádném z nich není grafická karta. Ani v jednom. Nikomu to nechybí. Nikdo z nich nepotřbuje ani těch vašich 10k polygonů. Na své řadu let staré integrované kartě ATI HD 4200 jsem už dělal velké grafické bejkárny, ale nikdy jsem nenarazil na její limity. Dnes musím tajit v okolí, že dělám počítače, protože mé počítače fungují a jsou levné, neutrácím peníze lidí za zbytečnosti jako jsou externí grafické karty a další. Není to mé zaměstnání, a dělám to prostě pro příbuzné – a spíše mě to zatěžuje.

Ono těch lidí, kterým nestačí výkon integrované karty je strašně strašně málo. A každým rokem se jejich počet zmenšuje tak na desetinu oproti předchozímu. Ne, segment grafických karet zaniká.

A můžete zkoušit další emocionální podpásovky a osobní útoky. Nebo to vzít jako joke. Nicméně externí grafická karta je na tom zhruba stejně, jako ještě nedávno psací stroje. Míří do historie. Máte to štěstí/smůlu že budete za pár let vykládat, že něco takového ještě existovalo.

Takže hodně úsměvů. Historie, tedy nejbližší budoucnost vám ukáže, jako prognostik nemáte talent.

+1
+4
-1
Je komentář přínosný?

integrovane grafiky jsou tak 4-5 let za diskretnima. HBM to ale muze rychle zmenit. Ono totiz na APU neni problem osadit obri chladic a muze se to otocit...

+1
-3
-1
Je komentář přínosný?

Souhlasím s vámi. Integrované grafiky jsou pozadu za externími. Zatím. Je jedno, jestli přijde HBM, nebo něco jiného, jediná jistota je že externí grafiky to mají spočítané.

S každým zlepšením integrovaných grafik je jako spojená nádoba pokles potřeby a prodejů grafik externích. A až se bude prodávat řekněme setina až tisícina kusů externích karet co letos, tak firmy to zabalí/zkrachují. Budou dělat jen extrémně drahé kusy pro fajnšmekry, či pro extrémní výkony.

Dokonce si myslím, že grafiky do jisté míry zachránily superpočítače a použití v nich. Ale jen dočasně. Obyčejná cpu se rozvíjejí mnohem rychleji a jejich výkon/spotřeba stoupá, třeba za pomoci SIMD jako je AVX512 atd.

Navíc na vylepšování integrovaných grafik se podílí více firem, než jen AMD a nvidia. Například intel i další firmy. Do vylepšování externích grafik nebude chtít nikdo dávat peníze, protože je to dobíhající trh. Pouze je tu anomálie, že AMD a nvidia na tomto trhu stojí a bez nich jsou v háji, takže se to snaží rozvíjet, ale nikdo jiný už do toho neinvestuje. Investuje se pouze do integrovaných grafik. Nejen do PC, ale i do tabletů apod.

A koneckonců s APU, které bude uděláno šikovně odpadne přenášení dat z RAM do grafické paměti a zpět, a jen to může hodně zvýšit výkon samo o sobě. Na stjené místo může být aplikováno jako cpu strojové instrukce, tak operace gpu – to by bylo nepřekonatelné. Částečně už to myslím je.

+1
-4
-1
Je komentář přínosný?

ja bych to porad tak jednostranne nevidel... Z rad hracu a tech stale neni malo integrovane graficke karty proste nestaci a jeste par let stacit nebudou. Nerikam ze se to nemuze zmenit - treba vznikne jen nejaky socket podobny cpu kam je budeme osazovat, ale jinak tu graficke karty s nami jeste par generaci budou.

+1
-1
-1
Je komentář přínosný?

Ak to hovoris ako prognozu na 10 rokov, tak potencialne mozes mat stastie v predpovedi a teda aj pravdu. No AMD a nVidia to koli tvojej prognoze proste nezmenia najblizsich 5 rokov. Na svete je tak odhadom 15-30 milionov vasnivych hracov, ktori si kupuju najmodernejsie technologie: 4k rozlisenie; dva a viac monitorov; ultra mega vyhladzovania; >100 fps z roznych dovodov (turnaje, lan party, online akcne hranie). Dalej cca milion zamestnancov, ktori vyuzivaju narocne grafiky bud na vyvoj hier, alebo animacie, film, dizajn architektury... atd.

Myslim, ze nedojde k zaniku diskretnych kariet, ale dojde k ich transformacii. Nebudu sa zasuvat do PCIe slotu ale obsadia volne miesto po zaniku "severneho a juzneho chipsetu" ako dalsi pridavny cip. Takze moj odhad je taky, ze budu APU pre beznych ludi, a APU + GPU cip pre narocnych uzivatelov priamo na doske (notebooku, pc, tabletu, smartfonu).

+1
+6
-1
Je komentář přínosný?

„Ak to hovoris ako prognozu na 10 rokov, tak potencialne mozes mat stastie v predpovedi a teda aj pravdu.“

Já nevěstím z jater, ale z faktů. Když budu chtít kolem sebe u někoho, koho blízce či vzdáleně znám, najít externí grafickou kartu, budu mít docela problém takový počítač najít. A je jedno, jestli jsem počítač stavěl já, nebo oni sami, nebo si ho koupili jako celek. A každý další kvartál i to malé procento, kde je, se zmanšuje.

Ten vývoj je jasný, a bude skončen do 2–3 let. Externí grafická karta je v počítačích spíše proto, že všude existují lidé jako vy, kteří laikům říkáte: „Musíte mít grafickou kartu“, protože to všude čtou lidi, atd. Tedy polovina internetu lidem nutí součástku, kterou nepotřebují. Je zcela zbytná, kromě nějaké statisticky zcela nevýznamné skupiny lidí. Jinak řečeno, potřeba externí grafiky je urban legend a dogma, které se šíří mohutným marketinkem a malou skupinou výkonných pařanů. Ale lež nelze držet věčně, ostatně dnes na diit máte článek o tom, jak prodeje grafik klesají.

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

„No AMD a nVidia to koli tvojej prognoze proste nezmenia najblizsich 5 rokov. Na svete je tak odhadom 15-30 milionov vasnivych hracov, ktori si kupuju najmodernejsie technologie: 4k rozlisenie; dva a viac monitorov; ultra mega vyhladzovania; >100 fps z roznych dovodov (turnaje, lan party, online akcne hranie). Dalej cca milion zamestnancov, ktori vyuzivaju narocne grafiky bud na vyvoj hier, alebo animacie, film, dizajn architektury... atd.“

Jenže ten počet lidí, kterým nestačí integrovaná grafika je čím dál menší. Ono přiznejme si, že současný vývoj počítačových her zrovna prodejům externích grafik také moc nepomáhá.

Jenže progres je jasný, výkon integrovaných karet strmě roste. Do vývoje integrovaných grafik se cpou strašné many, a to i to AMD, ale stejně jako Intel, stejně jako další. Do vývoje externích grafik se cpe čím dál méně peněz, všem je jasné, že tato nika končí a přestává být zlatým dolem. Je tu dvojice křivek: stoupající peníze do vývoje integrovaných grafik a klesající peníze do vývoje externích. A rozum a cit nemůže být v opozici natrvalo.

Vašich vysněných 5 roků nedostanete, to že extenrí grafiky jsou dinosaurus bude jasné mnohem mnohem mnohem dříve.

+1
+1
-1
Je komentář přínosný?

"„Musíte mít grafickou kartu“, protože to všude čtou lidi, atd. Tedy polovina internetu lidem nutí součástku, kterou nepotřebují."

Neskatulkuj. Som dost skuseny a vzdelany na to, aby som nesiel s davom za kazdu cenu a nenutil ludi, ktorym stavam pocitace graficke karty, ak ich nepotrebuju. Tak si svoje vseobecne nalepkove vety schovaj pre tych, co ich osobne poznas.

To, ze tvoje okolie tvoria nenarocni ludia je OK - ludia su rozni. Moje okolie zasa tvori asi tretina tych, co by sa nikdy diskretnej grafiky nevzdala. A ma to rovnaku nulovu vypovedaciu hodnotu ako tvoje tliachanie.

Dalej nezahrnas do tvojej predpovede asi 85% aktualne predavanych notebookov, ktore obsahuju diskretne graficke karty sucasne s integrovanymi. Uz len tento notebookovy trh len tak lahko nevyhnije.

Ale ved o 3 roky si tu na DIIT mozes precitat svoje predpovede "pocasia".

+1
0
-1
Je komentář přínosný?

Externí grafiky by to měly spočítané, kdyby bylo stále možné zmenšovat tranzistory a snižovat jejich spotřebu. Jenže to už pěkných pár let jde stále hůře, výkon integrovaných grafik je a bude omezený počtem tranzistorů, které je možné nacpat do APU a stejně tak i spotřebou. Na 4k a vyšší rozlišení APU v žádném případě nebude výkonem stačit, tedy alespoň ne bez přechodu na nějakou zcela novou výrobní technologii chipů. Zatím to vypadá, že výkon APU vzroste tak na dvojnásobek zhruba na úroveň současné střední třídy a tam skončí.

+1
+1
-1
Je komentář přínosný?

„Externí grafiky by to měly spočítané, kdyby bylo stále možné zmenšovat tranzistory a snižovat jejich spotřebu. Jenže to už pěkných pár let jde stále hůře, výkon integrovaných grafik je a bude omezený počtem tranzistorů, které je možné nacpat do APU a stejně tak i spotřebou. Na 4k a vyšší rozlišení APU v žádném případě nebude výkonem stačit, tedy alespoň ne bez přechodu na nějakou zcela novou výrobní technologii chipů. Zatím to vypadá, že výkon APU vzroste tak na dvojnásobek zhruba na úroveň současné střední třídy a tam skončí.“

Wau, věštění na základě toho, že nepočítáte s technickým pokrokem? Copak byste vyvěštil v pazourkové době? Nikdy nebudeme létat na měsíc, protože žádný muž tak vysoko nevyskočí? Nebo nikdo neohrozí nepřítele na více, než 100 metrů, protože pazourkem člověk dále nedohodí?

I vy staromilče. Je jasné, že elektroniku neovládáte, už z toho co jste napsal. Ono APU také může leccos sdílet mezi cpu a gpu a potřebný počet obvodů i tranzistorů pro stejný efekt strmě klesne.

Přejmenujte se na Sibylu a piště proroctví. Zejména o tom, že technický pokrok se zastavil, nikdy už nic nezlepší, maximálně mírně pošudlá, atd. Co víc k tomu říci? Pokrok se zastaví v roce 2015.

+1
+2
-1
Je komentář přínosný?

4-5 let je malo, integrovane jsou IMHO jeste slabsi - spis 6-8 let.
Ono limitem je hlavne dnes pomala CPU RAM. Konzole to obesly specialni rychlou RAM (popr rychlou RAM a dedikovou pamet pro GPU, kde se ale nevejde zdaleka vse), Iris Pro takzez mensi dedikovanou pameti.
Ale porad plati, ze RAM je dneska priserne pomala - vzhledem k moznostem/pozadavkum GPU ale i CPU - proto treba L4 cache na nekterych CPU Broadwelll pekne zrychlila pametove narocne aplikace a hry.
A neni se cemu divit - sice 8 let stoupa prenosova rychlost RAM (ale celkem pomalu), ale pristupova doba je porad stejna uz od dob SDR pameti cca 50 ns. Ja mel ve puvodnim Pentiu 120 MHz EDO-RAM,ktere mely pristupovou dobu 80ns - a to je historie tak 15 let stara (nebo jeste vice).

Snad s tim neco udelaji HBM napeti integrovane primo na APU - ale aspon ve velikosti 8GB. Ale i tak HBM nijak zasadne nezlepsuji pristupovou dobu.

+1
-5
-1
Je komentář přínosný?

"Není tak dávno doba, kdy si lidé nedokázali představit, že by si nemusei kupovat zvukovou kartu. A dnes už jí kupuje jen statisticky nevýznamný počet lidí."

Jak se to veme... ty integrovane vecicky uz davno nejsou zvukove karty, to jsou AD-DA prevodniky nevalne kvality. Zbytek dela software.

Ma to ten drobny hacek, ze kdyz chcete delat kvalitni mix treba dvaceti zvuku s prihlednutim na jejich vzajemnou polohu (nic neobvykle v hrach), tak to sezere slusne % vykonu CPU. Coz bude ten duvod ze AMD uz nakej ten patek dava do svych dedikovanych grafik i APU slusne DSP. Samozrejme i v konzolovem AMD je to DSP, takze rekl bych ze se rocne proda par desitek milionu kusu HW s vlastnim DSP, z nichz ta cast v dedikovanych grafikach je prakticky "externi zvukovka". A ten pocet statisticky nevyznamny neni..

"Výkonnou externí kartu potřebuje naprosté minimum lidí."
Nejaky dukaz nebo procenta ?

"Příští rok bude mít integrovaná karta třeba několikanásobný výkon"
Treba, nebo treba varite z vody...

"A každým rokem se jejich počet zmenšuje tak na desetinu oproti předchozímu"
desetinu ? urcite ? neni to stotina ? nebo mozna polovina ?

Jako prognostik mate talent rozhodne vy, hazet slovy jako "desetina" a "nekolikanasobny" vycucanymi z prstu... a jeste tady mluvite o jinych, ze pry neumi argumentacne podporit svuj nazor, lol...

+1
+2
-1
Je komentář přínosný?

Ono je to vzdy o cene. Je fakt ze dedikovana karta je drahsia ako integorovane riesenie. Dnes su dedikovane karty aj zravejsie ako davnejsich dobach (aj ked sa to zlepsuje). Je fakt ze na bezne hranie integrovane GPU zacina byt pouzitelne. Otazne je kolko casu este bude potrebovat Intel na to aby sa dostal na uroven mainstremu dedikovanych kariet. Extremne vykonny high end je aj tak nezaujimavy segment.
Z dlhodobeho hladiska by bolo skor zaujimave ci vobec GPU v dnesnej dobe preziju. Tim Sweeney z Epicu este par rokov do zadu hovoril, ze v horizonte 10-15 rokov by mohli specializovane GPU postupne skoncit a ich funkcionalitu by mohli nahradit CPU. Smutne je ze Intel moc neslape po vykone, ale ak by sme za nejake to 10 rocie mali x86 CPU s povedzme 60-90 jadrami so slusnou priepusnostov pameti, mohlo by sa vsetko ratat softwarovo co by dalo dalsie zaujimave moznosti a hlavne obrovsku univerzalnost. Ono ostatne dnesne GPU k tomu aj smeruju ale trochu z ineho konca.

+1
+3
-1
Je komentář přínosný?

Zajímavá úvaha.

V dnešní době tak, jak jsou dělány grafiky nepřežijí. Postupně se zjednodušší. Grafiky totiž zbytečně konkurují cpu a snaží se stát dalším procesorem a tak je výkonná grafika často i používána. Až procesory trochu zlepší paralelní výkon, což třeba s AVX512 a tím co přijde po nich bude – tak se z grafiky odstraní to, co může dělat procesor, časem procesory na tu úroveň a výkon dospějí.

Zase zvítězí cena. Programování nad cpu je nesrovnatelně levnější, než se o cokoli pokoušet nad gpu.

Takže časem se grafiky zjednoduší, a bude to bohatě stačit. A budoucí procesory budou výkonově zcela dostatečné. A to i v paralelním výkonu.

+1
+1
-1
Je komentář přínosný?

Programování nad CPU je sice levnější, ale pro dorovnání výkonu to bude dost žravé a ponese to sebou spoustu balastu.

LaraBee a z ní odvozené technologie jsou pokusem o něco podobného a využitelné to bude jen v superpočítačích. Jádra v nich jsou navíc značně zjednodušena, takže nemohou nahradit jádra klasická, respektive mohou, ale s výrazně horším výkonem na jádro.

Cestou do budoucna budou pravděpodobně FPGA na CPU, nebo desce pro větší výkony a funkcionalitu a budou se konfiguravat dle potřeby. Proto taky Intel koupil Alteru. Přístup k programování těchto částí bude uplně odlišný.

+1
-4
-1
Je komentář přínosný?

Drahota x86 procesorů je relativní, např. ve srovnání s cenami serverových procesorů od IBM nebo Oracle jsou x86 procesory prakticky zadarmo .

Pokud jsem vašim argumentům rozuměl správně, tak mi z nich výplývá, že u mobilních zařízení je třeba volit Intel, protože v nich má dnes ARM prakticky monopol.

PS: zkusil sem spočítat kolik jakých CPU v různých zařízeních mám, vyšlo mi že ARM má výraznou převahu (3ks x86, cca 8ks ARM).

+1
+1
-1
Je komentář přínosný?

Víte, proč si rozšířilo x86 a vůbec PC a Windows? Protože tyto věci dávaly mnoha firmám vydělat.

Víte, proč skomírá prodej PC? Protože Intel už si bere tak velkou část a procento z ceny PC, že ostatní živoří. Zatímco si můžete koupit RAM od jiného výrobce či case – u x86 moc na výběr není.

ARM není jediný výrobce, ARM není monopol. ARM jednak dává vydělat mnoha lidem a firmám. ARM procesory vyrábí několik desítek firem, stačí si najít katalogy. O monopolu nemůže být ani řeči. Kolik výrobců vyrábí x86 procesory? A jaké mají podíly na trhu? To je teprve správná sranda.

+1
+5
-1
Je komentář přínosný?

„Drahota x86 procesorů je relativní, např. ve srovnání s cenami serverových procesorů od IBM nebo Oracle jsou x86 procesory prakticky zadarmo “

Pokud míříte do enterprise segmentu, tak jsme zcela jinde.

Mám na mysli segment mobilů, tabletů, notebooků, různé přenosné elektroniky apod. A tam je použití x86 nehorázně drahé. A to je ten důvod, a pouze jediný důvod, proč tam není x86 ale ARM.

Nejvíce celosvětově vyrobených kusů procesorů je v různých krabičkách. Procesor je i v řadiči SSD disku, stejně jako ve vašem routeru, stejně jako ve vašem mobilu, tabletu, stejně jako v tiskárnách, a jinde. Ve většině by mohly být x86, ale není pro jeho drahotu. Proto jsou tam ARMy, MIPSy, AVRka a další. To jsem měl na mysli.

On nakonec Intel jednoho dne drahotou sežere sám sebe. ARM bohužel reálná konkurence není – pro špatnou instrukční sadu a vzájemnou nekompatibilitu instrukcí i mezi verzemi ARMu. Ale je konkurencí cenovou a to stačí.

+1
-4
-1
Je komentář přínosný?

No potom byste nám měl vysvětlit, proč v těch všech různých krabičkách, routerech SSD discích atd. nejsou procesory x86 od AMD, která má výrazně nižší ceny a marže, víceméně takové, že nižší být nemůžou, sotva pokrývají náklady na vývoj a výrobu.

Důvod proč se x86 procesory nepoužívají v různých krabičkách nesouvisí jenom s cenou ale i s ostatními jejich vlastnostmi třeba velká spotřeba, velká základní deska atd.

Zjevně nesledujete novinky, Intel usilovně maká na tom, aby x86 procesory bylo možné použít všude kde dnes vládnou ARMy. viz http://diit.cz/tagy/quark

+1
-5
-1
Je komentář přínosný?

„No potom byste nám měl vysvětlit, proč v těch všech různých krabičkách, routerech SSD discích atd. nejsou procesory x86 od AMD, která má výrazně nižší ceny a marže, víceméně takové, že nižší být nemůžou, sotva pokrývají náklady na vývoj a výrobu.“

Protože si porovnejte cenu ARMu a cenu x86 od AMD – a bude jasno. Výkonný ARM bude také velmi drahý, ale ten do těch krabiček netřeba. Stejně tak do těch krabiček netřeba výkonný x86 za vysokou výrobní cenu. Mimochodem, dříve mnoho krabiček v sobě x86 procesor mělo. Ale bylo to v době, kdy existovalo několik výrobců.

Kromě toho Intel i AMD dnes dělá procesory tak, že potřebují ještě x dalších čipů kolem sebe – jsou prostě šity na míru PC. ARM je schopen fungovat sám s několika součástkami kolem sebe a to je všechno.

Ani Intel ani ARM pro krabičky nic rozumného nevyrábějí, první problém je licence, a druhý problém je, že se o to ani nesnaží. Proto tam x86 není.

To je celé.

aaaaaaaaaaaaaaaaaa

„Důvod proč se x86 procesory nepoužívají v různých krabičkách nesouvisí jenom s cenou ale i s ostatními jejich vlastnostmi třeba velká spotřeba, velká základní deska atd.“

To není důvodem. Nic takového není potřeba.

aaaaaaaaaaaaaaaaaaaaaaa

„Zjevně nesledujete novinky, Intel usilovně maká na tom, aby x86 procesory bylo možné použít všude kde dnes vládnou ARMy. viz http://diit.cz/tagy/quark

Sleduji novinky, ale na druhé straně nejsem padlý na hlavu, takže to ignoruji. Hlavní překážkou je přepálená cena x86 a nedostatek konkurence. Aktivity Intelu na tom nic nezmění, pes štěká a karavana jede dál. I když Intel některé aktivity dotuje, tak to není zaručené a proto se to nerozšiřuje.

Intel si chce především zachovat zlaté tele, zároveň by rád takto doloval zlatou smetanu i v jiných nikách. A proto to nemá smysl, a tato aktivita je jen výraz schizofrenie Intelu: Rádi bychom rozšířili x86, a rádi bychom i na nových segmentech dávali přepálené ceny. Ale ten jiný segment trhu nepotřebuje být na hlavu a přeplácet Intel a jeho x86 procesory. Intel je nebude dotovat věčně.

Neštěstí je, že v PC v zásadě jiný, než x86 procesr být nemůže, a proto je třeba ho zaplatit. Tam je to dané historicky. Jinde je možné se na židovské ceny x86 vykašlat a dát něco rozumnějšího. A to je celá situace, ostatní jsou jen reklamní blafy. Rozhoduje tu neviditelná ruka trhu.

Pokud bude chtít Intel opravdu rozšířit x86 dále, pak by se musel vzdát podstatné části svého zisku, protože na jeho na hlavu ceny se mu všichni zvysoka víte co. A o tom to je. O ničem jiném.

+1
+4
-1
Je komentář přínosný?

Jake serverove procesory IBM nebo Oracle? IBM nebo Oracle ti neprodaji procesor, ale komplet server vcetne podpory, a uvnitr toho serveru muze byt i Intel nebo AMD. (I kdyz, pravda, IBM jeste nezabalila POWER a Oracle ma porad Sparc od Sunu).

+1
-5
-1
Je komentář přínosný?

Power myslím jde do kytek zcela. Před časem je opustil Apple, protože IBM nedokázala dodávat to, co by Apple chtěl. Procesor od IBM ještě zkusila Sony v Playstationu. Obojí tedy skončilo spíše fiaskem.

Jsou prostě věci, které mimo enterprise segment umřou, protože nikdo soudný, kromě masochistů nejúchylnějšího ražení, je nebude dobrovolně používat. A je jedno, jestli se to jmenuje programovací jazyk COBOL, nebo program Lotus Notes, nebo mnoho dalších věcí, …

Enterprise segment je dokonalá popelnice věcí, které by jinde být nemohly. Zato se na ně dává podpora.

+1
-2
-1
Je komentář přínosný?

V Playstation 3, ak sa o nej bavime , nebol procesor od IBM. To bol Cell a ten vyvyjalo trio Sony-Toshiba-IBM. Vychadzal sice z Power architektury ale nebol to cisto IBM Power. Problem Cellu bola jeho jedinecnost a z toho komplikovane pouzivanie a pociatocna vysoka cena.

+1
+3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.