Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Samsung zvažuje, zda nelicencovat GPU od AMD nebo Nvidie

jo note 7 se fakt nepovedl, spouste lidi spatne funguje GPU a prehriva se kvuli cemu asi samsung chce udelat tenhle krok, pak jeste telefony vybuchujou, uz maj na svedomi i shorele auto, sem zvedavej s jakou exkluzivkou prijde samsung ted :-D

+1
-8
-1
Je komentář přínosný?

Jo, jo, Note 7 to je super telefon :D Alespoň to tak říkají Android ovečky :D

+1
-10
-1
Je komentář přínosný?

Koukám, že Android má ještě větší ovečky, než Apple :D

+1
-2
-1
Je komentář přínosný?

Ten telefon je vynikající akorát ho Samsung zabil v celkem nesmyslné honbě za rekordem v rychlosti nabíjení. Pro baterii je rozhodující teplota, je nepochopitelné, že renomovaný výrobce u špičkového modelu nezabezpečil adaptivní nabíjení, kdy se sleduje teplota baterie, tak aby nedošlo k přehřívání a rozpínání plynů uvnitř článku. Je to chyba za kterou je potrestán, snad si to bude pamatovat... (je to obzvlášť kuriozní už proto, že něco podobného se stalo Nokii kdysi v dřevních dobách, tuším před 10 - 15 lety).

+1
0
-1
Je komentář přínosný?

jestli to není o tom, že Andoriáni (:-)) nemají problém přiznat, když se něco nepovede - narozdíl od Oveček, které se třeba učí správnému úchopu telefonu po vzoru velkého Steva. :-D

Jinak ale souhlasím, že ti ortodoxní jsou taky pěkná sebranka.

+1
+3
-1
Je komentář přínosný?

Ako Note7 je riadny preslap pre Samsung ale co to meliete o GPU ? Note 7 pouziva Exynos 8890 alebo Snapdragon 820. Jeden obahuje Mali T880 a druhy Adreno 530. Mali GPU je v Heliu X20 a Kirine950 a Adreno sice iba v tom Snapdragone ale ten SoC je uz docela dost dlho na trhu a v roznych mobiloch. Uz samotny Samsung Galaxy S7 pouziva ronvake SoC a teda nepocut ze by mali ludia problem s GPU a tak isto dalsie mobily od ostatnych vyrobcov. Takze problemy s bateriou nemaju nic spolocne s GPU.

+1
+11
-1
Je komentář přínosný?

Ked uz nejaky bug tak nedavno sa zacali objavovat problemy prave pri spominanom SoC Exynos 8890 a jeho CPU. Problemom bolo ze niektore aplikacie padali castejsie ako mali (ehm Android :-). Problem je ze Exynos ako aj dalsie ARM CPU je postavne na big.LTTLE - 4 jadra su CortexA53 a dalsie 4 su ich vlastne vykonne M1 jadra. Cortex jadra maju 64byte instrukcnu cache line ale M1 jadra maju 128byte. No ak je aplikacia spustena na M1 jadre, Android ju uspi a prehodi na A53 jadro a po prebudeni na nom spusti, je tu pruser. Teda zalezi ako dany kod, respektive kompiler toto riesi a ako obhospodaruje cache. Podla vsetkeho LLVM a V8 (JavaScript) s tym az tak problem nemaju, naopak GCC hej. Mono uz bolo fixnute ale idalne by to chcelo opravu na urovni jadra. A toto sa samozrejme tyka aj dalsich podpobne postavenych SoC. Proste krasny Android, ehm...

+1
0
-1
Je komentář přínosný?

Zpátky do minulosti 2.února 2017 nadpis článku na diit.cz: "Samsung představuje novou grafickou kartu pro PC s názvem: Samsung SX 490 Vega" :D :D :D

+1
-6
-1
Je komentář přínosný?

maju to dnes vyvojary tazke. Asi nech robia co robia tak sa dostavaju do podoby kde to niekto ma licencovane a aj tak dobehnut zavedene firmy nebude lahka zalezitost. predsa len know-how je dnes dolezite.

Nvidia ci AMD. osobne by som sa tesil keby to bolo AMD. Preco? no trosku penazi navyse by im pomohlo a hlavne nech zije konkurencia.

+1
+10
-1
Je komentář přínosný?

AMD hlavne potrebuje vydat nieco s doladenymi ovladacmi

BioShock Infinite Runs Much Faster For RadeonSI On Mesa Git: ~40%
13 August 2016
BioShock Infinite is indeed much faster on all of these tested AMD GCN GPUs. The biggest performance improvement I found in the BioShock Infinite benchmark via the Phoronix Test Suite was 40% faster! It'
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Mesa-Git-Bi...

RadeonSI Performance Improvement For DRI PRIME Offloading
18 August 2016
With glxgears as a lightweight test, the SDMA support with DRI PRIME offloading was 44% faster.
http://phoronix.com/scan.php?page=news_item&px=RadeonSI-DRI-PRIME-Faster

Improvements, New Extension Hit Mesa
13 September 2016
A RadeonSI change not to preload constants at the beginning of shaders. By doing so, very simple tests are seeing improvements -- a big decrease in SGPR spilling for shader-db tests by up to 68%.
http://www.phoronix.com/scan.php?page=news_item&px=Mesa-Git-20160913

With glxgears as a lightweight test, the SDMA support with DRI PRIME offloading was 44% faster.

Cize pri beznej hernej kombinacii tu mame za mesiac zvysenie vykonu

1,4*1,44*1,68=3,386 teda narast vykonu o 239% len zmenami v ovladacoch v klartach od GCN 1.0
(prve produkty su z :9.1.2012, Ano 4,75 roku trvalo kym sa nasla taka rezerva vo vykone na strane ovladacov).

a tych 68% je de facto len refactoringom

More AMD PowerPlay Code Is Being Refactored
12 September 2016
Rex Zhu of AMD published his latest set of 16 patches for refactoring PowerPlay code within the open-source DRM driver space. This is a big refactoring: nearly 19,000 new lines of code and 34,000 deleted lines of code.
http://phoronix.com/scan.php?page=news_item&px=PowerPlay-Code-Refactoring

+1
-1
-1
Je komentář přínosný?

Ono to moje zbozne prianie, viac bubacov viac na vyvoj, viac pre ludi a tym padom lepsi produkt. Teda v idealnom svete :)

+1
+1
-1
Je komentář přínosný?

To je dost zavádějící příspěvek. BTW, dělám v AMD právě na open source ovladačích.

Zmiňujete články o vylepšení open source ovladače pro Linux, který byl ale stejně historicky vždycky pozadu a je spíš vhodný pro nadšence. Všechno, co zmiňujete, ale neplatí pro standardní (closed source) ovladače pro Windows a Linux.

Před pár lety bylo normální, že komunita napsala 80% open source ovladače a AMD 20%. Dneska je to skoro naopak - komunita píše 30% a AMD 70%.

Dále, ono netrvalo 4,75 roku, než se našla rezerva ve výkoně. Open source ovladač před 4,4 roky ani neexistoval. :) Ale jinak jsme o nedostatcích věděli dlouhou dobu. Je to jenom otázka toho, kolik se tomu projektu přiřadí lidí, aby všechny problémy ve výkonu vyřešily.

Rozhodně ale nebudeme dělat to, co naše konkurence, která kompletně přepisuje shadery ve hrách, aby jejich GPU vypadaly rychlejší. Vzhledem k našemu malému open source týmu na takové věci ani nemáme zdroje. Z toho plyne, že výkon open source ovladače dost závisí na tom, jak dobře jsou hry napsané nebo naportované.

+1
+12
-1
Je komentář přínosný?

Áno súhlasím, veď veľa vecí z toho zlepšenia je Vaším osobným dielom. Za čo Vám ďakujeme.
S tými 4 rokmi som to bral, že ešte v ovládačoch pre tak staré karty sú rezervy. Čo sa týka ovládačov asi vtedy bol radeon, radeonSI asi nebol a AMDGPU urcite nebol. Veľmi napríklad kvitujem úvahy o pridani kódu do RADV.

Ak správne počítam Vy ste boli 5.-6. vývojár OSS ovládačov pre AMD zamestnaný u AMD..
Takže chápem zdroje a ich limity.

Ešte raz ďakujem za Vašu prácu. Ja som ju chcel vyzdvihnúť nie Vás nahnevať. Ešte pár drobnosti a bude to ideálne..

+1
+5
-1
Je komentář přínosný?

ona to neni ani prace samotneho ovladace, prepisovat kod samotne aplikace. A to, ze to nekdo dela, jeste neznamena, ze by to meli zacit delat vsichni.

+1
+3
-1
Je komentář přínosný?

Často polemizuješ nad tým, čo je dobré pre zákazníkov. A keď niekto robí prácu navyše, vďaka ktorej dostanú jeho zákazníci lepší výkon, tak by to vlastne ani robiť nemal? BTW oni neprepisujú kód aplikácie, ale iba kód, ktorý spracováva grafická karta. To je dosť veľký rozdiel.

+1
0
-1
Je komentář přínosný?

"Rozhodně ale nebudeme dělat to, co naše konkurence, která kompletně přepisuje shadery ve hrách, aby jejich GPU vypadaly rychlejší"

A nie sú vďaka tomu aj reálne rýchlejší (nie len že tak vypadajú)? Ak týmto spôsobom dokážu z grafiky so slabším alebo porovnateľným HW vytiahnuť viac výkonu, tak je to len v prospech veci. Alebo sa mýlim?

+1
-2
-1
Je komentář přínosný?

Máte naprostou pravdu. V tomto dost drsném byznyse jde v první řadě o to podávat co nejlepší výkon. Pokud se výrobce GPU rozhodne nahradit rendering hry svým vlastním při zachování stejné kvality ale s lepším výkonem, pak je to pro něj jen dobře. A ti, co to nedělají, mají automaticky nevýhodu. Ale dochází při tom občas i k dost divným výsledkům, např. karta pár let stará a papírově 2x pomalejší je v jedné hře rychlejší než top model. Nesleduju, jestli se to děje i na Windows, ale na Linuxu už jsem to viděl.

+1
0
-1
Je komentář přínosný?

"Analytici tento krok vnímali jako snahu Nvidie o přesvědčení Samsungu"

"presvedceni" hmm docela povedenej eufemizmus pro vydirani, +10 internetu :)

+1
+8
-1
Je komentář přínosný?

No nVidia ma mobilne GPU pre SoC, v Tegre GPU postavene na Maxwellovy ale AMD predsa predalo svoju mobilnu divizu, teda ta co vyvyjala pre ARM, prave Qualcommu a z neho pochadzaju prave Adreno GPU v Snapdragonoch, povodne Imageon. Ci uz AMD ma nieco nove ? Ako nieco na stranke maju, ale rozhodne mi to nepride ako bezne dostupne a hlavne pouzivane riesenia. Asi by vedeli modifikovat svoje existujuce GPU aj pre ARM SoC a dodat to Samsungu, vid Jaguar pre MS/Sony, ale rozhodne mi to nepride ze maju hotove a funkcne riesenia.

+1
+1
-1
Je komentář přínosný?

Zalezi ci ma AMD dost a zaujimave patenty a ci ich v rozumnej cenen spristupni. Myslim si, ze toto zavazi s kym bude Samsung spolupracovat.

+1
+7
-1
Je komentář přínosný?

No ona vazba grafického jádra na architekturu CPU není příliš velká (tj. je celkem jedno jestli jej nasadíš u x86 či ARM). Daleko větší vazba je na samotnou technologii výroby. AMD má dostatečně škálovatelná grafická jádra takže nasazení do nějakého ARM SoC není velký problém. Spíš to bude záležet na Samsungu co pro něj bude výhodnější.

+1
+3
-1
Je komentář přínosný?

Tak ono v té spotřebě "mobilních" (jako těch do mobilů) a spotřebě mobilních čipů do notebooků je stále ještě docela dost velký rozdíl. Asi by mohli nějaký čip upravit, ale zase je to otázka času a peněz, což by u nVidie takový problém být nemusel, s Tegrama mají bohaté zkušenosti. Nezávidím AMD, že prodali mobilní divizi Qualcommu doslova za pár kaček asi tak rok před vydáním iPhonu a začátku mobilní revoluce.

+1
0
-1
Je komentář přínosný?

V současné době by pro AMD vlastnictví někdejšího Imageonu už nemělo hodnotu. V tehdejší době šlo o plus mínus DX9 architekturu a po celou dobu existence Imageonu pod Qualcommem nedokázal tým Imageonu posunout technologickou výbavu ani na úroveň DX10. Proto Qualcomm sháněl další inženýry a proto v Qualcommu skončil Eric Demers z AMD.

AMD vydala několik tabletových x86 čipů s VLIW5 i GCN architekturou a stejně tak vyvinula ARM SoC s GCN. Obojí bez Imageonu, obojí s vyšším výkonem než soudobá grafická jádra Imageonu/Qualcommu.

+1
+2
-1
Je komentář přínosný?

To je to na co som narazal. Nemyslim si ze by AMD nedokazali vyprodukovat GPU ktore by sadlo aktualnym SoC (aj ked tie prechadzaju pomerne rychlo na nizke nm koli mensej rozlohe ako desktopove GPU/CPU) a asi by vedeli umravnit aj spotrebu, otazne je ale ako rychlo by take riesenie vedeli dodat. Ak Samsung sa teda vykaslal po dvoch rokoch na vlastne riesenie, respektive to nedavaju, tak je to celkom slusny sklz a cakat zasa nejaky ten rok/dva na externe riesenie poleze dost do penazi. Na druhu stranu, prave od nVidie mozu mat hotovy a funkcny produkt prakticky hned. Zasa zalezi co si za to nVidia zapyta.

+1
0
-1
Je komentář přínosný?

Jediné logické řešení je nvidia Tegra, aktuálně nejlepší ARM SOC na trhu, bude to výhodné pro Samsung, jelikož to nemusí vyvíjet a dobré pro nvidii, jelikož upevní svojí leaderskou pozici na trhu.

+1
-4
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.