Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Proč je integrovaná Vega v Raven Ridge lepší než samostatný Pascal?

chudak Redmarx, po rannim infarktu jeste odpoledni mrtvice.. (:

+1
+14
-1
Je komentář přínosný?

Nikoliv, navic odpoved znam.

Neni to proto, ze by RyZen Mobile byl tak vynikajici, ale proto, ze GeForce MX150 je tak spatna. NVidia ten cip zamerne pokurvila co slo, aby nebrala zakazniky drazsim hernim GTX1050 a naopak aby byl jen o neco vykonejsi nez tragedi z Intelu s jejich HD Graphics.

Ja teda preju RyZen Mobile co nejvyssi vykon a co nejlepsi prodeje, idealne tak, aby se Nvidia musela zamyslet a MX150 nejlepe uplne zrusit a orientovat se na to co NVidia opravdu umi, vykonne herni graficke karty.

+1
0
-1
Je komentář přínosný?

Čím přesně si vysloužil Intel HD (popř.: varianta P pro variantu Xeon či Iris) nálepku "tragédie"? Integrované řešení obslouží externí monitory, akceleruje video s funkční podporou Quick Sync. Úsporné, jednodušší (= méně problémů), podporované a funkční. S vyššími nároky se zákazník dívá po dedikovaném řešení Quadro a Firepro (10bit výstup), nebo si zvolí herně multimediální variantu.

Z tlachání hráčů si "na zadek" nesednu, chápu potřeby, ale když kritika, tak oprávněná. Ostatně pokud byste namítal proti MX150 chybějící podporu CUDA, cuDNN v5.1 a vyšší apod., nešlo by nic namítat. V ekosystému CUDA se ukrývá dlouhodobě funkční a neustále se rozvíjející potenciál. Škoda, levné a úsporné řešení "na ověření funkčnosti" by nemuselo být od věci.

+1
-5
-1
Je komentář přínosný?

Tak po strance hardwaru OK Intel HD Graphics, na nic si nehraje a umi zobrazit na monitoru vystup, spis prave ty modely Iris Pro, kde se Intel snazi i o 3D vykon jsou k smichu.

Jinak opravdovi tragedi jsou Intel co se tyka ovladacu, hrozne. Si tu kolikrat delam srandu z AMD, ale Intel ovladace to je vlastni uroven hororu.

+1
-2
-1
Je komentář přínosný?

Neviem kde žijete, ale Intel HD grafiky nie sú tak strašné ako si myslíte. Práve naopak. Keď si chcem zahrať nejakú staršiu hru musím vynútiť aby sa spúštala cez Intel HD namiesto dedikovanej GeForce GTX 950M na ktorej my väčšina starších hier padá.
Áno Intel HD nie je na hranie nových peciek, ale na to sa to ani nehrá. aj Iris Pro je skôr grafika na akceleráciu prostredia a nie hranie.

A Redmarx: skúste do budúcna porozmýšľať nad svojou rétorikou a vyjadrovaním. Práve tým, že používate prehnané, občas až expresívne výrazy v spojení s vami neobľúbenými alebo vami opovrhovanými produktami Vám dáva nálepku trolla, čo si myslím že nie ste, no treba sa vyjadrovať koreknejšie a dávať do toho menej emócii a viac podložených informácii

+1
-2
-1
Je komentář přínosný?

Pro příště pište přímé výtky a nedostatky, které považujete za důležité. Předchází nepochopení toku myšlenek, ale mohu Vás ujistit, že nedostatky na poli ovladačů postihují všechny výrobce. Lhostejno, zda grafický čip a ovladače pochází z dílen AMD, Intel, nebo Nvidia. Problémy jsou všude.

Stačí nástroj jako Nec DSP (Nec Display Sync Pro) u monitorů třídy SpectraView - divil byste se, jak rychle po přepnutí přechází grafické karty do režimu IDLE a celá úloha (CUDA/OpenCL) okamžitě padá. Najít funkční ovladač pro Quadro P2000 a dřívější Firepro W5000 bylo peklo. Oproti tomu Intel HD (Lifebook E743 a E746 - Nec PA271W SpectraView) problém neměl ani při použití Quick Sync (Vegas Pro). S projektory jsem problémy zažil, ale nikdy s Nec a Dell (s jinými jsem do styku nepřišel). S certifikovanými ovladači Firepro, přímo pro Solidworks 2014 SP5 a v Solidworks 2014 SP5 jsem si užil své. Jediný, žádný jiný prostě nebyl a nešlo to ani bez Aero, které vykresluje a akceleruje pomocí DirectX, kdežto pomocí OpenGL. Paradoxně, Intel HD těmito problémy nikdy netrpěl, nebo jsem na ně prostě díky náhodě a vhodné kombinaci nenarazil. Že nemají výkon, to ani nečekám. Stačí, když prostě zobrazuje to, co má a jak má.

Z mého pohledu jsou Intel HD bezproblémové čipy, které prostě fungují a u notebooku odpadá další čip navíc, který se může podělat. Sem tam narazím na drobné problémy, ale nikdy takového rázu, aby přestalo fungovat OpenGL (Quadro P2000 a mobilní pracovní stanice s Quadro M1000M). Můžu oprávněně nadávat, protože ani ODE ovladače 385.69 (R384 Update4) pro Windows 10 Pro (Current Branch for Business) nefungují tak, jak by měly. Průšvih s totálně rozhašeným OpenGL sice z větší části opravují (respektive většinou se nic neurve a nezasekává při sebemenší změně náhledu modelu), ale považovat OpenGL v tomto ovladači za opravený, nebo dokonce funkční, to by bylo silné kafe. Stačí použít 10bitovou barevnou hloubku, respektive 10bitů na kanál (30bit) a to se dějí věci s DSP. Akcelerace v Chrome nefunguje, poštovní klient se rozpáře, .... těch nevýznamných chyb existuje celá řada, ale nejsou natolik významné, jako konečně opět fungující OpenGL (většinou fungující).

* ODE Optimal Driver for Enterprise - stabilní a odladěný ovladač. Bohužel, jen podle názvu.

+1
0
-1
Je komentář přínosný?

Intel HD je odpad protože ovladače. Jediné co dělá na firmeních noteboocích problémy již léta jsou jejich domrvené ovladače (problémy s projektory, s lcd, akceleraci 3D).

+1
0
-1
Je komentář přínosný?

Hlavne ten leak je s nejvyssi pravdepodobnosti fake.

+1
-3
-1
Je komentář přínosný?

Ono je to jedno, za me:
1. chci notas se zobrazovadlem = Intel+Intel (AMD+AMD zatim nezname cenu)
2. chci notas se zobrazovadlem, ktery umi nouzove hry = AMD+AMD
3. chci herni notas = Intel+NVidia

+1
-5
-1
Je komentář přínosný?

To by me zajimalo kolik GFlops to tedy da (v OpenCL). Zatim delame veci na nvida Tegre (X1, X2) a ta efektivita je tam hodne znat, podle poctu jader (256 -> 640) bych naivne odhadl ze tohle bude 2x lepsi?

Chysta se nejaka ITX deska?

+1
+2
-1
Je komentář přínosný?

ITX deska k cemu ? k 15W APU nebude, a k vetsimu bratrickovi ITX desky uz jsou - pokud vim tak to ma byt uplne stejny AM4 socket.

+1
-1
-1
Je komentář přínosný?

Ke vsemu k cemu to neni dobry to kupovat jako cely notebook. Z consumer produktu se moc nedelaji embedded desky (a la Qseven nebo ComExpress)

+1
+5
-1
Je komentář přínosný?

Jestli chcete embedded ITX desku tak ta určitě bude, ty se dělají i od Carriza. Ale může to trvat, embedded odvozenina může být uvedená až řadu měsíců po mobilní a desktop verzi. V tomhle případ ěby mohli mít motivaci to popohnat, ale to nic nezaručuje. Třeba embedded BGA Carrizo bylo oficiálně uvedený v říjnu 2015, takže 4 měsíce po mobilním launchi. A pak samozřejmě záleží na tom, kdy vyjdou desky od dotyčných dodavatelů.

+1
+2
-1
Je komentář přínosný?

APU pro AM4? Zatím je zastaralé nejvýkonnější je A12 řady PRO...35 až 65 W a z běžných A10-7890K ale ten si bere až 95W... Toto je nová architektura i Ryzen jádro je vylepšené a VEGA nejspíš taky - ostatně proto ten vývoj trval tak dlouho. 9 - 25 W zní také zajímavě. Desktop verze může mít i 35-65 W.

+1
0
-1
Je komentář přínosný?

Ta efektivita není nic překvapivého. Vega je prostě dělaná na pomalejší takty. Ta velká desktopová 56/64 je prostě jen příliš vyhoněná za svůj sweetspot kvůli tomu, že v optimu by nebyla dost výkonná aby dotáhla gf 1070/1080. Křivka efektivity je známá - posledních 100Mhz je spotřebně nejdražších. Stačí se podívat na Nano vs Fury - 100W dolů u Nana a skoro žádná ztráta výkonu

+1
0
-1
Je komentář přínosný?

Tentokrát si myslím, že to trefil P. Fodrek s tím HSA. Optimální frekvence nevysvětlují tu příkonovýkonovou dominanci.

+1
+1
-1
Je komentář přínosný?

Podozrivy c.1 je znamy, jedno moje meranie z roku 2011 publikovane v rockoch 2011/2012

Časy opakovaného výpočtu súčtu 1000 prvkového vektora

Typ úlohy Čas [s]

Jazyk C bez kopírovania 6,271
z a do pamäte (Ci=Ai+Bi)

Jazyk C s kopírovaním
z a do pamäte
(Ci=Ai+Bi, Di=Ci) 14,530

OpenCL bez kopírovania
z a do pamäte RAM
(udaje uz boli v GPU a necitali sa vysledky)
0,940

OpenCL s kopírovaním
z a do pamäte RAM
(udaje este neboli v GPU) 1268,060

(intel Core i M 520 +nVidia GeForce 310M)

T.j. prenos dat je sialene draha operacia a pokial ma radic RAM v sebe cache a GPU a aj CPU vyuzivaju jeden, tak nemusi dochadzat k prenosu dat.

A nieco take AMD ma

NAB SHOW 2017, LAS VEGAS, Nev. 4/24/2017
Accelerated rendering performance in Blender using Radeon ProRender and “Out of Core” technology to access system memory for increased frame buffer capacity powered by the Radeon Pro Duo
https://www.amd.com/en-us/press-releases/Pages/the-new-radeon-2017apr24....

A v predchodcovi Out of core - s poladu prenosu dat- HSA

realtivny cas
AMD A10 7800 len na CPU - 854,4%
AMD A10 7800 len na GPU bez HSA - 643,5%
AMD A10 7800 len na GPU s HSA - 100%

Intel i3 4330 len na CPU- 533,9% casu

http://www.tomshardware.com/reviews/amd-a10-7800-kaveri-apu-efficiency,3...

Takze hladajme efektivnesi prenos dat GPU a CPU a teda Infinity Fabric.

+1
+6
-1
Je komentář přínosný?

PF: to je velmi zajímavé. Nerozumím rozdílu C a OpenCL s kopírováním do RAM. Grafická karta přeci nemá 90x delší přístupovou dobu do RAM než procesor nebo ano? To ještě zanedbávám, že samostatný výpočet byl na kartě 6x rychlejší. Je to nějaká vlastnost OpenCL, že přístup do RAM je tak pomalý? Neoptimalizoval překladač program v C?

+1
0
-1
Je komentář přínosný?

prave ze je radove pomalejsi co se tyce pristupu do ram nez CPU a ani u nich to neni nic rychleho..

ber to tak ze disktretni grafika kdyz pristupuje do ram musi minimalne GPU -> Ram GPU. -PCIe GPU - PCIE MB (chipset nebo CPU) - RAM a nazpet

Zatimco vega v Ravenu jde GPU - Infinity - RAM tzn uplne stejne rychle jako procak ... takze i kdyz ma teoreticky mensi pasmo nez Packal tak latence jsou radove uplne v jinem svete

+1
+2
-1
Je komentář přínosný?

Docela by mě zajímalo, jestli i Vega v novém APU podobně jako grafika v Carizzu "sedí" nad virtuální pamětí. To je řešení pěkné nejen tím zero-copy přístupem, ale i lepším zabezpečením/robustností.

+1
0
-1
Je komentář přínosný?

Ono to může být ještě zajímavější - HSA by měla teoreticky i prakticky být schopna "na pozadí", když pracuje CPU na jiných úkolech, dozpracovat data v nižších levelech cache, tj. CPU "předkouše" a GPU "dodělá", a to prakticky bez další režie.

Kdysi to takto fungovalo např. na Amize (jo, tuhle věc furt připomínám :-)) a mělo to docela efektní a efektivní výsledky, samozřejmě vše bylo o dost primitivnější a pomalejší než dnes.

+1
0
-1
Je komentář přínosný?

Sranda je, ze vtedy sa pri prodrobnejsich testoch ukazalo, ze nie je ani taky problem data do GPU poslat ale, ze radovo viac ako zapsiat data do grafiky trva data nacitat z grafiky. Verzia s ovladacom pre CUDA mala lepsie cisla, ako ovladac bez podpory CUDA, ale stale tam bol radovy rozdiel.

A dokonca to iste studenti povrdili aj pod Windows,

+1
-1
-1
Je komentář přínosný?

Sranda je, ze vtedy sa pri prodrobnejsich testoch ukazalo, ze nie je ani taky problem data do GPU poslat ale, ze radovo viac ako zapsiat data do grafiky trva data nacitat z grafiky. Verzia s ovladacom pre CUDA mala lepsie cisla, ako ovladac bez podpory CUDA, ale stale tam bol radovy rozdiel.

A dokonca to iste studenti povrdili aj pod Windows,

+1
0
-1
Je komentář přínosný?

To je uplne normalni, cuda necuda a zalezi to na architekture GPU. Davneji to nebylo optimalizovano na to, aby se z grafiky cokoliv cetlo zpet a renderovana scena sla jen na graficky vystup. V dobe gpu computingu je prenos dat zpet pak zadanejsi - a vyrobci to resili. Nevidel bych v tom zadnou zradu.

Napr. na Tegra platforme je taky sdilena pamet mezi cpu a gpu, ale pokud chcete pouzivat ZeroCopy a mit sdileny cpu a gpu buffer (vubec zadne kopirovani dat pak neprobiha) tak musite podstate prekopat svuj kod co se tyce alokace bufferu a pak synchronizace. Paradoxne jak ty synchronizacni prikazy i kdyz nic nepresouvaji maji porad nejakou nezanedbatelnou rezii, tak i planovani vykonavani prace na GPU (spusteni kodu) trva dost dlouho na to, aby jste nemeli uplnou svobodu jak svuj kod postavite. Kolega v tom ted psal kompresi videa a neni to zadna prochazka ruzovym sadem :)

+1
0
-1
Je komentář přínosný?

jasne, vypoctove karty maju bus interace iny ako herne karty a na herny este ovplyvnuje vykon ovladac.

A ano nie je to lahke, a kolega prisiel s buducnosti... , alebo je jednopercentny

Parallel programmers not prepared for the glorious revolution
By Wily Ferret
Tue Nov 27 2007, 12:28

INTEL RECKONS barely one per cent of software programmers are prepared to face the challenge of parallel programming, which the hardware giant (unsurprisingly) reckons is the future of development.
http://www.theinquirer.net/inquirer/news/1026585/programmers-prepared-gl...

Software needs meaty cores, not thin, stringy ARMs, says Intel
By Simon Sharwood, 26 Feb 2014

“The world has a big issue around vectorisation and parallelisation of code,” Graylish said. “99% of code isn't written that way.” Graylish also feels “defining a workload that can run in 1000 cores is hard.”

Most software, Graylish added, “still requires a big meaty core” and Intel is happy to provide them.
http://www.theregister.co.uk/2014/02/26/software_needs_meaty_cores_not_t...

+1
0
-1
Je komentář přínosný?

Troška mi uniká pointa článku pretože história s iGPU v rámci APU (SoC) je stále rovnaká pričom nedosahuje výkonu ani entry level low-end mobilnej dGPU.

"Daleko zajímavější ovšem je, že podle těchto výsledků se výkon grafického jádra integrovaném v 15W APU a využívajícím sdílenou systémovou sběrnici nečekaně blíží výkonu samostatné mobilní 25W grafické karty Nvidia GeForce MX150, která zakládá na architektuře Pascal"

Ako pozrel som sa na 3DMark Time Spy Score kde 64bit GPU NVIDIA GeForce MX150 s 384SPs dosahuje výkon 1201 points v kombináciou so slabšou i5-8250U vs z tunajšieho AMD slajdu Ryzen 7 2700U s iGPU so 640SPs a výsledkom 915 points.

zdroj: https://www.notebookcheck.net/Acer-Swift-3-SF315-8250U-MX150-FHD-Laptop-...

Suma sumárum ntb s AMD Ryzen 7 2700U s iGPU so 640SPs dosahuje 76,19% výkonu ntb Acer Swift 3 SF315 s Intel Core i5 8250U so 64bit GPU NVIDIA GeForce MX150 s 384SPs tj. s 31,26% vyšším výkonom.

Uvedené fakty nikterak neznižujú kvalitu AMD iGPU (ani CPU Ryzen), ale ako som uviedol vyššie dGPU vždy vie operatívne reagovať, tu však ako je zrejmé 64bit GPU NVIDIA GeForce MX150 s 384SPs to zvládla akoby na rozdiel od Intelu v CPU-čkach lepšie prečítala NVIDIA mobilné iGPU-čka týchto Raven Ridgov.

+1
-4
-1
Je komentář přínosný?

MX150 je samozřejmě stále výkonnější, ale za cenu 2x tak velké spotřeby.

+1
0
-1
Je komentář přínosný?

Nejaká validácia tvrdenia "za cenu 2x tak velké spotřeby" by sa nenašla?

+1
-1
-1
Je komentář přínosný?

TDP 25W pro MX150 nic? :))

+1
+2
-1
Je komentář přínosný?

A co jako s "TDP 25W pro MX150" v nadväznosti na "za cenu 2x tak velké spotřeby" ?

Poprosím majme schopnosť rozlišovať medzi koreláciou (dva javy sa len vyskytujú spolu, čo neznamená, že by jeden spôsobil druhý) a kauzalitou, čiže príčinnosťou.

+1
-1
-1
Je komentář přínosný?

he?
Chip ktery ma i cpu udavanou hodnotu TDP 15W mate proti 15W Intelu+25W MX. Tech 15W vs 40W nebude mit vetsi spotrebu?
Nevim o co Vam jde...

+1
0
-1
Je komentář přínosný?

oprav ma ak sa mylim: TDP nehovori o celkovej spotrebe, ale o tepelnych stratach

+1
+1
-1
Je komentář přínosný?

Nemylis se :) ale asi i presto se shodneme, ze chip(y) s vyssim TDP budou zrat vice, nez chip s mensim TDP, zvlaste pokud je ta kombinace TDP 2.7x vyssi jak u toho druheho...

+1
0
-1
Je komentář přínosný?

to rozhodne.. v case athlonu XP/pentium IV som to vravel tiez a malokto ma pocuval :( btw mam len 6stu generaciu amd apu doma a ak je len z polovice(alebo z troch stvrtin) pravda to co tvrdi marketing amd, tak je to bomba :) cakam na 4kanalovy pamatovy radic.. vie mi niekto povedat o kolko by to zvacsilo silikonovu plochu?

+1
+1
-1
Je komentář přínosný?

O kolik to ja nevim.. Ale myslim, ze pro APU to nikdo nebude realizovat...

+1
0
-1
Je komentář přínosný?

neprekazalo by mi ani hbm, ale ten bandwidth by tomu prospel

+1
0
-1
Je komentář přínosný?

No hurááá konečne nemiešame hrušky a jablká tj. TDP* a spotrebu

Už teda chápete tú absenciu príčinnosti TyNyT "MX150 je samozřejmě stále výkonnější, ale za cenu 2x tak velké spotřeby." a tombomino "TDP 25W pro MX150 nic? :))"

* len drobná poznámka na okraj (nepodstatná pri vyššie uvedenej kauzalite) avšak v korelácii zásadná: nejednotná metodika určovania TDP pri Intel, AMD, NVIDIA

+1
+1
-1
Je komentář přínosný?

teraz pozeram ze to bola reakcia na mna. akurat len to..skoda ze via sa nepresadila :)
EDIT: alebo nebola? :D

+1
-1
-1
Je komentář přínosný?

OK, všichni víme, jak to s TDP vs. spotřeba je. Pokud tě to dráždí, klidně si to prohoď.

Nejednotnost určování TDP je samozřejmě nepříjemná, nicméně zrovna AMD v tom přikrášluje IMHO nejméně.

+1
+1
-1
Je komentář přínosný?

Diky pokrocilemu rizeni spotreby ten cip rozhodne nemel v benchmarcich realne 15W TDP. S dobrym chlazenim 25+W TDP nebude problem.

Jde o to vyuzit burst jak se da.

Je rozdil, kdzy je CPU v uzavrene a zaprasenem tele ultra tenkeho notebooku pri 1+h loadu a kdyz je v novem dobre chlazenem notebooku, kde se pusti 5min zatez.

+1
0
-1
Je komentář přínosný?

Zajímavé, nikdy jsem tedy nebyl zastáncem "supervýkonných" integrovaných grafik, protože to zbytečně žere energii a, což je bohužel fakt, zavádění nových technologií v bateriích vcelku pokulhává. Ale tohle by mohlo být zajímavé. Jen se trochu obávám, jak dopadne chlazení takto poměrně výkonného řešení, aby potom celkový výkon nebyl degradován častým snižováním frekvencí jak CPU, tak i iGPU. :-( Ale řešení je to pěkné, docela bych ho bral do HTPC, tam by to mohlo být v přiměřeně velké krabičce ala ZBox či Brix hodně zajímavé.

+1
+1
-1
Je komentář přínosný?

Jde o to kolik to skutečně žere i na stránkách AMD:
AMD Ryzen 7 2700U - 640 Stream Processors - cTDP 12-25W &1300 MHz
GeForce MX150 - 384 CUDA - 1468-1532 - TDP 25W

+1
-5
-1
Je komentář přínosný?

A kde máš TDP procesoru, který musíš přičíst k těm 25W Geforcky? Protože ono to pak nebude 25W, ale 25+15, tedy 40W (a to pomíjím fakt, že těch 15W u i5/i7 taky není reálných, ale bude to o dost víc).

+1
+7
-1
Je komentář přínosný?

25W je TDP celého čipu, jestli se nepletu. Tedy CPU + GPU.

+1
-3
-1
Je komentář přínosný?

TDP Raven Ridge-U je 15W (celý čip, tj. CPU+iGPU+čipset)

TDP Core i7-U je 15W (CPU+iGPU+čipset) a TDP GeForce MX150 je 25W, tzn. celkem 40 wattů

+1
+4
-1
Je komentář přínosný?

Zase pisete nesmysly. Nemuzete scitat TDP GPU a CPU, kdyz jde o Optimus. Kdyz bezi integrovane GPU Intelu, tak je MX150 zcela vypnuty. Naopak, kdyz bezi GPU Nvidie, tak je cele integrovane Intel GPU, krome display bufferu, v power-gated stavu, takze take vypnute. Nikdy to dohromady netvori 40 wattu.

+1
0
-1
Je komentář přínosný?

nesmysl tu pises ty :) ale mas pravdu nikdy to dohromady netvori 40 W ono to v plne zatezi dokaze byt vyjimecne jeste vic :)
TDP intelu narozdil od jinych vyrobcu nezohlednuje vysokou ci maximalni moznou zatez tudiz je tam asi nejvetsi rozdil mezi TDP a maximalni realnou spotrebou ....(schvalne se podivej na nejake testy CPU s/bez aktivnim iGPU )

ale ted k veci pokud se nam jedna o vysledky systemu v plne zatezi treba te herni tak proc je to dle tebe nesmysl tyto hodnoty scicat ?
neresime tu odber v idle protoze ten je u obouch platforem cca stejny >>> TDP i realna spotreba naprosto minimalni tam neni co resit navic iGPU od intelu si i v desktopovem provedeni vezme velmi malo natoz pak v mobilni verzi kde se i s CPU musi vejit do toho co si pomalu vezme v desktopu ;)

+1
0
-1
Je komentář přínosný?

"nesmysl tu pises ty :) ale mas pravdu nikdy to dohromady netvori 40 W ono to v plne zatezi dokaze byt vyjimecne jeste vic :)
TDP intelu narozdil od jinych vyrobcu nezohlednuje vysokou ci maximalni moznou zatez tudiz je tam asi nejvetsi rozdil mezi TDP a maximalni realnou spotrebou"

Nepodlozene nesmysly. Takhle to opravdu nefunguje.

"ale ted k veci pokud se nam jedna o vysledky systemu v plne zatezi treba te herni tak proc je to dle tebe nesmysl tyto hodnoty scicat ?"

Nez tady zacnete blemcat takovehle kraviny, tak si prosimvas prectete, jak Optimus funguje. NIKDY nejedou zaroven integrovane a diskretni GPU. NIKDY! Vzdycky jen jedno z nich. To je cely princip te technologie.

+1
0
-1
Je komentář přínosný?

Ty jsi legracni..hadas se tu a unika Ti uplne pointa. Pokud by se TDP rovnalo spotrebe jako hypoteticky priklad....tak
Kolik Ti da grafika, kdyz jede ve 2D modu a zatizi se naplno CPU, asi tak zere? Si tipnu 2W a 13W treba pujde na CPU..nebo to mozna budou cele 3W a nebo dokonce 4W?
Je uplne fuk, jestli to bude zrat 40W nebo 37W nebo 45W. Proste to AMD reseni, byt bude vykonem o neco slabsi, tak stale bude na mile energeticky uspornejsi, alespon podle tech cisel z tech testu. Jak toho dosahli je jina vec.

Ale jestli te to bavi, tak si tady dal hrej...

+1
0
-1
Je komentář přínosný?

Podivej se na die shot Intel CPU a kolik tam zabira ta grafika, experte :)

+1
0
-1
Je komentář přínosný?

A tim chtel basnik rici jako co? Co kdyby jsi radeji 'experte' dotlacil nejaka cisla o kterych je se mozno bavit. Co ma velikost plochy spolecneho s tim, kdyz ta grafika nic nedela, jede dedikovana a Tdp toho Apu je sdilene? Nevidis tady trosku rozpor a nebo jsi si prisel jen udelat rol trol trol...?

+1
0
-1
Je komentář přínosný?

Otazka spis je, proc neni dedikovana Vega podobne efektivni, jako ta integrovana v Raven Ridge. Jedine co me napada, ze by nebyla tak vykonna a kanibalizovala by nejakou Polarisku.

+1
0
-1
Je komentář přínosný?

Je to celkově vylepšená achitektura, proto ten delší vývoj. Taky je možné že je při nižším taktu efektivnější. Navíc funkce které u velké Vegy ještě nejsou aktivní, už tady fungují. A další modifikace v Ryzen jádru + vylepšené napájení - prý má stabilizátor napětí přímo v čipu. Taky nevíme, jaké TDP bylo během testu nastavené - je možné v rozsahu 9 - 25 W. Prostě neznámých je příliš mnoho na předčasné závěry.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.