Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k HBM3 jsou ještě ambicióznější, sníží napětí a zvýší rychlost více než 2×

Zajimalo by me, k cemu to bude v praktickem pristupu dobre?
Vyuzije to nejak "vypocetni" grafika? Ja si to dost dobre neumim predstavit.
Co se tyka her, tak kolik her rocne vychazi s pozadavkem na vykonou grafiku treba GTX1080? 5 az 10 AAAckovych titulu?
Proste vyvojari nestihaji psat aplikace, ktere by vyuzily stoupajici vykon hardwaru, respektive vyvoj takove aplikace stoji hodne penez a dovolit si to muzou jen ty nejvetsi firmy. Nasledne ale musi vice penez zaplatit i zakaznici.
Treba u procesoru porad vyuziju i tu i7, protoze enkodovani videa proste vykon potrebuje a klidne bych vyuzil i procak dvakrat tak vykonejsi nez i7-6700, takze tam pridavani vykonu dava smysl. U grafiky ani pameti (grafickych i RAM) uz ale nemam predstavu co by se dalo s vice delat.

+1
-3
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Tak dlouhej příspěvek o ničem. Mělo vůbec smysl ho psát? Byl bys rád kdyby jsme byli ještě na stromech co? V roce 2020 budou běžné SSDčka 2GB/s, CPU s 16/32 jádry, GPU s PCIe 4.0 s běžnou pamětí HBM2. Tak jak dneska máš high-end s DDR paměťma, tak v roce 2020 prostě bude high-end grafika s HBM3 paměťma. V IT naprosto běžný vývoj. Aneb pořád si někdo myslí že se výkon počítačů každých 18měsíců nezdvojnásobuje?

+1
+1
-1
Je komentář přínosný?

Zdvojnásobování výkonu každých 18 měsíců už dáávno neplatí, CPU posledních 5 let prakticky stagnují (nárůst výkonu Sandy Bridge vs Skylake je cca 20-30%), výkon grafických karet sice ještě roste, ale brzo narazí na limity křemíkových chipů.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Nox Hubux

Tak ono povodny Moorov zakon nehovori nic o vykone, ale o pocte tranzistorov. V tejto variante to plati dodnes, viz. Intel Xeon E5-2699-v4 (22 cores). Multithread vykon je masivny.

+1
+1
-1
Je komentář přínosný?

Asi jsi vubec smysl prispevku nepochopil, pises spoustu cisel o hardwaru, ale samotny fakt, ze mas nabuseny hardware nic neresi, pokud ho nemas jak vyuzit a to mi prave slo.
Ostatni tady ve vlakne aspon pisi fantasticke prispevky o 8K rozliseni nebo o 200FPS, ale ja a krome mala supermanu mezi nami i vetsina populace, nedokazeme rozeznat rozdil mezi 60FPS a 200FPS a mezi 4K rozlisenim a 8K rozlisenim, ja uz mam u video obrazu problem kolikrat odlisit 1080p, takze opet je to to same, k cemu super vykonny hardware, kdyz ho neni jak vyuzit.
Proste momentalne se dostavame do situace, kdy se software zpozduje za hardwarem a toto by bylo treba napravit a zpozdeni vyrovnat, jenze to zase narazi na problem penez, ze nekdo ten software musi zaplatit a cim dal vic zakazniku je spokojeno s tim co maji, takze napriklad 4K uz je dneska technologie geeku, zbytek si TV se 4K koupi jen tehdy, kdyz uz nebudou mit na vyber, protoze vyrobci nic jineho ani prodavat nebudou. Nehlede na to, ze bych se zase opakoval, ze kolik je obsahu pro 4K a kolik pro 8K.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Tuhle opravu původního příspěvku beru a musím ti říct že to tak prvně vůbec nevyznělo.
Samozřejmě že poznáš rozdíl mezi 25-60-148-250fps i když mezi 148-250 určitě míň než mezi 60-148, ale poznáš. Samozřejmě že je ti to k ničemu, protože ti bohatě stačí 60FPS.
4K-8K To taky beru že už nepoznáš, ale domnívám se že virtuální realita poběží na 2x4K což je samozřejmě polovina 8K, ale aspoň budeš mít výkonovou rezervu.
Víš pocházím z doby kdy většinou software vařil hardware, který věčně nestíhal. Ať to byl Quake2, Doom3 nebo FarCry, vždy hardware brečel, topil a sekal. Takže dneska jsem rád že si koupím něco a pojede mi na tom všechno.
A to že narazíme na mylník, kdy bude trh nasycen, je jen třešnička na dortu a jsem zvědav jestli se toho dožiju a jakej dopad to bude mít? Kolik a jaké firmy skončí? Nebo se bude vyrábět něco jiného? Nevím co to bude, ale bude to zajímavé pozorovat.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

Prakticky toto řešení umožní výkonné UMA systémy. Prostě žádné kopírování dat mezi CPU a GPU po zastaralém konceptu sběrnice, ale zpracování dat rovnou "na fleku". Umožní to nevídané věci, které tu byly naposledy v dobách Amigy. :-) Technicky vzato se GPU stane integrovaným koprocesorem v CPU. A i kdyby se stalo, že GPU v "APU" by bylo slabé, stále jej půjde využít jako koprocesor před odesláním dat po sběrnici do diskrétního GPU.

Jinak enkodování videa je typicky streamová aplikace, tj. spotřeba ani výkon paměti na celkovém výkonu bude prakticky nula. Naopak pro samotný encoding je možnost použít akcelerace GPU bez přenášení dat po sběrnici docela zajímavá (už dnes) - něco totiž dělá dodnes CPU, jiné úlohy encodingu je naopak vhodné svěřit GPU - a takto dojde k dalšímu ztransparentnění celého procesu.

+1
-2
-1
Je komentář přínosný?

Nu, určitě by z toho měly profitovat architektury typu HSA. Přidejte k tomu zakázkové koprocesory podle aplikace a budete chrochtat blahem (a zakázková divize AMD doufám taky).

+1
0
-1
Je komentář přínosný?

Ne s tim enkodovanim pres GPU nemas pravdu, nejde to ani dnes, pokud enkodujes na kvalitu a ne na rychlost. Intel QuickSync ani NVidia NVENC to neumi, poprve hovori AMD, ze behem letoska pridaji dvoupruchodove enkodovani v jejich VCE a uvidime, jakmile s tim vybehnou, zda to opravdu zvladli a kvalita bude dobra. Takze prave to enkodovani presne podporuje muj prispevek v tom, ze mame technologie ale nemame aplikace ci softwarove vrstvy pro vyuziti toho vykonu hardwaru, coz ovsem cini ten hardware zbytecnym.

+1
+1
-1
Je komentář přínosný?

no vidíš, ty bys přidával výkon CPU a další výkon GPU ti přijde zbytečný. Já to mám přesně obráceně :-). S videem nepracuji a na 4K hran9 nestačí ani 1080, zatímco na hry napsané v moderním API (DX12/Mantle) kde je značně zmenšený overhead, tak není ani to i7-6700 potřeba

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele BEGY

abys ten výkon využil, tak si pořídíš Eyefinity a můžeš pařit i na 200 fps :D

ale je pravdou že s jedním monitorem - tedy s rozlišením možná tak cca 1920x nebo 2560x už dnešní grafiky zas tak nepotrápíš

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Hlavně aby v té době obsah, který chceš na tom monitoru zobrazovat měl smysl.

+1
+1
-1
Je komentář přínosný?

v době kdy tohle přijde na trh bude normální zobrazovalo mít 8K ... takže ten nárůst je stále celkem dost nízký

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele johnthelittle

ja jsem jen zvedavej, kdy konecne prijde "CPU", ktere v jedne "kostce" bude mit cely zaklad PC + nake rozhrani...

+1
0
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

to už tu dnes je jako SoC, mají to oba, jak Intel, tak AMD - bohužel jen jako lowpower systémy typu Atom/Jaguar. Co chybí, je právě integrace (výkonné) RAM, což by umožnilo zvedat výkon integrované grafiky.

Osobně jsem zvědavý na Zenovská APU, zda "náhodou" něco takového nechystají. Byla by to totiž bomba.

+1
-1
-1
Je komentář přínosný?

Není myslím na místě očekávat od integrace HBM do CPU zázračné nárůsty výkonu, ten je stejně limitovaný spotřebou.

SOC s integrovanymi HBM stejně jen tak neuvidíme kvůli vysoké ceně HBM. Lowpower systémy jsou totiž většinou taky lowcost :-(

+1
0
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

No, s ohledem na to, že stávající AMD APU těží z rychlejších RAM, a to docela zásadně s každou stovkou MT/s, tak jsem v tomto ohledu docela optimista.

SoC jsou nízkovýkonová právě proto, že vysoký výkon by předpokládal použít alespoň 4-kanálový řadič, a to by zase znamenalo nárůst cen za kombo deska+CPU+RAM. Powerlimit tu samozřejmě je a bude, nicméně už konzolová APU docela jasně signalizují, že ono se to dá, a že to lze (vy)řešit.

+1
-2
-1
Je komentář přínosný?

HBM3 by mohli primo integrovat pod heatspreader do procesoru Intel-u a AMD, prvni by jej skvele vyuzil ke svym grafikam Iris a Iris Pro, druhy ku moderni a vykonne generaci CGN4.

+1
-1
-1
Je komentář přínosný?

Asi ti uslo, ze by museli komplet nakomplet prerobit pamatove rozhranie vsetkych APU, testovanie a vyrabat takto nove APU atd ... co by iste netrvalo nejake 2-3 mesiace, ked len odstranuju nejaky bug v instrukcnej sade. Momentalne su APU navrhnute tak, ze A) vyuzivaju RAM (Intel Iris Pro ma svoju velku cache) a B) su to pamate tyku DDR3/4.

AMD APU A10 9600 a A12 9700 (alias Carrizo na DDR4) nevysli hned v ten den jak zacali byt dostupne DDR4 a jak vysla najnovsia snobska platforma Intel sc. 2011 v3 na DDR4. A to bola len nahrada 2133 Gb/s/b DDR3 za 2400 Gb/s/b DDR4, teda z mojho pohladu vlastne uplne minimalna a uplne zbytocna znema. Radsej mohli rozsirit podporu DDR3 u Carrizo dalej za 2133 Mb/s/b (megabitov za sekundu na bit zbernice).

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.