Intel DG2-512 / top model grafiky Arc vypadá na papíře velmi dobře
Leaker Locuza shromáždil specifikace a údaje o architektonické konfiguraci GPU Intel DG2-512, kterým bude osazena nejvýkonnější grafická karta Intelu, jejíž vydání očekáváme v první polovině příštího roku. Parametry si můžeme srovnat s Radeon RX 6700 XT od AMD a GeForce RTX 3070 od Nvidie.
Začněme Radeonem. Arc od Intelu ponese 4096 výpočetních jednotek, což je o 60 % nad 2560 u Radeonu. Arc pravděpodobně poběží na trochu nižších taktech, takže výsledný rozdíl v aritmetickém výkonu asi bude spíš okolo 40 % (ve prospěch Arc). Stejné procentuelní rozdíly platí pro výbavu texturovacími jednotkami. ROP má Arc rovnou dvojnásobek a i při zohlednění taktovacích frekvencí je výsledný fillrate o více než 70 % vyšší. Širší má i paměťovou sběrnici (256bit oproti 192bit). Tu sice Radeon kompenzuje Infinity Cache (L3), ale nelze opomíjet, že Radeon disponuje pouze 3MB L2 cache zatímco Arc je vybaven rovnou 16MB, což už se kapacitně blíží nižším modelům Radeonů s Infinity Cache.
Intel Arc ??? | AMD Radeon RX 6700 XT | Nvidia GeForce RTX 3070 | |
---|---|---|---|
GPU | DG2-512 | Navi 22 | GA104 |
takt | >2,2 GHz | <2,6 GHz | ~1,9 GHz |
SP | 4096 | 2560 | 5888 |
FP32 | >18 TFLOPS | 13 TFLOPS | 23 TFLOPS |
RTU | 32 | 40 | 46 |
TMU | 256 | 160 | 184 |
texturing | >563 GT/s | 413 GT/s | 353 GT/s |
ROP | 128 | 64 | 96 |
fillrate | 282 GP/s | 165 GP/s | 184 GP/s |
L2 cache | 16 MB | 3 MB | 4 MB |
L3 cache | - | 96 MB | - |
sběrnice | 256bit | 192bit | 256bit |
VRAM | 16GHz GDDR6 8-16 GB | 16GHz GDDR6 | 14GHz GDDR6 |
propustnost | 512 GB/s | 384 GB/s | 448 GB/s |
Ve srovnání s GeForce RTX 3070 má Arc nižší aritmetický výkon (ten je v podstatě přesně mezi Radeonem a GeForce), ale o ~60 % vyšší texturovací výkon a o ~55 % vyšší fillrate. K tomu navíc 4× větší L2 cache a rychlejší paměti při stejné sběrnici.
Ve většině parametrů je tedy Arc od Intelu dost výrazně na Radeonem RX 6700 XT i GeForce RTX 3070. Při srovnání s Radeonem se skoro sluší srovnávat spíš s RX 6800, neboť ten je papírově mnohem blíž. Namátkou: 3840 stream-procesorů (4096 u Arc), 96 ROP (128 u Arc), 256bit sběrnice (256bit u Arc).
V základních charakteristikách tedy Arc rozhodně strádat nebude. Nebýt zvěstí o výkonu konkurenceschopném nanejvýš Radeonu RX 6700 XT a GeForce RTX 3070, by se z těchto čísel dalo usuzovat, že půjde o produkt rychlejší než GeForce RTX 3070 Ti, který by měl alespoň dorovnávat Radeon RX 6800. Vypadá to, že nejen ovladače, ale i architektura budou mít notné rezervy - na čemž by s ohledem na první pokus Intelu nebylo nic moc zvláštního.
Otázkou (byť spíše řečnickou či akademickou) je, jaké podstaty tyto rezervy budou. Rezervy totiž mohou být různého charakteru. Například když vývojový tým při pokládání základních kamenů návrhu podstřelí nebo přestřelí, jak rychle (i jakým směrem) se budou požadavky her / 3D grafiky ubírat. Pokud podstřelí a ještě dojde ke zpoždění, může situace dopadnout tak, že architektura bude celkem efektivní ve starých hrách, ale každá další herní novinka bude znamenat nový hřebíček do rakve dané produktové řady. Příkladem může být nechvalně legendární GeForce FX od Nvidie, jejíž základy spočívaly na architektuře pro Shader Model 1.x, zatímco v době jejího vydání již začaly vycházet hry s Shader Model 2.x (což sice architektura formálně podporovala, ale s velmi slabým výkonem).
Opačnou situací může být přestřelení. Toho se dopustil ATi / AMD například u R600 / Radeonů HD 2900 XT. Pomineme-li bug ROP jednotek, který srážel výkon v anti-aliasingu, byl největší slabinou karty příliš velký důraz na vysoký aritmetický výkon (unifikované jádro) a nízký důraz na fixní jednotky (texturovací jednotky a ROP). S příchodem novějších her se sice pozice této generace začala zlepšovat, ale v rychlém sledu přišlo několik generací levných povedených výrobních procesů a tudíž i několika generací levných a povedených grafických karet, které měly podstatně zajímavější poměr spotřeba / výkon, takže chování této architektury v nových hrách přestalo většinu zákazníků rychle zajímat.
V poslední době se začíná proslýchat, že grafické karty Intelu jsou podstatně více zpožděné, než se zprvu předpokládalo. Ne že by měly vyjít později než v současně očekávaném prvním pololetí 2022, ale že původní plán vydání počítal s rovnou o několik let dřívějším datem. Daly by se najít indicie, které by něco takového mohly potvrzovat - vzpomeňme na prvotní zprávy o samostatných GPU Intelu, jež hovořily o postavení samostatných čipů z architektur vyvinutých pro integrované grafiky (přitom doba, kterou příprava zabrala, je nakonec stejná jako u AMD či Nvidie při vývoji kompletně nové generace - první zprávy se objevily 4,5 roku před nyní očekávaným vydáním). Další indicii můžeme vidět ve zprávách vysvětlujících potíže kolem 10nm výrobního procesu, podle kterých byl proces původně koncipován pro potřeby samostatných GPU (orientovaný na denzitu, nikoli na taktovací frekvence) a ne na CPU, která na něm s rozumnými výsledky nebylo možné vyrábět. Jenže za nezdary s 10nm procesem byla ředitelka výroby Intelu Renee James vyhozena již v roce 2015, což by ukazovalo, že plány na samostatné GPU jsou skutečně letité.
V tomto kontextu se velmi vysoký fillrate i velmi vysoký texturovací výkon Arc jeví, jako by DG2-512 původně nebyla navržena jako mainstreamové GPU pro rok 2022, ale spíš jako high-endové GPU pro rok 2018-2020, které potkala řada odkladů v důsledcích problémů s procesem i vývoje většího čipu, než na jaký byla architektura původně navržená pro integrovaná GPU určena.
Locuza aj.